text
stringlengths
100
665k
id
stringlengths
10
15
url
stringclasses
1 value
climate_prob
float64
0.5
1
source
stringclasses
2 values
VOCAL SIGNAL DIGITAL PROCESSING. INSTRUMENT FOR ANALOG TO DIGITAL CONVERSION STUDY Ovidiu-Andrei Schipor 1schipor@eed.usv.ro Universitatea "Ştefan cel Mare" Suceava Str. Universităţii nr.9720225SuceavaRomania Felicia-Florentina Gîză Universitatea "Ştefan cel Mare" Suceava Str. Universităţii nr.9720225SuceavaRomania VOCAL SIGNAL DIGITAL PROCESSING. INSTRUMENT FOR ANALOG TO DIGITAL CONVERSION STUDY PCM methodvocal signalssignal representation The goal of this article is to present interactive didactic software for analog to digital conversion using PCM method. After a short introduction regarding vocal signal processing we present some method for analog to digital conversion. The didactic software is an applet that can be direct accessed by any interested person. 1.Prelucrarea numerică a semnalelor Procesarea numerică de semnal (PNS) se referă la o varietate de tehnici de îmbunătăţire a acurateţei şi siguranţei comunicaţiilor digitale. Teoria care stă la baza prelucrării numerice de semnal este suficient de complexă, însă la baza acestei tehnici de procesare se găseşte stabilirea şi standardizarea nivelelor şi a stărilor unui semnal digital. Semnalele analogice reprezintă o mărime care se modifică in mod continuu (de exemplu intensitatea sonoră a unui ton). În schimb, semnalele digitale pot prelua numai anumite valori (discrete), de exemplu valorile 0 şi 1 respectiv "sub tensiune" sau "fără tensiune". Toate circuitele de comunicaţie conţin zgomot. Acest lucru este valabil indiferent dacă semnalele sunt analogice sau digitale şi indiferent de tipul de informaţie transmis. Zgomotul este principala sursă de neplăceri pentru inginerii de comunicaţie care încearcă mereu să găsească noi metode de îmbunătăţire a raportului semnal/zgomot (S/N) în sistemele de comunicaţie. Metodele tradiţionale de optimizare a raportului semnal/zgomot includ creşterea puterii semnalului transmis şi creşterea sensibilităţii receptorului de semnal. Principalul avantaj al utilizării semnalelor digitalizate este că orice prelucrare ulterioară a acestora este în principiu lipsită de pierderi de informaţie (numerele nu sunt afectate de zgomot iar precizia calculelor poate fi matematic controlată). Un sistem de prelucrarea numerică a semnalelor îndeplineşte în esenţă un ansamblu de operaţii şi anume: -conversia semnalului analogic în semnal numeric prelucrarea semnalului numeric obţinut -conversia semnalului numeric prelucrat în semnal analogic. Dacă un semnal de intrare este analog, acesta este mai întâi convertit într-o formă digitală de un convertor analog-digital (CAD). Semnalul rezultat are două sau mai multe nivele. Ideal, aceste nivele sunt cunoscute exact, reprezentând curenţi sau tensiuni. Totuşi, deoarece semnalul de intrare conţine zgomot, nivelele nu sunt întotdeauna egale cu valorile standard. Circuitele de prelucrare a semnalului ajustează aceste nivele astfel încât să reprezinte valorile corecte. De fapt acestea elimină zgomotul. 2.Tehnici de conversie analog-numerică Conversia analogică digitală este un proces electronic în care un semnal variabil continuu în timp şi amplitudine (analog) este transformat (cu o eroare controlată), într-un semnal digital. Intrarea unui convertor analogic digital (CAD) constă într-un nivel de tensiune care variază într-un interval infinit de valori. Exemple sunt: formele de undă sinusoidale, formele de undă care reprezintă vorbirea umană, semnalele de la o cameră video etc. Semnalele digitale sunt propagate mult mai eficient decât semnalele analogice, în mare parte datorită faptului că impulsurile digitale, care sunt foarte bine definite şi ordonate, sunt mult mai uşor de deosebit de zgomot, care este haotic. Acesta este avantajul principal al modurilor de comunicare digitală. 2.1.Modulaţia în cod a impulsurilor (PCM) Marele progres în fabricarea componentelor electronice, în special a circuitelor înalt integrate şi cel mai înalt integrate, îl reprezintă utilizarea frecventă a tehnicii numită Pulse Code Modulation (PCM -modulaţia impulsurilor în cod) în tehnica informaţiilor şi în electronică, precum şi în electronica de divertisment, ca de exemplu la video-disc şi la discul digital (compact-disc). PCM este unul din cele mai vechi şi conceptual cele mai simple procese de conversie de la analogic la digital utilizate în semnalele vocale şi video. În cazul modulării în cod a impulsurilor (PCM), semnalele care se prelucrează (de exemplu tonuri sonore) nu se prezintă sub forma oscilaţiilor, ci sub forma numerelor binare formate din mai mulţi biţi care au fost obţinute ca rezultat al eşantionării şi cuantizării cursului oscilaţiilor. Eşantionarea are loc de cele mai multe ori cu ajutorul unui aşa-numit circuit sample-and-hold (eşantionare-şi-menţinere) care înregistrează mărimile continue de intrare (de exemplu valorile tensiunii unei oscilaţii electrice) sub formă de semnale periodice de foarte scurtă durată. Semnalul format prin eşantionare este transformat apoi într-o mărime digitală de ieşire prin intermediul unităţilor de cuantizare şi codare. Cu ajutorul modulării în cod a impulsurilor (PCM) este posibilă recunoaşterea, acoperirea sau corectarea transmiterii erorilor in cazul transmiterii semnalului. Valorile răspunzătoare de erori pot fi eliminate prin prelucrarea semnalului şi înlocuire prin media valorilor corecte învecinate. 2.2.Modulaţia numerică diferenţială În cadrul modulaţiei numerice diferenţiale (DNUM), în locul informaţiei despre un anumit eşantion se transmite o informaţie despre diferenţa dintre acesta şi un eşantion determinat prin predicţie. Cele mai cunoscute tehnici de modulaţie numerică diferenţială sunt: -modulaţia diferenţială a impulsurilor în cod (DPCM) la care sunt generate doar diferenţele dintre amplitudini consecutive (în acest mod se diminuează rata de transfer necesară); -modulaţia delta (M) la care se generează un singur bit de diferenţă între amplitudini succesive (acest bit indică creşterea / descreşterea eşantionului curent faţă de eşantionul precedent). 2.2.Modulaţia numerică adaptativă În cadrul modulaţiei numerice adaptive (ADPCM) se realizează corespondenţa de la eşantion la alfabet funcţie de istoria semnalului. În acest scop se constituie o stare S n a sistemului în intervalul nT, iar corespondenţa între valoarea eşantionului x(nT) şi valoarea discretă y k se va face ţinând cont şi de această stare. Acest procedeu de modulaţie este cel mai eficient. 3.Conversia analog-numerică prin metoda PCM 3.1.Eşantionarea Fie x a (t) un semnal analogic (continuu în timp) şi {t n } n o mulţime numărabilă de valori reale distincte ordonate (t n < t m dacă n < m). Eşantionarea este transformarea semnalului x a (t) în semnalul discret x[n] definit prin relaţia: x[n] = x a (t n ) (1) Eşantionarea uniformă este dată de relaţia: x[n] = x a (nT) (2) unde T>0 este perioada de eşantionare, iar t n = n*T. Figura 1. Eşantionarea (semnal sinusoidal, doua perioade, 20 eşantioane) Prin eşantionare reţinem numai valorile continue în amplitudine şi discrete în timp. În mod ideal, eşantionarea nu are ca rezultat o pierdere de informaţie şi nici nu introduce distorsiuni în semnal dacă sunt respectate condiţiile teoremei eşantionării. Un semnal analogic poate fi refăcut din eşantioanele sale dacă a fost eşantionat la o frecvenţă de cel puţin două ori mai mare decât lărgimea de bandă a semnalului analogic (lărgimea de bandă = frecvenţa superioară -frecvenţa inferioară). De exemplu, pentru muzică, al cărui domeniu de frecvenţe se situează între 20 si 20 000 Hz (limitele analizatorului auditiv uman), sunt necesare deci cel puţin 40 000 de eşantioane pe secundă. Pentru compact-disc, semnalul se eşantionează, de exemplu, cu 44 100 de eşantioane pe secundă si astfel sunt reţinute tot atât de multe valori pe secundă. Vocea umană, poate fi redată optim prin sunete cu frecvenţe cuprinse între 100 şi 8.000 Hz.(limitele aparatului fonoarticulator). Acesta este motivul pentru care sistemele de telefonie au o gamă de frecvenţe de răspuns relativ îngustă, eliminând sunetele de înaltă frecvenţă. Drept rezultat, sunetul înregistrat de un sistem de recunoaştere a vorbirii poate fi eşantionat la o rată minimă de numai 8kHz, cu toate că 16kHz ar putea oferi rezultate mai bune, dacă sistemul dispune de suficientă putere de procesare şi de stocare de date. La ieşirea dispozitivului de eşantionare se obţine o secvenţă de impulsuri. Amplitudinea fiecărui impuls este proporţională cu amplitudinea semnalului de intrare analogic în momentul eşantionării. Din acest motiv, acest pas se numeşte modulaţie de amplitudine a impulsurilor. 3.1.Cuantizarea Cuantizarea reprezintă transformarea semnalului continuu în amplitudine şi discret în timp într-un semnal discret în timp şi în amplitudine. Este un proces ireversibil care transformă amplitudinile notate cu x[n] sau x a [nT] în valori y k dintr-un set finit de valori. Fie D domeniul semnalului de intrare. Acesta este împărţit în L intervale: I k = {x k < x[n] <= x k+1 }, k = 1, 2 … L (3) Având în vedere acest lucru, se obţin nivelele de cuantizare notate cu y 1 , y 2 ...y k astfel: x q [n] = Q(x[n]) = y[n] = y k , pentru x[n]  I k. , iar Q(x[n]) reprezentând intervalul I k în care se găseşte x[n]. numărului de nivele de cuantizare necesită o rată de transfer mai mare. Gama dinamică (diferenţa de volum dintre cel mai slab şi cel mai puternic sunet) pentru vocea umană este mult mai mică decât pentru muzica de înaltă calitate. În cele mai multe cazuri este nevoie de doar 8 biţi pe eşantion cu toate că rezultatele sunt mult mai bune în cazul folosirii a 16 biţi pe eşantion, care este şi numărul de biţi caracteristic CD-urilor audio. Diferenţele dintre ratele de eşantionare şi numărul de biţi pot avea un impact major asupra cantităţii de date pe care calculatorul trebuie să o proceseze. O secundă de sunet digital la 8 kHz şi 8 biţi pe eşantion înseamnă doar 8.000 octeţi de date. Aceeaşi secundă de sunet digital la 16 kHz şi 16 biţi înseamnă de patru ori mai multe date: 32.000 octeţi. Standardul pentru CD-uri audio, de 44 kHz şi 16 biţi, înseamnă că o secundă de sunet necesită un spaţiu de stocare de 88.000 octeţi. Pentru rezultate superioare, cuantizarea nu ar trebui efectuată uniform. Unele semnale sunt de amplitudini joase, iar altele sunt de amplitudini ridicate. În practică, cuantizarea este neuniformă, existând mai multe nivele de cuantizare pentru amplitudinile care predomină în cadrul semnalului. Pentru o transmisie a semnalelor inteligibilă şi de o calitate acceptabilă a comunicaţiei se poate realiza reducerea vitezei de kbit/s cu algoritmi de codare şi de cuantizare vectorială. Scopul acestor algoritmi este de a transmite, memora şi sintetiza semnalul vocal de o calitate dată, utilizând mai puţini biţi. Această reducere este realizată eliminând redundanţa din semnalul vocal 4. Instrument didactic pentru studiul conversiei analog-numerice prin metoda PCM Apletul a fost realizat utilizând limbajul Java, versiunea Sun SDK 1.4. O parte din clasele utilizate au fost realizate de către autori în cadrul bursei de studiu ERASMUS-SOCRATES EUDIL-Lille Franta. Interfaţa este realizată utilizând clasele din pachetul Abstract Window Toolkit.Diferenţa dintre x[n] şi x q [n] se numeşte eroare de cuantizare sau zgomot de cuantizare: e q = x[n] -x q [n] (5) Eroarea de cuantizare nu poate depăşi o jumătate din pasul de cuantizare: 2   ≤ e q ≤ 2  (6) unde  = pas de cuantizare. În cazul în care eroarea de cuantizare depăşeşte limitele admise, trebuie mărit numărul de nivele de cuantizare. Figura 2. Cuantizarea (8 nivele de cuantizare) 3.3.Codarea Codarea este procesul prin care fiecărei valori discrete x q [n] i se atribuie o secvenţă egală cu b biţi. Pentru codificarea celor k nivele de cuantizare posibile sunt necesari log 2 k biţi. Apropierea necesară faţă de procesul oscilatoriu reclamă o gradare fină a valorilor măsurătorilor rezultate prin eşantionare, rezultând deci şiruri relativ lungi de biţi (lungimi de cuvinte). Astfel, printr-o lungime de cuvânt de 4 biţi, pot fi redate numai 7% din procesele oscilatorii. Figura 3. Codificarea (în cazul folosirii a 16 nivele de cuantizare) Pentru un semnal cu frecvenţa de eşantionare de f Hz şi k nivele de cuantizare este necesară o rată de transfer: RT = f * log 2 k bps (7) De exemplu pentru transmiterea unui semnal eşantionat cu rata de eşantionare de 8 KHz şi codat pe 8 biţi (adică are 256 nivele de cuantizare) este necesară o rată de transfer de 64 Kbps. Se observă că o creştere a Prin conversia analog-numerică, semnalul continuu este eşantionat şi cuantizat, fiecare nivel obţinut fiind reprezentat printr-un cuvânt binar care se aplică la intrarea sistemului de prelucrare numerică. Această primă fază a prelucrării numerice este realizată cu convertoare specializate analognumerice şi este deosebit de importantă, deoarece prin aproximările pe care le efectuează, contribuie la precizia de calcul şi la raportul semnal zgomot final. Apletul permite generarea unui semnal periodic nesinusoidal pe baza primelor 6 armonici. Ulterior, acest semnal este convertit numeric, pas cu pas, evidenţiindu-se aspectele esenţiale. Apletul se utilizează în modul următor. Apletul permite generarea unui semnal periodic nesinusoidal pe baza primelor 6 armonici. Ulterior, acest semnal este convertit numeric, pas cu pas, evidenţiindu-se aspectele esenţiale. Apletul se utilizează în modul următor: Se introduc coeficienţii A1…A6 (sin) şi B1…B6 (cos) ai primelor 6 armonici ale semnalului analogic. Se introduc coeficienţii A1…A6 (sin) şi B1…B6 (cos) ai primelor 6 armonici ale semnalului analogic. Se introduce frecvenţa armonicii fundamentale (F1) în format mantisă -ordin de marime. Se introduce frecvenţa armonicii fundamentale (F1) în format mantisă -ordin de marime Se introduce numărul de perioade (Perioade) ale armonicii fundamentale ce se doresc vizualizate. Se introduce numărul de perioade (Perioade) ale armonicii fundamentale ce se doresc vizualizate. Se introduce componenta constantă (U_ctn). Se introduce componenta constantă (U_ctn). Se introduce numărul eşantioanelor de timp (Eşantioane). Se introduce numărul eşantioanelor de timp (Eşantioane). Se introduce numărul de biţi utilizaţi pentru cuantizare (Biţi). Se introduce numărul de biţi utilizaţi pentru cuantizare (Biţi). Se apasă butonul <OK> pentru a vizualiza semnalul analogic. Se apasă butonul <OK> pentru a vizualiza semnalul analogic. Butoane de ajutor: <Autorii> şi <Ajutor>. Opt butoane permit o mai bună vizualizare a graficelor. ^ , V , &gt; , &lt; -Pentru Deplasarea Graficului, Se apasă butoanele <înainte> şi <înapoi> pentru vizualizarea succesivă a etapelorSe apasă butoanele <înainte> şi <înapoi> pentru vizualizarea succesivă a etapelor. Butonul <RST> permite aducerea apletului în starea iniţială. Butoane de ajutor: <Autorii> şi <Ajutor>. Opt butoane permit o mai bună vizualizare a graficelor: -^ , v , > , < -pentru deplasarea graficului; pentru zoom pozitiv şi negativ pe axa OX (a timpului) şi OY (a valorii semnalului. -X+ , X- , Y+ , Y- , -X+ , X-, Y+ , Y-pentru zoom pozitiv şi negativ pe axa OX (a timpului) şi OY (a valorii semnalului). Pentru o utilizare rapidă (fără introducere de date) se poate selecta un exemplu: -sinusoidă -un semnal sinusoidal pe 2 perioade; -triunghiular -un semnal triunghiular pe 2 perioade; -dreptunghiular -un semnal dreptunghiular pe 4 perioade. Pentru o utilizare rapidă (fără introducere de date) se poate selecta un exemplu: -sinusoidă -un semnal sinusoidal pe 2 perioade; -triunghiular -un semnal triunghiular pe 2 perioade; -dreptunghiular -un semnal dreptunghiular pe 4 perioade; -o perioadă -un semnal oarecare pe o perioadă. -o perioadă -un semnal oarecare pe o perioadă. Comunicaţii digitale avansate. Kamilo Dr, Feher, Editura Tehnică. Dr. Kamilo Feher (1993) -Comunicaţii digitale avansate, Editura Tehnică, Bucureşti, Romania Constantin Ioan, Marghescu Ion, Transmisiuni analogice şi digitale. Bucureşti, RomaniaConstantin Ioan, Marghescu Ion (1995) -Transmisiuni analogice şi digitale, Editura Tehnică, Bucureşti, Romania Măsurări electrice şi electronice. Cornelia Marcuta, Mihai Creţu, Editura Tehnică-Info. Cornelia Marcuta, Mihai Creţu (2002) -Măsurări electrice şi electronice, Editura Tehnică-Info, Chişinău, Republica Moldova Error rate characteristics of oversampled analog to digital conversion. Zoran Cvetkovic, Martin Vetterli, IEEE Transactions on Information Theory. 445Zoran Cvetkovic, Martin Vetterli (2004) -Error rate characteristics of oversampled analog to digital conversion, IEEE Transactions on Information Theory vol.44, nr. 5 Current techniques of measurement, acquisition and processing test data. A L Wicks, Department of Mechanical Engineering Virginia Tech site-uri webA.L. Wicks (2003) -Current techniques of measurement, acquisition and processing test data, 2003, Department of Mechanical Engineering Virginia Tech site-uri web
sample_252
0.7722
arxiv
Artificial intelligence for Sustainability in Energy Industry: A Contextual Topic Modeling and Content Analys Tahereh Saheb t.saheb@modares.ac.ir Mohammad Dehghani mohamad.dehqani@modares.ac.ir Management Studies Center Industrial and Systems Engineering Tarbiat Modares University TehranIran Tarbiat Modares University Tehran Iran Artificial intelligence for Sustainability in Energy Industry: A Contextual Topic Modeling and Content Analys Research Assistant Professor, Science & Technology Studies Group, 1 Corresponding Author 2Artificial intelligencesustainabilityenergytopic modelingcontent analysissustainable energy Parallel to the rising debates over sustainable energy and artificial intelligence solutions, the world is currently discussing the ethics of artificial intelligence and its possible negative effects on society and the environment. In these arguments, sustainable AI is proposed, which aims at advancing the pathway toward sustainability, such as sustainable energy. In this paper, we offered a novel contextual topic modeling combining LDA, BERT and Clustering. We then combined these computational analyses with content analysis of related scientific publications to identify the main scholarly topics, sub-themes and cross-topic themes within scientific research on sustainable AI in energy. Our research identified eight dominant topics including sustainable buildings, AI-based DSSs for urban water management, climate artificial intelligence, Agriculture 4, convergence of AI with IoT, AI-based evaluation of renewable technologies, smart campus and engineering education and AI-based optimization. We then recommended 14 potential future research strands based on the observed theoretical gaps. Theoretically, this analysis contributes to the existing literature on sustainable AI and sustainable energy, and practically, it intends to act as a general guide for energy engineers and scientists, AI scientists, and social scientists to widen their knowledge of sustainability in AI and energy convergence research.On May 29th 2021, we searched the following keywords inside the title, keyword, and abstract: "artificial intelligence" OR "AI" AND "sustainable" OR "sustainability" AND "energy". This search resulted in the retrieval of 981 documents. Following that, we restricted the document type to Articles and the language toEnglish. This exclusion resulted in 296 articles. Following that, we manually evaluated the titles and abstracts of the articles to identify the most pertinent ones that examined the role of artificial intelligence in ensuring the energy sector's sustainability. This screening yielded 182 publications spanning the years 2004 to 2022.Given that abstracts of research articles are the most succinct summary of key ideas [22], we included abstracts of the final publications in the study's corpus.Preprocessing and Post-Processing StagesPython 3.7.9 was utilized for pre-and post-processing, as well as for topic modeling analysis. We preprocessed our corpus using the NLTK and Scikit-learn packages, as well as Regular Expressions or RegEX. We import the word tokenize from the NLTK to begin the tokenization process. After removing punctuation, we lowercased our characters and deleted all numeric characters, punctuation, and whitespace.Additionally, we eliminated no-word repetitions and anything enclosed in parenthesis. Additionally, we eliminated the NLTK library's stopwords.We reviewed the first findings and created a manual exclusion list for more relevant topic identification during the postprocessing step. We added the core keywords (i.e. artificial intelligence, AI, energy, sustainable, sustainability) in the exclusion list to enhance the coherence of the findings. We used stemming throughout the preprocessing step; however, after observing the first results, we decided to remove the stemming to make the words displayed in the word clouds more understandable. We next used the lemmatization procedure, which we abandoned following the findings of the word clouds in order to make our topic labeling approach more comprehensible. Additionally, we estimated the TF-IDF score for each word in the corpus. We eliminated words with scores that were lower than the median of all TF-IDF values. We calculated the TF-IDF scores using the Scikit-learn package. The maximum TF-IDF score was set to 0.8 and the minimum value at 0.11. Additionally, we incorporated unigrams and bigrams.Topic ModelingWe applied the following libraries to conduct the topic modeling: Pandas to read the dataset, Gensim to perform LDA, Transformers to perform BERT, Keras to perform auto-encoding, and Seaborn and Matplotlib to visualize the results. We imported the TFID vectorizer from the Scikit-learn feature extraction and KMeans from the Scikit-learn cluster. The probabilistic topic assignment vector was constructed using LDA, while the sentence embedding vector was constructed using BERT. To begin, we used the TF-IDF, Introduction The rise of unsustainable practices and procedures co-occurred with the rising urbanization and civilization have driven the emergence of AI-based solutions to assist the path toward sustainability [1][2][3]. Excessive consumption and unsustainable energy sources, which have increased at an unprecedented rate due to factors such as urbanization, improper building construction, transportation, environmental changes, and population growth, have pressured the energy industry to pursue clean energy sources and smart solutions [4]. The deployment of alternative energy sources and access to sustainable energy are pillars of global economic growth [5] and fight against environmental hazards, in particular climate change [6]. Thus, the energy sector has focused its efforts not only on developing new sources of energy, but also on inventing novel technical solutions that increase the efficiency of existing mitigation measures [7]. AI-based interventions, which are available in the form of both hard and soft solutions, such as robots and algorithms and models, are one of these solutions that have come to assist humanity [8]. Artificial intelligence can provide a wide range of intelligent solutions, from predictive and prescriptive energy consumption insights to intelligent energy generation and distribution. Parallel to the escalating discussions over sustainable energy and artificial intelligence solutions, the world is now debating the ethics of artificial intelligence and its potentially negative effects on society and the environment. Ethical AI considers not just AI's moral dimensions, but also its epistemic perspectives [9]. While prior studies have urged scholars to focus on the epistemological aspects of sustainable AI and to open the black box of algorithms to develop sustainable models and algorithms [10], other researches have concentrated on AI for social good and its favorable societal and environmental circumstances [11,12]; such as the development of sustainable AI. In this article, we define sustainable AI as AI that is designed to achieve sustainability and is called AI for sustainability, as differed from AI that is designed to be sustainable and is called sustainability of AI [10]. In this paper, the term "sustainable AI" refers to the extent to which artificial intelligence can help society accomplish their sustainability goals [13,14]. The energy industry is one of the core industries that will benefit from sustainable AI, which will aid in the development of energy sustainability [15]. Sustainable energy strives to fulfill today's energy demand without depleting energy supplies or harming the environment. Sustainable energy systems are regarded as a requirement for achieving all the Sustainable Development Goals (SDGs) [16]. Sustainable artificial intelligence can help to expedite the development of sustainable energy [14]. To advance sustainable energy, the industry has supplied a wide variety of choices, including wind energy, fossil fuels, solar energy, and bioenergy. It's also vital to recognize how academics have dealt with the confluence of sustainability, artificial intelligence, and energy. This research is novel from various perspectives. First, this study intends to foster discussions on sustainable AI by identifying the most important research issues in the area, highlighting intellectual gaps, and proposing potential research streams. It is obvious that the energy sector and scientific research and innovation are inextricably linked. Scientific research is seen to be the cornerstone of technological advancements [17]. Identifying the intellectual frameworks of scientific research across time and the historical progression of its themes can have a huge influence on the effectiveness or failure of new technological solutions. To our knowledge, scientific research on sustainable energy is lacking a coherent understanding of how artificial intelligence has been integrated into this domain and how it should be conducted in the future. It is therefore imperative to perform a mixed-method literature review to have a deeper understanding of the deployment of AI to achieve sustainable energy in order to identify existing research gaps and potential future research streams. The second aspect of this research that distinguishes it from prior research is its novel methodology. Extensive literature reviews are conducted by scholars using bibliometric methodologies [18][19][20] or topic modeling techniques such as Latent Dirichlet Allocation (LDA) [21,22] or qualitative content analysis [23]. As a result, we incorporated all the aforementioned review methodologies to ensure that their findings were complementary. Furthermore, because both bibliometric and LDA topic modeling are based on keyword cooccurrence analysis, we included a contextual embedding-based topic modeling analysis that incorporates use of sentences as fundamental units of analysis. This method which is the latest development in natural language processing (NLP) is offered by Google under the name of Bidirectional Encoder Representations for Transformers (BERT) [24] . BERT makes use of the Transformer library, which uses machine learning to discover contextual relationships between words in a text. Our integrated adoption of computational and advanced topic modeling tools, as well as qualitative analysis, enables us to gain highly objective, coherent, superior, and meta-analytical insight into present research on sustainable artificial intelligence in energy and to forecast its future. The final contribution of this research is that we offer a thorough list of research gaps and potential research agendas that may be used to increase the depth of research on sustainable artificial intelligence in the energy industry In sum, the theoretical contribution of this research is to extent the literatures on sustainable AI and sustainable energy by determining the key academic themes, sub-themes and cross-topic common themes addressed by scientists working on sustainable AI in energy, as well as how these subjects have evolved over time. Practically, this research attempts to enlighten policymakers, the energy sector, and engineers and developers of artificial intelligence about the productivity of science while emphasizing the challenges that require more AI-based responses. Additionally, it encourages policymakers to design artificial intelligence regulations that promote the development of sustainable AI in the energy sector while mitigating the unintended consequences of unsustainable energy sources and AI solutions. 4 The study is structured as follows: we begin with an explanation of our methodology and then go on to the findings, which include our topic modeling and content analysis of topics. We conclude the study by discussing our findings, theoretical research gaps, and potential future research directions. We also discussed the theoretical and practical contribution of the study. We conclude the paper with a conclusion. Methodology It is a widely held belief among researchers that each quantitative and qualitative research technique has inherent strengths and weaknesses; hence, combining both methods is advised to ensure that their results complement one another. We drew on and included four complimentary sets of research methodologies in our study. Three of these, BERT, LDA topic modeling and clustering are connected with text mining techniques. Additionally, we supplemented these quantitative findings with a qualitative topic-based content analysis. Our mixed-methods approach is new in three ways. First, we employed computational approaches such as BERT, LDA, and clustering to discover the thematic content of research on sustainable AI in energy. Second, we conducted a comprehensive analysis of the retrieved topics using content analysis as a qualitative approach. Third, we integrated LDA and BERT topic modeling approaches in this study to achieve the highest level of topic identification accuracy. Our suggested mixed-method methodology may be used by researchers from a variety of disciplines to improve our understanding of quantitative and computational analyses through the use of topic-based content analysis. LDA is predicated on the premise that documents are made of topics and that some words are more likely to occur in certain topics than others (Xie et al., 2020). While LDA has been regularly used by academics to identify topics, it does have some limitations due to the fact that it is a word co-occurrence analysis and so cannot incorporate the entire content of the sentence. Additionally, it does not do well on short texts [26]. Additionally, the outcomes of LDA may be challenging for humans to comprehend and consume [27]. By contrast, BERT topic modeling is focused on detecting semantic similarity and integrating topics with pretrained contextual representations [28] It substantially enhances the coherence of neural topic models by including contextual information into the topic modeling process [29]. BERT makes use of the Transformer library, which has an Autoencoder technique: an encoder that scans the text input. We combined the LDA and BERT vectors in this study to improve topic recognition and clustering. Moreover, because one of the most difficult aspects of word-sentence embedding is dealing with high dimensions, we applied the Uniform Manifold Approximation and Projection (UMAP) approach. In comparison to other approaches, UMAP is one of the most efficient implementations of manifold learning [30]. order to balance the information content of each vectors. We incorporated the Keras package to process the auto-encoder in order to learn a lower-dimensional latent space representation for the concatenated vector. To ensure the clusters were of good quality, we calculated the Silhouette Score, which was 0.566 and near to one for LDA+BERT+ Clustering. TFIDF+clustering received a score of 0.048, while BERT+clustering received a score of 0.095 ( Figure 2). The Silhouette Score is used for cluster quality [31]. The score ranges from -1 to 1. If the score is near to one, the cluster is dense and well isolated from neighboring clusters. In comparison to other topic modeling techniques, LDA BERT Clustering is closer to 1, indicating that the clusters are of excellent quality. The final topic identification obtained by LDA+BERT+Clustering Algorithms is depicted in Figure 3. We utilized the UMAP package to do dimension reductions and set the topic count to eight. We also evaluated several topic clustering, including 10, 4, and 6. The authors determined that eight topics were better separated from one another and had a greater density within each topic; this demonstrates the excellent quality of clustering. As indicated by the percentage of documents contained inside each topic, approximately 11% of documents belong to topic 0 and approximately 16% to topic 1. Clustering resulted in a balanced distribution of documents within each topic, confirming the clustering's excellent quality. TF-IDF Clustering BERT LDA Figure 3 The global view of the topic model on sustainable AI in energy research area. We integrated LDA, BERT and clusetering for topic modeling detection. uncovered eight different topics. These topics will be described, and then a content analysis of the papers that are associated with each one will be carried out throughout this part of the article. Results Descriptive Analysis These articles were organized according to their relative likelihood of belonging to each topic. As seen in The word cloud visualization ( Figure 6.0) shows the identified topics after labeling based on the topic three keywords. The Figure 6 shows that the first three most-used terms in each subject are as follows: Topic 1(building, consumption, environment); topic 2 (design, water, decision); topic 3 (building, climate, fuel); topic 4 (decision, agriculture, improve); topic 5 (IoT, devices, consumption); topic 6 (urban, technology, industrial); topic 7 (engineering, efficiency, students); topic 8 (optimization, efficient, building). Figure 4 The distribution of documents across topics The evolution of topics over time Once we scoured the corpus for hidden topics, we determined how often they appear throughout time. however, topic reached its apex in 2019 and 2020. The topic of AI for energy efficiency has shown a reasonably steady increase from 2013, with its greatest growth occurring between 2020 and 2021. In 2020, significant academic focus was given to AI-based DSSs for urban water management. Content analysis to detect topics, sub-themes and cross-topic common themes In this part of the paper, we conducted content analysis of detected topics for three purposes: First, to detect the general topics from articles; second, to identify the sub-themes from each topic, and third to find the cross-topic common themes. Topic 1: Sustainable Buildings and Energy Consumption The primary concerns of topic 1 are related to the design of automated and intelligent systems and the incorporation of cutting-edge technologies, particularly IoT and AI-based DSSs, in order to construct sustainable buildings. These buildings will be part of the sustainable cities initiative, which aims to promote sustainable energy consumption and smart grids. One of the primary scholarly interests is the creation of sustainable buildings and smart grids for the purpose of reducing energy consumption. One way to accomplish this aim is to redefine the design and architecture of buildings, whether residential, public, commercial, industrial, or manufacturing. According to studies, the application of automation and intelligent systems in the construction of sustainable buildings will result in sustainable energy usage [32,33]. Several AI-based approaches are proposed to achieve a more sustainable building, including building management systems, knowledge-based engineering (KBE), fuzzy logic, neural [34]. From a broad standpoint, sustainable building development falls under the umbrella of sustainable smart cities and reducing building energy consumption [35]. Additionally, scholars have drawn inspiration from nature and advocated regenerative design influenced by nature for pattern detection, prediction, optimization, and planning of buildings [36]. Additionally, scholars discuss the potential of AI in reducing CO2 emissions in buildings, suggesting that AI may be used to construct smart multi-energy systems, such as those found in industrial districts, resulting in significant energy savings and CO2 emission reductions (Simeoni, Nardin and Ciotti, 2018 ). As a result, sustainable building design would be a way to combat climate change. Several additional studies integrate AI solutions with other cutting-edge technologies, most notably the Internet of Things and big data, to improve not only the design and optimization of sustainable buildings, but also the efficiency of their power usage (Chui, Lytras and Visvizi, 2018). For instance, one project focused on the application of IoT in public buildings in order to discover and anticipate energy usage trends [39]. A preceding study, for illustration, outlines the obstacles involved in understanding the semantics of IoT devices using machine learning models. Image Encoded Time Series has been identified as an alternate method to other statistical feature-based inference [35]. Sustainability analysts from [40] and [41] studies have also advocated for continual monitoring of sustainability metrics by integrating AI with DSSs or ambient intelligence. Both residential buildings and plants and commercial buildings and offices have the same issue in regard to energy usage. Previous studies incorporated multi-objective and multi-attribute decision making modeling as well as impact evaluation of the emission outputs to help designers and manufacturers to make environmentally sustainable decisions about the designs and production of facilities [42]. Researchers also believe that in order to provide bulk energy consumption forecast, control, and management, simulation techniques could be utilized [15], for instance in public buildings, offices and factories. Due to new modes of consumption and distributed intelligence, the electrical power grids have been also influenced, and as a result, smart energy grids have been generated to achieve sustainability [43]. Topic 2: AI-based DSSs for Sustainable Urban Water Management The second topic is sustainable water management, which includes utilizing AI to create DSSs for consumption and water usage. Forecasting, real-time monitoring, and customized and adjustable pricing and tariffs are the primary strategies. AI is used with other sophisticated technologies to assist in the development of a smart city. The previous studies have postulated several approaches, such as optimization and AI-based decision support systems, for water infrastructure management [44], better delivery of public services of smart cities such as water treatment and supply [45], AI-based water pricing and tariff options [46] and sustainable water consumption [47]. For this goal, AI is integrated with recent technological advances in urban life. This includes using open source data, employing deep learning algorithms, and developing smart street lighting systems. Such decisions about social impacts of smartphone applications or smart travel behavior are also examined [48]. AI techniques are utilized to anticipate water resource management [49], such as water quality by adopting algorithms such as neuro-fuzzy inference system [50]. Real-time optimization of water resources and cloud technologies are integrated with visual recognition techniques and created to improve efficiency with irrigation systems [51]. A study conducted on ecological water governance implementation using AI found that including algorithms into the system yields higher-quality information and better prediction models for accurate evaluation of water quality [52]. AI may be used for tracking water use and demand as well as forecasting water quality, but it can also be used for estimating water infrastructure maintenance, monitoring dam conditions, water-related diseases and disasters [53] and water reuse [54]. By critiquing conventional decision support systems, research offer alternatives based on artificial intelligence, such as a systematic decision process [55], sustainability ranking framework based on Mamdani Fuzzy Logic Inference Systems to develop a sustainable desalination plant [56] or an comprehensive and flexible decision-making process fueled by social learning and engagement aimed at ensuring the urban water system's environmental and energy sustainability [57]. One research offers a unique DSS for analyzing the energy effect of each of the urban water cycle's macro-sectors, including assessing the system's energy balance and proposing potential energy-efficient solutions ( Puleo et al., 2016). Topic 3: Climate Artificial Intelligence (Climate Informatics) Climate informatics, specially climate artificial intelligence as a new field of study is concerned with issues such as AI-based DSSs to reduce greenhouse gas emissions, optimizing grid assets, enhancing climate resiliency and reliability, increasing energy efficiency, forecasting energy consumption and modeling earth systems. Moreover, within this topic, scholars have addressed the issue of explainable and trustworthy AL models due to the controversial nature of climate change. Climate change has compelled societies to seek alternate energy sources and fuels [59]. Climate informatics [60], such as several AI-based solutions, including novel algorithms and DSSs, have been hugely beneficial in lowering greenhouse gas emissions in the energy sector. By improving grid assets, and strengthening climate adaptability these innovations have greatly contributed to this ultimate goal [15]. Reliable and explainable artificial intelligence models, as advocated in prior studies, might help stakeholders and decision-makers achieve climate-resilient and sustainable development goals [61]. By integrating advanced machine learing techniques, AI can propose fresh insights in complex climate simulations in the field of climate modeling [62]. Energy consumption patterns might undergo considerable changes due to climatic change, which means AI forecasts can aid in estimating future energy use for various climate scenarios [63]. It's not only businesses and other organizations that are using AI algorithms these days-AI algorithms are also being utilized to foster sustainable urban growth and mitigate climate change by examining how future urban expansion will affect material and energy flows [64]. Fossil fuel, used as the primary energy source, is the primary contributor to human greenhouse gases that influence the climate. AI is extensively utilized for decreasing carbon footprints and for avoiding fossil fuel combustion [65] as prior studies show that AI can act as an automated carbon tracker [66]. Artificial intelligence-powered technologies may help investors in analyzing a company's climate effect while making investment choices [67]. By drawing attention to climate change through visualization techniques, they help to educate the public on the effects of climate change [68] Ultimately, AI algorithms may provide great resources for climate change conflicts, including in the field of modeling earth systems [69], teleconnections [70], weather forecasting ( McGovern and Elmore, 2017), future climate scenarios [72], climate impacts [73] and climate extremes [74]. Topic 4: Agriculture 4.0 and Sustainable Sources of Energy The fourth area that academics in the field of sustainable AI for energy extensively address is the development of smart agriculture and sustainable energy sources. The primary issue in this subject is how to combine advanced technologies like IoT, drones, and renewable energy with AI in order to create automated and real-time systems. According to some researchers, the agriculture industry is suffering from an insufficient application of responsible innovation [75]. As a result, the researchers are calling for a system referred to as Responsible Agriculture 4.0, which incorporates drones, IoT, robotics, vertical farms, AI, and solar and wind power linked to microgrids [76][77][78]. When it comes to the productivity of agriculture, factors such as the cost of energy for cultivation are equally significant [79]. Based on the premise that most agricultural machinery operates on fossil fuels, it may potentially contribute to climate change. Thus, new energy solutions, and AI-based approaches are provided. One way in which bioproduction and renewable energy may positively influence sustainable agriculture and farming is via the development of bioproduction and renewable energy [80]. Proposing new AI methods to forecast agricultural energy use has also been researched [79]. biomass may also be used to provide sustainable energy in agriculture, and care should be taken to avoid any injuries [81]. Real-time alerting systems, AI-based DSSs, real-time DSS forecasting models, and alternative energy sources such as solar and wind play a vital role in sustainable agriculture [82]. Maximizing agricultural production and economic stabilization while minimizing the use of natural resources and their harmful environmental consequences may be accomplished using renewable energy and AI [82]. Artificial intelligence enables academics to provide accurate forecasts of agricultural energy use [83]. Especially, a drastic shift toward sustainability in agricultural practices has occurred because of its confluence with other cutting-edge 14 technology, including sensors, DSSs, greenhouse monitoring, intelligent farm equipment, and drone-based crop imaging. [84]. 15 AI is used in tandem with a number of cutting-edge technologies for sustainable energy development, such as improved energy conservation [85] and building intelligent energy management [86] such as building management systems [35]. Internet of Things (IoT) is one of the most promising and pervasive technologies [85]; whose integration with AI has generated a revolution in the energy sector. There are many functions in creating sustainable energy in the IoT-enabled smart city dubbed City 4.0 [87] such as simulation and optimization of power plant energy sustainability [86]. City systems such as water and electricity, as well as other infrastructures, such as data analytics, will be driven by sensor and data collection in the smart city [87]. A significant use of IoT is in the design of intelligent buildings, which with AI included may support a goal of energy or water conservation [39,88], for instance, by educating the citizens on how to use energy more effectively and giving them warnings if they are using excessive amounts of energy. [89]. IoT is integral to modern grid development as well. In particular, it seeks to transform the traditional, fossil-fuel-based power grids with distributed energy resources and integrate it with cutting-edge technology such as artificial intelligence for improved grid management [90]. In the same manner, Blockchain has also been considered to be a viable alternative for smart cities. Fusing blockchain with AI may be leveraged for smart services, including energy load forecasting, categorizing customers, and evaluating energy load [91]. Smart connected devices such as IoT devices have successfully employed blockchain in time to retain these devices safe and secure in a blockchain network [92]. The effect of IoT and AI on agriculture and food sectors is also substantial [93,94]. Manufacturing facilities such as food factories and plants may be transformed more intelligent and more environmentally friendly via the use of IoT and AI, which merge with nonthermal and advanced thermal technologies [94]. Sustainable and green IoT are other topics covered in this subject. The two main objectives of the literature on green IoT are to increase the recyclability and usefulness of IoT devices, as well as to minimize the carbon footprints of such devices. The second objective is to incorporate more effective life cycle assessment (LCA) methods integrating artificial intelligence (AI) in order to cut costs and time [95]. Another of the many topics that apply to IoT is with developing smart campuses, which are carbon neutral, energy efficient, use less water, and are laced with various high-quality green energy tools [96] and smart teaching and learning platforms [97]. Researchers have identified the positive traits of IoT devices, but they've also forewarned about the possible risks of the devices and proposed various techniques for detecting weaknesses [93] or challenges regarding the heterogeneity of smart devices and their associated meta-data [35]. Topic 6: AI-based Evaluation of Renewable Energy Technologies Scholarly interest has been generated by the discussion of leveraging AI for DSSs to enhance the efficiency of conventional system evaluations for renewable energy technologies. To a great extent, a sustainable future will depend on maximizing the use of energy sources that cannot be depleted [98]. Artificial intelligence is important for the survival of the future by leveraging a wide range of renewable energy technologies such as biomass energy, wind energy, solar energy, geothermal energy, hydro energy, marine energy, bioenergy, hydrogen energy, and hybrid energy [99]. AI is used to evaluate renewable energy solutions based on their cost of energy production, carbon footprint, affordability of renewable resources, and energy conversion efficiency [100]. Artificial intelligence will ensure the most effective use of these resources while also pushing for improved management and distribution systems [14]. Distributed energy management, generating, forecasting, grid health monitoring, and fault detection are also made more efficient by using automated AI systems [101]. AI can help disperse the supply and demand of energy in real-time and improve energy consumption and storage allocation (Sun, Dong and Liang, 2016). To mitigate against the barrier of utilizing renewable energy technology, the following measures are taken: Renewable energy sustainability is evaluated [103]; in addition, the turbulent and sporadic character of renewable energy data is addressed [104]. One research group claims that standard techniques such as LCA and EIA (Environmental Impact Assessment) may be improved by developing more advanced digital intelligent decision-making systems, or DSSs. It is feasible that improved assessments of renewable energy sources may be achieved via intelligent and automated technologies [105]. With the smart mechanisms in place, long-term detrimental consequences can be calculated, as well as visible and invisible factors [106]. Artificial intelligence (AI) increases the adaptability of power systems, providing DSSs for energy storage applications [107]. For instance, to ensure more use of battery-electric buses, and minimize the effect on the power grids, the researchers developed an AI-powered DSS [108]. Another research leveraged AI to create a DSS for forecasting future energy consumption patterns, and to provide a solution for utilizing renewable energy alternatives [109]. Topic 7: Smart Campus & Engineering Education It is possible to break down the discussions inside this topic into two distinct types: those about engineering education and those which deal with using AI and IoT to construct intelligent campuses to help maintain sustainability objectives. The two themes represent two elements of education: one dealing with the learning contents, and the other with behavioral outcomes of developing smart campuses.To build a model of smart campuses, we should focus on incorporating IoT into the infrastructure, with subsequent implementations of smart apps and services, with smart educational tools and pedagogies and smart analysis as well [97]. A smart campus is in charge of energy consumption scheduling, while its telecommunications infrastructure serves as the place where data transfers are conducted [110]. Integrating cutting-edge technology, a smart campus captures real-time data on energy usage, renewable energy power generation , air quality, and more [111]. Another point of view is that higher education should equip itself with relevant skills and competences to help in realizing long-term sustainable objectives [112]. The energy sustainability in this respect may be addressed via engineering education and engineering assistance for high-level strategic decision-making [113]. This objective can be achieved by using innovative instructional programs, alongside cutting-edge technology such as artificial intelligence and the Internet of Things. A living lab campus equipped with technology, as well as a deep well of talent and competency, may serve as a digital platform for education and sustainable growth [114]. For illustration, to support ongoing research, teaching, and learning on sustainable development, the University of British Columbia (UBC) implemented the Campus as a Living Laboratory project, which included AI and IoT and other cutting-edge technologies [115]. Furthermore, there have been several research done to help AI seamlessly integrate with current educational institutions in order to aid in sustainable development learning [116]. Topic 8: AI for Energy Optimization Conventional optimization methods may be a roadblock for making progress toward sustainability, and AIbased solutions can help eliminate such roadblocks. Whilst renewable energy sources, like solar and wind, have many merits, there are some downsides to consider. They are usually not always available and often rely on the climate, which renders employing them complicated [117]. A proper optimization of energy may be utilized to minimize greenhouse gas emissions and cut energy usage. Efforts to reduce costs and side effects of energy consumption are facilitated using optimization models [118]. Computational and intelligent resources have enabled academics to progress with optimization problems by employing advanced AI methods. Manufacturers have developed numerous energy-efficient appliances for this reason. Even if the deployment of digital technologies in buildings will likely lead to improved energy efficiency, that is not the sole solution. Studies recommend implementing energy-saving measures that don't just target environmental variables, but also include building inhabitants' comfort and preferences, which is achievable via the integration of AI-augmented algorithms [119]. For illustration, AI algorithms that not only monitor current actions but also give real-time alerts and warnings to users and providers allow optimization to be significantly accelerated. Some approaches, such as algorithms that use energy consumption data to lower energy costs in buildings that use advanced AI, are only one example of how AI and advanced technology may be used to benefit society [120]. Weather has a direct effect on energy consumption, which is indisputable. To ensure the winter heating demand of non-residential buildings was calculated correctly, researchers used an optimized artificial neural network method to determine and forecast this need [121]. By utilizing AI along with the use of smart metering and non-intrusive load monitoring, one may improve energy efficiency by evaluating the electricity use of appliances [38]. Using a new approach, researchers found that the GP model was capable of making accurate predictions and a multi-objective genetic algorithm, NSGA-II, was also capable of optimizing sustainable building design [32]. The use of a fuzzy-enhanced energy system model to represent a route to a sustainable energy system has also been presented in another research [122]. The views of other researchers in the field include techniques based on artificial neural networks, evolutionary algorithms, swarm intelligence, and their hybrids, all of which rely on biological inspiration. These findings imply that sustainable energy development is computationally challenging conventional optimization, demanding advanced techniques [123]. Discussion, Theoretical Gaps, and Future Strands of Research To For topic 1, the key problems are the importance of sustainable buildings for smart city development and smart grid services. The issue of AI and its application in decision-making, pricing, forecasting, and sustainable consumption are all addressed in this topic. To reach sustainability, various cutting-edge technologies are tied to AI. One problem which may be especially neglected is the use of AI technology to make buildings eco-friendlier and enhance their inhabitants' feeling of accountability toward sustainability. One approach might be to design real-time warning systems to ensure people are prohibited from excessive energy use, while also ensuring that they benefit from the AI-based solutions. Convergence research may also explore how green architecture is uniquely enabled to deal with complex issues, including environmental efficiency, such as using eco-lighting, natural ventilation, shading, green roofs, and artificial intelligence. Most of prior research focuses on eco-design and overlooks other factors of green architecture. However, there is a dearth of distributed energy resource optimization models, particularly due to the emergence of blockchain. Figure 6 Identified cross-topic common themes As shown in Figure 8, we discovered six core problems that were prevalent throughout the majority of the topics. For example, tariff and price models based on artificial intelligence are prevalent in topics 1 and 2; while economic issues in general are a concern in topics 4, 6, and 8. The dilemma of sustainable consumption is prevalent in all of these topics, demonstrating the critical role of AI in attaining sustainable energy use. Forecasting is inextricably connected to sustainable consumption, since more than half of the topics cover both; demonstrating the progress of AI forecasting algorithms for sustainable consumption. Forecasting, on the other hand, is not restricted to anticipating consumption patterns. The topic's second significant recurring theme is the development of AI-based DSSs. The majority of research have contested traditional DSSs and devised decision-making systems based on artificial intelligence. Sustainable building, urban water management, climate change, and renewable energy evaluation have all been substantially influenced by AI-based DSSs. Automated and real-time systems enabled by artificial intelligence are also discussed in relation to buildings, agriculture, the Internet of Things, and renewable energy technologies. Scholars have combined various digital technologies to promote sustainability in the energy sector via the management of buildings, water, agriculture, IoT, and smart campuses. Theoretical and Practical Contribution Theoretical Contribution Our results supplement existing work on sustainable AI and sustainable energy by delivering the following results. Results from this study provide and highlight a thematic map of the sustainable AI research topics existing in several fields, such as energy, ethics, and management. We developed a novel mixed-method approach, the contextual topic modeling and content analysis, to visualize the latent knowledge structures pertaining to AI and sustainability and energy. This yielded in a conceptual framework representing the main topics, subtopics and common terms in each topic pertaining to sustainable AI in energy. Using LDA and BERT, eight themes related to AI in the sustainability and energy sectors were discovered. We provided the most likely terms for each topic, as well as the distribution of articles and topics throughout time. Finally, by using a thematic analysis method, we identified and qualitatively analyzed the hidden themes. Second, we examined and analyzed hidden sub-themes within each topic, as well as common themes between topics, using a content analysis method. Figure 8 illustrates the sub-domain themes within each topic, whereas Figure 9 depicts the common cross-topic themes. Our content analysis of each topic reveals six recurring themes: sustainable consumption, AI-based DSSs, forecasting models, economic and pricing problems, automated and real-time systems, and convergence with digital technology. To further our knowledge, we highlighted how these themes intersect across topics in order to articulate the commonalities across topics. These six separate but related topics demonstrate that sustainable AI solutions can be observed at a range of behavioral, decision-making, economic, operational, and technical dimensions. At the behavioral level, shifts in consumption patterns are illustrated; at the decision-making level, decision automation is outlined; at the economic level, personalized tariffing is demonstrated; at the operational level, automation and real-time operations are addressed; and at the technological level, convergence with other technologies is studied. Practical Implications This research provides energy engineers, social scientists, scientists, and policymakers with a variety of insights. Engineers may develop sustainable energy products and services. Energy scientists can also integrate sustainability considerations into their research and development of new energy sources such as renewable energy. In their discussions on AI and energy, social scientists may also emphasize ethical problems, including sustainability. Additionally, policymakers may create and construct new laws and policy initiatives aimed at mitigating the harmful effects of unsustainable energy on society and the environment. Conclusion To discover heavily discussed scholarly topics, our study utilized a new topic modeling technique. While this illustration depicts the trajectory of previous efforts, it also prompted us to propose a number of possible future research strands targeted at increasing energy sector sustainability via the application of artificial intelligence technology. The aim of this study is to further the conversation on sustainable AI and energy, as well as their intersection, in order to get a deeper understanding of how AI may be incorporated to achieve sustainability in the energy sector. Figure 1 Figure 2 12The concatenating and encoding LDA and BERT vectors to extract contextual topics The separate and independent results of topic modeling of research on sustainable AI in energy by using TF-IDF, BERT and LDA algorithms Figure 3 . 30 shows a representation of the topic model on sustainable AI in energy research field with respect to the overall global view. This visualization represents the topic modeling results, where topics are illustrated as clusters on a two-dimensional plane. Also shown in Figure 4 is the word cloud visualization of the topics with the most frequently used terms in each topic. Topics 1, 2, and 3 represent the greatest research interest in the model based on 8 topics and including 21.67%, 17.22%, and 15.0% of the corpus. Our research Figure 4 . 40, the three most-covered topics by academia are topic 1: Sustainable buildings (22.5%), Topic 2: AIbased DSSs for urban water management (16.5%) and Topic 3: Climate Artificial Intelligence (14.8%). About 54% of the articles in the corpus are concerned with these three themes. Figure 5 5depicts the ratios of all the eight topics (beginning in 2004 and extending into 2021). Since 2018 forward, topics have garnered a substantial amount of academic interest. Specifically, the first topic, which is about the design of sustainable buildings and minimizing energy usage via the application of artificial intelligence. This subject gained considerable attention between 2012 and 2014, but then slipped off the spotlight between 2015 and 2018. The discussions about AI-based evaluation of renewable energy solutions peaked around 2008 but then became less prominent until 2019. Climate artificial intelligence experienced two distinct phases, with the second one peaking in 2015 and 2016 and the first between 2009 and 2012; Figure 5 5The evolution of topics over time Figure 6 6Topics detected by the combination of LDA+BERT+Clustering algorithms on sustainable AI in energy sector identify the relevant research topics in the literature on artificial intelligence for sustainability in the energy industry, we performed a contextual topic modeling combined with qualitative cluster analysis. We went beyond previous approaches in developing this novel analysis by combining three algorithms of topic modeling (LDA, BERT, and clustering) with content analysis. In this research, eight academic topics were discovered including sustainable buildings and energy consumption, AI based DSSs for sustainable urban water management, climate artificial intelligence, agriculture 4.0 and sustainable sources of energy, convergence of IoT and AI for sustainable smart cities, AI-based evaluation of renewable energy technologies, smart campus and engineering education and AI for energy optimization. Concerns and problems addressed in each topic are summarized in Figure 7. The Figure illustrates that each topic addresses a number of specific issues, which some of them overlap. Figure 7 7Possible future streams of research pertaining to each topic networks, genetic algorithms, and Monte-Carlo simulationTopic 1: Sustainable Buildings and Energy Consumption Topic 2: AI-based DSSs for Sustainable Urban Water Management Topic 3: Climate Artificial Intelligence Topic 4: Agriculture 4.0 and Sustainable Sources of Energy Topic 5: Convergence of IoT & AI for Sustainable Smart Cities Topic 6: AI-based Evaluation of Renewable Energy Technologies topic 7: Smart Campus & Engineering Education Topic 8: AI for Energy Optimization Convergence of IoT & AI for Sustainable Smart CitiesA significant step in the implementation of sustainable energy solutions is to implement smart cities and services using internet of things technology. This topic exhibits how AI and IoT operate together to drive environmental progress. Much of this topic focuses on measure such as smart buildings, smart grid systems, green IoT, and smart campuses.Topic 1: Sustainable Buildings and Energy Consumption Topic 2: AI-based DSSs for Sustainable Urban Water Management Topic 3: Climate Artificial Intelligence (Climate Informatics) Topic 4: Agriculture 4.0 and Sustainable Sources of Energy Topic 5: Convergence of IoT & AI for Sustainable Smart Cities Topic 6: AI-based Evaluation of Renewable Energy Technologies Topic 7: Engineering Education & Smart Campus Topic 8: AI for Energy Optimization 16 Topic 5: future study area is the confluence of smart grids, renewable energy, and 5G technology, since these technologies have the potential to generate enormous volumes of big data. Furthermore, the use of AI in transportation seems worthy of analysis, for example, with regard to traffic predictions, public transit planning, and so on.The agricultural 4.0 and sustainable energy sources are examined in Topic 4. Many problems relevant to the subject of "prosperity, sustainable consumption, forecasting, and convergence with other automated and realtime technologies" are covered in this topic. There is only a limited body of studies dedicated to precision farming and digital mapping, but both developments promise to lead to better knowledge of the environment and to improved energy management. Precision farming by assessing soil nutrients, detecting humidity in the air, and monitoring crops allows farmers to leverage digital maps for better energy management and fight against climate change. Other related areas of study include developing automated working environments. It is worthwhile to investigate the effect that artificial intelligence and other green technologies will have onthe working conditions of farmers and farm operators, since AI may help with deeper speculations of working conditions in farms.In Topic 5, convergent IoT and AI technologies for smart city development were addressed. The primary goal of this topic was to discuss issues around sustainable consumption, LCA analysis, and the development of intelligent energy grids. Pervasive Wi-Fi connection, due to its ability to save energy, is critical in this subject. Additionally, a significant problem is open data sharing in energy management. AI-based assessment of renewable energy technologies, such as DSSs, financial problems, sustainable consumption, and automated and real-time systems are all issues in this topic that focus on renewable energy. One potential study path in this topic involves the challenges that AI algorithms and models face when attempting to evaluate renewable energy solutions. Other sophisticated AI systems, such as deep learning, make use of supervised learning using human-annotated data, and thus they are limited when it comes to complicated situations.The subject of smart campus and engineering education is examined in the seventh topic. Labs that facilitate continuous innovation are discussed in this article, as well as the idea of sustainable consumption, AI skills, and convergence with other technologies. There is an imperative requirement for further research to clarify how AI might be leveraged for practical learning and training for a range of stakeholders across businesses, farmers, residents, and employees in relation to energy management. AI is discussed in relation to energy optimization in Topic 8 of the study. This subject covers many elements of sustainable optimization, including forecasting, consumption, affordable pricing, and societal and financial impacts.Topic 2 addresses sustainable urban water management via the use of AI-based DSSs. Conventional DSSs were under criticism from academics who suggested alternatives, and innovative approaches to DSSs were revealed, particularly with regard to water utilities in a smart city. The second discussion point, focused on sustainable consumption and real-time and predictive modeling, is also addressed in topic 2. Mitigating urban problems, notably air pollution, waste management, and wastewater management, are applicable here to exemplify how smart energy management leveraging AI improves environmental sustainability. Topic 3 deals with the connection between climate change and artificial intelligence, and the emergence of the climate informatics field. This topic highlights the role of trustworthy of explainable AI algorithms, an issue which is marginalized in other topics. As a result, a future potential study direction may be the development of ethical artificial intelligence in other topics to help with the sustainable management of energy. One prospective Figure 5 Sub-themes extracted from each topic Taxonomy research of artificial intelligence for deterministic solar power forecasting. Energy Convers. H Wang, Y Liu, B Zhou, C Li, G Cao, N Voropai, E Barakhtenko, Wang, H.; Liu, Y.; Zhou, B.; Li, C.; Cao, G.; Voropai, N.; Barakhtenko, E. Taxonomy research of artificial intelligence for deterministic solar power forecasting. Energy Convers. Manag. 2020, 214, 112909. Artificial intelligence for time-efficient prediction and optimization of solid oxide fuel cell performances. Energy Convers. V Subotić, M Eibl, C Hochenauer, 10.1016/j.enconman.2020.113764Subotić, V.; Eibl, M.; Hochenauer, C. Artificial intelligence for time-efficient prediction and optimization of solid oxide fuel cell performances. Energy Convers. Manag. 2021, 230, 113764, doi:10.1016/j.enconman.2020.113764. The eco-city and its core environmental dimension of sustainability: green energy technologies and their integration with data-driven smart solutions. S E Bibri, 10.1186/s42162-020-00107-7Energy Informatics. 2020Bibri, S.E. The eco-city and its core environmental dimension of sustainability: green energy technologies and their integration with data-driven smart solutions. Energy Informatics 2020, 3, 1-26, doi:10.1186/s42162-020-00107-7. Integrating renewable sources into energy system for smart city as a sagacious strategy towards clean and sustainable process. A T Hoang, V V Pham, X P Nguyen, 10.1016/j.jclepro.2021.127161J. Clean. Prod. 305127161Hoang, A.T.; Pham, V.V.; Nguyen, X.P. Integrating renewable sources into energy system for smart city as a sagacious strategy towards clean and sustainable process. J. Clean. Prod. 2021, 305, 127161, doi:10.1016/j.jclepro.2021.127161. Opportunities and challenges for a sustainable energy future. S Chu, A Majumdar, Nature. 488Chu, S.; Majumdar, A. Opportunities and challenges for a sustainable energy future. Nature 2012, 488, 294-303. The role of renewable energy technological innovation on climate change: Empirical evidence from China. B Lin, J Zhu, 10.1016/j.scitotenv.2018.12.449Sci. Total Environ. 659Lin, B.; Zhu, J. The role of renewable energy technological innovation on climate change: Empirical evidence from China. Sci. Total Environ. 2019, 659, 1505-1512, doi:10.1016/j.scitotenv.2018.12.449. Predicting energy consumption in multiple buildings using machine learning for improving energy efficiency and sustainability. A D Pham, N T Ngo, T T Ha Truong, N T Huynh, N S Truong, 10.1016/j.jclepro.2020.121082J. Clean. Prod. 260121082Pham, A.D.; Ngo, N.T.; Ha Truong, T.T.; Huynh, N.T.; Truong, N.S. Predicting energy consumption in multiple buildings using machine learning for improving energy efficiency and sustainability. J. Clean. Prod. 2020, 260, 121082, doi:10.1016/j.jclepro.2020.121082. Energy modeling of a solar dish/Stirling by artificial intelligence approach. A Khosravi, S Syri, J J G Pabon, O R Sandoval, B C Caetano, M H Barrientos, 10.1016/j.enconman.2019.112021Energy Convers. Manag. Khosravi, A.; Syri, S.; Pabon, J.J.G.; Sandoval, O.R.; Caetano, B.C.; Barrientos, M.H. Energy modeling of a solar dish/Stirling by artificial intelligence approach. Energy Convers. Manag. 2019, 199, 112021, doi:10.1016/j.enconman.2019.112021. The ethics of AI in health care: A mapping review. J Morley, C C V Machado, C Burr, J Cowls, I Joshi, M Taddeo, L Floridi, Soc. Sci. Med. 113172Morley, J.; Machado, C.C.V.; Burr, C.; Cowls, J.; Joshi, I.; Taddeo, M.; Floridi, L. The ethics of AI in health care: A mapping review. Soc. Sci. Med. 2020, 260, 113172. Sustainable AI: AI for sustainability and the sustainability of AI. A Van Wynsberghe, 10.1007/s43681-021-00043-6AI Ethics. 13van Wynsberghe, A. Sustainable AI: AI for sustainability and the sustainability of AI. AI Ethics 2021, 1, 3, doi:10.1007/s43681-021-00043-6. AI4People-An Ethical Framework for a Good AI Society: Opportunities, Risks, Principles, and Recommendations. Minds Mach. L Floridi, J Cowls, M Beltrametti, R Chatila, P Chazerand, V Dignum, C Luetge, R Madelin, U Pagallo, F Rossi, 10.1007/s11023-018-9482-528Floridi, L.; Cowls, J.; Beltrametti, M.; Chatila, R.; Chazerand, P.; Dignum, V.; Luetge, C.; Madelin, R.; Pagallo, U.; Rossi, F.; et al. AI4People-An Ethical Framework for a Good AI Society: Opportunities, Risks, Principles, and Recommendations. Minds Mach. 2018, 28, 689-707, doi:10.1007/s11023-018- 9482-5. How to Design AI for Social Good: Seven Essential Factors. L Floridi, J Cowls, T C King, M Taddeo, 10.1007/s11948-020-00213-5Sci. Eng. Ethics. 26Floridi, L.; Cowls, J.; King, T.C.; Taddeo, M. How to Design AI for Social Good: Seven Essential Factors. Sci. Eng. Ethics 2020, 26, 1771-1796, doi:10.1007/s11948-020-00213-5. The role of artificial intelligence in achieving the Sustainable Development Goals. R Vinuesa, H Azizpour, I Leite, M Balaam, V Dignum, S Domisch, A Felländer, S D Langhans, M Tegmark, F Fuso Nerini, Nat. Commun. 11Vinuesa, R.; Azizpour, H.; Leite, I.; Balaam, M.; Dignum, V.; Domisch, S.; Felländer, A.; Langhans, S.D.; Tegmark, M.; Fuso Nerini, F. The role of artificial intelligence in achieving the Sustainable Development Goals. Nat. Commun. 2020, 11, 1-10. Renewable energy: Present research and future scope of Artificial Intelligence. S K Jha, J Bilalovic, A Jha, N Patel, H Zhang, Renew. Sustain. Energy Rev. 77Jha, S.K.; Bilalovic, J.; Jha, A.; Patel, N.; Zhang, H. Renewable energy: Present research and future scope of Artificial Intelligence. Renew. Sustain. Energy Rev. 2017, 77, 297-317. Artificial intelligence in sustainable energy industry: Status Quo, challenges and opportunities. T Ahmad, D Zhang, C Huang, H Zhang, N Dai, Y Song, H Chen, J. Clean. Prod. 125834Ahmad, T.; Zhang, D.; Huang, C.; Zhang, H.; Dai, N.; Song, Y.; Chen, H. Artificial intelligence in sustainable energy industry: Status Quo, challenges and opportunities. J. Clean. Prod. 2021, 289, 125834. A review of dominant sustainable energy narratives. Renew. Sustain. Energy Rev. 2021, 144, 110955. 17. deS. Price, D. The science/technology relationship, the craft of experimental science, and policy for the improvement of high technology innovation. E Holden, K Linnerud, B J Rygg, 10.1016/0048-7333Res. Policy. 1384Holden, E.; Linnerud, K.; Rygg, B.J. A review of dominant sustainable energy narratives. Renew. Sustain. Energy Rev. 2021, 144, 110955. 17. deS. Price, D. The science/technology relationship, the craft of experimental science, and policy for the improvement of high technology innovation. Res. Policy 1984, 13, 3-20, doi:10.1016/0048- 7333(84)90003-9. Analyzing and visualizing knowledge structures of health informatics from 1974 to 2018: A bibliometric and social network analysis. T Saheb, M Saheb, Healthc. Inform. Res. 25Saheb, T.; Saheb, M. Analyzing and visualizing knowledge structures of health informatics from 1974 to 2018: A bibliometric and social network analysis. Healthc. Inform. Res. 2019, 25, 61-72. Understanding the development trends of big data technologies : an analysis of patents and the cited scholarly works. T Saheb, T Saheb, 10.1186/s40537-020-00287-9J. Big. 2020Saheb, T.; Saheb, T. Understanding the development trends of big data technologies : an analysis of patents and the cited scholarly works. J. Big Data 2020, doi:10.1186/s40537-020-00287-9. Paradigm of IoT big data analytics in the healthcare industry: A review of scientific literature and mapping of research trends. T Saheb, L Izadi, 10.1016/J.TELE.2019.03.005Telemat. Informatics. Saheb, T.; Izadi, L. Paradigm of IoT big data analytics in the healthcare industry: A review of scientific literature and mapping of research trends. Telemat. Informatics 2019, doi:10.1016/J.TELE.2019.03.005. Artificial intelligence in marketing: Topic modeling, scientometric analysis, and research agenda. M Mustak, J Salminen, L Plé, J Wirtz, 10.1016/j.jbusres.2020.10.044J. Bus. Res. 124Mustak, M.; Salminen, J.; Plé, L.; Wirtz, J. Artificial intelligence in marketing: Topic modeling, scientometric analysis, and research agenda. J. Bus. Res. 2021, 124, 389-404, doi:10.1016/j.jbusres.2020.10.044. Discovering IoT implications in business and management: A computational thematic analysis. M S Delgosha, N Hajiheydari, M Talafidaryani, 10.1016/j.technovation.2021.102236102236Technovation 2021Delgosha, M.S.; Hajiheydari, N.; Talafidaryani, M. Discovering IoT implications in business and management: A computational thematic analysis. Technovation 2021, 102236, doi:10.1016/j.technovation.2021.102236. A systematic review of the smart energy conservation system: From smart homes to sustainable smart cities. H Kim, H Choi, H Kang, J An, S Yeom, T Hong, Renew. Sustain. Energy Rev. 110755Kim, H.; Choi, H.; Kang, H.; An, J.; Yeom, S.; Hong, T. A systematic review of the smart energy conservation system: From smart homes to sustainable smart cities. Renew. Sustain. Energy Rev. 2021, 140, 110755. Pre-training of deep bidirectional transformers for language understanding. J Devlin, M W Chang, K Lee, K Toutanova, Bert, Proceedings of the NAACL HLT. the NAACL HLTDevlin, J.; Chang, M.W.; Lee, K.; Toutanova, K. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the NAACL HLT 2019 -2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies -Proceedings of the Conference. Association for Computational Linguistics1Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies -Proceedings of the Conference; Association for Computational Linguistics (ACL), 2019; Vol. 1, pp. 4171-4186. Monolingual and multilingual topic analysis using LDA and BERT embeddings. Q Xie, X Zhang, Y Ding, M Song, 10.1016/j.joi.2020.101055J. Informetr. 2020101055Xie, Q.; Zhang, X.; Ding, Y.; Song, M. Monolingual and multilingual topic analysis using LDA and BERT embeddings. J. Informetr. 2020, 14, 101055, doi:10.1016/j.joi.2020.101055. Topic modeling over short texts by incorporating word embeddings. J Qiang, P Chen, T Wang, X Wu, Proceedings of the Lecture Notes in Computer Science. the Lecture Notes in Computer Scienceincluding subseriesQiang, J.; Chen, P.; Wang, T.; Wu, X. Topic modeling over short texts by incorporating word embeddings. In Proceedings of the Lecture Notes in Computer Science (including subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics); Topic and keyword re-ranking for LDA-based topic modeling. Y Song, S Pan, S Liu, M X Zhou, W Qian, Proceedings of the International Conference on Information and Knowledge Management. the International Conference on Information and Knowledge ManagementSong, Y.; Pan, S.; Liu, S.; Zhou, M.X.; Qian, W. Topic and keyword re-ranking for LDA-based topic modeling. In Proceedings of the International Conference on Information and Knowledge Management, Proceedings; 2009; pp. 1757-1760. N Peinelt, D Nguyen, M Liakata, Tbert, Topic Models and BERT Joining Forces for Semantic Similarity Detection. Association for Computational LinguisticsPeinelt, N.; Nguyen, D.; Liakata, M. tBERT: Topic Models and BERT Joining Forces for Semantic Similarity Detection.; Association for Computational Linguistics (ACL), 2020; pp. 7047-7055. Pre-training is a Hot Topic: Contextualized Document Embeddings Improve Topic Coherence. F Bianchi, S Terragni, D Hovy, Bianchi, F.; Terragni, S.; Hovy, D. Pre-training is a Hot Topic: Contextualized Document Embeddings Improve Topic Coherence. 2020. UMAP: Uniform Manifold Approximation and Projection for Dimension Reduction. L Mcinnes, J Healy, J Melville, McInnes, L.; Healy, J.; Melville, J. UMAP: Uniform Manifold Approximation and Projection for Dimension Reduction. 2018. Cluster quality analysis using silhouette score. K R Shahapure, C Nicholas, Proceedings of the Proceedings -2020 IEEE 7th International Conference on Data Science and Advanced Analytics. the Proceedings -2020 IEEE 7th International Conference on Data Science and Advanced AnalyticsInstitute of Electrical and Electronics Engineers IncShahapure, K.R.; Nicholas, C. Cluster quality analysis using silhouette score. In Proceedings of the Proceedings -2020 IEEE 7th International Conference on Data Science and Advanced Analytics, DSAA 2020; Institute of Electrical and Electronics Engineers Inc., 2020; pp. 747-748. Sustainable Building Design: A Challenge at the Intersection of Machine Learning and Design Optimization. S S Gilan, B Dilkina, Gilan, S.S.; Dilkina, B. Sustainable Building Design: A Challenge at the Intersection of Machine Learning and Design Optimization; 2015; Usage profiles for sustainable buildings. F I Vázquez, W Kastner, Proceedings of the Proceedings of the 15th IEEE International Conference on Emerging Technologies and Factory Automation. the the 15th IEEE International Conference on Emerging Technologies and Factory AutomationVázquez, F.I.; Kastner, W. Usage profiles for sustainable buildings. In Proceedings of the Proceedings of the 15th IEEE International Conference on Emerging Technologies and Factory Automation, ETFA 2010; 2010. Application of artificial intelligence in sustainable building design -Optimisation methods. E Gilner, A Galuszka, T Grychowski, Proceedings of the 2019 24th International Conference on Methods and Models in Automation and Robotics. the 2019 24th International Conference on Methods and Models in Automation and RoboticsInstitute of Electrical and Electronics Engineers IncGilner, E.; Galuszka, A.; Grychowski, T. Application of artificial intelligence in sustainable building design -Optimisation methods. In Proceedings of the 2019 24th International Conference on Methods and Models in Automation and Robotics, MMAR 2019; Institute of Electrical and Electronics Engineers Inc., 2019; pp. 81-86. Towards smart sustainable cities: Addressing semantic heterogeneity in Building Management Systems using discriminative models. C Iddianozie, P Palmes, 10.1016/j.scs.2020.102367Sustain. Cities Soc. 2020102367Iddianozie, C.; Palmes, P. Towards smart sustainable cities: Addressing semantic heterogeneity in Building Management Systems using discriminative models. Sustain. Cities Soc. 2020, 62, 102367, doi:10.1016/j.scs.2020.102367. Sustainability Is Not Enough: Towards AI Supported Regenerative Design. T Kadar, M Kadar, Proceedings of the Proceedings -2020 IEEE International Conference on Engineering. the Proceedings -2020 IEEE International Conference on EngineeringInstitute of Electrical and Electronics Engineers IncKadar, T.; Kadar, M. Sustainability Is Not Enough: Towards AI Supported Regenerative Design. In Proceedings of the Proceedings -2020 IEEE International Conference on Engineering, Technology and Innovation, ICE/ITMC 2020; Institute of Electrical and Electronics Engineers Inc., 2020. Planning and design of sustainable smart multi energy systems. The case of a food industrial district in Italy. P Simeoni, G Nardin, G Ciotti, 10.1016/j.energy.2018.08.125163Simeoni, P.; Nardin, G.; Ciotti, G. Planning and design of sustainable smart multi energy systems. The case of a food industrial district in Italy. Energy 2018, 163, 443-456, doi:10.1016/j.energy.2018.08.125. Energy sustainability in smart cities: Artificial intelligence, smart monitoring, and optimization of energy consumption. K T Chui, M D Lytras, A Visvizi, 10.3390/en11112869112869Chui, K.T.; Lytras, M.D.; Visvizi, A. Energy sustainability in smart cities: Artificial intelligence, smart monitoring, and optimization of energy consumption. Energies 2018, 11, 2869, doi:10.3390/en11112869. Public building energy efficiency -An IoT approach. C Santos, J C Ferreira, V Rato, R Resende, Proceedings of the Advances in Intelligent Systems and Computing. the Advances in Intelligent Systems and ComputingSantos, C.; Ferreira, J.C.; Rato, V.; Resende, R. Public building energy efficiency -An IoT approach. In Proceedings of the Advances in Intelligent Systems and Computing; A hybrid decision support system for sustainable office building renovation and energy performance improvement. Energy Build. Y K Juan, P Gao, J Wang, 10.1016/j.enbuild.2009.09.00642Juan, Y.K.; Gao, P.; Wang, J. A hybrid decision support system for sustainable office building renovation and energy performance improvement. Energy Build. 2010, 42, 290-297, doi:10.1016/j.enbuild.2009.09.006. Ambient Sensorization for the Furtherance of Sustainability. F Silva, C Analide, L Rosa, G Felgueiras, C Pimenta, Proceedings of the Advances in Intelligent Systems and Computing. the Advances in Intelligent Systems and ComputingSpringer Verlag219Silva, F.; Analide, C.; Rosa, L.; Felgueiras, G.; Pimenta, C. Ambient Sensorization for the Furtherance of Sustainability. In Proceedings of the Advances in Intelligent Systems and Computing; Springer Verlag, 2013; Vol. 219, pp. 179-186. A decision support system for sustainable energy supply combining multi-objective and multi-attribute analysis: An Australian case study. A Mattiussi, M Rosano, P Simeoni, 10.1016/j.dss.2013.08.01357Decis. Support SystMattiussi, A.; Rosano, M.; Simeoni, P. A decision support system for sustainable energy supply combining multi-objective and multi-attribute analysis: An Australian case study. Decis. Support Syst. 2014, 57, 150-159, doi:10.1016/j.dss.2013.08.013. Role of proactive behaviour enabled by advanced computational intelligence and ICT in Smart Energy Grids. P H Nguyen, W L Kling, P F Ribeiro, G K Venayagamoorthy, R Croes, Nguyen, P.H.; Kling, W.L.; Ribeiro, P.F.; Venayagamoorthy, G.K.; Croes, R. Role of proactive behaviour enabled by advanced computational intelligence and ICT in Smart Energy Grids 2013, 1-6. Comprehensive scenario management of sustainable spatial planning and urban water services. S Baron, J Hoek, I K Alves, S Herz, 10.2166/wst.2015.578Water Sci. Technol. 73Baron, S.; Hoek, J.; Alves, I.K.; Herz, S. Comprehensive scenario management of sustainable spatial planning and urban water services. Water Sci. Technol. 2016, 73, 1041-1051, doi:10.2166/wst.2015.578. A Look at Machine Learning in the Modern Age of Sustainable Future Secured Smart Cities. A C B Monteiro, R P França, R Arthur, Y Iano, Advanced Sciences and Technologies for Security Applications. Monteiro, A.C.B.; França, R.P.; Arthur, R.; Iano, Y. A Look at Machine Learning in the Modern Age of Sustainable Future Secured Smart Cities. In Advanced Sciences and Technologies for Security Applications; ICT based Smart Management Solution to Realize Water and Energy Savings through Energy Efficiency Measures in Water Distribution Systems. G Grigoras, N Bizon, F M Enescu, J M Lopez Guede, G F Salado, R Brennan, C O&apos;driscoll, M O Dinka, M G Alalm, Proceedings of the Proceedings of the 10th International Conference on Electronics. the the 10th International Conference on ElectronicsECAI. Institute of Electrical and Electronics Engineers Inc.Grigoras, G.; Bizon, N.; Enescu, F.M.; Lopez Guede, J.M.; Salado, G.F.; Brennan, R.; O'Driscoll, C.; Dinka, M.O.; Alalm, M.G. ICT based Smart Management Solution to Realize Water and Energy Savings through Energy Efficiency Measures in Water Distribution Systems. In Proceedings of the Proceedings of the 10th International Conference on Electronics, Computers and Artificial Intelligence, ECAI 2018; Institute of Electrical and Electronics Engineers Inc., 2019. Public building energy efficiency -An IoT approach. C Santos, J C Ferreira, V Rato, R Resende, Proceedings of the Advances in Intelligent Systems and Computing. the Advances in Intelligent Systems and ComputingSantos, C.; Ferreira, J.C.; Rato, V.; Resende, R. Public building energy efficiency -An IoT approach. In Proceedings of the Advances in Intelligent Systems and Computing; Smart technologies and urban life: A behavioral and social perspective. J Zhang, S He, Sustain. Cities Soc. 63102460Zhang, J.; He, S. Smart technologies and urban life: A behavioral and social perspective. Sustain. Cities Soc. 2020, 63, 102460. Evaluating the performances of several artificial intelligence methods in forecasting daily streamflow time series for sustainable water resources management. W Niu, Z Feng, Kai, 10.1016/j.scs.2020.102562Sustain. Cities Soc. 64102562Niu, W. jing; Feng, Z. kai Evaluating the performances of several artificial intelligence methods in forecasting daily streamflow time series for sustainable water resources management. Sustain. Cities Soc. 2021, 64, 102562, doi:10.1016/j.scs.2020.102562. Modelling and prediction of water quality by using artificial intelligence. M H Al-Adhaileh, F W Alsaade, 10.3390/su13084259134259Sustain. 2021Al-Adhaileh, M.H.; Alsaade, F.W. Modelling and prediction of water quality by using artificial intelligence. Sustain. 2021, 13, 4259, doi:10.3390/su13084259. Watson on the farm: Using cloud-based artificial intelligence to identify early indicators of water stress. Remote Sens. D Freeman, S Gupta, D Hudson Smith, J M Maja, J Robbins, J S Owen, J M Peña, A I De Castro, 10.3390/rs1122264511Freeman, D.; Gupta, S.; Hudson Smith, D.; Maja, J.M.; Robbins, J.; Owen, J.S.; Peña, J.M.; de Castro, A.I. Watson on the farm: Using cloud-based artificial intelligence to identify early indicators of water stress. Remote Sens. 2019, 11, doi:10.3390/rs11222645. Application of Artificial Intelligence in the Process of Ecological Water Environment Governance and Its Impact on Economic Growth. Y Wei, 10.1155/2021/9967531Math. Probl. Eng. Wei, Y. Application of Artificial Intelligence in the Process of Ecological Water Environment Governance and Its Impact on Economic Growth. Math. Probl. Eng. 2021, 2021, 1-9, doi:10.1155/2021/9967531. A Review of Artificial Intelligence Applications to Achieve Water-related Sustainable Development Goals. H Mehmood, D Liao, K Mahadeo, Proceedings of the 2020 IEEE / ITU International Conference on Artificial Intelligence for Good. the 2020 IEEE / ITU International Conference on Artificial Intelligence for GoodInstitute of Electrical and Electronics Engineers IncMehmood, H.; Liao, D.; Mahadeo, K. A Review of Artificial Intelligence Applications to Achieve Water-related Sustainable Development Goals. In Proceedings of the 2020 IEEE / ITU International Conference on Artificial Intelligence for Good, AI4G 2020; Institute of Electrical and Electronics Engineers Inc., 2020; pp. 135-141. Fit-for-purpose wastewater treatment: Conceptualization to development of decision support tool (I). G Chhipi-Shrestha, K Hewage, R Sadiq, 10.1016/j.scitotenv.2017.06.269Sci. Total Environ. Chhipi-Shrestha, G.; Hewage, K.; Sadiq, R. Fit-for-purpose wastewater treatment: Conceptualization to development of decision support tool (I). Sci. Total Environ. 2017, 607-608, 600-612, doi:10.1016/j.scitotenv.2017.06.269. Artificial Intelligence Enabling Water Desalination Sustainability Optimization. S Alzu&apos;bi, M Alsmirat, M Al-Ayyoub, Y Jararweh, Proceedings of the Proceedings of 2019 7th International Renewable and Sustainable Energy Conference. the 2019 7th International Renewable and Sustainable Energy ConferenceInstitute of Electrical and Electronics Engineers IncAlzu'bi, S.; Alsmirat, M.; Al-Ayyoub, M.; Jararweh, Y. Artificial Intelligence Enabling Water Desalination Sustainability Optimization. In Proceedings of the Proceedings of 2019 7th International Renewable and Sustainable Energy Conference, IRSEC 2019; Institute of Electrical and Electronics Engineers Inc., 2019. Sustainability ranking of desalination plants using mamdani fuzzy logic inference systems. R Rustum, A M J Kurichiyanil, S Forrest, C Sommariva, A J Adeloye, M Zounemat-Kermani, M Scholz, 10.3390/su12020631Sustain. 12631Rustum, R.; Kurichiyanil, A.M.J.; Forrest, S.; Sommariva, C.; Adeloye, A.J.; Zounemat-Kermani, M.; Scholz, M. Sustainability ranking of desalination plants using mamdani fuzzy logic inference systems. Sustain. 2020, 12, 631, doi:10.3390/su12020631. A sustainable decision support framework for Urban water management. L J Pearson, A Coggan, W Proctor, T F Smith, 10.1007/s11269-009-9450-1Water Resour. Manag. 24Pearson, L.J.; Coggan, A.; Proctor, W.; Smith, T.F. A sustainable decision support framework for Urban water management. Water Resour. Manag. 2010, 24, 363-376, doi:10.1007/s11269-009-9450-1. Water and Energy Saving in Urban Water Systems: The ALADIN Project. V Puleo, V Notaro, G Freni, G La Loggia, Proceedings of the Procedia Engineering. the Procedia EngineeringElsevier Ltd162Puleo, V.; Notaro, V.; Freni, G.; La Loggia, G. Water and Energy Saving in Urban Water Systems: The ALADIN Project. In Proceedings of the Procedia Engineering; Elsevier Ltd, 2016; Vol. 162, pp. 396-402. Decision making under uncertainty using a qualitative TOPSIS method for selecting sustainable energy alternatives. A Afsordegan, M Sánchez, N Agell, S Zahedi, L V Cremades, 10.1007/s13762-016-0982-7Int. J. Environ. Sci. Technol. 13Afsordegan, A.; Sánchez, M.; Agell, N.; Zahedi, S.; Cremades, L. V. Decision making under uncertainty using a qualitative TOPSIS method for selecting sustainable energy alternatives. Int. J. Environ. Sci. Technol. 2016, 13, 1419-1432, doi:10.1007/s13762-016-0982-7. Climate informatics: Accelerating discovering in climate science with machine learning. C Monteleoni, G A Schmidt, S Mcquade, 10.1109/MCSE.2013.50Comput. Sci. Eng. 15Monteleoni, C.; Schmidt, G.A.; McQuade, S. Climate informatics: Accelerating discovering in climate science with machine learning. Comput. Sci. Eng. 2013, 15, 32-40, doi:10.1109/MCSE.2013.50. Scenario-based prediction of climate change impacts on building cooling energy consumption with explainable artificial intelligence. D Chakraborty, A Alam, S Chaudhuri, H Başağaoğlu, T Sulbaran, S Langar, 10.1016/j.apenergy.2021.116807Appl. Energy. 291116807Chakraborty, D.; Alam, A.; Chaudhuri, S.; Başağaoğlu, H.; Sulbaran, T.; Langar, S. Scenario-based prediction of climate change impacts on building cooling energy consumption with explainable artificial intelligence. Appl. Energy 2021, 291, 116807, doi:10.1016/j.apenergy.2021.116807. Stable machine-learning parameterization of subgrid processes for climate modeling at a range of resolutions. J Yuval, P A O&apos;gorman, 10.1038/s41467-020-17142-3Nat. Commun. 2020Yuval, J.; O'Gorman, P.A. Stable machine-learning parameterization of subgrid processes for climate modeling at a range of resolutions. Nat. Commun. 2020, 11, 1-10, doi:10.1038/s41467-020-17142-3. Campus Energy Use Prediction (CEUP) Using Artificial Intelligence (AI) to Study Climate Change Impacts. S Fathi, R Srinivasan, R Ries, 10.26868/25222708.2019.210874Proc. 2019 Build. Simul. Conf. Rome, IBPSA. 2019 Build. Simul. Conf. Rome, IBPSAItalyFathi, S.; Srinivasan, R.; Ries, R. Campus Energy Use Prediction (CEUP) Using Artificial Intelligence (AI) to Study Climate Change Impacts. Proc. 2019 Build. Simul. Conf. Rome, IBPSA, Italy 2019, doi:10.26868/25222708.2019.210874. Towards a planning decision support system for low-carbon urban development. I Blecic, A Cecchini, M Falk, S Marras, D R Pyles, D Spano, G A Trunfio, Proceedings of the Lecture Notes in Computer Science. the Lecture Notes in Computer Scienceincluding subseriesBlecic, I.; Cecchini, A.; Falk, M.; Marras, S.; Pyles, D.R.; Spano, D.; Trunfio, G.A. Towards a planning decision support system for low-carbon urban development. In Proceedings of the Lecture Notes in Computer Science (including subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics); . Springer, LNCS. 6782Springer, Berlin, Heidelberg, 2011; Vol. 6782 LNCS, pp. 423-438. . H Kasim, H Hilme, A Al-Ghaili, R O #2, M Hazim, B Muhmat, H #3, A Al-Ghaili, Kasim, H.; Hilme, H.; Al-Ghaili, A.; #2, R.O.; Hazim, M.; Muhmat, B.; #3, H.; Al-Ghaili, A.M. Future Fuels for Environmental Sustainability: Roles of Computing View project Developing a Digital Hub Framework in Inculcating Knowledge Sharing Practices for Malaysian Energy Sectors View project Future Fuels for Environmental Sustainability: Roles of Computing. Int. J. Adv. Sci. Technol. 28Future Fuels for Environmental Sustainability: Roles of Computing View project Developing a Digital Hub Framework in Inculcating Knowledge Sharing Practices for Malaysian Energy Sectors View project Future Fuels for Environmental Sustainability: Roles of Computing. Int. J. Adv. Sci. Technol. 2019, 28, 87-95. Tracking and Predicting the Carbon Footprint of Training Deep Learning Models. L F W Anthony, B Kanding, R Selvan, Carbontracker, Anthony, L.F.W.; Kanding, B.; Selvan, R. Carbontracker: Tracking and Predicting the Carbon Footprint of Training Deep Learning Models. 2020. Rho AI -Leveraging artificial intelligence to address climate change: Financing, implementation and ethics. I Fischer, C Beswick, S Newell, 10.1177/2043886920961782J. Inf. Technol. Teach. Cases. Fischer, I.; Beswick, C.; Newell, S. Rho AI -Leveraging artificial intelligence to address climate change: Financing, implementation and ethics. J. Inf. Technol. Teach. Cases 2021, doi:10.1177/2043886920961782. Using Artificial Intelligence to Visualize the Impacts of Climate Change. A Luccioni, V Schmidt, V Vardanyan, Y Bengio, 10.1109/MCG.2020.3025425IEEE Comput. Graph. Appl. 41Luccioni, A.; Schmidt, V.; Vardanyan, V.; Bengio, Y. Using Artificial Intelligence to Visualize the Impacts of Climate Change. IEEE Comput. Graph. Appl. 2021, 41, 8-14, doi:10.1109/MCG.2020.3025425. Geophysical Research Letters Earth System Modeling 2.0: A Blueprint for Models That Learn From Observations and Targeted High-Resolution Simulations. T Schneider, S Lan, A Stuart, J Teixeira, 10.1002/2017GL076101Wiley Online Libr44Schneider, T.; Lan, S.; Stuart, A.; Teixeira, J. Geophysical Research Letters Earth System Modeling 2.0: A Blueprint for Models That Learn From Observations and Targeted High-Resolution Simulations. Wiley Online Libr. 2017, 44, 12,396-12,417, doi:10.1002/2017GL076101. A teleconnection between the West Siberian Plain and the ENSO region. S Liess, S Agrawal, J. Clim. 30Liess, S.; Agrawal, S. A teleconnection between the West Siberian Plain and the ENSO region. J. Clim. 2017, 30, 301-315. Using artificial intelligence to improve real-time decision-making for highimpact weather. A Mcgovern, K Elmore, Bull. Am. Meteorol. Soc. 98McGovern, A.; Elmore, K. Using artificial intelligence to improve real-time decision-making for high- impact weather. Bull. Am. Meteorol. Soc. 2017, 98, 2073-2090. Tracking climate models. C Monteleoni, G A Schmidt, S Saroha, E Asplund, 10.1002/sam.10126Stat. Anal. Data Min. 4Monteleoni, C.; Schmidt, G.A.; Saroha, S.; Asplund, E. Tracking climate models. Stat. Anal. Data Min. 2011, 4, 372-392, doi:10.1002/sam.10126. Using artificial neural networks to predict future dryland responses to human and climate disturbances. C E Buckland, R M Bailey, D S Thomas, 10.1038/s41598-019-40429-5Sci. Rep. 93855Buckland, C.E.; Bailey, R.M.; Thomas, D.S.G. Using artificial neural networks to predict future dryland responses to human and climate disturbances. Sci. Rep. 2019, 9, 3855, doi:10.1038/s41598- 019-40429-5. Prabhat Deep learning and process understanding for data-driven Earth system science. M Reichstein, G Camps-Valls, B Stevens, M Jung, J Denzler, N Carvalhais, 10.1038/s41586-019-0912-1Nature. 566Reichstein, M.; Camps-Valls, G.; Stevens, B.; Jung, M.; Denzler, J.; Carvalhais, N.; Prabhat Deep learning and process understanding for data-driven Earth system science. Nature 2019, 566, 195-204, doi:10.1038/s41586-019-0912-1. Agriculture 4.0: Broadening Responsible Innovation in an Era of Smart Farming. D C Rose, J Chilvers, 10.3389/fsufs.2018.00087Front. Sustain. Food Syst. 287Rose, D.C.; Chilvers, J. Agriculture 4.0: Broadening Responsible Innovation in an Era of Smart Farming. Front. Sustain. Food Syst. 2018, 2, 87, doi:10.3389/fsufs.2018.00087. Agricultural 4.0: Its implementation toward future sustainability. N Yahya, Green Energy and Technology. Yahya, N. Agricultural 4.0: Its implementation toward future sustainability. In Green Energy and Technology; Technology for Sustainable Urban Food Ecosystems in the Developing World: Strengthening the Nexus of Food-Water-Energy-Nutrition. F T Davies, B Garrett, 10.3389/fsufs.2018.00084Front. Sustain. Food Syst. 284Davies, F.T.; Garrett, B. Technology for Sustainable Urban Food Ecosystems in the Developing World: Strengthening the Nexus of Food-Water-Energy-Nutrition. Front. Sustain. Food Syst. 2018, 2, 84, doi:10.3389/fsufs.2018.00084. Sustainable aquaculture development: a review on the roles of cloud computing, internet of things and artificial intelligence (CIA). U F Mustapha, A W Alhassan, D N Jiang, G L Li, Rev. Aquac. Mustapha, U.F.; Alhassan, A.W.; Jiang, D.N.; Li, G.L. Sustainable aquaculture development: a review on the roles of cloud computing, internet of things and artificial intelligence (CIA). Rev. Aquac. 2021. Assessment of agricultural energy consumption of Turkey by MLR and Bayesian optimized SVR and GPR models. Z Ceylan, 10.1002/for.2673J. Forecast. 2020Ceylan, Z. Assessment of agricultural energy consumption of Turkey by MLR and Bayesian optimized SVR and GPR models. J. Forecast. 2020, 39, 944-956, doi:10.1002/for.2673. Bioproduction engineering: A road map of sustainable agricultural practice. T Ahamed, T Takigawa, R Noguchi, L Tian, Ahamed, T.; Takigawa, T.; Noguchi, R.; Tian, L. Bioproduction engineering: A road map of sustainable agricultural practice; 2013; Biomass feedstock supply chain network design with biomass conversion incentives. Mohamed Abdul Ghani, N M A Vogiatzis, C Szmerekovsky, J , 10.1016/j.enpol.2018.01.042Energy. 116Mohamed Abdul Ghani, N.M.A.; Vogiatzis, C.; Szmerekovsky, J. Biomass feedstock supply chain network design with biomass conversion incentives. Energy Policy 2018, 116, 39-49, doi:10.1016/j.enpol.2018.01.042. Renewable energy for sustainable agriculture. A Chel, G Kaushik, Agron. Sustain. Dev. 31Chel, A.; Kaushik, G. Renewable energy for sustainable agriculture. Agron. Sustain. Dev. 2011, 31, 91- 118. Energy consumption forecasting in agriculture by artificial intelligence and mathematical models. E Bolandnazar, A Rohani, M Taki, 10.1080/15567036.2019.1604872Energy Sources, Part A Recover. Util. Environ. Eff. 2020. 42Bolandnazar, E.; Rohani, A.; Taki, M. Energy consumption forecasting in agriculture by artificial intelligence and mathematical models. Energy Sources, Part A Recover. Util. Environ. Eff. 2020, 42, 1618- 1632, doi:10.1080/15567036.2019.1604872. IoT, big data and artificial intelligence in agriculture and food industry. N N Misra, Y Dixit, A Al-Mallahi, M S Bhullar, R Upadhyay, A Martynenko, 10.1109/jiot.2020.2998584IEEE Internet Things J. 2020Misra, N.N.; Dixit, Y.; Al-Mallahi, A.; Bhullar, M.S.; Upadhyay, R.; Martynenko, A. IoT, big data and artificial intelligence in agriculture and food industry. IEEE Internet Things J. 2020, 1-1, doi:10.1109/jiot.2020.2998584. A Survey on IOT Based on Renewable Energy for Efficient Energy Conservation Using Machine Learning Approaches. Rahin Batcha, R Kalaiselvi Geetha, M , Proceedings of the Proceedings of 3rd International Conference on Emerging Technologies in Computer Engineering: Machine Learning and Internet of Things. the 3rd International Conference on Emerging Technologies in Computer Engineering: Machine Learning and Internet of ThingsInstitute of Electrical and Electronics Engineers IncRahin Batcha, R.; Kalaiselvi Geetha, M. A Survey on IOT Based on Renewable Energy for Efficient Energy Conservation Using Machine Learning Approaches. In Proceedings of the Proceedings of 3rd International Conference on Emerging Technologies in Computer Engineering: Machine Learning and Internet of Things, ICETCE 2020; Institute of Electrical and Electronics Engineers Inc., 2020; Simulation and Optimization of Power Plant Energy Sustainability for IoT Enabled Smart Cities Empowered with Deep Extreme Learning Machine. S Abbas, M A Khan, L E Falcon-Morales, A Rehman, Y Saeed, M Zareei, A Zeb, E M Mohamed, Modeling, 10.1109/ACCESS.2020.2976452IEEE Access. 8Abbas, S.; Khan, M.A.; Falcon-Morales, L.E.; Rehman, A.; Saeed, Y.; Zareei, M.; Zeb, A.; Mohamed, E.M. Modeling, Simulation and Optimization of Power Plant Energy Sustainability for IoT Enabled Smart Cities Empowered with Deep Extreme Learning Machine. IEEE Access 2020, 8, 39982-39997, doi:10.1109/ACCESS.2020.2976452. Understanding sensor cities: Insights from technology giant company driven smart urbanism practices. G D&apos;amico, P L&apos;abbate, W Liao, T Yigitcanlar, G Ioppolo, 10.3390/s20164391Sensors (Switzerland). 2020D'Amico, G.; L'Abbate, P.; Liao, W.; Yigitcanlar, T.; Ioppolo, G. Understanding sensor cities: Insights from technology giant company driven smart urbanism practices. Sensors (Switzerland) 2020, 20, 1-24, doi:10.3390/s20164391. A review on energy consumption optimization techniques in IoT based smart building environments. A S Shah, H Nasir, M Fayaz, A Lajis, A Shah, Inf. 10108Shah, A.S.; Nasir, H.; Fayaz, M.; Lajis, A.; Shah, A. A review on energy consumption optimization techniques in IoT based smart building environments. Inf. 2019, 10, 108. A Human-Centric Context-Aware IoT Framework for Enhancing Energy Efficiency in Buildings of Public Use. Di Casado-Mansilla, I Moschos, O Kamara-Esteban, A C Tsolakis, C E Borges, S Krinidis, A Irizar-Arrieta, K Konstantinos, A Pijoan, Di Tzovaras, 10.1109/ACCESS.2018.2837141IEEE Access. 6Casado-Mansilla, Di.; Moschos, I.; Kamara-Esteban, O.; Tsolakis, A.C.; Borges, C.E.; Krinidis, S.; Irizar-Arrieta, A.; Konstantinos, K.; Pijoan, A.; Tzovaras, Di.; et al. A Human-Centric Context-Aware IoT Framework for Enhancing Energy Efficiency in Buildings of Public Use. IEEE Access 2018, 6, 31444-31456, doi:10.1109/ACCESS.2018.2837141. . N M Kumar, A A Chand, M Malvoni, K A Prasad, K A Mamun, F R Islam, S S Chopra, Kumar, N.M.; Chand, A.A.; Malvoni, M.; Prasad, K.A.; Mamun, K.A.; Islam, F.R.; Chopra, S.S. Distributed Energy Resources and the Application of AI, IoT, and Blockchain in Smart Grids. 13Distributed Energy Resources and the Application of AI, IoT, and Blockchain in Smart Grids. Energies 2020, 13, 1-42. Blockchain and AI amalgamation for energy cloud management: Challenges, solutions, and future directions. A Kumari, R Gupta, S Tanwar, N Kumar, 10.1016/j.jpdc.2020.05.004J. Parallel Distrib. Comput. 143Kumari, A.; Gupta, R.; Tanwar, S.; Kumar, N. Blockchain and AI amalgamation for energy cloud management: Challenges, solutions, and future directions. J. Parallel Distrib. Comput. 2020, 143, 148- 166, doi:10.1016/j.jpdc.2020.05.004. The potential of integrating blockchain technology into smart sustainable city development. P F Wong, F C Chia, M S Kiu, E C W Lou, Proceedings of the IOP Conference Series: Earth and Environmental Science. the IOP Conference Series: Earth and Environmental ScienceInstitute of Physics Publishing46312020Wong, P.F.; Chia, F.C.; Kiu, M.S.; Lou, E.C.W. The potential of integrating blockchain technology into smart sustainable city development. In Proceedings of the IOP Conference Series: Earth and Environmental Science; Institute of Physics Publishing, 2020; Vol. 463, p. 12020. IoT vulnerability assessment for sustainable computing: Threats, current solutions, and open challenges. P Anand, Y Singh, A Selwal, M Alazab, S Tanwar, N Kumar, 10.1109/ACCESS.2020.3022842IEEE Access. 8Anand, P.; Singh, Y.; Selwal, A.; Alazab, M.; Tanwar, S.; Kumar, N. IoT vulnerability assessment for sustainable computing: Threats, current solutions, and open challenges. IEEE Access 2020, 8, 168825- 168853, doi:10.1109/ACCESS.2020.3022842. Internet of nonthermal food processing technologies (Iontp): Food industry 4.0 and sustainability. A R Jambrak, M Nutrizio, I Djekić, S Pleslić, F Chemat, Appl. Sci. 2021Jambrak, A.R.; Nutrizio, M.; Djekić, I.; Pleslić, S.; Chemat, F. Internet of nonthermal food processing technologies (Iontp): Food industry 4.0 and sustainability. Appl. Sci. 2021, 11, 1-20. Advancements and Sustainability with Environment by 2050. N Sharma, D Panwar, Green, Iot, Proceedings of the ICRITO 2020 -IEEE 8th International Conference on Reliability, Infocom Technologies and Optimization. the ICRITO 2020 -IEEE 8th International Conference on Reliability, Infocom Technologies and OptimizationInstitute of Electrical and Electronics Engineers IncSharma, N.; Panwar, D. Green IoT: Advancements and Sustainability with Environment by 2050. In Proceedings of the ICRITO 2020 -IEEE 8th International Conference on Reliability, Infocom Technologies and Optimization (Trends and Future Directions); Institute of Electrical and Electronics Engineers Inc., 2020; pp. 1127-1132. IoT based framework for smart campus: COVID-19 readiness. P Agarwal, G V V Ravi Kumar, P Agarwal, Proceedings of the Proceedings of the World Conference on Smart Trends in Systems, Security and Sustainability. the the World Conference on Smart Trends in Systems, Security and SustainabilityInstitute of Electrical and Electronics Engineers Inc4Agarwal, P.; Ravi Kumar, G.V.V.; Agarwal, P. IoT based framework for smart campus: COVID-19 readiness. In Proceedings of the Proceedings of the World Conference on Smart Trends in Systems, Security and Sustainability, WS4 2020; Institute of Electrical and Electronics Engineers Inc., 2020; pp. 539-542. Proposed Smart University Model as a Sustainable Living Lab for University Digital Transformation. T V Pham, A T T Nguyen, T D Ngo, D H Le, K C V Le, T H N Nguyen, H Q Le, Proceedings of the Proceedings of 2020 5th International Conference on Green Technology and Sustainable Development. the 2020 5th International Conference on Green Technology and Sustainable DevelopmentInstitute of Electrical and Electronics Engineers IncPham, T. V.; Nguyen, A.T.T.; Ngo, T.D.; Le, D.H.; Le, K.C.V.; Nguyen, T.H.N.; Le, H.Q. Proposed Smart University Model as a Sustainable Living Lab for University Digital Transformation. In Proceedings of the Proceedings of 2020 5th International Conference on Green Technology and Sustainable Development, GTSD 2020; Institute of Electrical and Electronics Engineers Inc., 2020; . C Chen, Y Hu, K Marimuthu, P M Kumar, 10.1016/j.seta.2021.101358Artificial intelligence on economic evaluation of energy efficiency and renewable energy technologies. Sustain. Energy Technol. Assessments. 47101358Chen, C.; Hu, Y.; Marimuthu, K.; Kumar, P.M. Artificial intelligence on economic evaluation of energy efficiency and renewable energy technologies. Sustain. Energy Technol. Assessments 2021, 47, 101358, doi:10.1016/j.seta.2021.101358. Renewable energy technologies. W Turkenburg, A Faaij, Turkenburg, W.; Faaij, A. Renewable energy technologies; 2000; Assessment of sustainability indicators for renewable energy technologies. A Evans, V Strezov, T J Evans, Renew. Sustain. Energy Rev. 13Evans, A.; Strezov, V.; Evans, T.J. Assessment of sustainability indicators for renewable energy technologies. Renew. Sustain. Energy Rev. 2009, 13, 1082-1088. State-of-the-art artificial intelligence techniques for distributed smart grids: A review. S S Ali, B J Choi, 10.3390/electronics90610302020Ali, S.S.; Choi, B.J. State-of-the-art artificial intelligence techniques for distributed smart grids: A review. Electron. 2020, 9, 1-28, doi:10.3390/electronics9061030. Distributed Real-Time Power Balancing in Renewable-Integrated Power Grids with Storage and Flexible Loads. S Sun, M Dong, B Liang, 10.1109/TSG.2015.2445794IEEE Trans. Smart Grid. 7Sun, S.; Dong, M.; Liang, B. Distributed Real-Time Power Balancing in Renewable-Integrated Power Grids with Storage and Flexible Loads. IEEE Trans. Smart Grid 2016, 7, 2337-2349, doi:10.1109/TSG.2015.2445794. Decision making in renewable energy investments: A review. E Strantzali, K Aravossis, Renew. Sustain. Energy Rev. 55Strantzali, E.; Aravossis, K. Decision making in renewable energy investments: A review. Renew. Sustain. Energy Rev. 2016, 55, 885-898. A review of deep learning for renewable energy forecasting. Energy Convers. H Wang, Z Lei, X Zhang, B Zhou, J Peng, 111799Wang, H.; Lei, Z.; Zhang, X.; Zhou, B.; Peng, J. A review of deep learning for renewable energy forecasting. Energy Convers. Manag. 2019, 198, 111799. A decision support system (DSS) for sustainable production of biofuel. M H Mohammadi Ashnani, A Johari, H Hashim, E Hasani, In Proceedings of the Applied Mechanics and Materials. Trans Tech Publications LtdMohammadi Ashnani, M.H.; Johari, A.; Hashim, H.; Hasani, E. A decision support system (DSS) for sustainable production of biofuel. In Proceedings of the Applied Mechanics and Materials; Trans Tech Publications Ltd, 2014; Vol. 465-466, pp. 1103-1108. A novel approach to comprehensive economic evaluations: Case study of an inherently sustainable technology using renewable energy sources. Energy Sources. M M Khan, M R Islam, G M Zatzman, 10.1080/15567240801993325Part B Econ. Plan. Policy. 6Khan, M.M.; Islam, M.R.; Zatzman, G.M. A novel approach to comprehensive economic evaluations: Case study of an inherently sustainable technology using renewable energy sources. Energy Sources, Part B Econ. Plan. Policy 2011, 6, 145-155, doi:10.1080/15567240801993325. A Decision Support System Tool to Manage the Flexibility in Renewable Energy-Based Power Systems. M Badami, G Fambri, S Mancò, M Martino, I G Damousis, D Agtzidis, D Tzovaras, 13Badami, M.; Fambri, G.; Mancò, S.; Martino, M.; Damousis, I.G.; Agtzidis, D.; Tzovaras, D. A Decision Support System Tool to Manage the Flexibility in Renewable Energy-Based Power Systems. Energies 2019, 13, 1-16. . A Abdelwahed, P Berg, Van Den, Abdelwahed, A.; Berg, P. van den; Enabling Sustainable Public Transport in Smart Cities through Real-time Decision Support. T Brandt, Brandt, T. Enabling Sustainable Public Transport in Smart Cities through Real-time Decision Support. ICIS 2019 Proc. 2019. An intelligent decision support system for residential energy consumption and renewable energy utilization in rural China. Z Ma, H Wang, A Wu, G Zeng, X Tu, 10.1080/15567241003663138Energy Sources, Part B Econ. Plan. Policy. 9Ma, Z.; Wang, H.; Wu, A.; Zeng, G.; Tu, X. An intelligent decision support system for residential energy consumption and renewable energy utilization in rural China. Energy Sources, Part B Econ. Plan. Policy 2014, 9, 374-382, doi:10.1080/15567241003663138. Energy optimization and management of demand response interactions in a smart campus. A Barbato, C Bolchini, A Geronazzo, E Quintarelli, A Palamarciuc, A Pitì, C Rottondi, G Verticale, 10.3390/en90603989398Barbato, A.; Bolchini, C.; Geronazzo, A.; Quintarelli, E.; Palamarciuc, A.; Pitì, A.; Rottondi, C.; Verticale, G. Energy optimization and management of demand response interactions in a smart campus. Energies 2016, 9, 398, doi:10.3390/en9060398. Key performance indicators for Smart Campus and Microgrid. S Alrashed, 10.1016/j.scs.2020.102264Sustain. Cities Soc. 60102264Alrashed, S. Key performance indicators for Smart Campus and Microgrid. Sustain. Cities Soc. 2020, 60, 102264, doi:10.1016/j.scs.2020.102264. Benchmarking a sustainable energy engineering undergraduate degree against curriculum frameworks and pedagogy standards from industry and academia. B Durrans, J Whale, M Calais, 10.3390/en130408222020Durrans, B.; Whale, J.; Calais, M. Benchmarking a sustainable energy engineering undergraduate degree against curriculum frameworks and pedagogy standards from industry and academia. Energies 2020, 13, 822, doi:10.3390/en13040822. Strategic competences for concrete action towards sustainability: An oxymoron? Engineering education for a sustainable future. K F Mulder, Renew. Sustain. Energy Rev. 68Mulder, K.F. Strategic competences for concrete action towards sustainability: An oxymoron? Engineering education for a sustainable future. Renew. Sustain. Energy Rev. 2017, 68, 1106-1111. dos Smart and learning campus as living lab to foster education for sustainable development: an experience with air quality monitoring. J Mazutti, L Londero Brandli, A Lange Salvia, B M Fritzen Gomes, L I Damke, V Tibola Da Rocha, R Santos Rabello, 10.1108/IJSHE-01-2020-0016Int. J. Sustain. High. Educ. 2020Mazutti, J.; Londero Brandli, L.; Lange Salvia, A.; Fritzen Gomes, B.M.; Damke, L.I.; Tibola da Rocha, V.; Santos Rabello, R. dos Smart and learning campus as living lab to foster education for sustainable development: an experience with air quality monitoring. Int. J. Sustain. High. Educ. 2020, 21, 1311-1330, doi:10.1108/IJSHE-01-2020-0016. Campus as a Living Lab: Creating a Culture of Research and Learning in Sustainable Development. A Pilon, J Madden, J Tansey, J Metras, Emerald Publishing LimitedPilon, A.; Madden, J.; Tansey, J.; Metras, J. Campus as a Living Lab: Creating a Culture of Research and Learning in Sustainable Development. In; Emerald Publishing Limited, 2020; pp. 213-227. Academic policy regarding sustainability and artificial intelligence (Ai). M Tanveer, S Hassan, A Bhaumik, 10.3390/su1222943512Sustain. 2020Tanveer, M.; Hassan, S.; Bhaumik, A. Academic policy regarding sustainability and artificial intelligence (Ai). Sustain. 2020, 12, 1-13, doi:10.3390/su12229435. Optimization methods applied to renewable and sustainable energy: A review. R Baños, F Manzano-Agugliaro, F G Montoya, C Gil, A Alcayde, J Gómez, Renew. Sustain. Energy Rev. 15Baños, R.; Manzano-Agugliaro, F.; Montoya, F.G.; Gil, C.; Alcayde, A.; Gómez, J. Optimization methods applied to renewable and sustainable energy: A review. Renew. Sustain. Energy Rev. 2011, 15, 1753-1766. . F Magrassi, A Borghi, Del, Magrassi, F.; Borghi, A. Del; Optimal planning of sustainable buildings: Integration of life cycle assessment and optimization in a decision support system. M Gallo, C Strazza, M Robba, 10.3390/en90704909490Gallo, M.; Strazza, C.; Robba, M. Optimal planning of sustainable buildings: Integration of life cycle assessment and optimization in a decision support system. Energies 2016, 9, 490, doi:10.3390/en9070490. Agreement technologies for energy optimization at home. A González-Briones, P Chamoso, F De La Prieta, Y Demazeau, J M Corchado, 10.3390/s18051633Sensors (Switzerland. 181633González-Briones, A.; Chamoso, P.; De La Prieta, F.; Demazeau, Y.; Corchado, J.M. Agreement technologies for energy optimization at home. Sensors (Switzerland) 2018, 18, 1633, doi:10.3390/s18051633. Reinforcement learning-based bems architecture for energy usage optimization. S Park, S Park, M I Choi, S Lee, T Lee, S Kim, K Cho, S Park, 10.3390/s20174918Sensors. 2020Park, S.; Park, S.; Choi, M.I.; Lee, S.; Lee, T.; Kim, S.; Cho, K.; Park, S. Reinforcement learning-based bems architecture for energy usage optimization. Sensors (Switzerland) 2020, 20, 1-33, doi:10.3390/s20174918. Application of optimized artificial intelligence algorithm to evaluate the heating energy demand of non-residential buildings at European level. Energy. G Ciulla, A D&apos;amico, V Lo Brano, M Traverso, 10.1016/j.energy.2019.03.168176Ciulla, G.; D'Amico, A.; Lo Brano, V.; Traverso, M. Application of optimized artificial intelligence algorithm to evaluate the heating energy demand of non-residential buildings at European level. Energy 2019, 176, 380-391, doi:10.1016/j.energy.2019.03.168. Computation of transition paths towards sustainable energy systems by means of fuzzy optimization. K Weber, D Martinsen, Proceedings of the Computational Intelligence Foundations and Applications -Proceedings of the 9th International FLINS Conference. the Computational Intelligence Foundations and Applications - the 9th International FLINS ConferenceWorld Scientific Publishing CoFLINSWeber, K.; Martinsen, D. Computation of transition paths towards sustainable energy systems by means of fuzzy optimization. In Proceedings of the Computational Intelligence Foundations and Applications -Proceedings of the 9th International FLINS Conference, FLINS 2010; World Scientific Publishing Co. Pte Ltd, 2010; pp. 826-831. Bio-inspired optimization of sustainable energy systems: A review. Y J Zheng, S Y Chen, Y Lin, W L Wang, Math. Probl. Eng. Zheng, Y.J.; Chen, S.Y.; Lin, Y.; Wang, W.L. Bio-inspired optimization of sustainable energy systems: A review. Math. Probl. Eng. 2013, 2013.
sample_368
0.5348
arxiv
EFFET DU CHLORURE DE SODIUM (NaCl) SUR LA CROISSANCE DE SIX ESPECES d'Acacia EFFECT OF SODIUM CHLORIDE (NaCl) ON THE GROWTH OF SIX Corresponding and Author |Received | 01 March 2017| |Accepted | 29 March 2017| |Published 10 April 2017 | |khalil Chérifi Laboratory of Biotechnology and Valorization of Natural Resources | Faculty of sciences | Ibn Zohr University | P.O. Box 8106 | 8000Agadir| Morocco | |abdelmjid Anagri Laboratory of Biotechnology and Valorization of Natural Resources | Faculty of sciences | Ibn Zohr University | P.O. Box 8106 | 8000Agadir| Morocco | | El Houssine Boufous American Journal of Innovative Research and Applied Sciences. ISSN Department of Biochemistry and Microbiology | Laval University | Quebec City (Quebec) 2429-5396 I www.american-jirasCanada | | | Abelhamid El Mousadik Laboratory of Biotechnology and Valorization of Natural Resources | Faculty of sciences | Ibn Zohr University | P.O. Box 8106 | 8000Agadir| Morocco | Acacia Species American Journal of Innovative Research and Applied Sciences. ISSN 2429-5396I www.american-jiras EFFET DU CHLORURE DE SODIUM (NaCl) SUR LA CROISSANCE DE SIX ESPECES d'Acacia EFFECT OF SODIUM CHLORIDE (NaCl) ON THE GROWTH OF SIX Corresponding and Author |Received | 01 March 2017| |Accepted | 29 March 2017| |Published 10 April 2017 |105 ORIGINAL ARTICLE See: http://creativecommons.org/licenses/by-nc/4.0/Mots-clés: Tolérance à la salinitéVariabilitéAcaciaAmélioration des plantesRéhabilitation Keywords: Salt toleranceVariabilityAcaciaPlant breedingRehabilitation RESUMEIntroduction : Au cours de ces dernières décennies on assiste à une diminution progressive des superficies cultivables dans les régions arides et semi-arides à cause de l'accumulation des sels liée à la rareté des précipitations, au mauvais drainage, à la sècheresse prolongées et à l'absorption de l'eau par les plantes. Contexte : Devant l'ampleur de ce problème, il s'avère donc nécessaire de proposer des programmes d'évaluation et de conservation des espèces menacées d'extinction. Le repérage d'espèces plus adaptées et la sélection des variétés tolérantes à la salinité resteraient la voie économique la plus efficace pour l'exploitation des terrains affectés. Objectifs : L'objectif de cette étude est de déterminer la capacité de tolérance à la salinité au cours du développement végétatif chez six espèces appartenant au genre Acacia. Ceci dans le but d'élaborer une classification des seuils de tolérance au stress salin, critère important dans le choix des espèces à retenir dans un programme de mise en valeur des zones affectées par la salinité. Méthodes : L'effet du stress salin a été abordé sur un certain nombre de caractères agro-morphologiques en conditions contrôlées. Les concentrations de NaCl appliquées, en plus du témoin, sont : 100 mM, 200 mM, 300 mM et 400 mM. Résultats : Les résultats ont montré une variabilité non négligeable dans le comportement des plantes des différentes espèces en fonction du stress salin. Chez les six espèces d'Acacia, le sel a exercé un effet dépressif sur tous les paramètres de croissance étudiés. Toutefois, le taux de réduction diffère selon l'intensité de stress salin et le degré de sensibilité ou de tolérance de l'espèce. La croissance en hauteur, le nombre de feuilles et la biomasse sèche totale sont vraisemblablement les paramètres les plus affectés. Cependant, il est important de signaler que toutes les espèces d'Acacia considérées dans ce travail ont survécu, même à 400 mM de NaCl, et ont présenté différents degrés de tolérance à la salinité. Dans cette situation, les espèces A. horrida et A. raddiana s'avèrent globalement les plus performantes au stade végétatif. Conclusions : La variabilité génétique, dévoilée par ces espèces dans les différentes conditions de stress salin, permettrait un choix d'écotypes pouvant entrer dans des schémas de sélection et d'amélioration variétale pour la réhabilitation des parcours dégradés surtout en zones affectées par la salinité.ABSTRACTBackground: Salinity is one of the major abiotic stresses affecting plant production in arid and semi-arid regions. It causes reduction of cultivable area and combined with other factors, presents a serious threat to food stability in these areas. Context: In front of this problem, the selection of salt tolerant species and varieties remains the best economic approach for exploitation and rehabilitation of salt-affected regions. Objective: The purpose of this study was to assess and compare the seed germination response of six Acacia species under different NaCl concentrations in order to explore opportunities for selection and breeding salt tolerant genotypes. Methods: The salinity effect was examined by measuring some agro-morphological parameters in controlled growth environment using five treatment levels: 0, 100, 200, 300 and 400 mM of NaCl. Results: The analyzed data revealed significant variability in salt response within and between species. All growth parameters were progressively reduced by increased NaCl concentrations. Growth in height, leaf number and total plant dry weight were considered as the most sensitive parameters. However, the growth reduction varied among species in accordance with their tolerance level. It is important to note that all species survived at the highest salinity (400 mM). Whereas A. horrida and A. raddiana were proved to be often the best tolerant, they recorded the lowest reduction percentage at this stage. Conclusion: The genetic variability found in the studied species at seedling stage may be used to select genotypes particularly suitable for rehabilitation and exploitation of lands affected by salinity. INTRODUCTION La salinisation est un processus important de dégradation des sols. Elle constitue un facteur limitant à la croissance et au développement des plantes. Les conséquences de ce phénomène qui ne cesse de prendre de l'ampleur, se manifestent par la toxicité directe due à l'accumulation excessive des ions (Na + et Cl -) dans les tissus des organes, et à un déséquilibre nutritionnel imputable essentiellement à des compétitions entre les éléments minéraux, tel que le sodium avec le potassium et le calcium, le chlorure avec le nitrate, le phosphate et le sulfate [1,2]. En conséquence, les glycophytes les plus tolérantes seront celles qui, tout en utilisant le Na + comme osmoticum, conserveront une forte sélectivité vis à vis du K + [3]. La stratégie utilisée par les végétaux pour éviter les problèmes d'excès d'ions tout en réalisant leur équilibre osmotique est la compartimentation cellulaire, qui se traduit par une accumulation préférentielle du Na + dans la vacuole [4]. Cependant, chez les glycophytes tolérantes, on discerne également une compartimentation à l'échelle de la plante, surtout dans les organes jeunes où la teneur en Na+ reste faible [5,6]. La variabilité pour la tolérance à la salinité a été étudiée chez beaucoup d'espèces [5,[7][8][9][10][11]. Pour des raisons pratiques, de nombreuses explorations de cette variabilité ont été abordées au stade végétatif sur des plantes très jeunes. Cette approche est justifiée par le fait que la réponse des plantules est parfois fortement prédictive de celle des plantes adultes [12][13][14]. Dans certains cas, l'écart entre la tolérance au stade plantule et celle au stade adulte peut justifier les différences entre les mécanismes impliqués d'un stade de développement à un autre [15][16][17][18][19]. Plusieurs recherches ont montré que la croissance en hauteur [20,21], la production de biomasse des tiges et des racines [22,23] est négativement affectée par l'augmentation de la salinité. Face à la salinisation des sols qui constitue l'un des facteurs abiotiques majeurs réduisant le rendement agricole, l'introduction d'espèces végétales tolérantes à la salinité est une stratégie alternative recommandée pour valoriser les sols touchés par ce phénomène. Cette approche, permettraient d'améliorer le couvert végétal et résoudre les problèmes de régénération de certaines espèces forestières en zones arides et semi-arides, particulièrement celles appartenant au genre Acacia qui représentent certainement une richesse écologique menacée en Afrique du Nord [24]. Acacia, appartenant à la famille des Fabacées, est identifié comme étant un genre cosmopolite, varié et riche. Ces espèces à usage multiple peuvent coloniser des sols pauvres grâce à leur capacité de fixer l'azote atmosphérique par leur association symbiotique avec le Rhizobium des nodosités racinaires. Au Maroc les écosystèmes à base d'Acacia représentent un enjeu stratégique pour les régions semi-arides, arides et sahariennes du pays aussi bien sur le plan écologique que socio-économique. Ces écosystèmes rares et originaux, peuvent constituer une protection naturel contre la désertification.et fournir un intérêt multifonctionnel et multi-usager, tels que leurs utilisations dans la production de bois d'énergie et de service, de gomme arabique, de substances pharmaceutiques, de fourrage, de produits mellifères, ainsi que leur utilisation en reboisement et en foresterie urbaine [25]. La maîtrise des exigences de croissance des plantules est une étape importante dans le succès des opérations de reboisement de ces espèces. Ce stade, très important pour le développement des plantes, est surtout contrôlé par des facteurs génétiques et environnementales, en particulier la salinité [26]. Malheureusement, au Maroc, peu de travaux de recherche sur le degré de tolérance à la salinité chez les Acacia ont été effectués. Notre présente étude s'inscrit dans le cadre d'une évaluation de la variabilité des réponses au stade plantule de six espèces d'Acacia soumises à des doses croissantes de NaCl. L'effet du stress salin a été abordé sur un certain nombre de caractères agro-morphologiques en conditions contrôlées. Ceci dans le but d'identifier le matériel végétal le plus performant pour des programmes de restauration et de valorisation de la productivité végétale, particulièrement pour la réhabilitation des parcours dégradés, c'est le cas d'Acacia gummifera et Acacia raddiana, ainsi que pour des projets de reboisements en milieux affectés par la salinité, dans le cas des espèces exotiques, comprenant Acacia eburnea, Acacia cyanophylla, Acacia cyclops et Acacia horrida. MATERIELS ET METHODES Matériel végétal L'analyse de la diversité de la tolérance à la salinité a porté sur deux espèces autochtones, représentées par Acacia gummifera et Acacia raddiana et quatre espèces exotiques, représentées par Acacia eburnea, Acacia cyanophylla, Acacia cyclops et Acacia horrida. La majeure partie des graines des différentes espèces testées ont été collectées sous forme de gousses dans différentes régions du sud-ouest marocain (Tableau 1). Elles nous ont été aimablement fournies par la station régionale des semences forestières de Marrakech et ont été conservées au froid (4°C) jusqu'à l'analyse. Caractères mesurés Après huit semaines de culture, quatre paramètres ont été mesurés dans différentes conditions de stress salin (Tableau 2). Les caractères retenus se rapportent au développement végétatif des plantes ainsi qu'à l'estimation de la valeur fourragère :  Nombre totale de feuilles (Nbr.Fll). Ces mêmes critères ont été aussi utilisés par d'autres auteurs dans l'estimation de la croissance de la biomasse chez certaines espèces d'Acacia cultivées sous stress salin [29,30]. Tableau 2: Le tableau montre les paramètres mesurés dans l'évaluation de l'effet de la salinité au stade végétatif. Code des caractères Signification Analyses statistiques Les six espèces ont été traitées selon un dispositif complètement randomisé, à raison de 10 plantes par population et par traitement. Les données relatives aux pourcentages de réduction des différents paramètres de croissance ont été transformées en arcsin racine carrée avant d'être soumises à l'analyse de variance à deux critères de classification (espèce et [NaCl]). La comparaison des moyennes entre les différentes espèces, pour chaque traitement, a été réalisée par le test de Newman et Keuls. Pour chaque concentration, les espèces dont les moyennes ne sont pas significativement différentes ont été regroupées dans une même ellipse sur les graphiques. Les traitements des données ont été réalisés par le logiciel Statistica (Version 6) [31]. RESULTATS Le tableau 3 résume l'analyse de variance de l'effet espèce et de l'effet NaCl ainsi que leur interaction. Pour l'ensemble des caractères, le teste ANOVA montre un effet très hautement significatif entres les espèces et entre les différents traitements de sel. Ces différences sont plus marquées dans le cas des caractères se rapportant à la croissance en longueur des plantules. De la même manière, l'interaction (NaCl * Espèce) révèle aussi un effet très hautement significatif pour les caractères longueur de la tige et le nombre de feuilles et un effet significatif si on considère le poids total de la matière sèche tandis que pour le diamètre du collet l'interaction n'est pas significative. En conséquence, pour ce dernier critère, la salinité agit sur les différentes espèces de la même manière, quel que soit la concentration. Pour le reste des paramètres étudiés, l'effet de NaCl diffère d'une espèce à l'autre. Tableau 3: Le tableau montre l'analyse de la variance à deux critères de classification abordée sur les différents caractères végétatifs mesurés chez les espèces d'Acacia étudiées. Caractères Diamètre du collet (D.Coll) L'augmentation de la concentration en sel dans la solution d'eau d'irrigation, diminue de façon significative le taux de croissance relative du diamètre du collet chez toutes les espèces considérées (figure 4). Pour ce critère on note une réduction plus faible par rapport aux autres caractères étudiés. À des concentrations allant de 200 à 400 mM, la réduction du diamètre du collet chez A. gummifera est significativement plus importante que celles des autres espèces. En effet, à 400 mM on note une régression qui peut atteindre 52% chez cette espèce comparativement à A. horrida chez laquelle la régression n'a été que de 14%. Les espèces A. horrida, A. raddiana et A. cyanophylla forment un groupe homogène et réagissent de la même manière au stress salin avec les réductions les plus faibles. Nombre de feuilles (Nbr.Fll) Pour ce caractère, on note une classification moins nette des différentes espèces surtout au niveau des concentrations modérées en sel (figure 5). L'espèce A. cyanophylla semble encore une fois la plus affectée par le sel et montre une réduction de sa production foliaire atteignant les 86% à la concentration 400 mM de NaCl. En générale cette espèce exhibe la plus grande sensibilité à la salinité à ce stade de développement. D'un autre côté, A. raddiana a présenté une faible réduction du nombre de feuilles par plante à la concentration 300 mM de NaCl. On note, dans ce cas, une réduction de 33% chez l'espèce la plus tolérante contre 63% chez A. cyanophylla pour atteindre à la concentration de 400 mM une réduction de 48% chez A. raddiana et 86% chez l'espèce la plus sensible. Biomasse totale (PS) L'augmentation de la concentration de NaCl a un effet significatif sur la biomasse sèche de toutes les parties de la plante (feuilles, tiges et racines) des espèces testées (figure 6). La plus grande variabilité a été observée pour les deux concentrations 300 et 400 mM de NaCl. Comme pour les caractères nombre de feuilles et longueur de la tige, A. cyanophylla se distingue, encore une fois, des autres espèces en affichant pour ce critère, toutes concentrations confondues, les réductions les plus élevées. Par ailleurs, A. horrida et A. raddiana semblent être, en générale, moins affectées pour ce caractère, elles ont montrée de ce fait les plus faibles régressions de la matière sèche totale élaborée, variant en moyenne entre 13 et 34% contre 40 et 77% pour A cyanophylla, la plus sensible. Les autres espèces occupent une situation intermédiaire et montrent une grande variabilité au niveau des doses élevées en NaCl (400 mM) par rapport aux concentrations faibles. DISCUSSIONS Les résultats présentés dans cette partie, montrent que la salinité réduit en générale la croissance des plantules chez l'ensemble des espèces étudiées. Néanmoins, une grande variabilité entre les espèces a été révélée à ce stade. Les interactions très hautement significatives entre les deux effets (espèce*salinité), observées dans notre cas, montre la possibilité d'une sélection essentiellement sur la base des caractères : Longueur de la tige, nombre de feuille et la biomasse totale. Toutefois, on a constaté qu'une espèce performante pour un caractère donné n'est pas forcément la meilleure pour un autre critère. C'est le cas d'A. cyanophylla dont le nombre de feuilles, la biomasse totale et la longueur de la tige paraissaient relativement affectée par le sel, mais dans le cas du caractère relatif au diamètre du collet elle était classée parmi les espèces les plus tolérantes. Nos résultats sont en concordance avec les travaux de Nguyen et al. [32] dans lesquels ils ont révélés que les deux espèces Acacia auriculiformis et Acacia mangium ont réagi également par une réduction de la croissance de la partie aérienne en réponse au stress salin. Cet effet est fréquent chez les glycophytes [33], où la diminution de la croissance de l'appareil végétatif observée peut être expliquée par une augmentation de la pression osmotique provoquée par NaCl, ce qui bloque l'absorption de l'eau par les racines. Les plantes s'adaptent ainsi au stress salin par la réduction de leur croissance afin d'éviter les dommages causés par le sel [34,35]. Les effets de la salinité sur la croissance des plantules cultivés en conditions semi contrôlées, dépendent de plusieurs facteurs. Ils varient selon la teneur de NaCl appliquée, l'espèce, la provenance, le stade végétatif et la partie de la plante [2]. Les effets de la salinité se manifestent principalement par un ralentissement de la croissance de l'appareil végétatif. D'autre part, il est important de signaler que toutes les espèces d'Acacia considérées dans ce travail ont survécu, même à 400 mM de NaCl, alors que selon Ghulam et al. [36], ce niveau de salinité a été nuisible pour A. nilotica tandis que A. ampliceps tolère cette concentration. La comparaison de la tolérance à la salinité chez cinq espèces d'Acacia : A. ampliceps, A. salicina, A. ligulata, A. holosericea et A. mangium a révélé que A. ampliceps était la plus tolérante et a survécu même à 428 mM en NaCl, concentration à laquelle toutes les autres espèces ont été sévèrement affectées [37]. Pour le paramètre matière sèche, les réductions les plus faibles sont enregistrées chez A. horrida et A. raddiana. Le pourcentage de réduction de la matière sèche, généralement considéré comme indice de sensibilité des plantes vis-à-vis du stress salin, montre que la concentration 400 mM NaCl est insuffisante pour engendrer une réduction relative de 50 % par rapport aux témoins, seuil très utilisé pour le classement de la tolérance des plantes [21]. En outre, même à une concentration plus faible (300 mM) les autres espèces manifestent des réductions plus marquées. Les feuilles sont les parties les plus sensibles de la plante au stress salin. Cependant, chez l'ensemble des espèces on assiste à une réduction significative du nombre de feuilles par rapport au témoin surtout à partir de 300 mM de NaCl. Des résultats similaires ont été rapportés sur d'autres espèces par [38][39][40][41]. D'autre part, au cours de l'expérimentation on a constaté que la croissance foliaire est également très affectée par l'augmentation du stress salin quelle que soit l'espèce. L'expansion des feuilles est considérablement inhibée par le sel, les nouvelles feuilles se développent lentement et le vieillissement des feuilles âgées s'accélère. D'ailleurs, quand la surface foliaire est réduite par la salinité, la production de carbohydrates devient insuffisante pour supporter la croissance et le rendement [42]. La réduction de la croissance, dans les conditions d'un stress salin est attribuée à plusieurs facteurs, parmi lesquelles l'accumulation des ions, aussi bien en Na + qu'en Clà des teneurs élevées dans les tissus foliaires qui est la cause principale des contraintes ioniques au niveau des tissus de la plante [43]. Selon ces auteurs, le stress salin cause un déséquilibre nutritionnel qui en résulte l'inhibition de l'absorption des éléments nutritifs essentiels comme le Ca 2+ , K + , Mg 2+ , NO3par les phénomènes de compétition minérale de fixation apoplasmique [44]. En outre, il est établi qu'un supplément de Ca 2+ dans le milieu de culture améliore les conditions de croissance sous stress salin [45]. Le dérèglement de l'absorption du calcium inhibe également l'établissement de la nodulation et la fixation d'azote chez les légumineuses [46]. Il parait que cet ion est impliqué dans le processus de la reconnaissance Rhizobium-poil absorbant [47]. Par ailleurs, la diminution de la croissance des parties aérienne peut aussi être expliquer par des perturbations des taux des régulateurs de croissance dans les tissus, particulièrement l'acide abscissique et les cytokinines induites par le sel [48], mais aussi à une diminution de la capacité photosynthétique provoqué par la diminution de la conductance stomatique de CO 2 sous la contrainte saline. Dans tous les cas, cette réduction de la croissance des différentes parties aériennes est considérée comme une stratégie adaptative nécessaire à la survie des plantes exposées à la salinité [49]. Ceci permet à la plante d'emmagasiner de l'énergie nécessaire pour faire face au stress afin de réduire les dommages irréversibles occasionnés, quand le seuil de la concentration létale est atteint [39]. De plus, il a été constaté que la tolérance au stade germination, dans les conditions de nos expériences, ne reflète pas dans tous les cas celle au stade végétatif. En effet, l'espèce A. horrida, classée parmi les plus sensibles au sel durant la germination, manifeste une tolérance importante vis-à-vis de NaCl au stade plantule. Par contre l'espèce A. raddiana, reconnue par sa tolérance à la salinité, très marquée, au stade germination, conserve globalement sa performance aux stades avancés. Cependant, la germination sous contrainte saline n'est pas suffisante pour identifier des espèces tolérantes au sel [26,50]. Dans ce contexte, de nombreux auteurs ont montré que la réponse à la salinité variait selon le stade de développement de la plante [51][52][53]. Toutefois, la germination et les premiers stades de la croissance seraient les phases les plus sensibles [54]. CONCLUSION Le stress salin exerce chez les Six espèces d'Acacia un effet dépressif sur tous les paramètres de croissance étudiés. Toutefois, le taux de réduction diffère selon l'intensité de stress salin et le degré de sensibilité ou de tolérance de l'espèce. La croissance en hauteur, le nombre de feuilles et la biomasse sèche totale sont vraisemblablement les plus affectés. Cependant, toutes les espèces d'Acacia considérées dans ce travail ont survécu, même à 400 mM de NaCl et présentent différents degrés de tolérance à la salinité. Les espèces A. horrida et A. raddiana s'avèrent globalement les plus performantes. Cette variabilité génétique dévoilée par ces espèces dans les différentes conditions de stress salin, surtout sous des seuils élevés en NaCl allant jusqu'à 400 mM, constitue un atout intéressant qui peut être utilisé aussi bien dans le choix des espèces à retenir pour améliorer la tolérance à la salinité que dans les programmes de valorisation et de réhabilitation des sols salés. Par ailleurs, ces recherches doivent être poursuivies par des expériences à des stades végétatifs plus avancés afin de confirmer les résultats constatés aux stades germination et juvénile. Toutefois, le dosage et l'identification des osmorégulateurs tels que la proline, pourrait mieux éclaircir les mécanismes d'ajustement osmotique nécessaires à ces plantes pour s'adapter au stress salin. Cela pourrait expliquer, par la même, leur tendance à l'halophilie, observée au cours des deux stades étudiés. Reconnaissance : Nous exprimons toute notre reconnaissance et nos remerciements aux responsables de la Station Régionale des Semences Forestières de Marrakech (Maroc) pour leurs informations et orientations au cours des prospections pour la récolte des gousses.  Diamètre au collet (D.Coll) : Le diamètre au collet en (mm), mesuré à l'aide d'un pied à coulisse (figure 1).  Longueur finale de la tige (Lg.Tige) : Mesurée en utilisant une règle graduée du collet à l'insertion du méristème apicale (figure 2).  Poids de la matière sèche (PS) : Ce paramètre est nettement plus fiable et plus simple. La biomasse totale (en mg de matière sèche) est séchée dans l'étuve à 87°C puis pesée 48 heures plus tard. Figure 1 : 1Mesure du diamètre au collet à l'aide d'un pied à coulisse. Figure 2 : 2Mesure de la longueur de la tige à l'aide d'une règle graduée. 3. 1 . 1Etude des caractères pris séparément pour l'ensemble des espèces étudiées 3.1.1. Longueur de la tige (Lg.Tige) L'analyse de variance pour la longueur de la tige révèle un effet très hautement significatif des deux facteurs, salinité et espèce ainsi que leur interaction. Le classement des différentes espèces par le test de Newman et Kheuls selon leur tolérance à la salinité, montre une régression de la croissance en hauteur de la tige des plantules chez les différentes espèces étudiées (figure 3). Cependant, les réductions les plus importantes ont été notées pour A. cyanophylla, surtout dans le cas des fortes concentrations. Elle enregistre jusqu'à 92% pour une concentration de 400 mM. Par ailleurs, A. horrida semble la moins perturbée par le sel, du moins pour ce caractères, et affiche les valeurs les plus faibles. Les pourcentages de réduction varient dans ce cas entre 10 % et 47 %, respectivement pour les concentrations 100 et 400 mM. Le reste des espèces réagissent avec modération et occupent une situation relativement intermédiaire entre ces deux dernières espèces. Figure 3 : 3Représentation des moyennes calculées pour chaque espèce étudiées par traitement de NaCl pour la longueur de la tige. (Les moyennes des espèces groupées dans la même ellipse ne sont pas significativement différentes selon le test de Newman et Keuls à 5%). Figure 4 : 4Représentation des moyennes calculées pour chaque espèce étudiées par traitement de NaCl pour le diamètre du collet. (Les moyennes des espèces groupées dans la même ellipse ne sont pas significativement différentes selon le test de Newman et Keuls à 5%). Figure 5 : 5Représentation des moyennes calculées pour l'ensemble des espèces étudiées par traitement en NaCl pour le nombre de feuilles. (Les moyennes des espèces groupées dans la même ellipse ne sont pas significativement différentes selon le test de Newman et Keuls à 5%). Figure 6 : 6Représentation des moyennes calculées pour l'ensemble des espèces étudiées par traitement en NaCl pour la biomasse totale (PS). (Les moyennes des espèces groupées dans la même ellipse ne sont pas significativement différentes selon le test de Newman et Keuls à 5%). Tableau 1 : 1Le tableau montre la localisation géographique des différents échantillons d'espèces étudiées.Espèces Provenance Région de provenance A. gummifera Reserve de faune de Rmila (Marrakech) Haut Atlas occidental A. raddiana Reserve de faune de Rmila (Marrakech) Haut Atlas occidental A. cyclops Région d'Essaouira Souss Nord A. cyanophylla Canal de Rocade (Marrakech) Haut Atlas occidental A. horrida Commune rurale de Saada (Marrakech) Haut Atlas occidental A. eburnea Commune rurale de Saada (Marrakech) Haut Atlas occidental Lg.Tige D.Coll Nbr.Fll PS Longueur de la tige Diamètre au collet Nombre totale de feuilles Biomasse totale (en mg de matière sèche) CM : Carré moyen ; NS : test non significatif ; * : test significatif ; *** : test très hautement significatifCM Espèce CM Sel CM Interaction F Espèce F Sel F Interaction Lg.Tige 11439,2 20596,0 555,2 121,697*** 219,111*** 5,907*** D.Coll 6051,7 2732,7 114,2 19,932*** 9,000*** 0,376 NS Nbr.Fll 3425,2 11918,6 317,0 32,291*** 112,363*** 2,988*** PS 6379,6 10101,6 279,3 42,478*** 67,261*** 1,860* This is an Open Access article distributed in accordance with the Creative Commons Attribution Non Commercial (CC BY-NC 4.0) license, which permits others to distribute, remix, adapt, build upon this work non-commercially, and license their derivative works on different terms, provided the original work is properly cited and the use is non-commercial. See: http://creativecommons.org/licenses/by-nc/4.0/ Effet du stress salin sur la germination de seize variétés d'orge (Hordeum vulgare L.). A Djerah, B Oudjehih, 20Courrier du SavoirDjerah, A. and Oudjehih, B., Effet du stress salin sur la germination de seize variétés d'orge (Hordeum vulgare L.). Courrier du Savoir, 2016. 20: p. 47-56. Available on: http://revues.univ-biskra.dz/index.php/cds/article/view/1445 Les plantes face au stress salin. Cahiers Agricultures. A Levigneron, F Lopez, G Vansuyt, P Berthomieu, P Fourcroy, F Casse-Delbart, 4Levigneron, A., Lopez, F., Vansuyt, G., Berthomieu, P., Fourcroy, P., and Casse-Delbart, F., Les plantes face au stress salin. Cahiers Agricultures, 1995. 4(4): p. 263-273. Available on: http://revues.cirad.fr/index.php/cahiers-agricultures/article/view/29899 Salt stress and comparative physiology in the Gramineae. IV. Comparison of salt stress in Spartina× townsendii and three barley cultivars. Wyn Jones, R G Storey, R , Functional Plant Biology. 56Wyn Jones, R.G. and Storey, R., Salt stress and comparative physiology in the Gramineae. IV. Comparison of salt stress in Spartina× townsendii and three barley cultivars. Functional Plant Biology, 1978. 5(6): p. 839-850. Available on: http://agris.fao.org/agris- search/search.do?recordID=US201301386936 Salt tolerance conferred by overexpression of a vacuolar Na+/H+ antiport in Arabidopsis. M P Apse, G S Aharon, W A Snedden, E Blumwald, Science. 2855431Apse, M.P., Aharon, G.S., Snedden, W.A., and Blumwald, E., Salt tolerance conferred by overexpression of a vacuolar Na+/H+ antiport in Arabidopsis. Science, 1999. 285(5431): p. 1256-1258. Available on: https://www.ncbi.nlm.nih.gov/pubmed/10455050 Identification and quantification of salinity tolerance through salt stress indices and variability studies in rice. P Senguttuvel, N S Raju, G Padmavathi, Oryza sativa L.). SABRAO Journal of Breeding & Genetics. 482Senguttuvel, P., Raju, N.S., Padmavathi, G., et al., Identification and quantification of salinity tolerance through salt stress indices and variability studies in rice (Oryza sativa L.). SABRAO Journal of Breeding & Genetics, 2016. 48(2): p. 172-179. Available on: https://www.cabdirect.org/cabdirect/abstract/20163217766 Determination of screening techniques to salinity tolerance in tomatoes and investigation of genotype responses. H Y Dasgan, H Aktas, K Abak, I Cakmak, Plant Science. 1634Dasgan, H.Y., Aktas, H., Abak, K., and Cakmak, I., Determination of screening techniques to salinity tolerance in tomatoes and investigation of genotype responses. Plant Science, 2002. 163(4): p. 695-703. Available on: http://www.sciencedirect.com/science/article/pii/S0168945202000912 Sicilian populations: seed germination under salt and moisture stresses. S A Raccuia, V Cavallaro, G M Melilli, Journal of Arid Environments. 561Intraspecific variability in Cynara cardunculus L. var. sylvestris LamRaccuia, S.A., Cavallaro, V., and Melilli, G.M., Intraspecific variability in Cynara cardunculus L. var. sylvestris Lam. Sicilian populations: seed germination under salt and moisture stresses. Journal of Arid Environments, 2004. 56(1): p. 107-116. Available on: http://www.sciencedirect.com/science/article/B6WH9-488Y5FB-7/1/87d673fbecce3d25894b3228822a3c5e Assessment of genetic variability of bread wheat (Triticum aestivum L.) genotypes for salinity using salt tolerance indices. S Singh, R Sengar, S Bhatnagar, P Chand, M Yadav, R Singh, International Journal of Agriculture Innovations and Research. 33Singh, S., Sengar, R., Bhatnagar, S., Chand, P., Yadav, M., and Singh, R., Assessment of genetic variability of bread wheat (Triticum aestivum L.) genotypes for salinity using salt tolerance indices. International Journal of Agriculture Innovations and Research, 2014. 3(3): p. 874-879. Available on: https://ijair.org/administrator/components/com_jresearch/files/publications/IJAIR_1125_Final.pdf Diversity of Salt Tolerance During Germination in Medicago ciliaris (L.) and Medicago polymorpha. K Chérifi, E Boufous, A Mousadik, Chérifi, K., Boufous, E., and El Mousadik, A., Diversity of Salt Tolerance During Germination in Medicago ciliaris (L.) and Medicago polymorpha (L.). . Atlas Journal of Plant Biology. 11Atlas Journal of Plant Biology, 2016 1(1): p. 6-12. Available on: http://www.atlas-publishing.org/wp-content/uploads/2013/07/2-AJPB- Cherifi_et_al_2011.pdf Comparative Salt Tolerance Study of Some Acacia Species at Seed Germination Stage. K Chérifi, E Boufous, H Boubaker, F Msanda, Asian Journal of Plant Sciences. 15Chérifi, K., Boufous, E., Boubaker, H., and Msanda, F., Comparative Salt Tolerance Study of Some Acacia Species at Seed Germination Stage. Asian Journal of Plant Sciences, 2016. 15: p. 66-74. Available on: http://scialert.net/abstract/?doi=ajps.2016.66.74 Growth and proline content in NaCl stressed plants of annual medic species. K Chérifi, A Haddioui, M El Hansali, E Boufous, Int. J. Adv. Res. Biol. Sci. 39Chérifi, K., Haddioui, A., El Hansali, M., and Boufous, E., Growth and proline content in NaCl stressed plants of annual medic species. Int. J. Adv. Res. Biol. Sci., 2016. 3(9): p. 82-90. Available on: https://arxiv.org/abs/1609.07140# Effet du stress salin sur la germination, la croissance et la production en grains chez quelques écotypes de mil (Pennisetum glaucum (L.) R. Br.) autochtones de Tunisie. L Radhouane, Comptes Rendus Biologies. 3314Radhouane, L., Effet du stress salin sur la germination, la croissance et la production en grains chez quelques écotypes de mil (Pennisetum glaucum (L.) R. Br.) autochtones de Tunisie. Comptes Rendus Biologies, 2008. 331(4): p. 278-286. Available on: http://www.sciencedirect.com/science/article/pii/S1631069108000267 Heritability of NaCl tolerance at the seedling stage in seven grass species. M Ashraf, T Mcnelly, A Bradshaw, https:/link.springer.com/article/10.1007/BF00028602Euphytica. 353Ashraf, M., McNelly, T., and Bradshaw, A., Heritability of NaCl tolerance at the seedling stage in seven grass species. Euphytica, 1986. 35(3): p. 935-940. Available on: https://link.springer.com/article/10.1007/BF00028602 Plant response to saline substrates VII. Growth and ion uptake throughout plant development in two varieties of Hordeum vulgare. H Greenway, Australian Journal of Biological Sciences. 184Greenway, H., Plant response to saline substrates VII. Growth and ion uptake throughout plant development in two varieties of Hordeum vulgare. Australian Journal of Biological Sciences, 1965. 18(4): p. 763-780. Available on: http://www.publish.csiro.au/BI/BI9650763 Screening of local/exotic accessions of lentil (Lens culinaris Medic.) for salt tolerance at two growth stages. M Ashraf, A Waheed, https:/link.springer.com/article/10.1007/BF00011106Plant and Soil. 1282Ashraf, M. and Waheed, A., Screening of local/exotic accessions of lentil (Lens culinaris Medic.) for salt tolerance at two growth stages. Plant and Soil, 1990. 128(2): p. 167-176. Available on: https://link.springer.com/article/10.1007/BF00011106 Identification of QTLs for salt tolerance at germination and seedling stage of Sorghum bicolor L. H Wang, G Chen, H Zhang, MoenchWang, H., Chen, G., Zhang, H., et al., Identification of QTLs for salt tolerance at germination and seedling stage of Sorghum bicolor L. Moench. . https:/link.springer.com/article/10.1007/s10681-013-1019-7Euphytica. 1961Euphytica, 2014. 196(1): p. 117-127. Available on: https://link.springer.com/article/10.1007/s10681-013-1019-7 Physiological mechanism of tolerance of Lycopersicon spp. exposed to salt stress. L R Rajasekaran, D Aspinall, L Paleg, http:/www.nrcresearchpress.com/doi/pdf/10.4141/P99-003Canadian Journal of Plant Science. 801Rajasekaran, L.R., Aspinall, D., and Paleg, L., Physiological mechanism of tolerance of Lycopersicon spp. exposed to salt stress. Canadian Journal of Plant Science, 2000. 80(1): p. 151-159. Available on: http://www.nrcresearchpress.com/doi/pdf/10.4141/P99-003 Physiological and Biochemical Responses of Silybum marianum to Salt Stress at Germinating and Seedling Stages. X Zhang, K Wang, Y Zhang, Q Wang, Z Cui, Acta Botanica Boreali-Occidentalia Sinica. 10Zhang, X., Wang, K., Zhang, Y., Wang, Q., and Cui, Z., Physiological and Biochemical Responses of Silybum marianum to Salt Stress at Germinating and Seedling Stages. Acta Botanica Boreali-Occidentalia Sinica, 2013. 10: p. 2050-2056. Available on: http://en.cnki.com.cn/Article_en/CJFDTOTAL- DNYX201310018.htm Effect of NaCl salinity on wheat (Triticum aestivum L.) cultivars at germination stage. H Homayoun, Advances in Environmental Biology. Homayoun, H., Effect of NaCl salinity on wheat (Triticum aestivum L.) cultivars at germination stage. Advances in Environmental Biology, 2011: p. 1716-1721. Available on: https://www.idosi.org/wjas/wjas4 Caractéristiques de la croissance et de la production en fruits chez trois variétés de piment (Capsicum annuum L.) sous stress salin. Tropicultura. S I Maaouia-Houimli, M Denden, B Dridi-Mouhandes, S B Mansour-Gueddes, 29Maaouia-Houimli, S.I., Denden, M., Dridi-Mouhandes, B., and Mansour-gueddes, S.B., Caractéristiques de la croissance et de la production en fruits chez trois variétés de piment (Capsicum annuum L.) sous stress salin. Tropicultura, 2011. 29(2): p. 75-81. Available on: http://www.tropicultura.org/text/v29n2/75.pdf Evaluation sous serre de la tolérance à la salinité de quelques porte-greffes d'agrumes: Citrus aurantium et deux hybrides de Poncirus trifoliata (Poncirus x Citrus sinensis et Poncirus x Mandarinier sunki). Biotechnologie, agronomie, société et environnement. A Rochdi, J Lemsellek, A Bousarhal, Abdellatif , R , 9Rochdi, A., Lemsellek, J., Bousarhal, A., and Abdellatif, R., Evaluation sous serre de la tolérance à la salinité de quelques porte-greffes d'agrumes: Citrus aurantium et deux hybrides de Poncirus trifoliata (Poncirus x Citrus sinensis et Poncirus x Mandarinier sunki). Biotechnologie, agronomie, société et environnement, 2005. 9(1): p. 65-73. Available on: http:// Tolérance à la salinité d'une poaceae à cycle court: la sétaire (Setaria verticillata L.). H B Ahmed, A Manaa, E Zid, Comptes Rendus Biologies. 3312Ahmed, H.B., Manaa, A., and Zid, E., Tolérance à la salinité d'une poaceae à cycle court: la sétaire (Setaria verticillata L.). Comptes Rendus Biologies, 2008. 331(2): p. 164-170. Available on: http://www.sciencedirect.com/science/article/pii/S1631069107003794 M Zaman-Allah, B Sifi, B L&apos;taief, M H Aouni, Paramètres agronomiques liés à la tolérance au sel chez le haricot. Phaseolus vulgarisZaman-Allah, M., Sifi, B., L'Taief, B., and El Aouni, M.H., Paramètres agronomiques liés à la tolérance au sel chez le haricot (Phaseolus vulgaris /Agronomical traits associated with salinity-tolerance in common bean (Phaseolus vulgaris L.). Biotechnologie, Agronomie, Société et Environnement. 13/Agronomical traits associated with salinity-tolerance in common bean (Phaseolus vulgaris L.). Biotechnologie, Agronomie, Société et Environnement, 2009. 13(1): p. 113-119. Available on: http://www.pressesagro.be/base/index.php/base/article/viewFile/383/370 Study of Acacia tortilis seed germination under different abiotic constraints. W Jaouadi, L Hamrouni, N Souayeh, M L Khouja, Biotechnology, Agronomy, Society and Environment. 14Jaouadi, W., Hamrouni, L., Souayeh, N., and Khouja, M.L., Study of Acacia tortilis seed germination under different abiotic constraints. Biotechnology, Agronomy, Society and Environment, 2010. 14: p. 643-652. Available on: https://www.cabdirect.org/cabdirect/abstract/20113038841?start=465550 Role des acacias dans l'economie rurale des regions seches d'Afrique et du Proche-Orient. G Wickens, A Seif El Din, G Sita, I Nahal, Cahier FAO: Conservation (FAO). Wickens, G., Seif El Din, A., Sita, G., and Nahal, I., Role des acacias dans l'economie rurale des regions seches d'Afrique et du Proche-Orient, in Cahier FAO: Conservation (FAO). no. 27. 1996. p. 7-21. Available on: http://www.fao.org/docrep/v5360f/v5360f00.htm Effet des contraintes hydrique et saline sur la germination de quelques Acacias africains. P Ndour, P Danthu, L'acacia au Sénégal, CNdour, P. and Danthu, P., Effet des contraintes hydrique et saline sur la germination de quelques Acacias africains, in L'acacia au Sénégal, C. . C Campa, M Grignon, S Gueye, D S Hamon, 1996/12/03-05Réunion ThématiqueORSTOM: ParisCampa, C. Grignon, M. Gueye, S. Hamon, and D.S. L'Acacia au Sénégal : Réunion Thématique, 1996/12/03-05, Editors. 1998, ORSTOM: Paris. p. 105- 122. Available on: http://www.documentation.ird.fr/hor/fdi:010016071 Salinity tolerance mechanisms of six C4 turfgrasses. K B Marcum, C L Murdoch, Journal of the American Society for Horticultural Science. 1194Marcum, K.B. and Murdoch, C.L., Salinity tolerance mechanisms of six C4 turfgrasses. Journal of the American Society for Horticultural Science, 1994. 119(4): p. 779-784. Available on: http://journal.ashspublications. Comparison of strategies of halophytes from different plant families to avoid salt injury, in Plant Nutrition. H.-W Koyro, B Huchzermeyer, M Harrouni, SpringerKoyro, H.-W., Huchzermeyer, B., and Harrouni, M., Comparison of strategies of halophytes from different plant families to avoid salt injury, in Plant Nutrition. 2001, Springer. p. 414-415. Available on: https://link.springer.com/chapter/10.1007%2F0-306-47624-X_200 Effet de la salinité sur la croissance et la production de biomasse de deux provenances de Jatropha curcas L. cultivés en serre. M Ly, D Kumar, M Diouf, S Nautiyal, T Diop, International Journal of Biological and Chemical Sciences. 81Ly, M., Kumar, D., Diouf, M., Nautiyal, S., and Diop, T., Effet de la salinité sur la croissance et la production de biomasse de deux provenances de Jatropha curcas L. cultivés en serre. International Journal of Biological and Chemical Sciences, 2014. 8(1): p. 46-56. Available on: http://www.ajol.info/index.php/ijbcs/article/view/104031 Effects of NaCl on seedling growth, biomass production and water status of Acacia nilotica and A. tortilis. A Mehari, T Ericsson, M Weih, Journal of Arid Environments. 62Mehari, A., Ericsson, T., and Weih, M., Effects of NaCl on seedling growth, biomass production and water status of Acacia nilotica and A. tortilis. Journal of Arid Environments, 2005. 62: p. 343-349. Available on: http://www.sciencedirect.com/science/article/pii/S0140196305000108 STATISTICA (data analysis software system), version 6. I Statsoft, 150Tulsa, USAStatSoft, I., STATISTICA (data analysis software system), version 6. Tulsa, USA, 2001. 150. Available on: www.statsoft.com/french/welcome.html RAPD markers associated with salt tolerance in Acacia auriculiformis and Acacia mangium. Plant science. N T Nguyen, R E Moghaieb, H Saneoka, K Fujita, 167Nguyen, N.T., Moghaieb, R.E., Saneoka, H., and Fujita, K., RAPD markers associated with salt tolerance in Acacia auriculiformis and Acacia mangium. Plant science, 2004. 167(4): p. 797-805. Available on: http://www.sciencedirect.com/science/article/pii/S0168945204002237 Response of two greenhouse pepper hybrids to NaCl salinity during different growth stages. K Chartzoulakis, G Klapaki, Scientia Horticulturae. 863Chartzoulakis, K. and Klapaki, G., Response of two greenhouse pepper hybrids to NaCl salinity during different growth stages. Scientia Horticulturae, 2000. 86(3): p. 247-260. Available on: http://www.sciencedirect.com/science/article/pii/S0304423800001515 Varietal differences in the toxicity of sodium ions in rice leaves. A Yeo, T Flowers, http:/onlinelibrary.wiley.com/doi/10.1111/j.1399-3054.1983.tb00756.x/fullPhysiologia Plantarum. 592Yeo, A. and Flowers, T., Varietal differences in the toxicity of sodium ions in rice leaves. Physiologia Plantarum, 1983. 59(2): p. 189-195. Available on: http://onlinelibrary.wiley.com/doi/10.1111/j.1399-3054.1983.tb00756.x/full Salt and drought stress signal transduction in plants. Annual review of plant biology. J.-K Zhu, 53Zhu, J.-K., Salt and drought stress signal transduction in plants. Annual review of plant biology, 2002. 53: p. 247-273. Available on: https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3128348/ Salinity tolerance potential of two acacia species at early seedling stage. A Ghulam, M Saqib, J Akhtar, S M A Basra, Pak. J. Agri. Sci. 504Ghulam, A., Saqib, M., Akhtar, J., and Basra, S.M.A., Salinity tolerance potential of two acacia species at early seedling stage. Pak. J. Agri. Sci, 2013. 50(4 ): p. 683-688. Available on: http://pakjas.com.pk/papers/2225.pdf Relationship between salt tolerance and proline accumulation in Australian acacia species. S Yokota, https:/link.springer.com/article/10.1007/s103100300010Journal of Forest Research. 82Yokota, S., Relationship between salt tolerance and proline accumulation in Australian acacia species. Journal of Forest Research, 2003. 8(2): p. 89-93. Available on: https://link.springer.com/article/10.1007/s103100300010 . L B Khaled, A Gõmez, M Honrubia, A Oihabi, Effet du stress salin en milieu hydroponique sur le trèfle inoculé par le RhizobiumKhaled, L.B., Gõmez, A., Honrubia, M., and Oihabi, A., Effet du stress salin en milieu hydroponique sur le trèfle inoculé par le Rhizobium. . Agronomie, 23Agronomie, 2003. 23(7): p. 553-560. Available on: http://www.agronomy-journal.org/articles/agro/abs/2003/06/A3702/A3702.html Effet du stress salin sur la germination et la croissance in vitro du pistachier. B Benmahioul, F Daguin, M Kaid-Harche, Pistacia vera L.Benmahioul, B., Daguin, F., and Kaid-Harche, M., Effet du stress salin sur la germination et la croissance in vitro du pistachier (Pistacia vera L.). . Comptes Rendus Biologies. 3328Comptes Rendus Biologies, 2009. 332(8): p. 752-758. Available on: http://www.sciencedirect.com/science/article/pii/S1631069109000936 Salinity effects on growth, proline and ion accumulation in strawberry plants. L Pirlak, A Eşitken, http:/www.tandfonline.com/doi/abs/10.1080/0906471040030249?journalCode=sagb20Acta Agriculturae Scandinavica, Section B-Soil & Plant Science. 543Pirlak, L. and Eşitken, A., Salinity effects on growth, proline and ion accumulation in strawberry plants. Acta Agriculturae Scandinavica, Section B- Soil & Plant Science, 2004. 54(3): p. 189-192. Available on: http://www.tandfonline.com/doi/abs/10.1080/0906471040030249?journalCode=sagb20 Effect of salt stress on Pistacia atlantica rootstock seedlings in nursery conditions. A C Chaabouni, M Hammami, M Gouia, K Gargouri, R Gargouri, N Drira, Options Méditerranéennes. Série A. 94Chaabouni, A.C., Hammami, M., Gouia, M., Gargouri, K., Gargouri, R., and Drira, N., Effect of salt stress on Pistacia atlantica rootstock seedlings in nursery conditions. Options Méditerranéennes. Série A, Séminaires Méditerranéens, 2010(94): p. 135-140. Available on: http://ressources.ciheam.org/om/pdf/a94/00801296.pdf The significance of a two-phase growth response to salinity in wheat and barley. R Munns, D Schachtman, A Condon, Functional Plant Biology. 224Munns, R., Schachtman, D., and Condon, A., The significance of a two-phase growth response to salinity in wheat and barley. Functional Plant Biology, 1995. 22(4): p. 561-569. Available on: http://www.publish.csiro.au/fp/PP9950561 Approaches to increasing the salt tolerance of wheat and other cereals. R Munns, R A James, A Läuchli, Journal of Experimental Botany. 575Munns, R., James, R.A., and Läuchli, A., Approaches to increasing the salt tolerance of wheat and other cereals. Journal of Experimental Botany, 2006. 57(5): p. 1025-1043. Available on: https://academic.oup.com/jxb/article/57/5/1025/641280/Approaches-to-increasing-the-salt-tolerance-of Effet du chlorure de sodium (NaCl) sur la croissance de la roselle au Gabon. A N Lépengué, I Mouaragadja, M Chérif, B M&apos;batchi, Aké , S , Afrique Science. 53Lépengué, A.N., Mouaragadja, I., Chérif, M., M'batchi, B., and Aké, S., Effet du chlorure de sodium (NaCl) sur la croissance de la roselle au Gabon. Afrique Science, 2009. 5(3): p. 97-110. Available on: http://www.afriquescience.info/document.php?id=1673 On the mechanism of salt tolerance in olive (Olea europaea L.) under low-or high-Ca 2+ supply. M Tattini, M L Traversi, Environmental and Experimental Botany. 651Tattini, M. and Traversi, M.L., On the mechanism of salt tolerance in olive (Olea europaea L.) under low-or high-Ca 2+ supply. Environmental and Experimental Botany, 2009. 65(1): p. 72-81. Available on: http://www.sciencedirect.com/science/article/pii/S0098847208000166 Effects of boron and calcium nutrition on the establishment of the Rhizobium leguminosarum-pea (Pisum sativum) symbiosis and nodule development under salt stress. A El-Hamdaoui, M Redondo-Nieto, R Rivilla, I Bonilla, L Bolanos, http:/onlinelibrary.wiley.com/doi/10.1046/j.1365-3040.2003.00995.x/abstractPlant, Cell & Environment. 267El-Hamdaoui, A., Redondo-NietO, M., Rivilla, R., Bonilla, I., and Bolanos, L., Effects of boron and calcium nutrition on the establishment of the Rhizobium leguminosarum-pea (Pisum sativum) symbiosis and nodule development under salt stress. Plant, Cell & Environment, 2003. 26(7): p. 1003- 1011. Available on: http://onlinelibrary.wiley.com/doi/10.1046/j.1365-3040.2003.00995.x/abstract Osmotic control of glycine betaine biosynthesis and degradation in Rhizobium meliloti. L T Smith, J.-A Pocard, T Bernard, Le Rudulier, D , Journal of Bacteriology. 1707Smith, L.T., Pocard, J.-A., Bernard, T., and Le Rudulier, D., Osmotic control of glycine betaine biosynthesis and degradation in Rhizobium meliloti. Journal of Bacteriology, 1988. 170(7): p. 3142-3149. Available on: https://www.ncbi.nlm.nih.gov/pmc/articles/PMC211261/ Phytohormones and plant responses to salinity stress: a review. Plant Growth Regulation. S Fahad, S Hussain, A Matloob, https:/link.springer.com/article/10.1007/s10725-014-0013-y75Fahad, S., Hussain, S., Matloob, A., et al., Phytohormones and plant responses to salinity stress: a review. Plant Growth Regulation, 2015. 75(2): p. 391-404. Available on: https://link.springer.com/article/10.1007/s10725-014-0013-y Effet de la salinité sur la germination et la croissance in vitro du Washingtonia filifera L. E A Daroui, A Boukroute, N.-E Kouddane, A Berrichi, Nature & Technology. 8Daroui, E.A., Boukroute, A., Kouddane, N.-E., and Berrichi, A., Effet de la salinité sur la germination et la croissance in vitro du Washingtonia filifera L. Nature & Technology, 2013. 8: p. 32-38. Available on: http://www.univ-chlef.dz/RevueNatec/Art_8_B_05.pdf Effet du chlorure de sodium sur la germination des graines de trois variétés de pastèque (Citrullus lanatus L.). Science et changements planétaires/Sécheresse. H Askri, S Rejeb, H Jebari, H Nahdi, M N Rejeb, 18Askri, H., Rejeb, S., Jebari, H., Nahdi, H., and Rejeb, M.N., Effet du chlorure de sodium sur la germination des graines de trois variétés de pastèque (Citrullus lanatus L.). Science et changements planétaires/Sécheresse, 2007. 18(1): p. 51-55. Available on: http://cat.inist.fr/?aModele=afficheN&cpsidt=18642209 Salt sensitivity of wheat at various growth stages. Irrigation Science. E Maas, J Poss, https:/link.springer.com/article/10.1007/BF0026615510Maas, E. and Poss, J., Salt sensitivity of wheat at various growth stages. Irrigation Science, 1989. 10(1): p. 29-40. Available on: https://link.springer.com/article/10.1007/BF00266155 Mineral nutrient acquisition and response by plants grown in saline environments. Handbook of plant and crop stress. S Grattan, C Grieve, http:/www.crcnetbase.com/doi/abs/10.1201/9780824746728.ch92Grattan, S. and Grieve, C., Mineral nutrient acquisition and response by plants grown in saline environments. Handbook of plant and crop stress, 1999. 2: p. 203-229. Available on: http://www.crcnetbase.com/doi/abs/10.1201/9780824746728.ch9 Salt effects on seed germination and seedling emergence of two Acacia species. A K Abari, M H Nasr, M Hojjati, D Bayat, African Journal of Plant Science. 51Abari, A.K., Nasr, M.H., Hojjati, M., and Bayat, D., Salt effects on seed germination and seedling emergence of two Acacia species. African Journal of Plant Science, 2011. 5(1): p. 52-56. Available on: http://www.academicjournals.org/journal/AJPS/article-abstract/A029D542863 Improving drought tolerance of germinating seeds by exogenous application of gibberellic acid (GA3) in rapeseed (Brassica napus L. Z Li, G Lu, X Zhang, C Zou, Y Cheng, P Zheng, Seed Science and Technology. 38Li, Z., Lu, G., Zhang, X., Zou, C., Cheng, Y., and Zheng, P., Improving drought tolerance of germinating seeds by exogenous application of gibberellic acid (GA3) in rapeseed (Brassica napus L.). Seed Science and Technology, 2010. 38(2): p. 432-440. Available on: http://www.ingentaconnect.com/content/ista/sst/2010/00000038/00000002/art00016 Effet du Chlorure de sodium (NaCl) sur la croissance de six espèces d'Acacia. Citer, K Chérifi, A Anagri, E Boufous, A El Mousadik, American Journal of Innovative Research and Applied Sciences. 44Citer cet article: Chérifi K., Anagri, A., Boufous E. and El Mousadik A. Effet du Chlorure de sodium (NaCl) sur la croissance de six espèces d'Acacia. American Journal of Innovative Research and Applied Sciences. 2017; 4(4): 105-113.
sample_414
0.8825
arxiv
Scenario-based Optimization Models for Power Grid Resilience to Extreme Flooding Events Ashutosh Shukla Erhan Kutanoglu John J Hasenbein Scenario-based Optimization Models for Power Grid Resilience to Extreme Flooding Events Graduate Program in Operations Research and Industrial Engineering The University of Texas at Austin, Austin, United Stateshurricanesstorm-surgestochastic programmingrobust optimization We propose two scenario-based optimization models for power grid resilience decision making that integrate output from a hydrology model with a power flow model. The models are used to identify an optimal substation hardening strategy against potential flooding from storms for a given investment budget, which if implemented enhances the resilience of the power grid, minimizing the power demand that is shed. The same models can alternatively be used to determine the optimal budget that should be allocated for substation hardening when longterm forecasts of storm frequency and impact (specifically restoration times) are available. The two optimization models differ in terms of capturing risk attitude: one minimizes the average load shed for given scenario probabilities and the other minimizes the worst-case load shed without needing scenario probabilities. To demonstrate the efficacy of the proposed models, we further develop a case study for the Texas Gulf Coast using storm surge maps developed by the National Oceanic and Atmospheric Administration and a synthetic power grid for the state of Texas developed as part of an ARPA-E project. For a reasonable choice of parameters, we show that a scenario-based representation of uncertainty can offer a significant improvement in minimizing load shed as compared to using point estimates or average flood values. We further show that when the available investment budget is relatively high, solutions that minimize the worst-case load shed can offer several advantages as compared to solutions obtained from minimizing the average load shed. Lastly, we show that even for relatively low values of load loss and short post-hurricane power restoration times, it is optimal to make significant investments in substation hardening to deal with the storm surge considered in the NOAA flood scenarios. Introduction In the past few years, hurricanes and tropical storms have caused significant damage to critical infrastructures such as transportation systems, healthcare services, and the power grid. Hurricanes Maria, Irma, and Harvey together cost nearly $265B which was more than 85% of total weatherrelated disaster costs in the U.S. in 2017 [1]. Harvey became not only the longest-lasting hurricane with a record level of rainfall but also the costliest at $130B, part of which was due to power outages. Harvey damaged 90+ substations, downed 800+ transmission assets, 6000+ distribution poles, and 800+ miles of power lines, with a peak power generation loss of 11GW, affecting over 2 million people. It took 2 weeks and 12,000 crew members to restore power [2]. The power grid is impacted by hurricanes and tropical storms primarily due to strong winds and flooding. To address this, a vast body of research that examines the effect of wind fields on transmission lines and towers has been developed. However, to the best of our knowledge, the literature is quite scant on the models that assess the impact of flooding. At the same time, the cost of such disasters has increased in states like Texas which is exposed to the Atlantic basin through the Gulf of Mexico. Moreover, recent studies suggest that we are likely to see more frequent and intense hurricanes in the near future [3]. In response to this, some utilities have employed on-site meteorologists which they have reported to be beneficial [2]. These meteorologists localize the predictions to obtain flood estimates for the region of interest. The estimates are then used to determine the resources needed for forecasted damage and post-storm recovery. To further improve this decision-making process, we present an end-to-end scenario-based optimization approach that integrates the output from a predictive geoscience-based flood model with a power flow model to recommend a plan for substation hardening to relieve the flood impacts of the potential storms. While doing so, the scenario-based approach accounts for the uncertainty associated with storms and their flood forecasts. Specifically, we propose two scenario-based optimization models (stochastic and robust) for grid resilience decision making under uncertainty. The choice of the model to be used for decisionmaking depends on the available information about the uncertain parameters which in our case are the flood levels at substations in a flood scenario. We show how the proposed models can be used to identify the substations that should be protected and to what extent. We further explain how the same models can be used for deciding the optimal budget that should be allocated for substation hardening to minimize the expected total disaster management cost. The aforementioned features of the models can help power utilities and grid operators address their concerns like the unpredictable nature of the load loss, the potential for substation flooding, and the potential reduction in generator output due to loss of load as outlined in [2]. The rest of the article is organized as follows. Section 2 presents a review of the literature on power grid resilience, particularly from a modeling and decision making viewpoint. Section 3 presents the overview of the proposed models followed by the notation, assumptions, mathematical formulation, and a brief discussion on the characteristics of the models. Section 4 is dedicated to the development of a case study for the Texas Gulf Coast and Section 5 is to the discussion of the results. We conclude with directions for future research in Section 6. Literature Review Power grid resilience to extreme events like cyber-attacks and natural disasters has been a topic of intense research in the past few years [4]. This includes studies focused on developing resilience metrics, methodological frameworks to enhance power grid resilience, and approaches to risk analysis [5,6,7]. In addition, several mathematical models have been developed to aid decision-making in different stages of the power grid resilience management cycle. These models can be categorized based on the planning phase they are developed for: mitigation, preparedness, response, and recovery. Using the flood as an extreme event that the resilience models are designed to respond to, the mitigation decisions are about the permanent hardening of the grid components, re-design of the grid through the introduction of new substations/transmission lines, installation of backup generation, etc. These decisions are made well before the start of the hurricane season when limited information about upcoming hurricanes is available. Similarly, before an imminent hurricane, during the preparedness phase, one has to make decisions about where to install temporary flood barriers like Tiger Dams™ , where to deploy mobile substations to quickly recover damaged substations, and what part of the grid to disconnect to avoid fatal accidents due to the collapse of power lines. In both the mitigation and preparation phases, decision-makers face significant uncertainty about storm characteristics like path, intensity, forward speed, and precipitation. The decision-making in the response and recovery phase, on the other hand, is not plagued by weather uncertainty. Since this paper focuses on decision-making under weather uncertainty, we limit the review's focus to models that aid decision-making during the mitigation and preparedness phases. Models for both the mitigation and preparedness phases can be broadly categorized into two groups: (1) machine learning-based and (2) optimization-based. In the case of machine learningbased models, the focus is on prediction, not decision making. For example, a machine learningbased model may predict metrics of interest such as the number of outages, outage duration, etc., for an upcoming hurricane [8,9,10]. However, decision making based on these predictions, like which substations to protect and how to reconfigure the power grid network to minimize load shed, are not typically considered within the model. Optimization-based models leverage predictions for decision making. To do so, the predictions with associated uncertainty are represented using scenarios. The decision-making model is then coupled with these scenarios. The models that we propose in this study belong to the class of optimization-based models. In the subsequent paragraphs, we survey the key characteristics of some of these models and highlight their differences from what we propose. The optimization models generally consist of two components: uncertainty quantification and decision modeling. To quantify uncertainty about the weather, we first generate a set of scenarios using various kinds of models, such as machine learning-based models, physics-based models, and expert opinions. Then, irrespective of how the scenarios are generated, the decision-making model considers the impacts on the grid under each scenario to recommend decisions that minimize a certain risk measure. The models we review in this subsection are based on different ways the aforementioned components of the optimization model can be developed. In particular, we review various methods of generating representative scenarios and incorporating them into alternative decision making models. Scenario generation Scenario generation is one of the most common uncertainty quantification methods for extreme weather. We divide scenario generation techniques into four categories. The first is based on fragility curves. The curve represents the failure probability of a component as a function of some loading parameter. For example, fragility curves for transmission towers have been developed with respect to wind speeds. Such curves have been used in various power grid resilience decision making studies [11,12]. The second is based on statistical methods. For example, in [13], the authors use historical hurricane and tropical storm data for developing a baseline scenario. The alternative scenarios are then developed by altering parameters from the historical data to simulate plausible climate-induced changes to storm behavior. In [14], the path and the wind field of typhoons are simulated using Monte Carlo sampling to quantify the spatio-temporal impacts of wind speed on the transmission line status. In addition to wind and flooding, winter storms in Texas, such as Uri of 2021, have propelled research in power grid resilience to extreme cold events. For example, in [15], the authors have developed a statistical model where they incorporate historical outage data to generate scenarios of generator outages due to extreme cold events. The third set of methods is based on physics-based hydrological models. Two such models, called WRF-Hydro and SLOSH, are used in [16,17] to generate flooding scenarios. In [18], the authors use physics-based climate models to evaluate the resilience of levee-protected electric power networks with the primary focus on performance degradation. The fourth category is based on combinatorial criteria like N − k. In this case, each scenario represents a way in which k out of N components can fail. A model based on this criterion is used in [19]. Decision modeling Several optimization models have been developed for power grid resilience decision-making against extreme weather events. These include models that can aid in decision-making about the upgrade of the power grid network through a combination of hardening existing components, adding redundant lines, switches, generators, and transformers [14,19,20]. However, hardening large parts of the power grid can be financially infeasible. In such a scenario, stockpiling power grid components in strategic locations enhances resilience by expediting network restoration after the disaster. To decide how stockpiling of components should be done, Coffrin et al. [21] developed a two-stage stochastic mixed-integer program where the first-stage discrete decisions are about stockpiling power grid components and the second-stage decisions are about how to operate the power grid to minimize load-shed. Additionally, network reconfiguration before an imminent hurricane can also enhance resilience. The models proposed in [12] make such decisions using grid islanding techniques. However, none of these models have explicitly focused on assessing the impact of flooding on the power grid. On the other hand, there are several studies that assess the impact of flooding on other critical infrastructures. For example, Kim et al. [16] present a framework and a case study using hurricane Harvey to generate physics-based (hydrological) flood scenarios. These scenarios are then used for resilience decision-making for healthcare infrastructure in [22]. Scenarios generated from physicsbased models have also been used in [23] that developed a model to estimate the overall disaster cost due to physical damage loss, income losses, and inventory losses. In comparison, our proposed models are explicitly geared towards resilience decision-making for the power grid and have a power flow model nested within a larger substation hardening model. The models closest to ours are [17] and [24]. [17] uses a set of scenarios all based on Hurricane Harvey run on a hydrology model focusing on inland flooding. We instead consider a wider range of storms and storm characteristics and scenarios that are based on NOAA's storm surge simulations. Mohadese et al. [24] propose a stochastic optimization model for identifying and protecting substations a day before the anticipated flooding event, meaning a focus on preparedness. Here, our proposed models differ in several ways. First, we generate scenarios using outputs from physicsbased hydrological models to create flood maps for the region of interest. Our choice is based on the rationale that physics-based models represent flood levels across the region of interest such that they are correlated in space and time. Mohadese et al. [24] have not considered the impact of correlated flooding. They also assume that a substation will transmit power if it is not flooded. In reality, this may not be true due to the network effects and we embed a power flow model within our larger resilience optimization model to address such effects. Finally, our models focus on long-term decision making, highlighting mitigation-phase budgeting and decision making. Modeling In this section, we first present an overview of the stochastic and robust optimization models developed to assist in grid resilience decision-making against extreme flooding events. Next, we state the key assumptions, introduce the notation and provide detailed mathematical formulations. Finally, we highlight some of the key characteristics of the proposed models and explain how they can be used to address a wide variety of questions in grid resilience decision-making. We highlight that the models proposed in subsection 3.4 and 3.5 are developed to minimize a risk measure over the load shed for a single flood event. In subsection 3.6, we explain how the same models can be leveraged for multi-year planning. we represent the uncertainty in the meteorological forecasts using a set of hurricane parameters (Hurricane 1, . . . , n). In the next step, using the aforementioned parameters as input, we run a hydrological model to get the corresponding flood maps. The flood maps are then used as input to the two-stage decision-making models. The final output from the decision-making models is a plan for substation hardening. Decision making in both models occurs in two stages. Here we specify first-stage decisions that determine which substations to harden and to what extent. We assume that the substation hardening measures are taken during the mitigation phase of the power grid resilience management cycle. Consequently, the decisions made using the model are not a response to any particular imminent hurricane. Instead, they are intended to harden the grid against multiple hurricanes potentially occurring over multiple years and minimize the long-term disaster costs incurred due to flooding. One such mitigation measure for substation hardening is to build permanent protective structures like walls around the substation periphery as shown in Figure 2. Overview of the proposed models After we make the first-stage decisions, we assess their performance in dealing with the flood levels in the second stage. The second-stage assessment involves minimization of the load shed in multiple flood scenarios that may impact the power grid during the multi-year planning horizon. Assumptions In the proposed models, we make the following assumptions. The first assumption is that a DCbased power flow approximation is acceptable. For a detailed explanation and derivation of the DC power flow equations from the AC equations, we refer to [25]. This approximation has been widely used and is embedded within larger strategic decision-making problems such as long-term capacity planning and operation of wholesale electricity grids. For the kind of models proposed in this paper, a detailed discussion on the difference in the quality of solutions obtained from different power flow approximation models is given in [26]. The second assumption is that we can model the substation hardening cost with fixed and variable components. The fixed cost is incurred when a substation is chosen for hardening. It can represent the cost of building the foundation on which the protective structure is built. Furthermore, it can also include the costs associated with transporting construction resources to the substation site. The variable cost, on the other hand, is a function of the height of flooding to which the substation is made resilient. In our case, we assume that the variable cost linearly depends on height. This is reasonable when we build wall-like structures to protect substations, as shown in Figure 2. Third, we assume that each substation's hardening and flood levels are discrete and finite. In the proposed formulations, they are assumed to be nonnegative integers. Fourth, we assume that all the flooded substations within the network experience the same downtime and are recovered simultaneously. Lastly, we assume that the value of load loss can be quantified in dollars per hour. Notation The proposed models use the following notation. Note that all the cost parameters used in the models are in dollars and all power grid parameters are in the per-unit system. Notation not defined in this section and appearing later in the text is defined as introduced. Stochastic Optimization Model The two-stage stochastic optimization model (SO) is expressed as: L * SO = min x∈X L SO (x),(1a) where L SO (x) = k∈K p k L(x, k). (1b) The objective function in (1a) minimizes the expected unsatisfied power demand (load shed) over the scenarios in set K. Here, X represents the set of feasible first-stage decisions. The following constraints define the set: i∈I f f i y i + v i x i ≤ I,(2a)x i ≤ H i y i , ∀i ∈ I f .(2b) Note that the variables x i and y i are defined only for substations that are flooded in at least one scenario. Constraint (2a) enforces that the sum of the fixed and variable costs incurred due to substation hardening does not exceed the investment budget. Constraints (2b) place an upper bound on the extent of flooding to which the substation can be made resilient while linking variables x i and y i for each substation i. Such constraints represent engineering and practical challenges that may arise while building protective structures that are too tall. In (1b), L SO (x) represents the expected load shed when the first-stage decision is x. Here, p k represents the probability of scenario k and L(x, k) is the recourse function representing the minimum load shed when the first-stage decision is x and scenario k is realized. The recourse function is defined as follows: L(x, k) = minimize j∈J D j − s j ,(3a) subject to (1 − z j )M ≥ ∆ θ(j)k − x θ(j) , ∀j : θ(j) ∈ I f , (3b) 2z j M ≥ 1 − 2(∆ θ(j)k − x θ(j) ), ∀j : θ(j) ∈ I f ,(3c)z j = 1, ∀j : θ(j) ∈ I \ I f , (3d) u j ≤ z j , ∀j ∈ J ,(3e)s j ≤ z j D j , ∀j ∈ J , (3f) u j G j ≤ g j ≤ u j G j , ∀j ∈ J , (3g) − z λ(r) F r ≤ e r ≤ z λ(r) F r , ∀r ∈ R, (3h) − z µ(r) F r ≤ e r ≤ z µ(r) F r , ∀r ∈ R, (3i) B r (α λ(r) − α µ(r) ) ≥ M (z λ(r) + z µ(r) ) − 2M + e r , ∀r ∈ R, (3j) B r (α λ(r) − α µ(r) ) ≤ −M (z λ(r) + z µ(r) ) + 2M + e r , ∀r ∈ R, (3k) r∈N out j e r − r∈N in j e r = g j − s j , ∀j ∈ J, (3l) − π ≤ α j ≤ π, ∀j ∈ J ,(3m)α β = 0. (3n) The objective function in (3a) minimizes the unsatisfied power demand when the first-stage decision is x and the flood scenario realized is k. Constraints (3b) and (3c) link the first-stage substation hardening decisions to the second-stage scenario-dependent power flow decisions. For a given hardening decision at a substation, the provided protection level is compared against the flood height at that substation in a given scenario. Depending on whether the hardening level can withstand the flooding, we set the status of the corresponding bus as operational or not. This is indicated by variable z j . For the substations that are not flooded in any of the scenarios, the status of the corresponding buses is set to operational in constraints (3d). Constraints (3e) capture generator dispatch decisions for operational generators. When z j = 0, we cannot inject power to the network through bus j and therefore set u j = 0. If z j = 1, we let the recourse problem decide if power generated at bus j should be used or not. Constraints (3f) place an upper bound on the amount of power that can be supplied at bus j (which is the demand at that bus). If bus j is flooded, then z j = 0 and no power can be supplied to the loads that are connected to the bus. Constraints (3g) place upper and lower bounds on the amount of power that can be generated at bus j. If bus j is flooded, then u j = 0 and thus g j = 0. If on the other hand bus j is not flooded, the model solves the recourse problem which is a binary linear program to determine the amount of power that should be generated at bus j. Constraints Robust optimization model In the two-stage robust optimization model (RO), we minimize the maximum unsatisfied power demand value across all scenarios. Mathematically, the problem can be stated as follows: L * RO = min x∈X L RO (x),(4a) where L RO (x) = max k∈K L(x, k).(4b) The expression in (4b) finds the maximum scenario-based load shed via a max(·) function. RO in (4a) can be reformulated as min x∈X {τ : τ ≥ L(x, k) ∀ k ∈ K} ,(5) where τ is an epigraphical variable. Model Discussion In this section, we highlight some of the key characteristics of the models proposed above. This leads us to a feasible solution with no power generation and maximum load shed. Second, the proposed models can be further tightened based on some simple observations. To do so, we first compute the maximum flood level across all the scenarios for the flooded substations. Let us represent this value using parameter W i , ∀ i ∈ I f . Next, we observe that the model need not harden any substation to flood height that is higher than W i . Therefore, in constraints (2b), we can replace H i with min(H i , W i ), ∀i ∈ I f . Constraints (3b) and (3c) use the big-M method. Here, we need to determine the smallest value for M for each constraint. The smallest big-M value for constraints (3b) and (3c) is given by W θ(j) and min(H θ(j) , W θ(j) ) + 0.5, respectively. To verify this, recall the assumption that both the flood height and hardening level can only take non-negative integer values. Also, observe that − min(H θ(j) , W θ(j) ) ≤ ∆ θ(j)k − x θ(j) ≤ W θ(j) . Now, in constraints (3b), we need ∆ θ(j)k −x θ(j) M ≤ 1. The smallest value of M that ensures this is W θ(j) . Similarly, in constraints (3c), we need 1−2(∆ θ(j)k −x θ(j) ) 2M ≤ 1. The smallest value of M to achieve this is min(H i , W i ) + 0.5. Finally, we can also tighten constraints (3j) and (3k). For both sets of constraints, the smallest value of M is F r + 2πB r . Third, both SO and RO can be used for hardening decisions that will provide flood mitigation over a planning horizon. To see how, notice that the objective function in the SO computes the expected load shed for a single flood event. However, substation hardening in practice is done over the planning horizon that lasts multiple hurricane seasons and provides permanent protection for multiple flood events. Therefore, to help make hardening decisions that impact performance over multiple events, we first need to compute the disaster management costs due to load shedding over the multi-year planning horizon. To do so, let us assume that the expected number of hurricanes that the study region experiences during the planning horizon is γ. We further assume that during the planning horizon, the total recovery, economic and social costs are represented by the value of load loss of $δ/megawatt-hour. Finally, we assume that it takes h hours to repair all the substations (and restore power to normal operation) starting immediately after a flood event. We believe this assumption is reasonable at the mitigation phase of the decision making process and avoids explicit and detailed modeling of the recovery process. Then, for a given investment budget, the substation hardening decisions that achieve the minimum expected total disaster management cost due to load shedding during the planning horizon is found by solving DM SO = γhδ L * SO .(6) In (6), the optimal substation hardening plan to minimize DM SO is the same as the plan obtained by solving SO. This is because the DM SO always equals the objective function of the SO multiplied by a positive constant. Therefore, irrespective of how the frequency of hurricanes, the restoration time, and the value of load loss change over time, the optimal substation hardening plan remains the same as the one obtained from SO. In this case, we assume that the probability distribution over the flood scenarios, and thus, the hurricanes causing them, does not significantly change over time. In practice, this is reasonable for planning horizons for which substation hardening is considered (5-10 years). Similarly, the optimal substation hardening decision that minimizes the maximum total disaster management cost due to load shedding during the planning horizon is found by solving DM RO = γhδ L * RO .(7) A key observation is that DM RO provides an upper-bound for DM SO . To understand why, note that the set of feasible first-stage solutions is same for both SO and RO. Further, observe that both the models are bounded below with a minimum objective value of zero and have relatively complete recourse. Now, let x R be a feasible solution to RO. Then, L * SO = min x∈X L SO (x) (8a) ≤ L SO (x R ) (8b) = k∈K p k L(x R , k) (8c) ≤ k∈K p k max k∈K L(x R , k) (8d) = max k∈K L(x R , k) k∈K p k (8e) = max k∈K L(x R , k) (8f) = L RO (x R ).(8g) with Equation (8b) holding at equality if and only if x R is optimal for SO and Equation (8d) Finally, in the models proposed so far, we assume that we have a predetermined budget for substation hardening. One may however be interested in determining the optimal budget allocation for minimizing a risk measure over the disaster cost incurred due to both load shedding and substation hardening. The proposed models can easily be modified to find the optimal budget for substation hardening and corresponding hardening decisions. In the case of SO, this can be done by solving T DM SO =    min ω k∈K p k L(x, k) + i∈I f f i y i + v i x i : x i ≤ H i y i , ∀i ∈ I f    ,(9) where ω = γhδ. The value of i∈I f f i y i + v i x i in the optimal solution represents the value of the optimal investment budget. Similarly, for RO, we compute the optimal investment budget by solving T DM RO =    min ωτ + i∈I f f i y i + v i x i : τ ≥ L(x, k) ∀ k ∈ K    .(10) Case Study In this section, using a case study for the Texas coastal region, we show how the proposed models can be used for power grid resilience decision making. The two main inputs to the proposed models are a set of scenarios that represent flood profiles for different hurricane types and the network parameters for the DC power flow model. To represent flood profiles, we use storm-surge maps developed by the National Oceanic and Atmospheric Administration (NOAA) [27]. For the electric grid, we use the ACTIVSg2000 dataset developed as part of an ARPA-E project [28]. The details of each component are described in the following subsections. We further highlight that although we use the proposed models for storm surge-induced damages, they can be adopted for flooding of any kind as long as the corresponding flood scenarios are available. This could include scenarios for inland flooding as developed in [16] and used for infrastructure resilience problems in [17] and [22]. Lastly, to solve the various parameterizations of the proposed models discussed in this case study, we use the Gurobi solver with the barrier algorithm [29]. Within the solver, we set the MIP-gap threshold to 0.5 percent and limit the solve time to 6 hours. The model is solved on an Apple M1 pro machine with 16 GB of unified memory. Flood Scenarios We use the storm-surge maps developed by NOAA using the Sea, Lake, and Overland Surges from Hurricanes (SLOSH) model as flood scenarios. To generate these flood maps, SLOSH uses a simplified parametric wind field model that takes as input the following parameters: storm track, the radius of the maximum wind speeds, and the pressure differential between the storm's central pressure and the ambient pressure. The simulated wind fields are then used to compute surface stresses on the water beneath the hurricane. Finally, the induced stress on the surface of the water is used to determine the storm surge. For a detailed discussion on SLOSH, we refer to [30]. Simulation studies developed using SLOSH have been extensively used to assist agencies like the In addition to real-time storm-surge guidance for imminent hurricanes, NOAA has developed two composite products, Maximum Envelopes of Water (MEOW) and Maximum of the MEOWs (MOM), to provide manageable datasets for medium to long-term hurricane evacuation planning. To develop these datasets, hurricane simulations with different combinations of intensity, forward speed, direction, and tide levels are run in parallel using SLOSH for the region of interest. Each run may yield different storm surge values for the same grid cell. A maximum overall such value is taken to represent the MEOW value of that grid cell. The same process is repeated for each grid cell within the study region to construct a MEOW map. The resolution of the grid cell is varied to balance accuracy with computation cost. It is finer in regions close to the coast and gets coarser as we move farther away in the ocean. MEOW maps are used to incorporate the uncertainties associated with a given forecast and eliminate the possibility that a critical storm track will be missed in which extreme storm surge values are generated. These maps are generated from several thousand SLOSH runs. In this study, we use the MEOW maps to represent flooding due to storm surge. An example MEOW map is shown in Figure 3. Within a MEOW map, it is possible that the water level for adjacent cells may come from different SLOSH runs of specific simulated storms. Nevertheless, since these are the maximum water levels over multiple tracks, we can be assured that if we have hardened a substation for a particular MEOW map, it will provide resilience towards flooding for any of the parallel runs that constitute the MEOW map. Arguably, MEOW maps are still better at representing flood uncertainty than other scenario generation methods where flooding at different nodes within a network is considered independent of each other. Moreover, these MEOW maps have been considered as scenarios in different stochastic optimization models for patient evacuation [16] and grid hardening [31]. before, we assume that in the mitigation phase, the decision-maker does not have information on any specific storm. Therefore, to model the uncertainty in the mitigation phase, we assume that all the remaining MEOW maps are representative of the flooding scenarios. In our case, they are considered equally likely for the stochastic model. This is based on the premise that the larger set of simulations that produced the MEOW maps were sampled according to some underlying distribution and therefore already reflects the underlying characteristics of the distribution implicitly used by NOAA in their development of the MEOW product. Furthermore, these MEOW maps provide us with the storm-surge flood height above ground at each of the substations (and thus for buses within) in the power grid network. In the proposed models, this is represented by ∆ ik ; the level of flooding at substation i in scenario k. Power Grid To model the power grid for the state of Texas, we use the synthetic grid called ACTIVSg2000 which contains 2000 buses (within 1250 substations) and 3206 branches. The grid, though synthetic, is designed such that it maintains statistical similarities with the actual Texas grid. We make two further modifications to the grid instance to make it computationally tractable while also considering the coastal part of the grid which is affected due to to storm-surge and thus is the focus of the study. First, we perform a network reduction on the original grid instance using the electrical equivalent (EEQV) feature in PSS®E to focus on the grid components subject to storm surge flooding. The reduction is such that the buses in the inland region that are not exposed to storm-surge induced flooding are aggregated within a much smaller set of nodes. The part of the grid that is in close proximity to the Texas Gulf Coast, and therefore is prone to flooding due to storm-surge, is retained almost as is. The effect of the network reduction is detailed in Table 1. The topological changes are visualized in Figure 4. Second, we alter the locations of some of the substations. This is because, in Results and Discussion In this section, we first determine the expected value of perfect information from a model that can produce perfect forecasts. In the same subsection, we compute the value of the stochastic solution for the different budget levels. Next, in subsection 5.2 we show how the proposed model can be used to determine the optimal investment budget for substation hardening. Due to dynamically changing climate conditions and ocean temperature, the probabilities of different types of hurricanes can change over time. In subsection 5.3, we show when a decisionmaker can take advantage of using solutions from RO to hedge against this uncertainty by paying a relatively insignificant premium. Finally, the last subsection is dedicated to the analysis of the distribution of load shed across scenarios for the solutions obtained from SO and RO. The Values of Stochastic Solution and Perfect Information In the proposed two-stage decision-making models, both the number of variables and constraints grow linearly with the number of scenarios; thus making it computationally challenging. In that case, instead of solving SO for large grid instances with many scenarios, one may be interested in solving simpler versions of the problem. One approach could be to reduce the size of the problem by constructing a single scenario problem where the flood height at each substation is the average of the flood height across all the scenarios. Another way could be to solve the problem for each scenario individually. The first-stage solutions thus obtained can then be analyzed and potentially combined using some heuristic rule. In this section, we analyze the quality of the solutions we get using such approaches. To do so, we use two widely known concepts in the stochastic programming literature: the value of the stochastic solution and the expected value of perfect information. In Figure 5, we plot the value of L * SO as a function of the investment budget. To determine the budget levels on which the parametric study should be performed, we first compute the minimum budget such that L * SO = 0. This is computed by solving a slightly modified version of SO. Specifically, we first remove constraint (2a) from the formulation and replace the objective function with the minimization of the substation hardening expenditure (i.e., the left-hand-side of (2a)). We also force full satisfaction of demand by replacing constraint (3f) with s j = D j , ∀ j ∈ J . The optimal value to this modified version of SO is in turn the minimum hardening budget required for zero load shed. For the parameters assumed in this case study, the corresponding minimum budget turns out to be $71.35M. Any additional budget beyond this will not improve the objective function value (load shed) and therefore the corresponding optimal solution. Using $71.35M as the reference, in Figure 5, we increase the budget from $0M, in increments of $10M, until the value exceeds $71.35M. (We note that the same budget values can be used for the RO parametric study. This is because the minimum budget required to achieve the expected load shed of zero is the same as what is required to achieve zero load shed in all the scenarios.) In addition to computing L * SO for different budget levels, we also compute lower and upper bounds on this value as shown in Figure 5. To compute the upper bound, let us first consider a single-scenario problem called the expected value problem which is defined as L * EV = min x∈X L(x,k).(11) Here,k represents a scenario where the flood level at each substation is the mean of the flood heights at that particular substation across all the scenarios. The optimal solution to this problem is called Next, to evaluate the quality of the first-stage substation hardening decisions obtained by solving (11), we compute the expected load shed across all the scenarios by fixing the first-stage decisions tox, denoted by L SO (x). This value serves as an upper bound on L * SO . For a detailed explanation on this, we refer to [33]. We also observe in Figure 5 that the difference between L SO (x) and L * SO increases with an increase in the budget. We refer to this difference as the value of the stochastic solution (VSS) as it represents the value of using a scenario-based representation of the uncertainty as opposed to the average flood values, all calculated within the SO framework. We further highlight that whenx is implemented, the load shed does not strictly decrease with an increase in the budget beyond $50M. This is expected because, for the mean scenario, the model obtains zero load shed with $50.15M. As discussed before, we know that it takes a minimum of $71.35M to achieve zero load shed across all the scenarios. However, once the model achieves zero load shed in the mean scenario, there is no incentive to use additional resources. This also shows that the value of using SO over the expected value problem increases with increases in the investment budget. To compute a lower bound on L * SO for a given budget level, we assume that the decision-maker has access to perfect information about the flood levels, and therefore can better prepare for each scenario (i.e., in a way, fine-tuning the mitigation plan according to each scenario). That is, perfect information allows the decision maker to make possibly different substation hardening decisions in each scenario to minimize the load shed in that particular scenario. These solutions are referred to as wait-and-see solutions. In this case, we compute L * WS = k∈K p k min x∈X L(x, k) ,(12) where the first-stage decisions are scenario-dependent and the value L * WS is referred to as the waitand-see bound. Due to the scenario-specific mitigation decisions, L * WS provides a lower bound on L * SO . The difference in the values L * SO and L * WS is referred to as the expected value of perfect information. It represents the maximum value a decision-maker would be willing to pay in exchange for complete and accurate information about the uncertainty. The key point that we want to emphasize is that unless the flood model can make perfect predictions, which is usually not the case with the weather models, then not accounting for uncertainty and using just point estimates or mean values of the flood forecasts can lead to significantly inferior decisions. This is evident from the VSS. In fact, as it turns out in this case, the first-stage decisions obtained from SO, even with not-so-perfect forecasts, lead to a load shed performance that is close to what we would get from using a flood model that offers perfect prediction. To put it another way, accounting for flood uncertainty, even with a small number of scenarios, can help reduce the burden of getting perfect information on the decision-maker without making a significant compromise on the performance. We also note that all bounds converge to the same expected value at the zero budget. This is because, no matter how well we represent the uncertainty or how good the predictions are, if we do not have any resources to use towards mitigation in the first stage, we cannot prevent load shed in the second stage with no protection towards flooding. Then, the expected value of the load shed is only a function of the second-stage decisions (i.e., the best power flow the grid can deliver with flooded substations). Moreover, at a sufficiently high budget value, both L * SO and L * WS converge to zero. This is expected because, despite the fact that we have poor predictions or poor uncertainty representation, we can still prevent any load shed in all the scenarios if we have enough resources to harden all substations to any desirable extent. Performing analysis with the budget level as a parameter, as described in this subsection, requires repeatedly solving SO with different parameters and can be time-consuming. To address this, the property that SO has relatively complete recourse is exploited to warm start the optimization solver and improve the solution time. As was stated in subsection 3.6, we can heuristically generate an initial feasible solution with a hundred percent load shedding for an investment budget value of zero. Once we get an optimal solution corresponding to budget level zero, we use it to warm start the solver for the next higher budget level. The process is repeated to generate high-quality feasible solutions for the next budget level. We further note that the aforementioned approach for warm-starting the solver is also applicable in the case of RO. Determining optimal budget for substation hardening Subsection 5.1 focuses on demonstrating how SO is used for resilience decision making for a given investment budget for substation hardening. The models can alternatively be used to decide the optimal value of the investment budget that minimizes the expected total disaster management cost over a multi-year planning horizon. To demonstrate this, we solve T DM SO as described in Section 3.6 assuming that, on average, 10 hurricanes hit the Texas Gulf Coast during the planning horizon. The values of the expected total disaster management cost for different combinations of restoration times and the value of load loss are plotted in Figure 7. As we see in the figure, when the value of load loss is low and the restoration time is short ($250 and 6 hours, respectively), the total disaster management cost is relatively low. Furthermore, the model recommends investing only a quarter of the budget required to achieve zero load shed for substation hardening. This is because the cost associated with losing power is quite low and the outage is restored relatively quickly. On the other hand, when both the load loss value and restoration time are high ($5000 and 48 hours, respectively), the model recommends investing $71.35M (equal to the investment required to achieve zero load shed) for substation hardening, avoiding any costs due to load loss. This is because, for the chosen values, the costs associated with power loss are quite high and it is better to make Texas, the value of load loss was determined to be around $6000 per MWh for Texas [34]. If we take that as given, the results in Figure 7 suggest that we must make investments to achieve close to zero load shed even if restoration time is as short as 6 hours. We further observe in Figure 7 that the solution corresponding to the value of load loss of $1000 per MWh and restoration time of 6 hours is the same as the solution with the value of load loss of $250 per MWh and a restoration time of 24 hours. This is expected because in T DM SO , both sets of parameters lead to the same optimization problem (ω is the same). It is further apparent that the optimal investment budget for substation hardening increases monotonically from 0 to $71.35M with the increase in the value of ω. Therefore, for any investment budget value between 0 and $71.35M, there exists a unique ω for which the corresponding budget is optimal. We can use this insight to quickly approximate the optimal investment budget for any combination of the value of load loss, restoration time, and the average number of hurricanes that may hit the region of study during the planning horizon. To do so, we use only the values of L * SO for I ∈ {0, 10, 20...80} as computed in Section 5.1. For any given value of γ, h, and δ for which the optimal investment budget needs to be approximated, we compute the value of DM SO + I for each I ∈ {0, 10, 20...80}. The value of I for which DM SO + I is the smallest is the best approximation for the optimal investment budget for a chosen value ω (calculated from γ, h, and δ). In Figure 8, we show the value of DM SO + I for I ∈ {0, 10, 20...80} for different values of ω. The depicted values of ω are reasonable in the sense that they can be derived from the γ, h, and δ used in Figure 7. For example, we notice in Figure 7 that when γ = 10, h = 6, and δ = 250 (ω = 15000), the optimal investment budget is $17.05M. An approximate of this value can be quickly inferred by looking at Figure 8 for the value of ω = 15000. Optimization in the face of uncertain probabilities While framing the power-grid resilience decision-making problem as a two-stage stochastic program, we assume that the probability distribution over the scenarios is known. However, the probabilities that we assign to each scenario need not be constant with time. Changing climate oscillations and ocean temperatures routinely affect these probabilities. This is reflected in NOAA's annual hurricane season prediction categories: normal, above normal, and below normal. In this case, if probabilities over scenarios change as compared to what we planned for, the expected performance may deteriorate. To hedge against this, we recommend solving RO and comparing the expected performance of the corresponding decisions. If the difference in the expected performance of decisions recommended by RO and SO is not significant, we advise adopting decisions as recommended by RO. In this way, irrespective of how the probabilities evolve with time, we know that the expected total cost due to the load loss will be less than or equal to the bound obtained in Section 3.6 if the optimal first-stage decisions as recommended by RO are adopted. This can be confirmed for the parameters assumed in the case study through Figure 6. The robust solution refers to the value of the expected load shed when the first-stage hardening decisions as recommended by RO are adopted. Since these decisions are not necessarily optimal for the assumed probability distribution, they lead to a higher expected load shed as compared to the stochastic solution. However, for the RO first-stage decisions, the maximum load shed in any scenario is capped by τ as represented by the red curve. In this case, we observe that the difference in the expected value of performance is almost trivial for investment budget values of $40M and above. Therefore, in those cases, it makes sense to adopt decisions recommended by RO as opposed to what we get from SO to hedge against the change in probabilities due to factors like ocean temperature and climate oscillations. In cases when the difference between the expected performance of SO and RO is significant, the decisions depend on the risk preference of the decision-maker. SO vs RO: Analysis of the load shed distribution We conclude the discussion with an analysis of the distribution of the load shed across scenarios for both SO and RO. The load shed in each scenario for both models is represented by the value of the recourse function corresponding to the optimal solution. These values are used to construct the corresponding histogram for both SO and RO at different budget levels as shown in Figure 9. As expected, the histograms shift to the left with the increase in the budget for both SO and RO. We observe that the histograms for both SO and RO coincide when the investment budget is $0M. This is expected because there is no hardening done in either model. Consequently, the load shed in each scenario is identical. Moreover, using Figure 6 and Figure 9, we observe that the robust solutions provide an inferior performance in expectation but the RO load shed remains relatively stable across scenarios as compared to SO. We also conclude that for investment budget values of more than $40M, the robust solutions offer much better performance against extreme scenarios while also offering good expected value performance. Therefore, in this case, it is reasonable to implement RO decisions for budget values beyond $40M. In this way, Figures 6 and 9 can be used together to understand the behavior of both SO and RO in expectation and across all the individual scenarios. Figure 9: The histograms of load shed across scenarios for the SO and RO solutions at different budget levels. Notice that the x-axis for each sub-plot has a different scale for better depiction. Conclusions In this study, we propose an integrated framework supported by two scenario-based optimization models for power grid resilience decision making against extreme flooding events. The models recommend an optimal substation hardening plan by integrating the predictions generated from a state-of-the-art hydrological model with a DC optimal power flow model. While doing so, we account for uncertainty in hurricane predictions using a scenario-based representation. Furthermore, using a case study for the state of Texas, specifically the coastal region prone to storm surge flooding, we demonstrate how the proposed models can together be used to address a wide variety of insightseeking questions related to power grid resilience decision making. Specifically, we show that using a scenario-based representation of flood uncertainty can offer significant value over mean flood forecasts. We also explain the advantages of using flood maps generated from physics-based models as opposed to other scenario generation methods popular in the literature. Furthermore, we show how can we estimate the expected value of perfect information from near-perfect flood forecasts. For the case study developed in the paper, we observe that by using a scenario-based representation of uncertainty, the decision-makers can reduce their burden of having access to perfect forecasts. In addition to quantifying the value of using flood scenarios, we further show how we can use the proposed two-stage framework to determine the optimal investment budget for substation hardening. Lastly, we explain how we can use the two-stage robust optimization model for power-grid resilience decision making when information about the probability distribution over the flood scenarios is unavailable. For future research, we suggest four directions. First is the development of scenarios that can consider precipitation-induced inland flooding in addition to storm-surge. Second is the development of methods to account for equity while making substation-hardening decisions. Third is developing models that take into account preparedness measures while making longer-term mitigation decisions, leading to three-stage optimization models. Fourth is the development of decomposition techniques to solve such models in a reasonable time. These challenges form the basis of our ongoing research. A two-stage stochastic optimization model is developed to address situations where the uncertainty about hurricane-induced flooding is modeled using a probability distribution. In this case, the model minimizes the expected unsatisfied power demand (also referred to as the expected load shed) due to the components' failures (i.e., flooded substations) over a set of scenarios. The two-stage robust model on the other hand requires no information about the probability distribution. The model instead minimizes the maximum load shed in any scenario within the uncertainty set. A general framework representative of the proposed models is shown inFigure 1. As shown in the figure, A scenario in the proposed models represents the water levels at different substations obtained from the flood map of a specific hurricane type. Hurricanes with different characteristics such as direction, intensity, forward speed, etc. lead to different levels of flooding, generating different scenarios. These scenarios are representative of the flooding that the region of study can experience Figure 1 Figure 2 : 12An example permanent hardening structure at a substation over a specific time period (typically multiple years). A distinguishing feature of the proposed models is the way we generate the scenarios. Instead of using popular techniques like fragility curves, we use flood maps for scenario representation because they capture the effects of correlated flooding. This is important because the failure of a substation within a power grid can have network effects on the other parts of the grid. To account for such details, we need not only know which substations fail more frequently but also the combination of substations that fail together. Our proposed model accounts for these details and uses them to evaluate the effects of such damages (in the form of load shed) during decision-making by solving a power flow model.The power grid network considered in the proposed models is represented by a graph where the buses are represented by the nodes and the branches interconnecting the buses are represented by the edges of the graph. The branches of the network are held using the transmission towers. We assume that these towers are well above the ground and therefore immune to flooding. It is the substations and components within them that are susceptible to flooding. In this study, we assume that the substations are outdoor open-air facilities. Therefore, when a substation is flooded, we assume that all the components within the substation and the branches connected to all the buses within the substation are out of order. For each of these scenarios, we overlay the power grid network on the flood map to identify parts of the network that are flooded. Given the flood height and the level of hardening at a substation, the model infers if a substation is flooded in a particular scenario. If a substation is flooded, all the buses within the substation and the branches connected to those buses are considered to be out of order. Once the damaged state of the power grid network is determined, we solve the second-stage assessment (the so-called recourse problem) which is a DC power flow model to estimate the load shed given the state of the grid. The second-stage decisions in the recourse problem determine the routing of power to minimize unsatisfied power demand. It should be noted that although both the stochastic and robust models involve the same sets of decision variables, the specific solutions suggested by them can be vastly different. The robust model gives us the flexibility to make decisions in the absence of any information about the probability distribution. These decisions can however be far more conservative than the decisions recommended by the stochastic model. Set of substations indexed by i I f : Set of substations that are flooded in at least one scenario J : Set of buses indexed by j K: Set of scenarios indexed by k R: Set of branches indexed by r B i : Set of buses at substation i N in j : Set of branches incident on bus j with power flowing into bus j N out j : Set of branches incident on bus j with power flowing out of bus j Parameters M : An arbitrarily large constant f i : Fixed cost of hardening at substation i v i : Variable cost of hardening at substation i H i : Maximum flood height to which substation i can be hardened θ(j): Substation that contains bus j ∆ ik : Flood height at substation i in scenario k (a non-negative integer value) B r : Susceptance of branch r F r : Maximum power that can flow in branch r λ(r), µ(r): Head bus and tail bus of branch r D j : Load at bus j G j , G j : Minimum and maximum generation at bus j β: Index of the reference bus p k : Probability of scenario k I: Total investment budget for substation hardening Variables y i : Binary variable indicating whether substation i is chosen for permanent hardening x i : Non-negative integer variable indicating discrete height of hardening at substation i z j : Binary variable indicating if bus j is operational s j : Non-negative real variable indicating load satisfied at bus j g j : Non-negative real variable indicating power generated at bus j u j : Binary variable indicating if generator at bus j is used α j : Real variable indicating voltage phase angle of bus j e r : Real variable indicating power flowing in branch r (3h) and (3i) place restrictions on the amount of power that can flow through branch r. If the bus at either end of a branch is flooded, then no power can flow through it. On the other hand, if buses at both ends of the branch are operational, then a maximum of F r power can flow through it in either direction. Constraints (3j) and (3k) enforce an approximation to Ohm's Law. If both ends of a branch are operational, then the amount of power flowing in the branch is governed by equations B r (α λ(r) − α µ(r) ) = e r , ∀r ∈ R.If the bus at either end of the branch is flooded, then the above equation need not hold. This is achieved by introducing big-M values. The formulation can be further tightened by appropriately determining the values of big-M . A discussion on this is presented in Section 3.6. Constraints (3l) represent the flow balance which states that the net power injected into the network at bus j is the difference between the power generated and consumed at the same bus. Constraints (3m) impose limits on the phase angle values at buses. Finally, constraints (3n) set the phase angle of the reference/slack bus to 0. First, both SO and RO have relatively complete recourse. That is, no matter what first-stage decisions we make, the second-stage problem always has a feasible solution. To verify this, consider a case where irrespective of the value of z j 's, we set the value of u j = 0 for all j in the recourse function. holding at equality if and only if load shed values are equal across all the scenarios. The above inequalities establish that the objective function value corresponding to any feasible solution to RO provides an upper bound on the optimal objective function value of SO. Since any optimal solution to RO is also feasible, it acts as a valid upper bound. In fact, it is the tightest upper bound that can be obtained in this manner. Figure 3 : 3A sample MEOW generated using category 5 storms approaching the Texas Gulf Coast in the north-west direction with a forward speed of 5 mph Figure 4 : 4the original dataset, some of the substations are placed in the middle of a water body and are thus flooded by default. To address this, we remap the coordinates of the 1250 substations in the dataset with the coordinates of substations obtained from the Homeland Infrastructure Foundation-Level Data (HIFLD) Electric Substations dataset [32]. The HFILD dataset contains information about real-world substations across the U.S. The remapping is done by solving an optimization problem The figure shows (a) ACTIVSg2000 Synthetic Grid for Texas, and (b) the reduced grid obtained after performing the network reduction. The red elements represent the new nodes andbranches that were introduced as the artifacts of the reduction procedure to maintain equivalence in the grid characteristics that minimizes the total displacement due to remapping. Note that this process does not change the power grid's electrical structure and makes it more realistic using the real-world substation locations (closer to the actual Texas grid) and capturing their real-world flood risks via MEOW-based flood scenarios. Lastly, the fixed cost and the variable cost for substation hardening are assumed to be $25,000 and $100,000 per foot, respectively. These values are derived from various utility reports. Figure 5 :Figure 6 : 56The graph of the expected load shed values for the expected value solution (green), the stochastic solution (blue), and the wait-and-see solution (orange), as a function of the budget for substation hardening The objective function value for RO (i.e., the optimal maximum load shed) and the expected load shed values for the robust and the stochastic solutions as a function of budget for substation hardening the expected value solution or the mean value solution, henceforth represented byx. We note that the problem in (11) is a single scenario problem and therefore much smaller in size. However, the reduction of scenarios leads to the loss of information about the substations that flood together. Furthermore , for sensitivity analysis, we consider three different values of restoration time: 6, 24, and 48 hours. Similarly, for the value of load loss, we consider 5 different values: $250, $500, $1000, $3000, and $5000 per MWh. Figure 7 : 7significant investments (in fact, everything possible) in substation hardening such that there is no loss of power. For all other combinations in between, both the total expected disaster management cost and its composition vary. Based on a study undertaken by the Electric Reliability Council Total disaster management cost as a function of the value of load loss for different restoration times For that value, the top-left curve achieves its minimum at $20M which is closest to $17.05M in the set {0, 10, 20...80}. Figure 8 : 8Total disaster management cost as a function of budget for different values of ω Table 1 : 1Grid characteristics before and af-ter the electrically equivalent reduction was performed. Grid Characteristic Before After Substations (#) 1250 362 Buses (#) 2000 663 Transformers (#) 860 358 Transmission Lines (#) 2346 1151 Generators (#) 544 254 Generation Capacity (GW) 96.29 50.98 Load (GW) 67.11 39.69 The original MEOW map dataset for the Texas coastal region comprises 192 flood maps whichare constructed using eight different storm directions (west-south-west, west, west-north-west, north- west, north-north-west, north, north-north-east, and north-east), six different intensity categories (0-5), and four different, forward speeds (5,10,15, and 25 mph). To demonstrate the usefulness of the proposed approach with a computationally tractable use case, we reduce the size of the problem by eliminating a subset of less severe scenarios. We first drop all the MEOW maps corresponding to four directions (west-south-west, north, north-north-east, and northeast) as hurricanes belonging to these categories do not cause significant flooding in the Texas Gulf Coast. We also drop the MEOW maps corresponding to category 0-4 hurricanes. The storms belonging to category 5 are more intense versions of these storms. Hence, the model ends up recommending decisions to prepare for worst-case situations (and thus implicitly prepares for category 0-4 hurricanes as well). Moreover, as discussed Billion-dollar Weather and Climate Disasters, 1980 -present (NCEI accession 0209268). A B U S Smith, 2020Available atA. B. Smith. U. S. Billion-dollar Weather and Climate Disasters, 1980 -present (NCEI accession 0209268). Available at https://www.ncei.noaa.gov/archive/accession/0209268 (last accessed on February 13, 2023), 2020. Hurricane Harvey Event Analysis Report. North American Electric Reliability corporation. Technical reportHurricane Harvey Event Analysis Report. Technical report, North American Electric Reliability corporation, Atlanta, GA, 2018. Changes in Tropical Cyclone Number, Duration, and Intensity in a Warming Environment. P J Webster, G J Holland, J A Curry, H.-R Chang, Science. 3095742P. J. Webster, G. J. Holland, J. A. Curry, and H.-R. Chang. Changes in Tropical Cyclone Number, Duration, and Intensity in a Warming Environment. Science, 309(5742):1844-1846, 2005. Power system resilience: Current practices, challenges, and future directions. N Bhusal, M Abdelmalak, M Kamruzzaman, M Benidris, IEEE Access. 8N. Bhusal, M. Abdelmalak, M. Kamruzzaman, and M. Benidris. Power system resilience: Current practices, challenges, and future directions. IEEE Access, 8:18064-18086, 2020. Influence of extreme weather and climate change on the resilience of power systems: Impacts and possible mitigation strategies. M Panteli, P Mancarella, 127Electric Power Systems ResearchM. Panteli and P. Mancarella. Influence of extreme weather and climate change on the resilience of power systems: Impacts and possible mitigation strategies. Electric Power Systems Research, 127:259-270, 2015. Metrics and quantification of operational and infrastructure resilience in power systems. M Panteli, P Mancarella, D N Trakas, E Kyriakides, N D Hatziargyriou, IEEE Transactions on Power Systems. 326M. Panteli, P. Mancarella, D. N. Trakas, E. Kyriakides, and N. D. Hatziargyriou. Metrics and quantification of operational and infrastructure resilience in power systems. IEEE Transactions on Power Systems, 32(6):4732-4742, 2017. State-of-the-art review on power grid resilience to extreme weather events: Definitions, frameworks, quantitative assessment methodologies, and enhancement strategies. F H Jufri, V Widiputra, J Jung, Applied Energy. 239F. H. Jufri, V. Widiputra, and J. Jung. State-of-the-art review on power grid resilience to extreme weather events: Definitions, frameworks, quantitative assessment methodologies, and enhancement strategies. Applied Energy, 239:1049-1065, 2019. Predicting thunderstorm-induced power outages to support utility restoration. E Kabir, S D Guikema, S M Quiring, IEEE Transactions on Power Systems. 346E. Kabir, S. D. Guikema, and S. M. Quiring. Predicting thunderstorm-induced power outages to support utility restoration. IEEE Transactions on Power Systems, 34(6):4370-4381, 2019. Improving hurricane power outage prediction models through the inclusion of local environmental factors. D Mcroberts, S M Quiring, S D Guikema, Risk analysis. 1038D. McRoberts, S.M. Quiring, and S.D. Guikema. Improving hurricane power outage prediction models through the inclusion of local environmental factors. Risk analysis, 38, 10 2016. Bayesian multiscale modeling of spatial infrastructure performance predictions with an application to electric power outage forecasting. A Reilly, S D Guikema, Journal of Infrastructure Systems. 212A. Reilly and S.D. Guikema. Bayesian multiscale modeling of spatial infrastructure performance predictions with an application to electric power outage forecasting. Journal of Infrastructure Systems, 21(2), 2015. Power outage prediction for natural hazards using synthetic power distribution systems. C Zhai, T Y Chen, A G White, S D Guikema, Reliability Engineering & System Safety. 208107348C. Zhai, T.Y. Chen, A.G. White, and S.D. Guikema. Power outage prediction for natural hazards using synthetic power distribution systems. Reliability Engineering & System Safety, 208:107348, 2021. Boosting the power grid resilience to extreme weather events using defensive islanding. M Panteli, D N Trakas, P Mancarella, N D Hatziargyriou, IEEE Transactions on Smart Grid. 76M. Panteli, D. N. Trakas, P. Mancarella, and N. D. Hatziargyriou. Boosting the power grid resilience to extreme weather events using defensive islanding. IEEE Transactions on Smart Grid, 7(6):2913-2922, 2016. Simulation of tropical cyclone impacts to the U.S. power system under climate change scenarios. A Staid, S D Guikema, R Nateghi, S M Quiring, M Z Gao, Climatic Change. 1273A. Staid, S. D. Guikema, R. Nateghi, S. M. Quiring, and M. Z. Gao. Simulation of tropical cyclone impacts to the U.S. power system under climate change scenarios. Climatic Change, 127(3):535-546, 2014. Transmission defense hardening against typhoon disasters under decision-dependent uncertainty. W Zhang, C Shao, B Hu, K Xie, P Siano, M Li, M Cao, IEEE Transactions on Power Systems. W. Zhang, C. Shao, B. Hu, K. Xie, P. Siano, M. Li, and M. Cao. Transmission defense hardening against typhoon disasters under decision-dependent uncertainty. IEEE Transactions on Power Systems, pages 1-11, 2022. Winter Storm Scenario Generation for Power Grids Based on Historical Generator Outages. B Austgen, M Garcia, B Pierre, J Hasenbein, E Kutanoglu, 2022 IEEE/PES Transmission and Distribution Conference and Exposition (T D). 2022B. Austgen, M. Garcia, B. Pierre, J. Hasenbein, and E. Kutanoglu. Winter Storm Scenario Generation for Power Grids Based on Historical Generator Outages. In 2022 IEEE/PES Trans- mission and Distribution Conference and Exposition (T D), 2022. Hurricane scenario generation for uncertainty modeling of coastal and inland flooding. K Y Kim, W Y Wu, E Kutanoglu, J J Hasenbein, Z L Yang, Frontiers in Climate. 316K. Y. Kim, W.Y. Wu, E. Kutanoglu, J. J. Hasenbein, and Z.L. Yang. Hurricane scenario generation for uncertainty modeling of coastal and inland flooding. Frontiers in Climate, 3:16, 2021. Power system resilience to floods: Modeling, impact assessment, and mid-term mitigation strategies. L Souto, J Yip, W Y Wu, B Austgen, E Kutanoglu, J J Hasenbein, Z Yang, C W King, S Santoso, International Journal of Electrical Power & Energy Systems. 135107545L. Souto, J. Yip, W.Y. Wu, B. Austgen, E. Kutanoglu, J.J. Hasenbein, Z.L Yang, C.W. King, and S. Santoso. Power system resilience to floods: Modeling, impact assessment, and mid-term mitigation strategies. International Journal of Electrical Power & Energy Systems, 135:107545, 2022. Performance degradation of levee-protected electric power network due to flooding in a changing climate. S Miraee-Ashtiani, F Vahedifard, M Karimi-Ghartemani, J Zhao, I Mallakpour, A Aghakouchak, IEEE Transactions on Power Systems. 376S. Miraee-Ashtiani, F. Vahedifard, M. Karimi-Ghartemani, J. Zhao, I. Mallakpour, and A. AghaKouchak. Performance degradation of levee-protected electric power network due to flooding in a changing climate. IEEE Transactions on Power Systems, 37(6):4651-4660, 2022. Transmission grid resiliency investment optimization model with SOCP recovery planning. K Garifi, E S Johnson, B Arguello, B J Pierre, IEEE Transactions on Power Systems. 371K. Garifi, E. S. Johnson, B. Arguello, and B. J. Pierre. Transmission grid resiliency investment optimization model with SOCP recovery planning. IEEE Transactions on Power Systems, 37(1):26-37, 2022. Optimal resilient transmission grid design. H Nagarajan, E Yamangil, R Bent, P V Hentenryck, S Backhaus, 2016 Power Systems Computation Conference (PSCC). H. Nagarajan, E. Yamangil, R. Bent, P. V. Hentenryck, and S. Backhaus. Optimal resilient transmission grid design. In 2016 Power Systems Computation Conference (PSCC), pages 1-7, 2016. Strategic stockpiling of power system supplies for disaster recovery. C Carleton, P V Hentenryck, R Bent, IEEE Power and Energy Society General Meeting. C. Carleton, P. V. Hentenryck, and R. Bent. Strategic stockpiling of power system supplies for disaster recovery. In 2011 IEEE Power and Energy Society General Meeting, pages 1-8, 2011. Scenario-based Optimization Model for Long-term Healthcare Infrastructure Resilience against Flooding. G T Tutay, J J Hasenbein, E Kutanoglu, IIE Annual Conference Proceedings. G. T. Tutay, J. J. Hasenbein, and E. Kutanoglu. Scenario-based Optimization Model for Long-term Healthcare Infrastructure Resilience against Flooding. In IIE Annual Conference Proceedings, pages 1-6, 2022. Optimization of Coastal Protections in the Presence of Climate Change. Y Miura, P C Dinenis, K T Mandli, G Deodatis, D Bienstock, Frontiers in Climate. 3613293Y. Miura, P. C. Dinenis, K. T. Mandli, G. Deodatis, and D. Bienstock. Optimization of Coastal Protections in the Presence of Climate Change. Frontiers in Climate, 3:613293, 2021. Power grid resilience enhancement via protecting electrical substations against flood hazards: A stochastic framework. M Movahednia, A Kargarian, C E Ozdemir, S C Hagen, IEEE Transactions on Industrial Informatics. 183M. Movahednia, A. Kargarian, C. E. Ozdemir, and S. C. Hagen. Power grid resilience enhance- ment via protecting electrical substations against flood hazards: A stochastic framework. IEEE Transactions on Industrial Informatics, 18(3):2132-2143, 2022. A Survey of Relaxations and Approximations of the Power Flow Equations. D K Molzahn, I A Hiskens, Foundations and Trends in Electric Energy Systems. 41-2D. K. Molzahn and I. A. Hiskens. A Survey of Relaxations and Approximations of the Power Flow Equations. Foundations and Trends in Electric Energy Systems, 4(1-2):1-221, 2019. Impacts of Approximate Power Flow Models on Optimal Flood Mitigation in a Stochastic Program. B Austgen, J J Hasenbein, E Kutanoglu, IIE Annual Conference Proceedings. B. Austgen, J.J. Hasenbein, and E. Kutanoglu. Impacts of Approximate Power Flow Models on Optimal Flood Mitigation in a Stochastic Program. In IIE Annual Conference Proceedings, pages 518-523, 2021. A national view of storm surge risk and inundation. B C Zachry, W J Booth, J R Rhome, T M Sharon, Weather, Climate, and Society7B. C. Zachry, W. J. Booth, J. R. Rhome, and T. M. Sharon. A national view of storm surge risk and inundation. Weather, Climate, and Society, 7(2):109-117, 2015. Grid structural characteristics as validation criteria for synthetic networks. A B Birchfield, T Xu, K M Gegner, K S Shetye, T J Overbye, IEEE Transactions on Power Systems. 324A. B. Birchfield, T. Xu, K. M. Gegner, K. S. Shetye, and T. J. Overbye. Grid structural char- acteristics as validation criteria for synthetic networks. IEEE Transactions on Power Systems, 32(4):3258-3265, 2017. Gurobi Optimization, LLC. Gurobi Optimizer Reference Manual. Gurobi Optimization, LLC. Gurobi Optimizer Reference Manual. 2021. The role of the SLOSH model in National Weather Service storm surge forecasting. B Glahn, A Taylor, N Kurkowski, W A Shaffer, National Weather Digest. B. Glahn, A. Taylor, N. Kurkowski, and W.A. Shaffer. The role of the SLOSH model in National Weather Service storm surge forecasting. National Weather Digest, pages 1-12. A Scenario-based Optimization Approach for Electric Grid Substation Hardening Against Storm Surge Flooding. A Shukla, J J Hasenbein, E Kutanoglu, IIE Annual Conference Proceedings. A. Shukla, J.J. Hasenbein, and E. Kutanoglu. A Scenario-based Optimization Approach for Electric Grid Substation Hardening Against Storm Surge Flooding. In IIE Annual Conference Proceedings, pages 1004-1009, 2021. Homeland Infrastructure Foundation-Level Data. Electric Substations. Available at. Homeland Infrastructure Foundation-Level Data. Electric Substations. Available at: https://hifld-geoplatform.opendata.arcgis.com/datasets/geoplatform::substations/about (last accessed on February 13, 2023). Introduction to Stochastic Programming. R John, François Birge, Louveaux, Springer-VerlagNew York, NY, USAJohn R. Birge and François Louveaux. Introduction to Stochastic Programming. Springer- Verlag, New York, NY, USA, 1997. Estimating the Value of Lost Load. ERCOT Resource AdequacyReportERCOT Resource Adequacy Report. Estimating the Value of Lost Load. Available at: https://www.ercot.com/gridinfo/resource/2013/ (last accessed on February 13, 2023.), 2013.
sample_513
0.8983
arxiv
Mémoire de Mastère 2016-2017 5 Oct 2018 Mémoire de Mastère 2016-2017 5 Oct 2018Soutenu le 19/02/2018 devant le jury composé de : Mme Hajer Baazaoui Professeur à l'ISAMM Présidente M. Sami Zghal Maître-Assistant à la FSEGJ Rapporteur M. Sadok Ben Yahia Professeur à la FST Directeur de mémoire Au sein du laboratoire : LIPAH Présenté en vue de l'obtention du diplôme de Mastère de recherche en Informatique Par Inès Osman Proposition d'une nouvelle méthode pour l'intégration sémantique des ontologies OWL en utilisant des alignements Introduction générale L'intégration des données est un vaste domaine qui permet d'unifier les données provenant des sources hétérogènes partageant des informations en commun, ou qui permet de les transférer d'une représentation à une autre, pour but de faire l'échange entre différents systèmes. Elle concerne des sources de données telles que les bases de données, les fichiers textes, et les ontologies, etc. Pour ce faire, un sous-domaine a fait son apparition. Il s'agit de l'intégration des schémas tels que les schémas relationnels, orientés objet, XML (DTD, XML Schema), etc.). Rappelons que le schéma ou le modèle des données permet de décrire avec précision la structure d'un document, les conventions de structuration, de typage, et de nommage de ses données. Par ailleurs, les ontologies ont été reconnues comme une composante essentielle pour la concrétisation de la vision du Web Sémantique. En définissant et décrivant les termes associés à des domaines particuliers, elles permettent d'annoter ou d'attacher les termes de multiples documents avec les mêmes termes propres à elles, ainsi elles arrivent à intégrer le contenu de différentes sources des données telles que les pages Web, les documents XML, les bases de données relationnelles, etc. L'utilisation de ces terminologies partagées permet un certain degré d'interopérabilité entre ces sources de données. Cependant, cela ne résout pas complètement le problème d'intégration des données, car nous ne pouvons pas s'attendre à ce que tous les individus et toutes les organisations dans le Web sémantique s'accordent sur l'utilisation d'une terminologie ou d'une ontologie commune. Par conséquent, il est peu probable qu'une ontologie globale couvrant l'ensemble des systèmes distribués puisse être développée ; au contraire, un domaine donné pourrait avoir plusieurs ontologies concurrentes, chacune incomplète ou couvrant le domaine d'une certaine perspective. En effet, dans la pratique, les ontologies de différents systèmes sont développées indépendamment les unes des autres, par des communautés différentes, et pour des buts différents. Suite à ce problème d'hétérogénéité, le domaine de l'intégration des ontologies, qui est aussi un sous-domaine de l'intégration des données, a fait son apparition. D'ailleurs, il ressemble énormément au domaine de l'intégration des schémas des bases de données, car les approches récentes de ces deux domaines se composent toutes les deux de deux étapes principales : l'étape de matching qui va réconcilier les différences en déterminant des correspondances (les similarités et les différences), puis l'étape de fusion (ou d'union) qui va exploiter le résultat du matching. L'intégration des ontologies de différents domaines vise à la construction d'une nouvelle ontologie pour un nouveau domaine plus large composé des domaines des ontologies intégrées. Elle est aussi appelée "composition" d'ontologies. L'intégration des ontologies de mêmes domaines vise à les unifier pour obtenir une ontologie plus complète qui couvre mieux ce même domaine. Elle est appelée "fusion" d'ontologies. En général, les ontologies peuvent couvrir des domaines différents, ou bien des domaines identiques, proches (liés), complémentaires, ou interdisciplinaires dans lesquels les termes se chevauchent et les niveaux de détail (de leur conceptualisation) diffèrent. Ainsi, si les connaissances et les données doivent être partagées (e.g. dans le Web, ou par des entreprises en collaboration), il faudrait au moins établir des correspondances sémantiques ou des liens entre les ontologies qui les décrivent (matching des ontologies). La tâche d'intégration des ontologies (composée d'une étape de matching, puis d'une étape d'union) est particulièrement importante dans les systèmes d'intégration puisqu'elle autorise la prise en compte conjointe des ressources décrites par des ontologies différentes. Ce thème de recherche a donné lieu à de très nombreux travaux. Dans un contexte plus large, les ontologies produites sur le Web peuvent être graduellement d'une très grande taille. Ainsi, le processus d'intégration des ontologies nécessitera l'utilisation de mécanismes de prise en charge pour le passage à l'échelle des techniques d'intégration. Pour conclure, l'idée de base est de réconcilier et d'intégrer des ontologies ou des fragments d'ontologies pour en fédérer d'autres qui encapsulent les données des ontologies initiales. Ainsi, l'objectif de ce mastère est de proposer une nouvelle méthode d'intégration des ontologies qui cherche à mettre en place une solution capable de raisonner sur des ontologies déjà existantes pour en produire une nouvelle en utilisant des techniques d'intégration. Motivations et contributions : Les techniques actuelles d'intégration des ontologies sont encore non efficaces en termes de temps d'exécution, semi-automatiques (qui reposent beaucoup sur l'intervention humaine), non extensibles (non scalables), générant une ontologie de mauvaise qualité (ayant énormément de contradictions sémantiques / logiques), et non complètes (avec perte d'informations précieuses, car ils n'arrivent pas à préserver toutes les connaissances des ontologies sources surtout les disjonctions). Dans ce mémoire, nous proposons de développer une méthode automatique d'intégration des ontologies (OIA2R) ayant pour but d'intégrer deux ou plusieurs ontologies (de toute taille) en utilisant les mappings (ou les alignements) entre elles, pour former à la fin une nouvelle ontologie qui conserve toutes les informations des ontologies sources et des mappings, tout en les personnalisant (refactoring). Autrement dit, il s'agit d'une ontologie de pont qui englobe les ontologies d'entrée et les "bridging" axiomes qui les réconcilient. Notre algorithme produit une ontologie de sortie de bonne qualité en des temps d'exécution compétitifs. Nous proposons aussi une nouvelle classification des terminologies ambiguës utilisées dans le domaine de l'intégration des ontologies, car il y a une très grande confusion dans les appellations de l'état de l'art. Introduction Dans ce chapitre, nous rappelons les grandes étapes de l'évolution du Web, citons la définition du terme Web sémantique et Ontologie, présentons le langage OWL, rappelons les types d'hétérogénéité entre les ontologies, et présentons tous les domaines de l'ingénierie des ontologies et leurs applications dans le monde réel. Enfin, nous terminons ce chapitre par une conclusion qui introduit les causes du recours aux domaines de l'intégration et la fusion des ontologies dans lesquels nous allons entrer en détail dans le chapitre 2. Notion du Web sémantique Introduction au Web sémantique Le Web actuel est un ensemble de documents (données et pages) dédiés aux humains, stockés et manipulés d'une façon purement syntaxique. Voici les deux principaux problèmes du Web actuel. D'une part, il y a énormément de sources de données, du fait que n'importe qui peut facilement publier un contenu (sachant qu'il n'a pas la moindre idée sur la probabilité que ce contenu soit trouvé par autrui) ; il n'a qu'à l'annoter, ainsi les moteurs de recherche à base de mot-clé auront la tâche de l'indexer pour pouvoir l'afficher aux utilisateurs lorsqu'ils font une recherche. Par conséquent, l'information sur Internet est tellement énorme que l'utilisateur a du mal à la retrouver. D'une autre part, les résultats de recherche sont imprécis, très sensibles au vocabulaire, et assez longs à trouver. En effet, les moteurs de recherche ne sont capables de répondre qu'à deux questions principales : -Quelles sont les pages contenant ce terme ? et ; -Quelles sont les pages les plus populaires à ce sujet ? Le Web est essentiellement syntaxique, et l'Homme est le seul à pouvoir interpréter son contenu (des documents et des ressources) inaccessible et non interprétable par la machine ; lui seul doté 1.1. NOTION DU WEB SÉMANTIQUE de la capacité de comprendre ce qu'il a trouvé et décider en quoi cela se rapporte à ce qu'il veut vraiment chercher. Finalement, nous ne pourrons pas se passer de l'intervention humaine pour naviguer, chercher, faire le tri des documents manuellement, interpréter, et combiner les résultats. Pour conclure, le Web actuel ne peut pas être manipulé de façon intelligente par les programmes informatiques car il y a un vrai manque de sémantique. Voici un exemple qui illustre ces problèmes : Supposons que nous voulons rechercher un fabricant de portes et de fenêtres pour construire une maison, nous tapons les mots "gates" et "windows" dans Google, nous aurons des résultats non satisfaisants concernent en grande partie Bill Gates et Microsoft Windows. Idéalement, les résultats devraient contenir les deux sens équitablement, ou selon le contexte de l'utilisateur. Objectifs du Web sémantique L'intérêt croissant porté à la recherche d'information sur le Web a donné lieu à l'initiative du Web sémantique. De nos jours, le souci du Web n'est plus vraiment l'augmentation continuelle de sa taille d'informations, mais plutôt l'amélioration de la recherche dans cette énorme masse d'informations, et la réalisation de systèmes permettant de filtrer et délivrer les informations de façon "intelligente". Le but ultime du Web de troisième génération est de permettre aux utilisateurs d'exploiter tout le potentiel du Web en s'aidant par les machines qui pourront accomplir les tâches encore réalisées par l'Homme comme la recherche ou l'association d'informations, et ainsi atteindre un Web intelligent qui regroupera l'information de manière utile et qui apportera à l'utilisateur ce qui cherche vraiment. Définition du Web sémantique En 1993, Tim Berners-Lee a fournit une solution au problème du partage de connaissances entre les applications Web à l'aide d'un mécanisme à base d'ontologies qui structure les données d'une manière compréhensible par la machine. En 2001, il a envisagé un WWW accessible pour les machines et les humains, de telle sorte qu'ils soient mis dans une position égale. Le Web sémantique (nommé aussi Web intelligent ou Web des données) est un ensemble de connaissances, où toutes les machines peuvent lier sémantiquement les données du Web, ainsi comprendre leurs significations, y accéder plus intelligemment, pour améliorer le dialogue entre les applications et l'interaction avec l'utilisateur en lui offrant une meilleure qualité des tâches de recherche (d'association des informations, et d'apprentissage, etc.). Il peut être vu aussi comme une couche supplémentaire de connaissances (au-dessus du Web actuel) ou une extension du Web actuel. De la même manière que le Web actuel, le Web sémantique est construit principalement autour des identifiants (URIs) et du protocole HTTP, mais il est par contre basé sur le langage RDF et non plus sur le HTML, pour but de séparer l'information qui décrit le sens et le contexte 1.2. ONTOLOGIE des données, de l'information qui décrit la présentation des données. Il est basé principalement sur les bases de connaissances et non seulement sur les bases de données. La recherche aussi va s'affecter et devenir une recherche par concept, non plus par mot clé. Dans le Web sémantique, toutes les données du Web, textuelles ou multimédia, doivent être annotées sémantiquement par des métadonnées pertinentes, car les machines (les agents logiciels) ne pourront comprendre les données et prendre des décisions qu'à travers une explication plus spécifique du contenu, et cela en utilisant un mark-up sémantique nommé "méta-données". L'annotation de ces ressources d'information repose sur l'accès à des représentations de connaissances (des ontologies) partagées sur le Web. Pour résumer, le Web sémantique donnera naissance à un nouvel aspect intelligent basé sur la recherche, le raisonnement, et la prise de décision automatique, faisant ainsi croître la productivité et les capacités des moteurs de recherche. Ontologie Ontologies et Web Le domaine des ontologies est né d'une volonté de pallier les limites du Web (déjà évoquées). Les ontologies font partie intégrante des normes du W3C pour le Web sémantique, car elles sont indispensables pour représenter la sémantique des documents (les connaissances) qui coexistent dans le Web, en structurant et en définissant la signification des termes actuellement collectées et normalisées. En effet, les ressources du Web telles que les pages Web, les bases de données, ou les documents XML, etc. sont annotées par (attachées à) la signification des termes (concepts) de sorte que nous aurons besoin du même concept de la même ontologie pour représenter la même chose dans l'indexation de ces différentes ressources. C'est ici que se manifeste le rôle et l'utilité des ontologies. Elles sont utilisées pour publier des bases de connaissances réutilisables et faciliter l'interopérabilité entre plusieurs systèmes hétérogènes et bases de données. Ainsi, nous pouvons considérer les ontologies comme une représentation pivot qui a pour but d'intégrer les sources de données hétérogènes. Elles sont utilisées dans beaucoup de filières telles que : la gestion des connaissances, l'intelligence artificielle, ou le Web sémantique. Et elles aident à réaliser de nombreuses applications comme la recherche d'informations, la réponse aux requêtes, la recherche documentaire, et la synthèse de texte, etc. Nous pouvons conclure que l'ontologie est un outil essentiel permettant l'exploitation automatique (le traitement machine) des connaissances, et la concrétisation des principes de réutilisabilité et du partage de l'information entre différentes sources de données, et cela grâce au vocabulaire commun fourni pour un domaine de connaissances réel ou imaginaire. Caldarola and Rinaldi (2016) constatent que les ontologies disponibles dans la littérature sont en train de devenir de plus en plus volumineuses en termes de nombre d'entités, à un tel point qu'elles peuvent être considérées comme de la Big Data. Revue des définitions d'une ontologie L'ontologie est un terme qui est apparu dans la Métaphysique avec Aristote qui considérait que l'ontologie est une "Science qui étudie l'être en tant qu'être et les attributs qui lui appartiennent essentiellement". Dans ce contexte, élaborer une ontologie, revient à faire l'étude philosophique de la nature de l'être et de l'existence, i.e. l'étude des propriétés générales de ce qui existe, en définissant l'ensemble des connaissances sur le monde. Pendant la dernière décennie, les informaticiens ont repris le terme "Ontologie" qui est devenu très utilisé dans le domaine de l'informatique. C'est au début des années 90 qu'il est apparu pour la première fois dans le cadre des recherches sur les Systèmes à Base de Connaissances (SBC). Une des premières définitions a été donnée par Neches et al. (1991) : "Une ontologie définit les termes et les relations de base comportant le vocabulaire d'un domaine, aussi bien que les règles pour combiner ces termes et ces relations afin de définir des extensions du vocabulaire". Studer et al. (1998) ont conclu qu'"une ontologie est une spécification formelle et explicite d'une conceptualisation partagée d'un domaine de connaissances". Le terme "conceptualisation" ou conceptualiser un domaine veut dire faire une abstraction décrivant un phénomène quelconque du monde réel de ce domaine ; faire les choix quant à la manière de décrire ce domaine particulier (par des entités). Une "spécification" est une conceptualisation représentée dans une forme concrète. Une spécification de la conceptualisation est par conséquent une définition formelle des termes qui décrivent un domaine, des relations entre eux, et des axiomes qui les contraignent (Nous en parlerons en détail juste après). Le terme "formelle" signifie qu'une ontologie doit être interprétable et lisible par la machine. Le terme "explicite" veut dire que les entités et les axiomes doivent être explicitement définis. Le terme "partagée" indique qu'une ontologie doit annoter multiples sources de données, être consensuelle et accessible par tous les utilisateurs d'une communauté particulière. Gruber et al. (2009) définissent une ontologie comme suit : "Dans le contexte des sciences de l'informatique et de l'information, une ontologie définit un jeu de primitives représentatives avec lequel un domaine de connaissance ou un univers de discours peut être modélisé". Le terme "jeu de primitives" est la traduction la plus fidèle possible du monde réel à représenter. Constituants d'une ontologie Une ontologie est une collection structurée de termes, de relations entre les termes, et d'un ensemble de règles d'inférence sur ces termes. Elle est nommée avec un IRI. Et puisqu'elle est un document Web, elle est ainsi référencée par un URI (IRI physique) qui doit pointer sur (coïncider avec) la localisation de l'URL choisi pour la publier. ONTOLOGIE Dans la syntaxe abstraite, une ontologie OWL est une séquence d'axiomes (de règles ou de contraintes) logiques et non logiques (y compris les faits), et éventuellement de références à d'autres ontologies (des importations) qui sont considérées incluses dans l'ontologie. La particularité des ontologies réside dans l'existence d'une sémantique (de théorie) de logique mathématique. En effet, les relations entre les entités peuvent être formellement modélisées par la logique de description formelle de premier ordre. L'ontologie est formalisée par des entités pouvant avoir chacune un IRI qui est une référence d'URI. Il existe cinq types d'entités : les concepts (ou classes), les propriétés (relations, attributs, slots, rôles, ou actions), les individus (objets, instances, ou extensions des classes), les types de données, et les valeurs de données. La déclaration de ces entités dans l'ontologie est faite par des axiomes non logiques : • Les concepts sémantiques de l'ontologie correspondent aux abstractions d'une partie de la réalité (du domaine). Ce sont les concepts auxquels nous nous référons, choisis en fonction des objectifs que nous nous donnons et de l'application envisagée pour l'ontologie. Ils sont les entités principales d'une ontologie. Ils peuvent représenter des concepts abstraits (une notion, une intention, une idée, une croyance, un sentiment, etc.), ou bien des concepts spécifiques (un objet matériel, un ensemble ou un groupe d'individus de caractéristiques similaires, etc.). § Les concepts sont organisés hiérarchiquement à travers la relation conceptuelle "Sous classes de" ou "is a" d'héritage ou de spécialisation, utilisée pour construire une taxonomie / hiérarchie de concepts ; Cette relation peut aussi signifier une relation d'agrégation ou de composition "Partie de" ou "has a". D'autres relations prédéfinies telle que l'équivalence et la disjonction peuvent également lier les concepts pour véhiculer plus de sémantique. • Les propriétés permettent de définir des liens pour les individus présents dans le domaine. Les propriétés sont des relations non prédéfinies et non taxonomiques utilisées pour exprimer la sémantique qui relie deux concepts, et c'est justement l'apport des ontologies qui peuvent définir d'autres relations spécifiques non prédéfinies. • Le premier type de propriétés, nommé propriété d'objet, est défini tel que le premier argument de la relation corresponde au domaine (un concept pour lequel est définie la propriété) et que le deuxième argument corresponde au co-domaine / à l'image (un concept relié au domaine par la propriété). Ainsi, il définit une relation entre deux individus. • Le deuxième type de propriétés, nommé propriété de type de données, est utilisé pour exprimer les attributs des concepts. Les attributs sont des relations dans lesquelles le domaine est un concept, et le co-domaine / l'image est un type de donnée (un littéral) tel que "String", "Integer", "Double", "Date", etc. Ainsi, il définit une relation entre un individu d'une classe et une valeur de donnée. § Ces deux types de propriétés peuvent être organisés hiérarchiquement, et liés par des relations conceptuelles prédéfinies telles que l'équivalence, la disjonction, et beaucoup d'autres. Ces propriétés sont instanciées à l'aide de la relation d'affectation qui leur associe une valeur de domaine (un individu) et une valeur de co-domaine (un individu ou une valeur de donnée). • Le troisième type de propriétés, nommé propriété d'annotation, ne se conforme pas à la définition des propriétés décrite ci-dessus. Le rôle de cette propriété est d'annoter les entités ou les ontologies. Son domaine peut être une entité (classe, propriété, ou individu) ou une ontologie, et son co-domaine peut être une entité, un littéral généralement de type "String", ou une ontologie. § Les propriétés d'annotation peuvent également être organisées hiérarchiquement. • Les individus constituent la définition extensionnelle / l'extension des concepts, et ainsi l'extension (les données) de l'ontologie. Les IRIs des individus sont utilisés pour faire référence aux ressources. Ce sont des objets particuliers instanciés par les concepts à l'aide de la relation d'instanciation prédéfinie "Instance de" ou "is kind of" ou "type". Ils peuplent les classes et véhiculent les connaissances à propos du domaine. (Il existe aussi des individus anonymes qui sont des individus non utilisés en dehors de l'ontologie. Ils sont identifiés par un ID local plutôt qu'un IRI global). § Les instances peuvent être liées par des relations conceptuelles d'identité et de différence. • Les types de données sont des parties particulières du domaine qui spécifient des valeurs. Les ontologies référencent des types de données intégrés de XML Schema (des littéraux) au moyen d'une référence URI à ce type de données. • Les valeurs de données sont, contrairement aux autres entités, des valeurs simples qui n'ont pas d'IRI. Ce sont les valeurs des types de données. • Les axiomes logiques constituent des assertions liées aux entités. Au lieu de compter sur les labels et les termes des entités (qui sont destinés aux humains) pour transmettre la sémantique, le concepteur d'ontologies doit contraindre l'interprétation possible des entités à travers une utilisation judicieuse d'axiomes logiques pour rende leurs sens beaucoup plus précis. § Ils sont aussi utilisés pour vérifier la consistance de l'ontologie, car ils permettent à un "raisonneur" d'inférer des connaissances additionnelles qui ne sont pas déclarées directement. Plus les axiomes exprimés dans les ontologies sont complexes, plus ils transportent des connaissances implicites qui peuvent être inférées par le raisonneur. • Les faits sont des axiomes qui énoncent des informations sur les individus, telles que les classes auxquelles les individus appartiennent, et les propriétés et les valeurs des propriétés de ces individus. Définitions formelles d'une ontologie Selon Kalfoglou and Schorlemmer (2003), une approche algébrique plus formelle identifie une ontologie comme étant une paire <S, A>, où S est la signature des entités de l'ontologie (modélisée par une structure mathématique comme un treillis ou un ensemble non structuré) et A est l'ensemble des axiomes ontologiques qui spécifient l'interprétation voulue de la signature dans un domaine donné. Udrea et al. (2007), les ontologies modélisent la structure des données (i.e., les ensembles de classes et de propriétés), la sémantique des données (sous la forme d'axiomes tels que les relations d'héritage ou les contraintes sur les propriétés), et les instances des données (les individus). Ainsi, les entités d'une ontologie se composent d'une partie "structure", et d'une partie "donnée". ONTOLOGIE Selon Cheatham and Pesquita (2017), les informations des classes, des propriétés, et des axiomes qui restreignent leur interprétation, sont appelées la "structure", le "schéma", ou "Tbox" (comme Terminologie) de l'ontologie, et les informations des instances et leurs axiomes sont appelées "données", "données d'instances" ou "A-box" (comme Assertions) et contiennent des assertions sur des instances utilisant des données du T-box. D'après Zhang et al. (2017), une ontologie est un modèle en arbre, à cause du principe de l'hyponymie (la subsomption -is-a -) qui fait que chaque entité (classe ou propriété) soit héritée d'une seule super-entité directe, formant ainsi une structure de graphe acyclique enracinée Raunich and Rahm (2012). Mais dans le cas d'un héritage multiple, l'ontologie devient un modèle en réseau qui peut contenir des cycles et dans lequel plusieurs chemins peuvent mener à une entité. Langage d'ontologie OWL Il existe une grande variété de langages pour exprimer les ontologies. Quelques exemples de langages incluent RDF, RDFS, OWL, KIF, F-Logic, UML, SQL DDL, ou XML Schema, etc. Le défi du Web sémantique est de fournir un langage qui exprime à la fois des règles, des structures, et des données sur lesquelles il va raisonner (à l'aide de ces règles). Par la suite, les règles de n'importe quel système de représentation de connaissances pourront être exportées dans le Web sémantique. Un individu peut ne pas avoir de classe(s) qui l'instancie(nt) ; dans ce cas, il sera implicitement une instance de la classe « owl:Thing ». OWL (Web Il y a une variété de syntaxes (formats) pour persister, partager, et éditer des ontologies OWL, telles que Functional OWL, RDF/XML, Turtle, OWL/XML, Manchester OWL, OBO, KRSS, etc. La spécification OWL décrit ce qui constitue une ontologie d'un point de vue structurel de haut niveau, qui est ensuite mappée en diverses syntaxes concrètes. RDF/XML est la syntaxe d'échange officiellement recommandée par W3C, que tout outil OWL doit pouvoir prendre en charge. La diversité du monde réel est une source de richesse et d'hétérogénéité. En effet, dans les systèmes ouverts et distribués, tels que le Web sémantique, l'hétérogénéité ne peut pas être évitée. Plusieurs ontologies de mêmes domaines ou de domaines proches peuvent exister, à cause du développement déconnecté qui se focalise sur des applications particulières de différents buts et intérêts. Par ailleurs, les concepteurs ont des habitudes et des pré-requis différents, et modélisent les connaissances avec des niveaux de détails différents et des outils différents. Tout cela va influencer de différentes manières leurs décisions de conception. Par conséquent, la conception des ontologies ne peut jamais être un processus déterministe ; même deux ontologies de même domaine ne vont pas être identiques. Toutes ces raisons mènent à diverses formes d'hétérogénéité. Prenons l'exemple du domaine biomédical. Il y a neuf ontologies qui décrivent une maladie neurologique, allant des ontologies très spécifiques couvrant une seule maladie (e.g. l'épilepsie, l'Alzheimer) à des ontologies couvrant toutes sortes de maladies telles que la "Disease Ontology". Il en résulte plusieurs ontologies qui décrivent les mêmes concepts sous des modèles légèrement différents. Klein (2001) distingue deux niveaux d'hétérogénéité qui peuvent exister entre les ontologies : Hétérogénéité des langages Ce sont les différences au niveau du langage, du méta-modèle, ou des primitives du langage utilisées pour spécifier une ontologie. Ce sont des différences entre les mécanismes (à partir desquels les entités vont être définies). Nous pouvons classifier ces différences en quatre catégories de difficulté croissante : Syntaxe Les différents langages d'ontologie utilisent souvent des syntaxes différentes, e.g., pour définir la classe de chaises dans RDF Schema (RDFS), nous utilisons <rdfs:Class ID="Chair">. Dans LOOM, l'expression (defconcept Chair) est utilisée pour définir la même classe. L'exemple typique d'incompatibilité de "syntaxe seulement" est quand un langage d'ontologie a plusieurs représentations syntaxiques, comme les différentes syntaxes de OWL. Représentation logique La différence de représentation des notions logiques, e.g. dans certains langages, il est possible d'indiquer explicitement que deux classes sont disjointes (A disjoint B), alors que dans d'autres langages, il est nécessaire d'utiliser la négation dans des instructions de sous-classes (A subclass-of (NOT B), (B subclass-of (NOT A)) pour indiquer la disjonction. Sémantique des primitifs Une différence plus subtile au niveau du méta modèle est la sémantique des constructions du langage. Malgré le fait que parfois le même nom est utilisé comme un constructeur dans deux langages, la sémantique peut différer, e.g. il existe plusieurs interprétations de A equalTo B. Même lorsque deux langages d'ontologie semblent utiliser la même syntaxe, la sémantique des constructeurs peut différer. Expressivité des langages C'est la différence fondamentale qui a le plus d'impact. Cette différence implique que certains langages sont capables d'exprimer des choses qui ne sont pas exprimables dans d'autres langages, e.g. certains langages ont des constructions pour exprimer la négation, d'autres non ; également pour le support des listes, des ensembles, et des valeurs par défaut, etc. Hétérogénéité des modèles du domaine Ce sont des différences dans la façon dont le domaine est modélisé. Elles sont décrites par Visser et al. (1998) : Différence de conceptualisation (de sémantique) C'est une différence dans la façon dont un domaine est interprété (conceptualisé / modélisé), ce qui entraîne différents concepts, différentes relations entre les concepts, ou différentes instances des concepts. Elle est classée en deux catégories : Portée Quand il s'agit de deux classes qui semblent représenter le même concept mais qui n'ont pas exactement les mêmes instances (extensions) bien que l'ensemble de leurs instances se croise (se chevauche), e.g. les concepts "Student" et "TaxPayer". Couverture et granularité du modèle C'est une différence dans la partie du domaine couverte par les deux ontologies (e.g., les ontologies des employés universitaires et des étudiants), ou une différence dans le niveau de détail avec lequel le modèle est modélisé / couvert (e.g., une ontologie peut avoir un concept "Person" alors qu'une autre peut distinguer "YoungPerson", "MiddleAgedPerson" et "OldPerson"). Tenons l'exemple d'une ontologie sur les voitures : -Une ontologie peut modéliser des voitures mais pas des camions. -Une autre pourrait représenter les camions mais les classer seulement dans quelques catégories. -Alors qu'une troisième pourrait faire des distractions très fines entre les types de camions en se basant sur leur structure physique générale, poids, but, etc. Différence d'explications C'est une différence dans la façon dont la conceptualisation est spécifiée. Elle se base sur la manière d'exprimer les entités. Elle est classée en trois catégories : Style de modélisation Une différence dans le style de modélisation qui résulte des choix explicites du modélisateur : Paradigme De différents paradigmes peuvent être utilisés pour représenter certains concepts tels que le concept du temps (e.g., représentation basée sur les "intervalles" vs représentation basée sur les "points"), l'action, les plans, la causalité, les attitudes propositionnelles, etc. Description des concepts ou convention de modélisation Les différences dans la description des concepts ou les conventions de modélisation peuvent se manifester par l'utilisation de différentes structures pour représenter des informations identiques ou similaires, e.g. une distinction entre deux classes peut être modélisée en utilisant un attribut qualificatif (une propriété), ou en introduisant une autre (sous-) classe. Un autre choix dans les descriptions des concepts est la manière dont la hiérarchie is-a "<" est construite, en effet, les entités peuvent être augmentées ou réduites dans la hiérarchie, e.g. la classe "thèse" ou "dissertation" peut être modélisée comme dissertation < livre < publication scientifique < publication, ou comme dissertation < livre scientifique < livre < publication, ou même comme sous-classe de "livre" et de "publication scientifique". Terminologie Une différence terminologique peut voir deux cas : Termes synonymes Lorsque deux concepts sont équivalents, mais représentés en utilisant des noms différents. Un exemple trivial est l'utilisation du terme "Car" dans une ontologie et du terme "Automobile" dans une autre. Un type particulier de ce problème est le cas où le langage naturel avec lequel les ontologies sont décrites diffère. Termes homonymes Lorsque le même nom est utilisé pour des concepts différents, e.g. dans le domaine musical, le terme "Conductor" (le chef d'orchestre) a une signification différente que celle dans le domaine de l'ingénierie électrique (le conducteur électrique). Différence de codage Une différence de codage se produit lorsque les valeurs dans les différentes ontologies sont codées dans différents formats, e.g. une date peut être représentée par "jj/mm/aaaa" ou "mm-jj-aa", la distance peut être décrite en "mile" ou en "kilomètre", le poids peut être décrit en "gramme" ou en "pound", le prix peut être décrit en différentes monnaies, etc. Ingénierie ontologique L'ingénierie des ontologies est un contexte dans lequel les utilisateurs sont confrontés à des ontologies hétérogènes. Et plus généralement, c'est la tâche de concevoir, mettre en oeuvre, et maintenir des applications basées sur les ontologies Euzenat and Shvaiko (2013). Elle doit traiter plusieurs ontologies distribuées et évolutives. Dans le but d'atténuer l'hétérogénéité croissante et la complexité des ontologies modernes, plusieurs domaines de recherche connexes ont vu le jour au cours des dernières années, tels que le "matching", le "mapping", l'"alignement", l'"intégration", la "fusion", le "versionning", et l'"évolution" des ontologies qui sont les domaines les plus répandus. Caldarola and Rinaldi (2016) Nous n'allons expliciter que les domaines liés à notre thème. Médiation La médiation des ontologies est un vaste domaine de recherche qui vise à déterminer et réconcilier les différences entre les ontologies afin de permettre leur réutilisation dans différentes applications hétérogènes dans le Web sémantique. De Bruijn et al. (2006) distinguent deux types principaux de médiation ontologique : le mapping et la fusion. Leung et al. (2014) distinguent trois types de médiation : le matching, la fusion, et l'intégration (qui sont basées sur le matching). Réconciliation La réconciliation des ontologies est un processus qui harmonise le contenu de deux ou de plusieurs ontologies. Il exige typiquement de faire un matching entre deux ontologies, et des changements dans un des deux côtés, ou dans les deux côtés Euzenat and Shvaiko (2013). Dans ce cas, il ne s'agit pas d'une fusion ou d'une intégration d'ontologies, mais plutôt d'une coévolution. Sachant que la réconciliation des ontologies peut être effectuée pour le but de fusionner ou d'intégrer deux ontologies. Matching (Appariement) Le matching des ontologies peut être une solution au problème de l'hétérogénéité sémantique des systèmes car il permet que la connaissance et les données exprimées dans les ontologies correspondues soient interopérables. C'est le processus de découverte des relations sémantiques ou des correspondances entre des entités provenant de deux différentes ontologies (ou de plusieurs ontologies dans le cas du matching multiple). Ces entités sont généralement des entités nommées (des classes, des propriétés, ou des individus), mais elles peuvent aussi être des entités anonymes i.e. des expressions plus complexes (des formules). Le matching des ontologies peut concerner des ontologies entières (i.e. tout type d'entités : T-box et A-box), ou bien uniquement la partie "schéma" (la structure) des ontologies (i.e. T-box : seulement les classes et les propriétés) Cheatham and Pesquita (2017). La correspondance est la relation sémantique détenue ou supposée être détenue entre deux entités des différentes ontologies. La relation entre les deux entités n'est pas limitée à la relation d'équivalence, elle peut être plus sophistiquée, e.g. la subsomption, la disjonction, l'instanciation, et même des relations floues. Certains auteurs, utilisent le terme mapping, au lieu de correspondance. Le résultat du matching, l'"alignement" (éventuellement le "mapping"), exprime, avec de différents degrés de précision, les relations sémantiques entre les ontologies mises en correspondance. Plusieurs auteurs utilisent le terme "alignement" (qui est le résultat du matching), au lieu de "matching", et utilisent le terme "mapping" au lieu d'"alignement" (que nous expliquerons juste après) Euzenat and Shvaiko (2013). Le type le plus simple de relations à trouver est l'équivalence ou la disjonction (l'exclusion) un à un (1-à-1) entre deux entités appartenant chacune à une ontologie. Le niveau de complexité suivant est la relation de subsomption (d'inclusion) 1-à-1. Pour trouver des relations 1-à-1, une recherche exhaustive doit comparer chaque entité de la première ontologie avec chaque entité de la deuxième ontologie, ce qui peut être réalisable pour de petites ontologies, mais infaisable pour des ontologies contenant des millions d'entités. C'est pour cela que les systèmes de matching peuvent employer une étape de filtrage ou de hachage pour déterminer les entités qui valent la peine d'être comparées Cheatham and Pesquita (2017). Les relations un-à-plusieurs (1-à-m) sont encore plus difficiles à trouver. Tenons comme exemple une relation d'équivalence entre une classe de la première ontologie et l'union de trois classes de la deuxième ontologie. Ce type de relation cause un problème de complexité. Pour trouver des relations 1-à-m, une approche exhaustive aurait besoin de comparer chaque entité de la première ontologie avec toutes les combinaisons possibles des m entités de la deuxième ontologie, ce qui n'est pas possible Cheatham and Pesquita (2017). Trouver des relations plusieurs-à-plusieurs (n-à-m) arbitraires est la tâche d'alignement la plus complexe. Une relation arbitraire signifie tout type de relation, non seulement l'équivalence, la disjonction, et la subsomption Cheatham and Pesquita (2017). § Les systèmes de matching actuels traitent l'identification des relations 1-à-1. Ils sont devenus très compétents dans la découverte des relations d'équivalence 1-à-1 entre les classes et les instances, mais moins performants dans la découverte des relations entre les propriétés. Leur compétence et leur exactitude est due principalement aux mesures de similarité syntaxiques (de chaînes de caractères). § Les travaux qui traitent un matching multiple sont très spécifiques pour le moment, et seul un petit nombre d'algorithmes le considère. Voici les travaux qui ont été menés au sein de notre laboratoire LIPAH concernant le matching des ontologies : Zghal et al. (2007aZghal et al. ( ,b,c,d, 2011Zghal (2010); Kachroudi et al. (2011Kachroudi et al. ( , 2012Kachroudi et al. ( , 2013bKachroudi et al. ( ,c,a, 2014Kachroudi et al. ( , 2015Kachroudi et al. ( , 2016Kachroudi et al. ( , 2017b; Djeddi et al. (2015); El Abdi et al. (2015). Méthodes de matching Pour évaluer la similarité des entités, les systèmes de matching utilisent différentes approches. Ils peuvent utiliser zéro ou plusieurs approches de mesure de similarité, soit en combinant 1.5. INGÉNIERIE ONTOLOGIQUE leurs valeurs pour former une seule mesure, soit en les appliquant en série pour filtrer les correspondances et ne mesurer que les correspondances candidates Cheatham and Pesquita (2017). La similarité reflète à quel point deux entités ont des choses en commun, c'est une mesure du degré qu'une entité puisse être utilisée à la place d'une autre. En général, la mesure ou le degré de confiance nous renseigne à quel point la correspondance est correcte et fiable. Plus elle est élevée, plus la relation qui la détient est solide. Généralement, c'est un nombre réel appartenant à un ensemble ordonné qui varie dans l'intervalle [0 1], mais il existe des systèmes qui utilisent simplement les booléens "vrai" et "faux" où le plus grand élément (1) est interprété en tant que "vrai", et le plus faible élément (0) est interprété en tant que "faux" Euzenat and Shvaiko (2013). Un seuil peut être mis pour ne pas afficher les correspondances de mesure de similarité inférieure à ce seuil. Parmi les méthodes utilisées par les approches de matching des ontologies, nous citons Abels et al. (2005) : Méthode basée sur les chaînes Elle compare deux entités en se basant sur les chaînes de caractères associées à elles. Les chaînes de caractères sont généralement les labels de l'entité, mais ils peuvent aussi inclure les commentaires et d'autres annotations de l'entité. Plus les chaînes sont similaires, plus elles sont susceptibles de désigner les mêmes concepts. § Cette approche souffre lorsque les concepts sémantiquement identiques sont modélisés avec des noms différents, i.e. lorsqu'il s'agit de synonymes Fahad et al. (2010). Méthode linguistique Telle que la suppression de mots inutiles (stop-words), la tokenisation, la stemmatisation du texte, la considération des préfixes ou des suffixes, etc. pour gérer les noms des entités, e.g. cette méthode détecte que les classes "house" et "houses" sont identiques. Méthode sémantique Elle tente d'utiliser les sens des labels de l'entité, plutôt que leurs orthographes. Des ressources linguistiques externes comme les lexiques, les thésaurus, les dictionnaires, les encyclopédies, et les moteurs de recherche du Web sont souvent utilisées afin d'identifier les synonymes, les hyperonymes (is-a), ou les hyponymes (is-a). Il est courant d'utiliser la base de données lexicale WordNet, l'ontologie de référence (UMLS), ou les règles d'articulation (les mappings), pour identifier les relations entre les entités Cheatham and Pesquita (2017). § L'inconvénient de cette méthode c'est qu'elle est spécifique au domaine particulier de la ressource externe utilisée, et ne produit des résultats efficaces que lorsqu'elle est utilisée pour des ontologies dans ce même domaine. Elle manquerait de précision si elle aurait été appliquée à des ontologies de domaine plus général ou totalement différent Fahad et al. (2010). Méthode taxonomique / structurelle Elle ne considère que la relation de spécialisation (héritage). Son intuition est que la spécialisation (is-a) relie des termes qui sont déjà similaires (étant interprétés comme un sous-ensemble ou un sur-ensemble de l'autre), par conséquent, leurs voisins peuvent aussi être en quelque sorte similaires. Elle examine le voisinage de deux entités pour déterminer leur similarité Euzenat and Shvaiko (2013). INGÉNIERIE ONTOLOGIQUE Méthode basée sur les attributs / propriétés Elle examine les attributs de deux concepts pour déterminer leur similarité Fahad et al. (2010). § Son inconvénient est qu'elle produit des correspondances inexactes lorsque de différents concepts ont les mêmes attributs, e.g. le concept "Person" et "Company" sont supposés être les mêmes sur la base des labels de leurs attributs qui sont identiques, tels que les attributs "name", "adress", et "phone", etc. Méthode extensionnelle Elle se base sur l'intuition qui dit : si deux classes ont les mêmes instances, alors ce sont des classes similaires. § L'inconvénient majeur de cette méthode se manifeste lorsque des concepts sémantiquement distincts ayant des instances en commun sont considérés comme identiques Fahad et al. (2010). Méthode basée sur les graphes Cette méthode interprète la représentation graphique de la structure de deux ontologies et regarde les chemins, les enfants et les feuilles pour identifier leurs structures similaires en recherchant leurs parties identiques. Elle se base sur l'intuition qui dit : si deux noeuds de deux ontologies sont similaires, alors leurs voisins doivent aussi être plus ou moins similaires Euzenat and Shvaiko (2013), e.g. deux entités qui ont la même superclasse et qui partagent quelques instances en commun, sont considérées plus similaires que deux entités n'ayant pas ces choses en commun ; deux classes de deux ontologies sont similaires ou identiques si elles ont les mêmes attributs et les mêmes classes voisines. Nous pouvons trouver une première classification qui groupe ces méthodes de matching en des approches syntaxiques, structurelles, et sémantiques ; et une autre classification qui les groupent en des approches élémentaires (qui calculent les correspondances en analysant les entités isolément, en ignorant leurs relations avec les autres entités), et des approches structurelles (qui calculent les correspondances en analysant l'apparition des entités ensemble dans une structure). En pratique, il n'existe aucun système de matching automatisé qui peut générer des alignements complètement corrects. En effet, les alignements manqueront toujours quelques correspondances correctes, contiendront quelques correspondances incorrectes, ou bien les deux en même temps Cheatham and Pesquita (2017). Concernant notre sujet Ces quinze dernières années, la grande majorité des recherches sur l'intégration des ontologies s'est concentrée surtout sur l'étape de matching des ontologies et a négligé la partie de fusion des ontologies qui vient après Raunich and Rahm (2014). En effet, la résolution de l'hétérogénéité par les stratégies de matching des ontologies est considérée comme une phase interne nécessaire et très importante pour l'intégration (ou la fusion) des ontologies en une nouvelle ontologie les regroupant. L'amélioration du processus de matching va améliorer considérablement les résultats de l'intégration (et de la fusion) des ontologies Umer and Mundy (2012). Les systèmes de matching peuvent faire à la fin une vérification d'incohérence et une réparation à l'alignement (ou le mapping) produit, en supprimant les correspondances incorrectes ou incohérentes i.e. celles qui sont correctes mais qui causent une incohérence logique dans l'ontologie produite suite à l'intégration ou la fusion des ontologies sources à l'aide de cet alignement-là (Nous détaillerons ce volet dans le chapitre 3). Résolution de coréférence Les systèmes de matching des ontologies se concentrent généralement sur la recherche des relations entre les entités de schéma / T-box (les classes et les propriétés), alors que les systèmes de résolution de coréférence se concentrent sur l'identification des mêmes individus qui sont référencés par différents URIs Cheatham and Pesquita (2017). Les relations cherchées par les algorithmes de résolution de coréférence sont uniquement des identités 1-à-1, car deux individus ne peuvent être qu'identiques ou distincts, tandis que 1.5. INGÉNIERIE ONTOLOGIQUE les matchings (de schéma / T-box) impliquent (aussi) des classes et des propriétés, et ainsi peuvent avoir toute relation traditionnelle qui existe entre deux ensembles comme la subsomption, l'exclusion (la disjonction), etc. Le nombre d'instances (A-box) d'un data set (dans les linked data du Web) est souvent beaucoup plus grand que le nombre de ses entités de schéma (T-box), ainsi ce n'est pas faisable de comparer chaque individu d'un data set avec chaque individu d'un autre data set pour déterminer s'ils sont identiques ou pas. Par conséquent, une méthode de filtrage est utilisée pour décider si deux individus sont suffisamment proches pour valoir la peine d'être comparés ; s'ils le sont, un algorithme de comparaison va se produire en mesurant la similarité entre les individus, ou bien entre les individus et les noms des propriétés auxquelles elles sont liées. La mesure de similarité la plus utilisée est la similarité syntaxique (de chaînes de caractères). Enfin, le système doit prendre le résultat de la comparaison de deux individus et décider s'ils sont identiques ou pas en spécifiant souvent un seuil (une valeur empirique malheureusement) Cheatham and Pesquita (2017). Le matching (des schémas) a un plus grand historique de recherche que celui de la résolution de coréférence qui vise l'intégration des linked data Cheatham and Pesquita (2017). Etant donné deux ou plusieurs ontologies (dans le cas d'un matching multiple), l'alignement est un ensemble de correspondances (relations) sémantiques entre des paires d'entités appartenant à différentes ontologies. Rappelons que l'alignement est la sortie du processus de matching des ontologies Euzenat and Shvaiko (2013). Alignement Plusieurs auteurs, utilisent le terme "mapping" au lieu d'"alignement". Dans le reste de ce mémoire, nous utiliserons le mot "alignement" dans ce sens. Puisque la relation est une relation binaire valable dans les deux sens et pouvant être décomposée en une paire de fonctions totales, Kalfoglou and Schorlemmer (2003) supposent que l'alignement des ontologies peut être décrit au moyen d'une paire de mappings (chacun contenant des correspondances dans un seul sens). Ils introduisent la notion de l'ontologie intermédiaire commune O 0 (ou l'articulation) qui peut être créée à travers cet alignement. Euzenat and Shvaiko (2013). L'alignement peut avoir des correspondances ayant la même entité source, i.e. une entité source peut avoir plus qu'une relation avec des entités cibles. Les alignements peuvent être utilisés dans des tâches variées, telles que la réponse aux requêtes, la liaison des données, la navigation dans le Web sémantique, la transformation des ontologies, l'intégration et la fusion des ontologies, et le raisonnement sur les ontologies. Concernant notre sujet Il est possible d'utiliser des relations à partir d'un langage ontologique pour exprimer un alignement. Tenons l'exemple du langage OWL qui peut être considéré comme un langage d'expression de correspondances entre les ontologies. En effet, dans OWL, les primitifs "equi-valentClass", "equivalentProperty" et "sameAs" ont été introduits initialement pour lier les éléments des ontologies de même domaine ; d'ailleurs, dès qu'une ontologie OWL implique des entités provenant d'autres ontologies, elle exprime implicitement des alignements. Par conséquent, il est possible d'utiliser ces constructeurs pour relier les entités de deux ontologies mises en correspondance ou pour créer une ontologie OWL intermédiaire. (2012), le "mapping" des ontologies est une approche pour l'intégration des ontologies où l'ontologie intégrée O contient les règles de correspondance entre les entités des ontologies A et B. Klein (2001) considère également le mapping comme une intégration virtuelle. (C'est la même notion d'ontologie intermédiaire O 0 ou d'articulation rencontrée dans la partie "alignement"). Mapping Définition 1 Selon Umer and Mundy Selon Ziemba et al. (2015), le mapping permet d'obtenir un résultat similaire à l'ontologie de pont (c'est l'ontologie que nous allons réaliser dans ce mémoire). Cependant, dans l'ontologie de pont, par opposition au mapping, les ontologies sources et les connexions entre elles sont stockées ensemble, or que dans le mapping, les connexions sont à part. Le mapping entre les ontologies forme des "ponts sémantiques" De Bruijn et al. (2006). Définition 2 (consensuelle) Le mapping est la version orientée d'un alignement où une entité d'une première ontologie est correspondue à une entité d'une deuxième ontologie, et pas l'inverse. Il assigne chaque entité d'une ontologie à au plus une (exactement une ou aucune) entité de l'autre ontologie. Il se conforme à la définition mathématique d'une fonction totale (une relation unidirectionnelle (injective)), et non pas à la définition d'une relation générale bidirectionnelle (bijective). Selon Euzenat and Shvaiko (2013), cette définition mathématique exige que l'entité mise en correspondance soit égale à son image, i.e. que la relation soit une relation sémantique d'équivalence ou d'identité. Selon Flouris et al. (2006), un mapping peut être perçu comme une collection de règles (ou d'axiomes) toutes orientées dans la même direction, de telle sorte que les entités de l'ontologie source et cible apparaissent au maximum une fois. Ils ajoutent que les deux ontologies mappées doivent partager le même domaine de discours (ou des domaines proches). Ceci est implicite sinon nous n'aurons pas de mapping. Dans le reste de ce mémoire, nous utiliserons le terme "mapping" dans ce sens. D 'après De Bruijn et al. (2006), le mapping, comme l'alignement, est stocké séparément des deux ontologies, ainsi il n'est pas incorporé dans les définitions de ces ontologies. Processus d'intégration des ontologies Il s'agit du mapping entre une ontologie globale et des ontologies locales dans le processus de l'intégration des ontologies : Il décrit les relations (les correspondances) entre l'ontologie globale (cible) et les ontologies locales (sources) la composant. Il peut être aussi utilisé pour exprimer une entité de l'ontologie globale dans une vue ou une requête sur les autres ontologies (approche global-centric), ou l'inverse (approche local-centric). Processus de fusion ou d'alignement Il s'agit du mapping entre des ontologies sources dans le processus de fusion ou d'alignement (définition 1) des ontologies. Il identifie les similitudes (synonymies) entre les différentes ontologies pour pouvoir les fusionner ou les aligner. Processus de transformation des ontologies Il s'agit du mapping entre deux ou plusieurs ontologies sources dans le processus de transformation des ontologies : Il peut être utilisé pour transformer les entités sources en des entités cibles en se basant sur leurs correspondances, i.e. leurs relations d'équivalence sémantique dans le mapping. Il fournit une interopérabilité entre les différentes ontologies qui ne peuvent pas être intégrées ou fusionnées à cause d'une inconsistance mutuelle de leurs informations. § Les utilisations du mapping dans une ontologie intermédiaire, une ontologie de pont, une transformation des ontologies, une interconnexion des données, ou une requête, s'avèrent très utiles pour les environnements dynamiques, ouverts et distribués, et évitent également la complexité et les coûts de l'intégration ou de la fusion des ontologies sources. En effet, le mapping forme une sorte de couche ou d'interface commune entre les ontologies. Mophisme Selon Flouris et al. (2006), le morphisme des ontologie est une collection de correspondances sous forme de fonctions qui relient non seulement les signatures (les vocabulaires, les entités) de deux ontologies, mais aussi leurs axiomes (les syntaxes, les formalismes, les constructeurs des langages). Selon Euzenat and Shvaiko (2013), le terme "morphisme" est utilisé pour représenter un mapping entre différents types de modèles*. Il contient des relations binaires sur deux ensembles d'identificateurs d'objets (OIDs) et il peut être inversé et composé. * Les modèles, tels que les schémas relationnels ou les schémas XML, sont représentés implicitement (intérieurement) sous la forme de graphes étiquetés et orientés, dans lesquels les noeuds désignent les éléments du modèle (les relations et les attributs). Chacun de ces éléments est identifié par un identifiant d'objet (OID) Euzenat and Shvaiko (2013). Transformation La transformation des ontologies est le processus de changement / de traduction des entités (vocabulaire, signature) d'une ontologie par les entités d'une autre ontologie. Elle est utile quand nous voulons exprimer une ontologie par rapport à une autre. En général, les deux ontologies initiales sont inchangées et une troisième ontologie (le résultat de la transformation de la première ontologie par rapport à la deuxième) est créée. Les conséquences de la première ontologie sont aussi les conséquences du résultat de la transformation Euzenat and Shvaiko (2013). Ce terme est très confondu à la notion de traduction (que nous allons expliquer juste après). La transformation des ontologies n'est pas bien supportée par les outils. Elle peut être particulièrement utile dans la connexion d'une ontologie à une autre ontologie (réconciliation des ontologies), ou dans la connexion d'une ontologie locale à une ontologie globale dans le cadre de l'intégration ou la fusion des ontologies. Elle est utilisée aussi pour importer des données sous une autre ontologie sans importer l'ontologie elle-même. Traduction La traduction des ontologies est le processus qui transforme la représentation formelle de l'ontologie d'un langage (d'un formalisme de représentation) à un autre, tout en préservant la sémantique, e.g. de "Ontolingua" à "Prolog". Elle change la forme syntaxique des axiomes, mais pas le vocabulaire (pas la signature) de l'ontologie Klein (2001); Kalfoglou and Schorlemmer (2003); Flouris et al. (2006); Euzenat and Shvaiko (2013). Interconnexion des données L'interconnexion des données est le processus qui consiste à établir des liens explicites, principalement des déclarations de la relation d'identité "owl :sameAs" entre les instances de deux ensembles de données RDF différents dans le Web de données (Linked Data). Il est possible de traiter les alignements en tant que spécifications de liaison, ainsi l'interconnexion des données pourrait être exprimée par l'opérateur Interlink(d, d , A) = L dans lequel un alignement A résultant de chaque couple d'ontologies (O et O ) sous lesquels deux ensembles de données (d et d ) sont exprimés, est utilisé pour les lier, et générer un ensemble de liens L entre les ressources (les URIs des instances) de ces deux data sets Euzenat and Shvaiko (2013). Bien qu'il y a une quantité très énorme de liens de type "owl:sameAs" entre les instances des data sets du LOD, il n'existe que quelques liens rares de type "owl:equivalentClass" ou "owl:equivalentPropery" entre leurs classes et leurs propriétés Zhao and Ichise (2014). Dans le Web des données, le "matching" et la "résolution de coréférence" sont utiles dans l'aide à la génération de ces liens qui fournissent le contexte nécessaire pour rendre les données plus utiles Cheatham and Pesquita (2017). Ils sont effectués hors ligne et sans contraintes de temps de telle sorte que les correspondances résultantes soient correctes, mais pouvant être non exhaustives (non complètes). Dans ce contexte, citons le travail de Hamdi et al. (2015), membre de notre laboratoire LIPAH, qui a exploité l'ontologie du Web de données FOAF pour les réseaux sociaux. Intégration / Fusion Nous allons l'expliquer en détail dans le chapitre 2 Raisonnement Le raisonnement consiste en l'utilisation des alignements comme des règles pour raisonner sur les ontologies mises en correspondance. Les "bridging" axiomes utilisés dans l'intégration (l'ontologie de pont) sont des règles. Cet ensemble de règles est vu comme une ontologie O qui doit être écrite dans un langage ontologique supportant les règles ou les expressions des axiomes de pont. C'est la même notion de l'ontologie intermédiaire ou l'articulation des ontologies (définition 1 d'un mapping). Le raisonnement peut être décrit par la fonction T ransf ormAsRules(A) = O où A est un alignement entre deux ontologies O et O Euzenat and Shvaiko (2013). Toute transformation des alignements sous une forme adaptée au raisonnement, telle que SWRL ou OWL, peut être utilisée par les moteurs d'inférence (les raisonneurs) de ces langages, tels que Pellet ou HermiT. Enrichissement L'enrichissement est le processus qui cherche de nouvelles entités (généralement à partir de ressources textuelles externes) et les place correctement au sein de l'ontologie à enrichir. Voici quelques travaux d'enrichissement d'ontologies réalisés au sein de notre laboratoire LIPAH : Kamoun et al. (2010); Hamdi et al. (2012); Ben Yahia (2012c,a,b, 2014). Conclusion A présent, les entreprises ont migré vers l'adoption des stratégies de mondialisation et d'internationalisation. En effet, traditionnellement, les entreprises partageaient seulement les biens physiques en collaboration, mais maintenant elles ont aussi besoin de partager et intégrer leurs connaissances. C'est pourquoi la notion de l'interopérabilité s'impose car elle permet aux systèmes informatiques hétérogènes de communiquer, interpréter et traiter l'information échangée. Pour ce faire, les ontologies se présentent comme le meilleur outil pour communiquer et partager des connaissances en fournissant une compréhension commune d'un domaine donnée. Malheureusement, les concepteurs des ontologies eux-mêmes appliquent des visions différentes du même domaine lors du développement des ontologies, et ceci engendre le problème de l'hétérogénéité sémantique qui est l'un des principaux obstacles de l'interopérabilité sémantique ; Il se produit lors de l'utilisation des ontologies de même domaine, i.e. quand des ontologies hétérogènes réutilisent les mêmes connaissances. L'intégration sémantique est indispensable pour remédier à ce problème. Elle se base sur la sémantique des systèmes inter-opérants pour comparer leurs différents concepts et déduire leurs correspondances, et éventuellement les associer et créer des bases de connaissances intégrées. Par conséquent, l'intégration sémantique mènera inévitablement à un matching inter ontologique qui est une étape essentielle dans l'intégration des ontologies. Introduction A présent, il existe une très grande confusion dans l'utilisation des termes "intégration" et "fusion" dans la littérature. En effet, il arrive que nous trouvons des travaux sur la fusion que les auteurs nomment "intégration", et des travaux sur l'intégration que les auteurs nomment "fusion" ; il y a des cas où les auteurs utilisent les deux termes comme synonymes et choisissent l'un d'entre eux comme titre de l'article (ils choisissent généralement le terme "intégration" car il parait plus général, ainsi vrai dans les deux cas). Par ailleurs, plusieurs auteurs utilisent le terme "intégration" dans le titre de leurs travaux, sans pour autant faire une intégration ; ils se contentent d'un matching ; et même s'ils font une intégration, ils ne l'explicitent et ne l'évaluent pas, ils se concentrent seulement sur l'évaluation du matching. Toutes les définitions et les approches qui vont suivre vont être ordonnées chronologiquement dans chaque section. Dans ce chapitre, nous citons les différentes définitions et approches du terme fusion des ontologies dans la littérature. Puis, nous citons les différents types d'intégration des ontologies, les définitions du terme intégration des ontologies dans la littérature, et ses principales approches existantes. Par la suite, nous évoquons les avantages de l'intégration et la fusion, leurs différences et leurs points communs, et nous expliquons les causes des erreurs qui peuvent se produire suite à ces deux processus. Ensuite, nous consacrons une petite section pour parler de ce qui nous intéresse parmi toutes ces définitions et approches évoquées. Enfin, nous clôturons ce chapitre par une conclusion qui résume le tout. Fusion des ontologies Puisque de nombreuses ontologies se réfèrent au même domaine et aux mêmes objets, il existe un besoin croissant de les fusionner et les organiser. En effet, le but ultime de la fusion est de représenter une meilleure perspective des connaissances d'un domaine. En général, la fusion des ontologies est utilisée dans le domaine de l'intégration des données, mais elle peut être aussi perçue comme une technique utilisée dans le domaine de l'enrichissement des ontologies (de domaine) qui consiste à insérer dans l'ontologie des connaissances connexes en moins de temps et de coût. La façon dont le processus de fusion est effectué est encore très peu claire. En effet, il n'y a pas de consensus sur la méthodologie à suivre pour fusionner les ontologies. La seule phase commune est la phase initiale qui prend en entrée un ensemble d'ontologies (deux ou plus). Certains commencent directement par toutes les ontologies à fusionner (méthode non incrémentale), d'autres commencent par un groupe initial sélectionné d'ontologies (généralement par une seule ontologie) qui est élargi ensuite de manière incrémentielle par les autres ontologies (méthode incrémentale) Pinto and Martins (2004). Définitions de la fusion Fusion de Noy D'après Noy and Musen (2000), dans la fusion, une ontologie unique qui est une version fusionnée des ontologies d'entrée est créée. Souvent, les ontologies sources couvrent des domaines similaires ou liés. C'est une définition très vague (et qui peut convenir aussi au terme "intégration des ontologies"). Fusion de Pinto (consensuelle) Selon Pinto (1999), dans la fusion, nous avons, d'une part, un ensemble d'ontologies (au moins deux) qui vont être fusionnées (O 1 , O 2 , . . . , O N ) et, d'autre part, l'ontologie résultante du processus de fusion (O). Ainsi, cette méthode est non incrémentale. Le sujet des ontologies sources et de l'ontologie résultante est le même (S), bien que certaines ontologies sources soient plus générales que d'autres (leur niveau de généralité peut ne pas être le même). Le but est de remplacer les ontologies existantes, portant sur un sujet particulier, par une ontologie plus riche et plus large qui couvre mieux ce même sujet en fusionnant leurs connaissances (les terminologies, les définitions, et les axiomes des ontologies sources). Selon eux, dans la fusion (l'unification qui est le troisième cas d'intégration de Sowa (1997)), les ontologies sources sont unifiées en une seule. Dans certains cas, les connaissances des ontologies sources sont homogénéisées et modifiées par l'influence d'une ontologie source sur une autre (à l'aide des opérations d'abstraction, de généralisation, de transformation (mapping)). Dans d'autres cas, les connaissances provenant d'une ontologie source particulière sont dispersées et mêlées avec les connaissances des autres sources. Malik et al. (2010) donnent une autre définition proche qui considère que la fusion est le fait de former des ontologies mieux modélisées à partir d'ontologies mal définies ou plus petites (i.e. qui ne couvrent pas tout le domaine). (2014), la fusion peut être symétrique ou asymétrique par rapport aux ontologies d'entrée. Ils exigent, dans ces deux types d'union, que la propriété de "préservation de l'égalité" soit assurée, ce qui signifie que les entités correspondues (comme prescrit dans le mapping entre les deux ontologies d'entrée) doivent être fusionnées dans la même entité afin qu'elles ne soient représentées qu'une seule fois dans l'ontologie résultante. Selon eux, en fusionnant les entités équivalentes ainsi, ils réduisent le chevauchement sémantique (même si que l'héritage multiple est aussi une source de conflits), ainsi le résultat de la fusion sera plus compact et moins redondant qu'une simple union directe des ontologies d'entrée (i.e. une ontologie de pont avec des "bridging" axiomes). Approche symétrique L'approche symétrique est la plus courante et vise à fusionner les ontologies d'entrée avec la même priorité (en préservant toutes les entités de toutes les ontologies). C'est une approche "Full Merge" qui prend l'union des ontologies d'entrée et qui combine leurs entités équivalentes (en une seule entité). Mais elle engendre une quantité importante de conflits sémantiques due à l'organisation hétérogène des mêmes concepts dans les ontologies d'entrée et à l'introduction de l'héritage multiple dans les entités fusionnées, ce qui génère des chemins redondants (plusieurs chemins conduisant à une même entité), réduisant ainsi la compréhensibilité de l'ontologie résultante. Approche asymétrique L'approche asymétrique, prend l'une des ontologies d'entrée comme cible, dans laquelle les autres ontologies sources seront fusionnées (d'une façon incrémentale) pour l'étendre, donnant la préférence uniquement à l'ontologie cible dont toutes les entités à elle seule doivent être préservées. Les entités des ontologies sources ne doivent pas obligatoirement faire partie de l'ontologie résultante (cible). Ici, nous n'aurons plus affaire à l'héritage multiple, ainsi nous n'aurons pas (ou presque pas) de conflits sémantiques dans l'ontologie résultante qui aura bien une structure d'arbre (où un seul chemin conduit à une entité). § Mais d'après nous, cette approche asymétrique est un enrichissement de l'ontologie cible, plutôt qu'une fusion des ontologies sources. Fusion comme étant synonyme à l'intégration Raunich and Rahm (2012) Fusion comme étant une intégration Chatterjee et al. (2017) considèrent la création d'une ontologie à l'aide de la fusion comme étant un processus incrémental où des ontologies de petites tailles, de différents domaines, et de développement indépendant, devraient être fusionnées en une seule ontologie pour former un domaine (interdisciplinaire) plus vaste. (C'est la définition de la composition / l'intégration). Ils donnent l'exemple du domaine de l'agriculture qui peut se composer de plusieurs sous domaines tels que les pesticides et les engrais, la récolte, la terre (le sol), les prévisions météo, l'infrastructure d'irrigation, la gestion de la sécheresse, la gestion du bétail, l'infrastructure de marketing, le suivi des régimes et des programmes, etc. Fusion comme étant une ontologie de pont Selon De Bruijn et al. (2006), dans la seconde approche de fusion (l'ontologie de pont), les ontologies originales ne sont pas remplacées, elles sont conservées après l'opération de fusion, c'est plutôt une "vue", appelée "Bridge Ontology", qui est créée. Elle importe les ontologies originales et spécifie des correspondances entre elles pour relier les entités de ces ontologies par des axiomes de pont. Ces "Bridging" axiomes sont des règles de transformation utilisées pour connecter la partie de chevauchement des ontologies sources. D'après Euzenat and Shvaiko (2013), la fusion des ontologies est la création d'une nouvelle ontologie O qui lie les différentes entités de deux ontologies O et O (qui se chevauchent) par des axiomes de pont ou des axiomes d'articulation, comme prescrit dans l'alignement entre O et O . Ils expriment la fusion par l'opérateur suivant : f usion(O, O , A) = O . Selon eux, les ontologies sources sont inchangées et l'ontologie résultante est supposée contenir les connaissances des ontologies initiales de sorte que les conséquences de chaque ontologie source soient les conséquences de la fusion. Dans la fusion de Abbas and Berio (2013), une nouvelle ontologie peut être créée à partir d'ontologies sources, en établissant des correspondances entre les ontologies sources (un matching), puis en les combinant avec ces correspondances trouvées. Ils ne spécifient pas également les domaines des ontologies sources. § C'est l'approche que nous allons suivre. En général, leurs algorithmes consistent en une itération de trois étapes principales : 1. Trouver un endroit où il y a un chevauchement dans les deux ontologies (trouver des entités candidates identiques ou apparentées) ; 2. Relier ces entités (qui sont sémantiquement proches) via des relations d'équivalence ou de subsomption ; ou les fusionner (après avoir transformé et uni les ontologies). 3. Vérifier la consistance, la cohérence et la non-redondance de la nouvelle structure de l'ontologie résultante, et les résoudre (trouver des solutions possibles à ces conflits). Si deux ou plusieurs entités (concepts ou relations) des ontologies sources sont équivalentes à une certaine entité cible, elles seront automatiquement fusionnées pour former une seule entité dans l'ontologie cible ; Si une entité source est subsumée par une entité cible, elle sera importée dans l'ontologie cible avec le consensus des experts du domaine ; La même approche sera appliquée si une entité source subsume une autre entité cible ; Si une entité source est disjointe à toutes les entités cibles, elle peut être non pertinente et ainsi rejetée, ou peut être considérée comme une nouvelle entité qui enrichit éventuellement l'ontologie cible. Mais ce processus nécessite beaucoup de travail manuel. Bien qu'ils déclarent que leur outil assure que chaque aspect des ontologies sources soit présent dans l'ontologie de sortie, ils n'expliquent pas la manière avec laquelle ils ont fait les mises à jour de tous les axiomes sources qui appellent les entités nouvellement modifiées suite à la fusion (en effet, deux ou plusieurs entités similaires formeront une nouvelle entité). Ils n'ont pas évoqué non plus le traitement des conflits sémantiques (les incohérences) générés certainement suite à la fusion. ¶ La sortie de ces deux étapes est un modèle en réseau où toutes les paires de concepts équivalents sont fusionnées générant ainsi un héritage multiple. Selon eux, il ne s'agit plus d'une ontologie (qui doit être un modèle en arbre), mais plutôt d'un réseau. C'est pourquoi ils ont ajouté deux autres étapes pour transformer le modèle initial de fusion en une structure d'arbre 3. La décomposition du modèle (de réseau) en plusieurs blocs dont les concepts fusionnés sont les frontières. 4. La reconstitution de ce modèle, de sorte que les concepts contenus dans les blocs (à part les concepts fusionnés) soient réorganisés pour former un seul chemin acyclique entre les deux concepts fusionnés. Cette réorganisation va être réalisée à l'aide d'un matching de subsomption / d'inclusion (is-a) entre les concepts de chaque bloc. Dans la figure 2.5, ils donnent un exemple de correspondances entre deux fragments d'ontologies à fusionner. Dans l'image 2.6, ils donnent un modèle qui illustre le résultat des deux premières étapes, où les concepts fusionnés ont plus qu'un super-concept direct (héritage multiple), ce qui forme une structure de réseau. Dans la figure 2.7, ils donnent le modèle qui illustre le résultat des deux dernières étapes, où la sortie finale est une ontologie ayant les concepts réorganisés sous forme d'arbre. Il s'agit bien de très petites ontologies fusionnées en un temps relativement long. FUSION DES ONTOLOGIES INTÉGRATION DES ONTOLOGIES Intégration des ontologies En général, les techniques d'intégration des ontologies sont utilisées dans le développement des ontologies ou dans le domaine de l'intégration des données. L'intégration des ontologies joue un rôle important dans le développement des ontologies en réutilisant des ontologies publiques existantes pour construire une ontologie en cours de développement ; ce qui réduit le coût de l'ingénierie des ontologies et favorise la réutilisation des modules d'ontologies standards. Tenons l'exemple de la construction d'une ontologie de catalogage des bibliothèques qui peut nécessiter l'assemblage d'ontologies dans les domaines des personnes, des livres, des sujets, des coordonnées géographiques, des numéros d'identification des livres, etc. Types d'intégration Voici les trois types d'intégration d'ontologies selon Keet (2004) : Intégration sémantique Elle se focalise sur le sens voulu des entités, e.g. découvrir si le concept C1 dans l'ontologie I est synonyme (ou hyponyme ou hyperonyme) au concept C2 dans l'ontologie II. C'est le type auquel nous nous intéressons. Intégration structurelle Quand la sémantique est (convenue d'être) identique mais l'organisation des entités (la catégorisation, le schéma) ne l'est pas et doit ainsi être alignée et intégrée. Il faut noter que la distinction entre la sémantique et la structure n'est pas aussi claire que cela puisse paraître, car la structure transporte une interprétation sémantique de la conceptualisation. Intégration syntaxique Elle se concentre sur la réalisation d'un formalisme uniforme à partir des formalismes avec lesquels les ontologies sources sont exprimées, tels que la description logique, KIF, OWL, F-logic etc. Dans la méthodologie, ce type d'intégration vient logiquement en troisième position (après l'intégration sémantique et structurelle), car c'est inutile de faire correspondre les formalismes si le sens de ce qui est intégré n'est pas compatible. Cependant, ces traductions, telles que la représentation syntaxique d'un concept dans deux langages formels, peuvent être recherchées indépendamment du domaine de l'intégration (le domaine de traduction des ontologies). Définitions de l'intégration Intégration comme étant une fusion Comme le montre la figure 2.8, pour Mena et al. (1996), l'intégration relie les entités des ontologies à intégrer, en traversant les hyponymes, les hyperonymes, et les synonymes entre eux. C'est en effet une fusion des ontologies. Selon la quantité de changement nécessaire pour dériver C de A et B, Sowa (1997) distingue trois niveaux d'intégration qui ressemblent un peu à la classification de Heflin and Hendler (2000) : Alignement C'est la définition 1 de l'alignement (expliquée dans le chapitre 1). Il s'agit du plus bas niveau d'intégration qui ne nécessite aucun changement dans A et B. Il supporte l'interopérabilité la plus limitée (le mapping de Heflin and Hendler (2000)). Compatibilité partielle Elle nécessite plus de changements dans A et B, et permet une interopérabilité moyenne. Toute inférence exprimée dans une ontologie en utilisant seulement les entités alignées, peut être traduite en une inférence équivalente dans l'autre ontologie (les révisions de mappings et l'intersection des ontologies de Heflin and Hendler (2000)). Unification (Compatibilité totale) Elle nécessite des changements ou des réorganisations majeures dans A et B, pour entraîner l'interopérabilité la plus complète (le plus haut niveau d'intégration). En effet, tout ce qui peut être fait avec une ontologie peut être fait d'une manière exactement la même avec l'autre. Autrement dit, toute inférence exprimée dans une ontologie, peut être traduite en une inférence équivalente dans l'autre (C'est la fusion de Pinto and Martins (2004)). Intégration de Heflin et Hendler Selon Heflin and Hendler (2000), l'intégration des ontologies implique généralement l'identification des correspondances entre deux ontologies, la détermination des différences dans les définitions des entités, et la création d'une nouvelle ontologie qui résout ces différences. Selon eux, la simple création d'une nouvelle ontologie intégrée ne résout pas le problème d'intégration de l'information sur le Web. En effet, puisque d'autres ontologies et pages Web dépendent des ontologies intégrées, tous les objets dépendants devraient être révisés pour refléter la nouvelle ontologie. Vu que cette tâche est impossible, ils ont suggéré trois façons d'incorporer les résultats de l'intégration dans le Web comme le montre la figure 2.9 : Mapping des ontologies C'est la définition 1 du mapping (expliquée dans le chapitre 1 ) les règles qui mettent en correspondance les entités de O 2 par rapport à O 1 (A ne pas confondre avec la notion de révision de mapping qui veut dire le débogage ou la réparation de mapping ! ! !). § Ils pensent que l'inconvénient de ces deux premières approches est que les concepts partagés entre deux domaines pourraient être également utilisés dans plusieurs autres domaines connexes, ainsi chaque nouveau domaine aurait besoin d'un ensemble de règles pour le mapper à tous les autres domaines en chevauchement. Et cela peut devenir très lourd. . § Ils considèrent cette troisième approche comme l'approche la plus naturelle d'intégration des ontologies car elle a l'avantage que l'équivalence des termes soit déterminée dans la phase de pré-traitement plutôt que lors de l'exécution de la requête. INTÉGRATION DES ONTOLOGIES Intégration de Pinto (consensuelle) Dans l'intégration ou la composition des ontologies, Pinto (1999) considère que nous avons, d'une part, une (ou plusieurs) ontologies (O 1 , O 2 , ..., O N ) qui vont être intégrées dans l'ontologie cible, et d'une autre part, l'ontologie cible en cours de construction (O) qui sera issue du processus de l'intégration. Ainsi, cette méthode est incrémentale. Les domaines des ontologies sources (à intégrer dans l'ontologie cible) sont généralement différents entre eux, et différents du domaine de l'ontologie cible, mais il peut y avoir une relation entre eux (D 1 , D 2 , ..., D k ). Il s'agit de deux ou plusieurs ontologies sources de sujets différents (ou de sujets liés) qui vont tout simplement être assemblées, composées, agrégées, ou combinées pour former une ontologie résultante, peut-être après que les ontologies sources aient subi quelques changements, comme l'extension, la spécialisation, la transformation, ou l'adaptation. L'intégration vise à créer une ontologie d'un nouveau domaine plus large composé de tous les domaines des ontologies d'entrée. C'est un processus de réutilisation qui vise à construire des ontologies à partir d'autres ontologies existantes. Les ontologies à intégrer doivent répondre à certaines exigences avant de leur appliquer le processus d'intégration, e.g., le domaine, l'abstraction, le type, la généralité, la modularité, l'évaluation, etc. L'ontologie résultante doit avoir toutes les propriétés d'une bonne ontologie : consistante, cohérente, complète, ayant un niveau adéquat de détail, et décrivant seulement le vocabulaire nécessaire pour le domaine, etc. Il ne devrait pas avoir une ontologie existante similaire à la résultante, sinon il faudrait tout simplement réutiliser l'ontologie existante. Avant leur inclusion dans l'ontologie résultante, les entités de l'ontologie à intégrer peuvent être : • incluses (utilisées telles quelles) ; • spécialisées (conduisant à une ontologie plus spécifique dans le même domaine) ; • augmentées (étendues) par de nouvelles entités manquantes (soit par des entités plus générales, soit par des entités de même niveau) ; • adaptées (modifiées) pour les corriger ou les améliorer en changeant : -leurs terminologies (pour se conformer aux règles de normalisation des noms, ou introduire une terminologie standard ou plus usuelle), -leurs documentations (pour les mettre à jour ou améliorer leur clarté), -leurs définitions (pour les mieux représenter dans le domaine concerné) ; • retirées (à cause de leur non pertinence). Ces adaptations transforment l'ontologie source choisie en l'ontologie voulue. Ils précisent que des problèmes tels que la cohérence, la consistance, et le niveau de détail de l'ontologie résultante doivent être traités (i.e. elle ne doit pas avoir des parties de niveau de détail exagéré et d'autres de niveau adéquat). La figure 2.10 illustre leur définition. Pinto (1999) interprétée par Keet (2004) Intégration comme étant synonyme à la fusion Klein (2001) considère l'intégration et la fusion comme égales. Il les définit par la création d'une nouvelle ontologie à partir de deux ou plusieurs ontologies existantes qui se chevauchent. C'est une définition très vague qui ressemble à la définition de la fusion des ontologies de Noy and Musen (2000). (2012) Autres définitions D'après Kokla (2006), une intégration d'ontologies génère une nouvelle ontologie intégrée sans modifier les originales. (2012), l'intégration des ontologies est un processus de construction d'une nouvelle ontologie en utilisant des ontologies disponibles. Elle peut être divisée en trois différents scénarios : -Le mapping (définition 1 de l'alignement dans le chapitre 1) ; -L'intégration (la réutilisation) ; -La fusion. Raunich and Rahm Selon Umer and Mundy Selon Wróblewska et al. (2012), il existe différents types d'intégration des ontologies : -L'alignement, le mapping (définition 1 de l'alignement dans le chapitre 1) -La transformation -La fusion -L'intégration, etc. Principaux outils d'intégration et leurs limites Les approches récentes d'intégration des ontologies suivent un schéma modulaire qui décompose ce problème en sous-problèmes indépendants tels que le matching et puis la composition. De cette façon, elles profitent des grands progrès déjà réalisés dans le domaine du matching automatique des ontologies qui identifie les entités à intégrer dans le deuxième sous-problème (la composition). La plupart des outils actuels d'intégration des ontologies sont semi-automatiques, car les experts de domaine et les ingénieurs de connaissances sont souvent nécessaires pour aider à la prise de décisions. L'outil ILIADS L'algorithme ILIADS de Udrea et al. (2007) prend en entrée deux ontologies consistantes O1 et O2, et retourne en sortie un alignement A entre O1 et O2, de telle sorte que l'intégration future de O1 et O2 à travers A soit consistante et cohérente. Les auteurs combinent un algorithme de matching de similarité (lexicale, structurelle, extensionnelle, et de clusters) avec un algorithme d'inférence logique qui raisonne sur les conséquences des relations (des correspondances) de l'alignement. Les relations de l'alignement sont exprimées comme des axiomes OWL (owl:equivalentClass, owl:equivalentProperty, owl:sameAs) ajoutés à l'ontologie résultante (qui compose O1 et O2). Ils ont utilisé le raisonneur Pellet pour vérifier, à la fin de chaque expérience, si l'ontologie résultante est consistante ou pas. ILIADS a produit des inconsistances dans moins de 0,5% de leurs essais. Mais ils n'ont pas évoqué les incohérences (e.g. le nombre de classes insatisfiables), car une ontologie peut être consistante tout en ayant une multitude de classes insatisfiables. Leur approche qui consiste en un processus interactif semi-automatique composé de quatre étapes principales (le calcul des correspondances, le calcul des nouvelles inférences, la détection des erreurs, et la réparation des erreurs identifiées à l'aide de l'utilisateur) a été appliquée pour réaliser l'outil "ContentMap", un plugin téléchargeable destiné à être utilisé dans Protégé 4. ContentMap permet à l'utilisateur de choisir un ou plusieurs outils d'alignement à sélectionner (comme OLA, AROMA, CIDER, etc.) en leur attribuant différents poids. Il lui permet aussi de filtrer automatiquement les correspondances en choisissant un seuil de confiance minimal. Le calcul des nouvelles inférences a été fait à l'aide de la notion de "différence déductive" qui compare les axiomes de l'ontologie résultante U (la composition de O1, O2, et M (Mapping)) avec les axiomes de chacune des ontologies initiales (O1, O2, et M ) pour détecter ceux qui existent dans l'ontologie de sortie mais qui n'existent pas dans les ontologies initiales, i.e. le système calcule la différence logique entre les inférences avant et après l'application des correspondances. Pour aider l'utilisateur à comprendre les conséquences sémantiques de U , ils lui montrent les justifications et les explications derrière la manifestation de ces nouveaux axiomes. Les inférences imprévues de l'ontologie de sortie U (i.e. les inférences qui se trouvent dans l'ontologie résultante U mais qui ne se trouvent pas dans les ontologies individuelles O1, O2, et M ) seront présentées à l'utilisateur qui aidera à réparer U en choisissant la ou les source(s) d'axiomes à modifier (O1, O2, et/ou M ) et en supprimant les axiomes non désirés (qui sont, selon lui, générateurs d'incohérences) : • Il peut choisir de supprimer uniquement des axiomes provenant de l'ontologie M et laisser les axiomes des ontologies initiales O1 et O2 intacts, puisque M est généralement considérée la plus grande source d'erreurs. • Mais si deux entités correspondues sont originairement contradictoires dans O1 et O2, et leur relation dans M est correcte, l'utilisateur sera en face d'un dilemme ; soit supprimer l'axiome de la correspondance correcte, soit supprimer les axiomes originaux dans l'une ou les deux ontologies O1 et O2. Par suite, le système exécute un algorithme de réparation qui essaie de supprimer le minimum d'axiomes tout en préservant les inférences jugées valides par l'utilisateur. (b) Sélectionner la première ontologie source à intégrer ; ouvrir l'ontologie cible "Intégrée" dans l'éditeur Protégé et importer l'ontologie source sélectionnée ; (c) Utiliser l'option "Merge ontologies" de Protégé pour intégrer l'ontologie source dans la destination ("Intégrée"). De cette façon, l'ontologie source sera incluse dans le même fichier de l'ontologie cible ; (d) Puis, en utilisant les outils de refactoring, changer l'IRI de tous les éléments de l'ontologie source en "Intégrée" qui est l'IRI de l'ontologie cible. 3. La vérification de la consistance et la cohérence de l'ontologie cible (en utilisant un raisonneur dans Protégé) et la vérification de l'absence de redondances, puis leur résolution en éliminant les relations "is-a" redondantes entre les entités (causées par les relations d'équivalence). Les étapes 2 et 3 sont itératives (elles se répètent pour chaque ontologie source à intégrer). Cette approche est simple et claire, et bien que nous n'ayons pas la moindre idée sur la qualité du matching réalisé, son inconvénient majeur est qu'elle est toute manuelle (elle est difficile à appliquer pour les grandes ontologies). Dans les expérimentations, ils ont créé une ontologie cible vide dans laquelle ils ont intégré l'ontologie source eQual. Puis ils ont intégré l'ontologie source Ahn dans l'ontologie cible (contenant déjà eQual) en reliant les paires d'entités mises en correspondance par des relations d'équivalence. De la même manière, ils ont intégré trois autres ontologies sources (SiteQual, Website Evaluation Questionnaire, et Web Portal Site Quality) dans l'ontologie cible. Toutes ces ontologies sources appartiennent au domaine de l'évaluation de la qualité des sites Web. Dans chacune de ces itérations, le raisonneur a détecté des incohérences et des relations de subsomption redondantes dans l'ontologie résultante qu'il fallait corriger. Il s'agit d'une fusion, non pas d'une intégration. Dans ce travail, il n'y a pas une partie d'évaluation à l'aide d'une référence ou des résultats d'un travail concurrent pour se comparer avec. L'outil FITON pour l'intégration des data sets Zhao and Ichise (2014) ont proposé un système semi-automatique, nommé FITON, qui prend en entrée des data sets (deux ou plusieurs ontologies) du LOD (Linked Open Data) et qui retourne en sortie une ontologie intégrée (et enrichie). Dans ce cas, la problématique c'est qu'il existe très peu (ou pas) de liens d'équivalence préétablis entres les différentes classes et propriétés des data sets (contrairement aux liens "sameAs" disponibles avec abondance entre leurs instances -des centaines de millions -) ; ce qui rend difficile l'extraction directe des classes et des propriétés équivalentes pour faire l'intégration de ces data sets. Pour ce faire, ils ont intégré tout d'abord les instances identiques (informations déjà fournies sous forme de propriétés "owl:sameAs" dans les data sets) et ont extrait les classes et les propriétés qui décrivent ces instances pour former un graphe nommé graphe "sameAs" à partir duquel ils vont découvrir les similarités entre les différentes classes et propriétés contenues dans le graphe en combinant des méthodes de matching (terminologiques et sémantiques) pour parvenir enfin à intégrer tous les types d'entités des data sets. Puisqu'il n'existe pas de benchmark pour les ensembles de données du LOD, un expert a créé manuellement un alignement de référence entre les deux data sets DBpedia et Geonames. DBpedia, la version "linked data" de Wikipédia de domaine transversal, contient (au moment Au final, leur ontologie de sortie contenait seulement 135 classes et 453 propriétés. Nous concluons qu'ils ont fait une sorte d'intersection entre les deux ontologies plutôt qu'une intégration, car la conservation des informations initiales des ontologies d'entrée n'est pas respectée. Puisqu'ils comptent sur l'analyse des instances inter-liées (sameAs) pour découvrir les alignements entre les data sets, leur outil ne pourra pas fonctionner s'il n'existe pas (ou s'il n'existe que peu) de liens "sameAs" entre les instances. Ainsi, l'inconvénient de FITON est qu'il ne peut fonctionner efficacement que lorsqu'au moins 4% des instances d'un data set soient liées (identiques) aux instances de l'autre data set. Différences entre la fusion et l'intégration L'intégration et la fusion des ontologies sont tous les deux des processus de construction d'une nouvelle ontologie en se basant sur les informations de deux ou plusieurs ontologies sources. Cependant, dans la fusion, il y a beaucoup de connaissances en chevauchement entre les entités des ontologies sources, alors que dans l'intégration (la composition), il y a peu ou pas de chevauchement Pinto (1999). Par conséquent, la différence principale entre ces deux processus est que, après le processus d'intégration (composition), nous pouvons identifier dans l'ontologie résultante les régions issues des ontologies sources, car les connaissances ont été laissées plus ou moins inchangées. En effet, l'ontologie résultante est composée de modules (sous-ontologies). Tandis qu'après le processus de fusion, il est généralement difficile d'identifier dans l'ontologie résultante les régions issues des ontologies sources car les connaissances ont été mêlées ou unifiées et homogénéisées ainsi modifiées. Avantages de ces deux processus Dans le contexte de l'ingénierie des ontologies, la réutilisation des modèles de connaissances existants est recommandée comme étant un facteur clé pour le développement d'ontologies rentables et de haute qualité. Ziemba et al. (2015) ont conclu que la construction d'une ontologie à l'aide de l'intégration ou de la fusion des ontologies sources, est beaucoup moins complexe que son processus de construction à partir de zéro. L'intégration des ontologies réduit le coût et le temps requis pour la conceptualisation des domaines à partir de zéro, et améliore la qualité des ontologies nouvellement développées pour une application particulière en réutilisant des composants déjà validés. La fusion des ontologies évite la confusion qui peut être générée à partir de plusieurs représentations du même domaine et renforce l'orchestration et l'harmonisation des connaissances. CONSÉQUENCES SÉMANTIQUES DE CES DEUX PROCESSUS Ces deux processus sont aussi particulièrement utilisés lorsqu'il est nécessaire d'effectuer un raisonnement impliquant plusieurs ontologies. Jiménez-Ruiz et al. (2009) affirment que quand nous raisonnons sur les ontologies à intégrer et leurs correspondances, sur l'ontologie produite suite à l'intégration (contenant les axiomes des correspondances), ou sur l'ontologie produite suite à la fusion, il est souvent nécessaire de détecter des conflits ; ainsi des erreurs vont probablement se manifester. Ces erreurs sont dues à deux causes principales : Conséquences sémantiques de ces deux processus • Les correspondances (générées généralement par un outil de matching automatique) peuvent comporter quelques fautes ou être erronées (incorrectes). • Même si les correspondances trouvées étaient toutes correctes, les ontologies à intégrer peuvent contenir des descriptions contradictoires des entités correspondues, et ceci est à cause de la représentation variable des ontologies sources. En effet, selon Cheatham and Pesquita (2017), les correspondances qui forment l'alignement ne sont pas indépendantes les unes des autres : • Il y a des cas dans lesquels seulement une parmi plusieurs correspondances peut être vraie (parmi les correspondances ayant la même entité source). • Dans d'autres cas, plusieurs correspondances, réunies ensemble, peuvent conduire à une inférence involontaire et indésirable ou une classe insatisfiable. • Ou la combinaison de ces deux causes. Ces erreurs sont des conséquences logiques imprévues (e.g. des classes insatisfiables, de nouvelles subsomptions (suite aux axiomes d'équivalence), etc.) difficiles à détecter, à comprendre, et à réparer. Par conséquent, l'ontologie globale créée, associée aux règles de correspondances, est très prédisposée aux erreurs et nécessite une supervision d'un expert de domaine ou une supervision automatique supportée par les applications. Récemment, la recherche a été conduite au debugage et à la révision des alignements, ainsi que le debugage et la réparation des insatisfiabilités dans les ontologies OWL. Cependant, la suppression de certaines insatisfiabilités peut entraîner une perte d'informations précieuses provenant des ontologies sources. D'ailleurs, c'est le plus grand inconvénient de l'intégration ou de la fusion des ontologies dans les travaux actuels. Exemples Les mêmes données peuvent être décrites par des ontologies de différentes perspectives. Cependant, même en se concentrant sur une même perspective, la multitude d'ontologies actuellement utilisées pour les décrire, empêche leur intégration transparente. En effet, l'intégration de deux ontologies de différents modèles peut causer des incohérences logiques. Supposons que A est une classe satisfiable dans O1, et B et C sont des classes disjointes dans O2, et supposons que deux correspondances (d'un alignement entre O1 et O2) disent que A est une sous classe de B, et que A une est sous classe de C. Si ces correspondances, exprimées sous forme d'axiomes, sont ajoutées à la composition des deux ontologies O1 et O2, ils vont créer un problème car une classe ne peut pas être une sous classe de deux classes mères disjointes. Par conséquent, A sera insatisfiable et l'ontologie résultante sera incohérente. Et si jamais A avait une instance, l'ontologie résultante serait inconsistante Abbas and Berio (2013). Voici un autre exemple : Fahad et al. (2010), les outils de fusion ou d'intégration existants ne préservent pas la connaissance disjointe des ontologies sources (pour but de produire à la fin une ontologie cohérente) et sont en général semi-automatiques nécessitant beaucoup d'intervention humaine pour la validation des correspondances suggérées et également la résolution des conflits générés durant ou après la construction de l'ontologie résultante. Par conséquent, le résultat est incomplet (il viole la description des disjonctions) et très dépendant de l'observation et de l'intelligence de l'utilisateur. Conséquences dans les outils existants D'après La raison de l'inexactitude de ces outils c'est qu'ils n'exploitent pas la sémantique cachée (et précisément les disjonctions) des ontologies sources pendant la phase de matching, et détectent ainsi des correspondances non fiables qui créent des situations erronées dans l'ontologie de sortie. CONSÉQUENCES SÉMANTIQUES DE CES DEUX PROCESSUS Remarque Les alignements peuvent être réalisés pour aider l'interrogation distribuée ou bien le raisonnement logique Cheatham and Pesquita (2017) : • Pour l'interrogation, le rappel (i.e. les résultats pertinents) des correspondances est un aspect important. Cela signifie que, pour les applications centrées sur les requêtes, ce n'est pas grave si les correspondances provoquent d'inconsistance logique, l'essentiel c'est que les relations soient correctes. Ce cas s'applique dans le contexte des linked data, et l'intégration des ontologies tout en les maintenant séparées. • Pour le raisonnement logique, le rappel n'est pas suffisant car les correspondances peuvent être correctes, mais générant de conflits. En effet, les applications qui ont l'intention d'employer un raisonneur sur les données intégrées ne peuvent pas utiliser un alignement qui génère une inconsistance logique. Ce cas s'applique dans le contexte de l'intégration des ontologies tout en les regroupant en une seule ontologie (la fusion et l'ontologie de pont entre autres). Discussion et synthèse Dans notre mémoire, nous allons nous intéresser aux ontologies de pont, qui, suivant les définitions ci-dessus, peuvent entrer dans le cadre de la fusion et de l'intégration, les deux à la fois, mais vu que le terme "intégration" peut être également un terme générique qui inclut la fusion, nous avons choisi d'utiliser le terme intégration, d'où le titre de notre mémoire. L'ontologie de pont peut être considérée comme le plus faible niveau de "fusion" des ontologies car dans nos expérimentations, nous avons uni des ontologies ayant un domaine identique ou proche ; cependant, elle peut être considérée aussi comme une "intégration", car il s'agit bien d'une composition des ontologies sources de telle manière que les éléments de chacune des ontologies sources soient facilement reconnus dans l'ontologie résultante. Ce type d'intégration est utilisé par exemple dans le cas où des entreprises en coopération veulent unir leurs connaissances sans tout de même changer leurs ontologies de base, ainsi changer toutes les données qui s'y conforment. En d'autres termes, elles veulent coopérer tout en restant indépendantes. Dans l'ontologie résultante, les noms et les descriptions des entités issues des ontologies sources restent comme ils le sont originairement, sans changer tout un système qui en est dépendant. Conclusion L'intégration des ontologies est encore plus difficile avec les ontologies de domaines identiques, similaires, complémentaires, et surtout interdisciplinaires. Les difficultés apparaissent aussi avec les ontologies de différents niveaux formels (les ontologies légères et lourdes). Or, les ontologies qui ont beaucoup de points communs dans la structuration et l'organisation de leurs entités ont plus de chance de ne pas avoir des conflits et des difficultés d'intégration. Il y a de multiples possibilités pour intégrer les ontologies. Les approches peuvent être distinguées par trois facteurs principaux : le niveau d'intégration (d'interopérabilité sémantique), le(s) domaine(s) des ontologies d'entrée, et la méthode d'intégration (incrémentale ou non). Introduction Dans ce chapitre, nous décrivons les étapes de notre méthode et celle de la référence, citons les conditions favorables pour avoir les meilleurs résultats, et proposons une nouvelle terminologie à utiliser au lieu des notions floues et mal appropriées de la littérature. Description de la nouvelle méthode En général, le processus d'intégration des ontologies passe par deux étapes majeures : le matching des ontologies d'entrée, puis la composition / l'union / l'agrégation de ces ontologies avec les mappings (ou les alignements) générés suite à l'étape de matching. La figure 3.1 illustre ce processus. Mais dans notre travail, nous avons utilisé des alignements de référence comme entrée, sans avoir fait l'étape de matching par nous-mêmes, ainsi nous allégeons notre charge de travail et nous nous concentrons sur l'intégration concrète. Les temps d'exécution de nos expérimentations ne comprennent pas le temps de matching. En effet, le vrai temps d'exécution sera la somme de notre temps global et celui du matching (supposé fait). Ainsi, le temps d'exécution réel de notre méthode dépendra du temps d'exécution de l'algorithme du matching utilisé, et la qualité de l'ontologie résultante dépendra de la qualité des alignements d'entrée utilisés. La Approche générale de OIA2R Notre implémentation et également celle de la référence sont divisées en deux parties majeures : 1. La première consiste à composer (assembler) les ontologies d'entrée. Avec ce code seul, nous obtiendrons une ontologie composée des sous-ontologies sources, ainsi contenant les axiomes de description des entités des ontologies sources, sans "bridging" axiomes entre elles. § Pour l'instant, il s'agit d'une intégration (composition) simple sans interopérabilité sémantique. 2. La deuxième consiste à ajouter (aux axiomes créés dans la première étape) des axiomes de pont qui sont en fait des axiomes d'équivalence entre les différentes entités. Ce sont des axiomes qui traduisent fidèlement les correspondances provenant des alignements entre les ontologies sources. § Ces deux étapes font une intégration qui produit une ontologie dite "ontologie de pont" qui permet l'interopérabilité sémantique. Ontologie de sortie = axiomes des entités sources + "bridging" axiomes 3. Démarche détaillée de OIA2R Introduction au refactoring Un IRI d'une ontologie (Internationalised Resource Identifier) identifie l'ontologie d'une façon unique. Il est considéré comme son nom. Il peut être un IRI physique, i.e. un fichier .owl local, ou bien un URI à publier dans le Web, i.e. une adresse Web contenant ce fichier .owl. L'IRI d'une entité (classe, propriété, ou instance) est composé d'un "IRI de préfixe" (un préfixe) suivi du "nom" court de l'entité (un suffixe). En général, la partie "préfixe" de l'entité est exactement l'IRI de l'ontologie actuelle (ou d'une autre ontologie existante), mais elle peut aussi contenir en plus un "ID" (identifiant), juste après l'IRI de l'ontologie : Dans une ontologie, nous ne pouvons pas avoir deux IRIs identiques, i.e. si deux entités (deux objets créés dans OWL API) ont le même IRI, alors après leur création, il s'agira de la même entité. Ainsi, dans une ontologie, une entité (un IRI complet d'une entité) doit être unique. Mais quand nous allons intégrer des ontologies de même domaine en une seule ontologie, il y aura un grand risque de rencontrer des entités, même si originaires d'ontologies différentes (donc d'IRIs de préfixe différents), mais ayant exactement le même "nom local" (suffixe). Ceci nous causera un problème, car nous voulons, conformément aux standards, que les entités de notre future ontologie aient comme "IRI de préfixe" l'IRI de cette dernière. Dans ce cas, pendant la création de ces entités ayant le même "nom", seulement une sera créée, et elle aura dans sa description toutes les informations de ces entités. Elle sera bien évidemment sémantiquement erronée. Voici un exemple pour concrétiser ce que nous étions en train de dire. Les entités de nom "Paper", "Person", et "Conference" existent dans au moins trois ontologies de la base "Conference" : cmt (Ont1), conference (Ont2), et confOf (Ont3) : • Voici les IRIs complets originaux des entités ayant le nom "Paper" : - Pour pallier cette redondance et ne pas mettre les informations (les définitions) de toutes ces entités dans l'ontologie de sortie dans une seule entité ayant ce nom, nous avons choisi d'ajouter un ID aux IRIs de préfixe des entités de notre ontologie, pour pouvoir les différencier. Nous allons attribuer à chaque ontologie un numéro ; celle qui sera parsée la première aura le numéro 1, la suivante aura le numéro 2, et ainsi de suite. L'ID sera le numéro de l'ontologie originale d'où venait l'entité en question. Par conséquent, nous pourrons garder intacte la partie "nom" des entités redondantes, sans être obligés de la modifier. C'est seulement la partie "IRI de préfixe" qui va changer. Nous avons défini l'ID sur quatre caractères, ainsi les quatre derniers caractères du préfixe de chaque entité seront réservés à l'ID. • Voici comment vont paraître les IRIs complets des entités de nom "Paper" dans notre ontologie de sortie : -http ://intégration/001#Paper -http ://intégration/002#Paper -http ://intégration/003#Paper • Voici comment vont paraître les IRIs complets des entités de nom "Person" dans notre ontologie de sortie : -http ://intégration/001#Person -http ://intégration/002#Person -http ://intégration/003#Person • Voici comment vont paraître les IRIs complets des entités de nom "Conference" dans notre ontologie de sortie : -http ://intégration/001#Conference -http ://intégration/002#Conference -http ://intégration/003#Conference DÉMARCHE DÉTAILLÉE DE OIA2R De cette manière, le "nom" redondant d'une entité quelconque sera préservé, aura un IRI unique dans la nouvelle ontologie, et toutes ses informations liées (sa définition dans son ontologie originale) seront conservées correctement. Première étape En détail Pendant le parsing des classes des ontologies d'entrée, nous extrayons pour chaque classe sa définition qui consiste en ses annotations utilisées (ses labels, ses commentaires, ses propriétés d'annotation), ses superclasses, ses classes équivalentes, et disjointes (informations avec lesquelles nous créons les classes de notre future ontologie). Et nous remplissons au fur et à mesure le HMap des classes qui contiendra comme "clé" l'URI original de la classe, et comme "valeur" le numéro de l'ontologie dont il est issu. Pendant le parsing des propriétés d'objet/data des ontologies d'entrée, nous extrayons pour chaque propriété sa définition qui consiste en ses annotations utilisées (ses labels, ses commentaires, et ses propriétés d'annotation), ses super-propriétés, ses domaines, ses images, ses propriétés inverses (pour les propriétés d'objet seulement), équivalentes, disjointes, et son type (informations avec lesquelles nous créons les propriétés de notre future ontologie). Et nous remplissons au fur et à mesure les deux HMaps (des propriétés d'objet, et des propriétés data) qui contiendront comme "clé" l'URI original de la propriété, et comme "valeur" le numéro de l'ontologie dont il est issu. Pendant le parsing des instances des ontologies d'entrée, nous extrayons pour chaque instance sa définition qui consiste en ses annotations utilisées (ses labels, ses commentaires, et ses propriétés d'annotation), ses classes qui l'instancient, ses instances identiques et différentes, les propriétés d'objet/data qu'elle appelle et leurs valeurs (informations avec lesquelles nous créons les instances de notre future ontologie). Et nous remplissons au fur et à mesure le HMap des instances qui contiendra comme "clé" l'URI original de l'instance, et comme "valeur" le numéro de l'ontologie dont il est issu. Pendant le parsing des propriétés d'annotation des ontologies d'entrée, nous extrayons pour chaque propriété sa définition qui consiste en ses labels, ses commentaires, ses superpropriétés, ses domaines, et ses images (informations avec lesquelles nous créons les propriétés d'annotation de notre future ontologie). Pendant le parsing des individus anonymes des ontologies d'entrée, nous extrayons pour chaque individu (qui est sous forme d'un ID local unique) sa définition qui consiste en ses labels et ses commentaires, etc. (informations avec lesquelles nous créons les individus anonymes de notre future ontologie). § Ainsi, lors du parsing des ontologies originales, nous avons créé des entités propres à notre future ontologie, et en même temps, nous avons rempli les quatre HMaps correspondants à chaque type d'entité -classes, propriétés objet, propriété de données, et instances-(où l'URI original de l'entité forme la "clé", et le numéro de son ontologie forme la "valeur"), et tout cela pour remédier au problème de redondance des entités expliqué dans la section précédente. Deuxième étape Nous allons représenter les correspondances (entre les différentes entités des ontologies sources) par des axiomes OWL, car cette représentation est sémantiquement correcte et permet de réutiliser l'infrastructure et le vocabulaire du langage OWL. En général Nous parcourons les correspondances (les paires d'entités) de chaque alignement d'entrée (i.e. les cellules qui ont une mesure supérieure ou égale à un seuil que l'utilisateur a fixé), et au fur et à mesure, nous ajoutons à la nouvelle ontologie des axiomes de pont (des liens d'équivalence) traduisant ces correspondances entre les entités déjà créées dans notre ontologie. En détail Dans OWL API, nous ne pouvons pas lier les entités directement par des axiomes. En effet, il existe quatre types de méthodes de création d'axiomes, chacun destiné à un type d'entité (-classes, propriétés d'objet, propriétés de données, et instances-). Ceci s'applique entre autres pour les axiomes d'équivalence que nous allons utiliser dans notre cas. Les voici : Figure 3.4 -Création des axiomes d'équivalence dans OWL API Sachant que dans les alignements, nous ne pouvons pas savoir le type des entités mises en correspondance, et que les entités sont citées par leurs URIs originaux complets (comme elles ont été définies dans leur ontologie originale), nous avons eu recours aux quatre HMaps remplis déjà dans l'étape précédente, pour savoir le type de chaque entité, et son ID (le numéro de l'ontologie dont elle est issue), afin de pouvoir créer des "bridging" axiomes en liant les couples d'entités (citées dans les cellules des alignements) par des axiomes d'équivalence, en changeant leurs URIs de préfixe originaux par l'URI de notre ontologie + l'ID correspondant. A la fin, dans notre ontologie de sortie, les supposés "bridging" axiomes créés ne vont plus être considérés comme ceci. En effet, selon nous, ils vont plutôt être perçus comme des axiomes d'équivalence normaux et originaux liant des entités d'une nouvelle ontologie indépendante (la nôtre), comme si celle-ci n'était pas le résultat d'une intégration ; car les entités la composant ont toutes un "URI de préfixe" propre à elle (les URIs des entités de notre nouvelle ontologie ne sont pas des URIs des ontologies sources déjà publiées). Autrement dit, nous avons fait un refactoring (une personnalisation) des URIs des entités sources que nous avons réutilisées pour former notre ontologie. Démarche détaillée de la référence Comme il n'y a pas de benchmark pour les approches d'intégration des ontologies, nous avons créé une autre version d'intégration avec laquelle nous pourrons nous comparer. Nous considérerons l'ontologie résultante comme notre ontologie de référence, car il s'agit d'une ontologie de pont sans perte de connaissances (i.e., complète). Nous appellerons cette version comme l'intégration de "référence" ou la "pseudo-référence". En principe, la démarche de référence consiste en la composition (l'union / l'intégration) automatique des ontologies sources et l'ontologie qui correspond aux alignements entre elles. Supposons que nous avons deux ontologies O 1 et O 2 à intégrer, et un alignement A entre elles. L'ontologie résultante serait O 3 = O 1 + O 2 + O A , après avoir converti A en une ontologie. En effet, puisque le format d'alignement est exprimé en RDF, ainsi il est librement extensible, l'"Alignment API" permet de convertir les correspondances (les cellules) d'un alignement en des axiomes OWL d'équivalence, de subsomption, et de disjonction (à l'aide de la méthode OWLAxiomsRendererVisitor(ObjectAlignment)) pour générer une ontologie comprenant à la fois les entités alignées et les axiomes OWL de pont. Malheureusement, cette tâche n'a pas pu être effectuée correctement, et nous n'avons pas pu transformer directement l'alignement en une ontologie. Pour ce faire, nous avons appliqué l'idée de notre approche (déjà expliquée). Première étape OWLOntologyMerger() est une méthode prédéfinie dans OWL API qui unit toutes les ontologies chargées (loaded) dans le OWLOntologyManager. Nous n'avons qu'à spécifier à la méthode createMergedOntology() le nouvel URI de l'ontologie que nous allons créer : OWLOntologyMerger integration = new OWLOntologyMerger(manager) ; OWLOntology newOnto = integration.createMergedOntology(manager, newIRI) ; Il faut noter que les termes "Merger" et "MergedOntology" utilisés par OWL API sont faux et accentuent encore plus la mécompréhension du terme "fusion" dans la communauté. En effet, c'est une composition (union, intégration, association), ce n'est pas une fusion. D'ailleurs, Protégé fait exactement la même erreur avec le terme "Merge ontologies" dans le menu "refactor". Nous aurons avec seulement cette étape une ontologie intégrée (composée, agrégé) qui ne manque aucune information des ontologies d'entrée, et qui maintient les URIs d'origine des entités sources en les mettant dans l'ontologie de sortie telles qu'elles sont originairement dans leurs ontologies d'entrée. Nous parcourons les correspondances de chaque alignement d'entrée (i.e. les cellules qui ont une mesure supérieure ou égale au seuil que nous avons fixé), et au fur et à mesure, nous ajoutons à la nouvelle ontologie des liens d'équivalence (des "bridging" axiomes) qui traduisent fidèlement ces correspondances entre les entités. Deuxième étape 3.4. COMPARAISON ENTRE OIA2R ET LA RÉFÉRENCE § Sachant que dans OWL API, nous ne pouvons pas lier les entités directement par des axiomes, mais plutôt à travers quatre types de méthodes de création d'axiomes pour chacun des types d'entité (-classes, propriétés objet, propriétés de données, et instances-), et sachant que dans les alignements, nous ne pouvons pas savoir le type des entités correspondues, nous avons pu, à partir des quatre HSets déjà créés et remplis, savoir le type de chaque entité des cellules parcourues et créer des "bridging" axiomes (lier les entités citées dans les cellules des alignements par des axiomes d'équivalence en gardant leurs URIs originaux (tels qu'ils sont cités dans les alignements)). Comparaison entre OIA2R et la référence L'intégration de référence n'a absolument aucune perte d'informations des ontologies originales, pas le moindre axiome perdu, par contre la nôtre ne parvient pas à tout parser, nous perdons les entités anonymes et les restrictions, car toutes les entités que nous parsons sont nommées. La seule différence entre ce travail et la référence, c'est que toutes les entités de notre ontologie résultante ont un URI de préfixe propre à nous, contrairement à l'intégration de référence qui garde les URIs originaux des entités et qui ne fait aucun refactoring. Ainsi notre ontologie est tout à fait originale et ne pointe pas sur des entités appartenant à des ontologies externes déjà existantes. Conditions favorables pour de meilleurs résultats 3.5.1 Mapping (1-à-1) au lieu d'alignement (1-à-N) Comme expliqué dans le chapitre 1, le matching retourne un alignement ou un mapping. Dans l'alignement, une entité d'une première ontologie peut être mise en correspondance avec une ou plusieurs entités d'une deuxième ontologie (ces correspondances n'ont pas la même pertinence). Il s'agit de correspondances "1-à-N". Tandis que dans le mapping, une entité d'une première ontologie peut être mise en correspondance avec zéro ou une seule entité d'une deuxième ontologie. Il s'agit de correspondances "1-à-1". D'après les expérimentations (que nous détaillerons dans le chapitre 4), nous avons remarqué que, dans l'ontologie résultant d'une intégration qui utilise des alignements, le nombre de classes insatisfiables est beaucoup plus important que celui de l'ontologie résultant d'une intégration qui utilise des mappings. Ci-dessous un exemple qui montre comment se forme l'insatisfiabilité d'une classe dans une ontologie de pont. La figure 3.6 montre les justifications que nous a affichées le debugueur de OWL API (à l'aide du raisonneur HermiT) pour une des classes insatisfiables (002#Tissue_Dissection) générées dans une de nos expérimentations. La figure 3.6 est la représentation graphique de axiomes de justification générés par le debugueur, où les classes de couleur rouge sont les classes insatisfiables. figure 3.7 montre les deux correspondances qui ont causées toutes ces incohérences. La relation " ?" veut dire une relation d'équivalence "=" correcte mais qui génère des insatisfiabilités dans l'ontologie intégrée. CONDITIONS FAVORABLES POUR DE MEILLEURS RÉSULTATS Sachant que la relation d'équivalence (des "bridging" axiomes) est en réalité égale à deux relations de subsomption dans les deux sens, le schéma devient comme le montre la figure 3.8. Le pire avec les alignements, c'est que les entités cibles (ou sources) correspondues avec la même entité source (ou cible) sont généralement toutes proches (i.e., voisines) ainsi susceptibles d'avoir entre elles des relations de disjonction qui sont la première source des incohérences. CONDITIONS FAVORABLES POUR DE MEILLEURS RÉSULTATS La figure 3.9 montre ce que devient si nous ne gardons qu'une seule correspondance pour l'entité source "003#Clinical_finding". Dans notre approche, nous avons la possibilité de filtrer les correspondances ayant la même entité source ou la même entité cible en gardant uniquement la correspondance ayant la plus grande confiance (c.f., figure 3.10). En premier lieu, nous créons deux HMaps : la première contiendra comme clé l'IRI de l'entité source de chaque cellule d'un alignement, et comme valeur l'IRI de l'entité cible. La deuxième contiendra comme clé l'IRI de l'entité source de chaque cellule d'un alignement, et comme valeur la mesure de confiance de la relation. Pendant le parsing des alignements d'entrée, nous remplissons ces deux HMaps au fur et à mesure, de telle sorte que si nous trouvons une cellule dont l'entité source est déjà existante comme clé dans les HMaps et dont la mesure de confiance est supérieure à celle rencontrée avant, nous mettons à jour les valeurs correspondantes à cette clé dans les deux HMaps ; sinon nous ne faisons rien (i.e. si la cellule dont l'entité source est déjà existante comme clé dans les HMaps et dont la mesure de confiance est inférieure ou égale à celle rencontrée avant, elle ne sera pas stockée, car nous avons celle qui est plus pertinente déjà enregistrée dans les HMaps). En deuxième lieu, nous allons refaire la même chose, mais à l'envers. Nous créons deux HMaps "inverses" : la première contiendra comme clé l'IRI de l'entité cible de chaque entrée de la première HMap issue de l'étape précédente, et comme valeur l'IRI de l'entité source. La deuxième contiendra comme clé l'IRI de l'entité cible de chaque entrée de la première HMap issue de l'étape précédente, et comme valeur la mesure de confiance de la relation. Pendant le parcours des entrées de la première HMap déjà remplie dans l'étape 1, nous remplissons ces deux HMaps "inverses" au fur et à mesure, de telle sorte que si nous trouvons une entrée dont l'entité cible est déjà existante comme clé dans les HMaps "inverses" et dont la mesure de confiance est supérieure à celle rencontrée avant, nous mettons à jour les valeurs correspondantes à cette clé dans les deux HMaps "inverses". Au lieu d'utiliser les alignements originaux (i.e., d'entrée), nous utiliserons le premier HMap "inverse" qui contiendra toutes les correspondances filtrées des alignements d'entrée. Ce HMap exprime les correspondances supposées former des mappings. Réparation des alignements La réparation des alignements ou des mappings (en supprimant les correspondances qui sont susceptibles d'engendrer des insatisfibilités lorsqu'elles seront associées aux ontologies d'entrée) aide à diminuer les incohérences dans l'ontologie résultante. D'après Cheatham and Pesquita (2017), actuellement, peu de systèmes de matching d'ontologies ne supportent la gestion de l'incohérence logique, et encore moins pour les grandes ontologies. L'approche la plus basique consiste à filtrer les correspondances qui violent une série de règles sémantiques (comme le fait YAM++ (2012)). Des approches plus sophistiquées reposent sur des procédures automatisées capables d'identifier les correspondances impliquées dans l'incohérence logique et de sélectionner celles à supprimer pour atteindre la cohérence, comme AML (2015) et LogMap (2011). Abbas and Berio (2013) • D'autres auteurs trouvent que les incohérences peuvent être causées soit par les alignements, soit par les ontologies (ContentMap de Jiménez-Ruiz et al. (2009)). Ils ont déduit que lorsque les correspondances sont celles qui sont prévues (sont correctes) et lorsque l'ontologie résultante contient quand même des incohérences logiques, alors ces incohérences doivent être forcément dues aux ontologies sources qui sont incompatibles à cause des différences de leurs conceptualisations. Ils proposent alors une solution pour réparer les ontologies (supprimer les axiomes qui causent des contradictions dans l'ontologie de sortie) à l'aide d'un ingénieur du domaine. Dans notre approche, nous avons exploité les outils LogMap et ALCOMO qui prennent en entrée deux ontologies sources et un alignement entre eux, et génèrent un alignement réparé (après avoir fait un calcul des inférences entre eux pour décider quelles correspondances supprimer). Nous utilisons l'un de ces deux outils pour tous nos alignements d'entrée afin de minimiser au maximum les incohérences dans notre future ontologie résultante. LogMap 1 est un système de matching d'ontologies basé sur la logique créé par Jiménez-Ruiz and Grau (2011). Il effectue une réparation des alignements (i.e., une transformation d'un alignement incohérent en un alignement cohérent) en exécutant un raisonnement (parfois incomplet). Il supprime ou modifie les correspondances qui causent l'apparition des classes insatisfiables. Créé par Meilicke (2011), ALCOMO 2 est un système de debugage des alignements qui permet de transformer un alignement incohérent en un alignement cohérent en lui supprimant certaines correspondances. Il est complet car il détecte toute forme d'insatisfiabilité entre les ontologies causée par les alignements. Nouvelle définition de la notion d'intégration Dans la littérature, il n'y pas un accord général sur les définitions de l'intégration et la fusion des ontologies. Flouris et al. (2006), et Euzenat and Shvaiko (2013) ont essayé de faire une clarification et une désambiguïsation de toutes les terminologies de l'ingénierie des ontologies. Et Pinto (1999) a fait la même chose pour les termes "intégration" et "fusion". Mais malgré leurs efforts, les termes "intégration" et "fusion" sont toujours mal définis, mal compris, et mal placés. Comme le dit Pinto (1999), l'intégration concerne des ontologies de différents ou de proches domaines pour former une ontologie de domaine plus large englobant tous les domaines sources ; et la fusion concerne des ontologies de même domaine pour former une ontologie décrivant mieux ce domaine-là. La confusion réelle réside dans le sens naturel de ces termes. En effet, dans la littérature, la plupart des auteurs parlent de fusion lorsqu'ils vont fondre les entités équivalentes pour les remplacer par une seule, ou lorsqu'ils vont changer et mêler les hiérarchies des ontologies sources en répartissant leurs entités autrement dans l'ontologie cible ; et parlent d'intégration ou de composition lorsqu'ils vont regrouper et assembler directement les ontologies, telles qu'elles sont, dans une autre ontologie, sans fusionner leurs entités équivalentes et sans toucher leurs hiérarchie originale. Les processus de fusion ou d'intégration peuvent s'appliquer concrètement à toute ontologie (de domaine = ou =). C'est seulement le but à atteindre qui différencie vraiment les deux définitions consensuelles. Autrement dit, le problème réside dans le fait que nous pourrons faire une fusion (au sens propre du mot) pour deux ontologies de domaines différents (car elles peuvent contenir quand même des chevauchements entre elles), et une composition / intégration (au sens propre du mot) pour des ontologies de même domaine. Ce qui est contradictoire aux définitions soi-disant standardisées. Dans le cas d'une ontologie de pont créée à partir d'ontologies de même domaine, si nous nous conformons à ces définitions, nous sommes en train de faire une fusion des ontologies, car il s'agit bien d'ontologies de même domaine, mais réellement, nous ne fusionnons pas les entités, ne mélangeons pas leurs emplacements, et ne modifions pas leurs structures, nous faisons une ontologie de pont où les entités originales et leurs hiérarchies sont intactes. Pas de fusion dans un processus de fusion. En contre parti, notre travail respecte les règles de la définition de l'intégration des ontologies qui dicte que les parties provenant des ontologies sources soient identifiables facilement dans l'ontologie de sortie et qu'il s'agit juste d'une inclusion, d'une agrégation, ou d'un assemblage des ontologies sources pour former un tout. Avions-nous fait une intégration ou une fusion ? Par conséquent, nous proposons que le terme "intégration des ontologies" soit le terme général de toutes les définitions rencontrées dans le chapitre 2, par analogie avec le terme "intégration des données", et nous proposons qu'il soit appliqué sur des ontologies de mêmes ou de différents sujets, ainsi pour de différents objectifs. Bien évidemment, les ontologies de même sujet seront les plus dures à intégrer ; les ontologies de très différents domaines n'auront pas (beaucoup) de correspondances entre elles, donc seront toujours plus faciles à intégrer. Nous distinguons cinq niveaux d'intégration selon le niveau d'interopérabilité sémantique. Nous expliquons chaque type avec le plus simple cas qui intègre seulement deux ontologies (c.f., figure 3.11) : Alignement Défini par Noy and Musen (2000) (définition 1), il implique deux ontologies séparées et un alignement (deux mapping dans les deux sens, une articulation, ou une ontologie intermédiaire comme le nomme Kalfoglou and Schorlemmer (2003)) à travers lequel une ontologie peut interroger l'autre et vice-versa. Interconnexion des données Nommée aussi "révisons de mapping" par Heflin and Hendler (2000), terme qui peut être confondu avec la notion de debugage et de réparation des mappings, elle consiste en l'ajout de correspondances d'un alignement ou d'un mapping dans les deux ontologies. En d'autres termes, c'est l'ajout des relations sémantiques entre les entités de l'ontologie en question et les entités de l'autre ontologie comme prescrit dans l'alignement ou le mapping entre elles. Réconciliation / Coévolution Définie par Euzenat and Shvaiko (2013), elle peut être une transformation des entités de l'une des ontologies par les entités de l'autre comme le prescrit l'alignement entre les deux ontologies, ou bien une transformation des entités des deux ontologies, nommée "intersection d'ontologies" par Heflin and Hendler (2000), après la standardisation des termes correspondus. Ontologie de pont Introduite par De Bruijn et al. (2006), elle met les deux ontologies et les correspondances de leur alignement dans une même ontologie qui les englobe sans rien modifier. Fusion / Unification Appelée par Pinto (1999) "Fusion", et appelée "unification" ou "compatibilité totale" par Sowa (1997), elle génère une ontologie en sortie et peut se faire de différentes manières ; la plus simple est d'unir les ontologies sources et de fusionner leurs entités équivalentes (comme décrites dans l'alignement) ; et la plus difficile est d'exploiter, en plus des correspondances d'équivalence et de disjonction, des correspondances de subsomption qui changeront énormément la hiérarchie originale des ontologies. Selon Calvanese et al. (2001), dans le cas de plusieurs ontologies sources, l'intégration des ontologies peut impliquer soit une approche "global-centric", où les entités de l'ontologie globale sont mises en correspondance avec les entités des ontologies locales, soit une approche "localcentric", où les entités des ontologies locales sont mises en correspondance avec les entités de l'ontologie globale. Mais nous ajoutons une autre approche que nous nous permettons d'appeler "non-centric" où les entités des paires d'ontologies sont mises en correspondance. Ainsi, il n'existe pas d'ontologies globale et locales, elles ont toutes la même priorité. Concernant l'ontologie de pont et l'ontologie de fusion, le processus d'intégration de plusieurs ontologies peut être fait soit d'une manière incrémentale, où il y a une ontologie cible prioritaire ou une ontologie vide (nommée ontologie globale) dans laquelle les autres ontologies sources (locales) seront intégrées l'une après l'autre (c.f., figure 3.12 and 3.13) ; soit d'une manière non incrémentale, où toutes les ontologies sources ont la même priorité et seront intégrées les unes avec les autres en même temps pour former ensemble l'ontologie cible. Remarque Rappelons que les termes "Merger" et "MergedOntology" utilisés par des méthodes dans OWL API, et "Merge ontologies" dans le menu "refactor" de Protégé sont faux, car ils font juste une composition/union/agrégation d'ontologies (c.f., figure 3.17); ils mettent les ontologies sources, telles qu'elles sont, dans une nouvelle ontologie qui les englobe, sans créer des liens de pont en elles et sans les fusionner. Nous n'avons pas ajouté ce simple processus dans les types d'intégration, car il ne permet aucune interopérabilité sémantique entre les agrégats (les sous-ontologies sources) de l'ontologie résultante. Conclusion L'ontologie de pont que nous allons implémenter est une intégration d'interopérabilité moyenne. Elle peut être exploitée réellement quand deux entreprises veulent coopérer, collaborer et intégrer leurs ontologies utilisées sans modifier les noms des entités et leurs descriptions, pour ne pas être obligés de modifier tout un système (ou une application) alimenté avec ces ontologies. Les liens de pont ajoutés dans l'ontologie de pont vont permettre l'interopérabilité sémantique entre elles. En général, le type d'intégration choisi dépend des circonstances à faire face et des buts des applications. Tenons l'exemple des linked data dans le Web distribué et réparti, l'intégration dans ce contexte consiste à ajouter à chaque ontologie des liens d'équivalence et d'identité (sameAs) qui pointent vers des entités d'autres ontologies. C'est l'un des niveaux les plus bas d'interopérabilité, mais qui convient le mieux à cette situation. Introduction Dans ce chapitre, nous allons présenter notre environnement de travail, les bases de test utilisées dans les expérimentations, et les critères d'évaluation de la qualité de l'ontologie produite suite à l'intégration. Par la suite, nous allons étaler et évaluer les résultats de nos expérimentations faites sur des ontologies de différentes tailles. Ce volet d'expérimentations va nous permettre de valider notre méthode d'intégration qui s'est avérée efficace, et de prouver sa capacité de produire une ontologie de bonne qualité. Environnement de réalisation L'environnement de développement de notre méthode est constitué des outils suivants : • Java : un langage de programmation orienté objet. • Eclipse : un environnement de développement intégré (IDE) Java, libre, gratuit et multiplateforme. • OWL API 1 (Version 4.1.4) : une interface de programmation pour le développement, la manipulation, et la sérialisation des ontologies OWL. • HermiT 2 (Version 1.3.8) : un moteur d'inférence OWL 2 DL (Description Logic) créé à l'université d'Oxford et publié sous la licence LGPL. Il est supporté par OWL API et Protégé (qui est un outil de création et de gestion d'ontologies). Il permet de réaliser les services de raisonnement suivants : l'inférence, la classification, la satisfiabilité, et la consistance. Mais il ne fournit pas un diagnostic ou une solution pour les deux derniers problèmes. • Alignment API 3 (Version 4.9) : une interface de programmation développée en java permettant d'exprimer, d'accéder et de manipuler des alignements ontologiques sous le format d'alignement (qui est le format le plus utilisé pour représenter les alignements). Les CRITÈRES D'ÉVALUATION fondateurs de cette API ont conçu le format d'alignement pour exprimer les alignements disponibles de manière uniforme et pouvoir les partager sur le Web. Ce format est écrit en langage RDF, ainsi il est librement extensible. Dans sa représentation, chaque correspondance entre deux ontologies (nommée "cellule") contient l'URI de l'entité source, l'URI de l'entité cible, la relation qui existe entre ces deux entités (égalité, subsumption, exclusion, ou instanciation etc.), et la force de cette relation (une valeur décimale comprise entre 0 et 1, inclusivement). Les tests ont été effectués sur un PC doté d'un système d'exploitation Windows 10, d'une mémoire centrale de 4 Go, et d'une horloge possédant une fréquence de 2 GHz. Critères d'évaluation Selon Flouris et al. (2006), le problème de l'évaluation des techniques d'intégration ou de fusion des ontologies est encore ouvert. Une comparaison générale et objective est difficile, car nous ne savons pas comment l'évaluation de ces outils pourrait être mesurée. En effet, déterminer la qualité d'un résultat d'intégration ou de fusion nécessiterait de le comparer avec un résultat parfait ou presque parfait. Mais ce résultat est impossible à obtenir manuellement pour les grandes ontologies, et même inexistant car il pourrait y avoir plus qu'un résultat idéal. Il n'y a pas de benchmark qui pourrait être utilisé pour évaluer la qualité de l'approche proposée, e.g., en utilisant des mesures de qualité telles que la précision, le rappel ou la F-Mesure Raunich and Rahm (2012). Un benchmark de la fusion ou de l'intégration des ontologies devrait être en mesure d'évaluer équitablement la qualité des différents outils. Pour ce faire, Raunich and Rahm (2012) ont défini des métriques de qualité telles que : • La qualité de l'ontologie de sortie : Elle se reflète par la quantité de ses chevauchements sémantiques qui peuvent être palliés en évitant l'introduction de chemins supplémentaires (relations redondantes). La qualité de l'ontologie dépend fortement de la qualité des ontologies d'entrée ; Idéalement, les ontologies d'entrée sont correctes et ne représentent pas (ou très peu) de conflits et d'incohérences ; idéalement, les alignements d'entrée sont aussi corrects bien que ce n'est pas évident d'en obtenir pour les grandes ontologies. • La couverture (Préservation de l'information) : C'est une exigence clé, afin que toutes les informations représentées dans les ontologies d'entrée soient conservées dans l'ontologie résultante : * Pour le "Full Merge" où chaque paire d'entités équivalentes devient une entité fusionnée, la taille de l'ontologie résultante doit être égale à la somme du nombre d'entités des deux ontologies d'entrée, moins le nombre d'entités fusionnées, ou plutôt moins le nombre de correspondances d'équivalence (=) dans l'alignement d'entrée. § En dépit que ce soit considéré comme une perte d'information, le fait de ne pas couvrir toutes les entités d'entrée peut être un choix volontaire pour éviter les conflits qui sont dus à l'héritage multiple dans l'ontologie de sortie (ce qui est appelé "fusion asymétrique" par Raunich and Rahm (2012)). * Pour l'ontologie de pont (notre cas), la taille de l'ontologie résultante doit être égale à la somme du nombre d'entités des deux ontologies d'entrée. • L'efficacité : C'est le temps d'exécution de l'algorithme d'intégration ou de fusion. • L'effort manuel : C'est l'intervention de l'utilisateur ou de l'expert nécessaire pour le bon déroulement du processus. La base de test "Conference" est composée essentiellement de sept petites ontologies (cmt, conference, confOf, edas, ekaw, iasted, et sigkdd) décrivant le contexte de l'organisation des conférences. OAEI fournit un alignement de référence entre chaque paire de ces sept ontologies, pour avoir en tout, 21 alignements de référence. Présentation des ontologies utilisées La base de test "Anatomy" est composée de deux ontologies de taille moyenne : "mouse" qui décrit l'anatomie de la souris adulte, et "human" (une partie de NCIT) qui décrit l'anatomie humaine. OAEI fournit un alignement de référence entre elles. La base de test "Large Biomedical Ontologies" est composée de trois ontologies volumineuses et sémantiquement riches : FMA (Foundational Model of Anatomy), SNOMED CT (Clinical Terms), et NCI (National Cancer Institute Thesaurus) contenant des dizaines de milliers de classes. La base Large Bio se subdivise en trois catégories de taille croissante (qu'on nommera 1, 2, et 3) dont la troisième est la complète. Pour FMA, il y a FMA1 (5%), FMA2 (13%), et FMA3 (100%). Pour NCI, il y a NCI1 (10%), NCI2 (36%), and NCI3 (100%). Et pour SNOMED, il y a SNOMED1 (5%), SNOMED2 (17%), et SNOMED3 (40%). OAEI fournit trois alignements de référence pour la troisième catégorie, i.e. entre chaque paire des trois ontologies complètes. Les relations "?" contenues dans les correspondances des alignements de référence veulent dire des relations d'équivalence "=" correctes mais qui génèrent des insatisfiabilités dans l'ontologie intégrée. Ces correspondances qui causent l'incohérence de l'alignement sont détectées par le système de débugage ALCOMO et/ou les systèmes de réparation de Logmap et/ou AML. Nous n'avons pas testé notre Framework sur d'autres ontologies de plus grandes tailles, car il n'existe pas d'alignements disponibles publiés sur Internet pour de telles ontologies. Voici ce que donne l'exécution de tout le code (avec ses deux parties) qui réalise une intégration (i.e., une ontologie de pont avec -les "bridging" axiomes-) : PRÉSENTATION DES ONTOLOGIES UTILISÉES Pour la référence : les axiomes sont exactement identiques aux originaux, mais des axiomes d'équivalence (de pont) s'y ajoutent en plus (Figure 4.3). Pour OIA2R : les axiomes sont décrits exactement comme les originaux, mais des axiomes d'équivalence (de pont) s'y ajoutent, tout en personnalisant les IRIs de toutes les entités mentionnées (Figure 4.4). 4.5 Notions à clarifier 4.5.1 Insatisfiabilité C'est un terme dédié aux entités. Une classe insatisfiable est une classe ayant une description fausse (contradictoire), ce qui signifie qu'il n'est pas possible pour une instance de répondre à toutes les exigences requises pour être membre de cette classe. Elle ne peut et ne doit jamais avoir d'instances (tout à fait comme la classe "owl:Nothing"), car il n'existera aucune instance qui pourra la satisfaire Sattler et al. (2013). Inconsistance C'est un terme dédié aux ontologies. Une ontologie est consistante s'il lui existe une interprétation satisfaisante, e.g. une ontologie à partir de laquelle nous pouvons déduire que l'individu x est différent de l'individu y et qu'il est en même temps identique à lui, ne peut pas avoir une interprétation satisfaisante. L'inconsistance peut se manifester lorsqu'il y a au moins une violation des restrictions d'une classe, une instanciation d'une classe insatisfiable, une instanciation de deux classes disjointes, ou une contradiction sémantique entre les individus etc. Bail (2013). Dans une ontologie inconsistante, toutes les classes sont insatisfiables, i.e. aucune de ses classes ne peut avoir d'individu. En effet, elle n'a pas de modèle. Elle est considérée comme une ontologie sévèrement endommagée contenant une grave erreur qui doit être réparée car aucune connaissance utile ne peut en être inférée. Elle ne peut pas être publiée et utilisée dans les applications. Raisonneur Un raisonneur est un composant clé dans le domaine des ontologies. Puisque la connaissance dans une ontologie OWL peut ne pas être explicite, la classification et l'interrogation d'une ontologie (qui sont les deux tâches basiques d'un raisonneur) doivent être faites par un raisonneur, pour pouvoir déduire les connaissances implicites et obtenir des résultats d'interrogation corrects. Les raisonneurs existants détectent l'inconsistance et l'incohérence, mais ne leur fournissent pas un diagnostic et une solution Sattler et al. (2013). Voici les travaux qui ont été menés en collaboration avec notre laboratoire LIPAH concernant l'évaluation des performances des raisonneurs existants : Alaya et al. (2015dAlaya et al. ( ,a,c,b, 2016Alaya et al. ( , 2017. Classification Selon Sattler et al. (2013), un raisonneur détermine toutes les inférences de la forme "A subClassOf B" d'une ontologie donnée, i.e. il détermine sa hiérarchie, en appliquant les tests suivants : -Si A = "owl: Table 4.11 -Qualité de l'ontologie résultant de l'intégration des ontologies de Anatomy Anatomy Nombre de classes insatisfiables Al originaux (1-à-N) Al filtrés (1-à-1) OIA2R Réf OIA2R Réf Intégration 2-à-2 0 0 0 0 4.6. RÉSULTATS ET ÉVALUATION (366 467 + 20 881) § Ces axiomes d'équivalence vont aussi affecter la hiérarchie (la classification) des classes et des propriétés de l'ontologie résultante. En effet, le raisonneur pourra ne pas pouvoir s'arrêter (dans son calcul) et ainsi ne pas avoir un nombre précis de niveaux dans la hiérarchie. Ci-dessous un exemple qui montre comment se forme l'insatisfiabilité d'une classe dans une ontologie de pont. La figure 4.5 montre les justifications que nous a affichées le debugueur de OWL API à l'aide du raisonneur HermiT pour une des classes insatisfiables (Cytoplasmic_Matrix) de l'ontologie résultant d'une intégration des ontologies FMA 1 (Ont1) et NCI 1 (Ont2). Nous remarquons qu'après l'ajout des "bridging" axiomes d'équivalence, la classe "002#Cy-toplasmic_Matrix" (provenant de l'ontologie NCI 1 (Ont2)) devient par inférence sous-classe des deux classes "001#Portion_of_body_structure" et "001#Anatomical_structure" qui sont disjointes (information extraite de l'ontologie FMA 1 (Ont1)). Ceci est contradictoire, car une classe ne peut pas être sous-classe de deux classes disjointes. La même chose s'applique pour l'autre classe coloriée en rouge. La référence ne manque aucun axiome des ontologies d'entrée, alors que la nôtre a des pertes d'informations telles que les entités anonymes et les restrictions. C'est pour cette raison que le raisonneur infère plus d'informations et ainsi détecte plus de classes insatisfiables dans l'ontologie de référence. D'ailleurs, pour calculer toutes ses classes insatisfiables, le raisonnement HermiT prend beaucoup plus de temps pour terminer son calcul. L'ontologie d'une intégration N-à-N produit beaucoup plus de classes insatisfiables que l'ontologie d'une intégration 2-à-2 ou 1-à-N à cause des relations redondantes. Plus il y a de relations redondantes (dans ce cas, des relations d'équivalence redondantes entre les entités sources), plus il y a d'incohérence. Les correspondances redondantes peuvent être déduites automatiquement par un raisonneur, ainsi elles sont inutiles, et surtout source de conflits sémantiques. Il est important également de noter que la réparation de l'alignement est dédiée à l'intégration de deux ontologies seulement. Autrement dit, si nous intégrons deux ontologies en utilisant un alignement réparé entre elles, nous obtiendrons une ontologie consistante et cohérente sans aucune classe insatisfiable. Cependant, si nous intégrons plusieurs ontologies à l'aide de plusieurs alignements réparés (i.e., entre les paires d'ontologies), nous obtiendrons une ontologie comportant plusieurs classes insatisfiables. En effet, les systèmes actuels de réparation des alignement prennent en entrée deux ontologies (à intégrer ultérieurement) et un alignement entre elles. Ils ne sont pas en mesure de prendre en compte plusieurs ontologies et alignements entre elles pour but de les intégrer simultanément. Atouts de OIA2R Notre framework est automatique et générique. Il prend en entrée toute ontologie et tout alignement avec lesquels il produira une nouvelle ontologie qui les englobe tous. Ce processus est rapide même pour les plus grandes ontologies et les plus grands alignements. L'ontologie résultante est assez complète et cohérente. Nous donnons la possibilité de convertir les alignements sources en des mappings, et également de les réparer à l'aide d'outils externes, afin de minimiser les erreurs dans l'ontologie de sortie. Notre approche permet un refactoring (une personnalisation) de toutes les entités des ontologies et des alignements sources pour former une ontologie propre à nous (dont les entités ne pointent pas sur les URIs externes des ontologies sources déjà publiées). En effet, l'utilisateur n'a qu'à entrer l'URI qu'il désire pour la future ontologie, et par la suite toutes les entités l'auront comme URI de préfixe. Temps d'exécution Ce sont les temps d'exécution moyens d'une intégration complète N-à-N avec des alignements transformés en mappings, mais qui sont déjà réparés à l'avance. Nous voulons dire par "loading", le temps de chargement des ontologies dans le manager de OWL API, car pour les grandes ontologies, leur loading prend une bonne part du temps d'exécution (comme le montrera le tableau 4.15), et ce temps-là ne fait pas partie du temps effectif de notre intégration. Le temps "avec loading" est le temps d'exécution de tout le programme (du début jusqu'à la fin), et le temps "sans loading" est le temps d'exécution exact de notre framework. Rappelons que notre framework prend en entrée des alignements pré-établis, ainsi, les temps de d'exécution fournis ne comprennent pas le temps du matching. Les temps d'exécution CPU ne dépassent pas 0,7 min pour les plus grandes ontologies. Le temps global de l'intégration de référence est plus long, car la référence prend plus de temps pour sauvegarder tous les axiomes d'entrée (à la fin du programme) et créer l'ontologie de pont complète. Cependant, le temps global de l'intégration de OIA2R prend moins de temps pour sauvegarder les axiomes d'entrée, car OIA2R manque les axiomes complexes. Le temps effectif de l'intégration de référence prend moins de temps, car la référence ne perd pas du temps à parser, refactoriser les axiomes des ontologies d'entrée et créer de nouveaux axiomes refactorisés comme le fait OIA2R, elle assemble directement les axiomes des ontologies d'entrée et ajoute les axiomes de pont. Pour découvrir le niveau d'intégration qui génère plus d'incohérences dans son ontologie résultante (soit l'ontologie de pont, soit la fusion), nous avons réalisé un autre travail qui fait une fusion de deux ontologies (uniquement deux), i.e. il fusionne les paires d'entités équivalentes en une seule entité. (2012)) que la fusion complète des ontologies génère toujours moins de conflits qu'une ontologie de pont (appelée "fusion directe" selon eux). Ci-dessous un exemple qui montre comment se forme l'insatisfiabilité d'une classe dans une ontologie résultante d'un processus de fusion complète. Dans la figure 4.8, nous schématisons les justifications que nous a affichées le debugueur de OWL API (à l'aide du raisonneur HermiT) pour une des classes insatisfiables générées suite à la fusion de FMA 1 (Ont1) et SNOMED 1 (Ont2). Nous avons choisi le ID "/000" pour les entités issues de la fusion de deux entités équivalentes. Et nous avons choisi de leur donner comme noms, une concaténation des noms des paires d'entités fusionnées (juste pour pouvoir voir clairement dans l'ontologie résultante ce qui a été fusionné). Dans l'état de l'art, les auteurs choisissent généralement l'un des deux noms des entités fusionnées (peut-être après avoir défini une ontologie prioritaire), ou bien créent un code unique tout en ajoutant les deux noms originaux comme labels. Dans la figure 4.9, nous modélisons la représentation graphique des axiomes de justification ci-dessus, où la classe en rouge est la classe insatisfiable. Nous remarquons qu'après la fusion des classes "001#Extracellular_space" provenant de FMA 1 (Ont1) et "002#Intercellular_space" provenant de SNOMED 1 (Ont2), la classe "000#Extracellular_space=Intercellular_space" devient par inférence sous-classe des deux classes "001#Immaterial_anatomical_entity" et "001#Material_anatomical_entity" qui sont disjointes (information extraite de l'ontologie FMA 1 (001)). Ceci est contradictoire, car une classe ne peut pas être sous-classe de deux classes disjointes. Conclusion Enfin, nous déduisons que si les ontologies modélisent des vues différentes et incompatibles du même domaine, il est impossible de les intégrer aveuglément et d'assurer à la fois la complétude et la cohérence dans l'ontologie résultante. Dans un contexte d'intégration d'ontologies, assurer la cohérence et la consistance est une priorité car l'ontologie résultante doit être logiquement correcte pour être réellement utile. Dans ce cas, nous ne pourrons jamais réaliser une interopérabilité sémantique complète entre les ontologies d'entrée car nous serons dans l'obligation d'abandonner des correspondances sémantiques. Et au cas où nous souhaiterions atteindre la complétude, les incompatibilités des ontologies sont insolvables automatiquement et l'intervention d'un expert devient nécessaire, ce qui est impossible pour les grandes ontologies. Dans l'ensemble, l'intégration des ontologies ayant des vues incompatibles reste toujours un problème ouvert. Dans ce chapitre, nous avons présenté les expérimentations sur notre nouvelle approche d'intégration des ontologies OIA2R. L'analyse des résultats a montré les performances de notre approche et la validité de l'ontologie résultante. En effet, OIA2R a produit des résultats encourageants dans des temps minimes. De même, les expérimentations ont montré une possibilité d'amélioration de ces résultats pour avoir une qualité optimale de l'ontologie de sortie. Conclusion générale Les services Web et les moteurs de recherche peuvent améliorer leurs performances dans l'échange des informations et la précision des résultats de recherche en exploitant la représentation sémantiquement enrichie des informations qu'ils partagent à travers les ontologies. Actuellement, la recherche et le développement dans le domaine du Web sémantique (qui est un Web distribué et ouvert) ont atteint un stade où un grand nombre d'applications et de services tels que le commerce électronique, le renseignement gouvernemental, la médecine, la fabrication, etc, sont alimentés par des ontologies de toute taille, développées par différentes personnes, groupes de recherche, ou organisations, et contenant beaucoup de chevauchements (similarités) sémantiques entre elles. En effet, les différentes sources de données modélisent leurs ontologies de différentes manières selon leurs propres besoins, exigences, et buts, et n'utilisent pas nécessairement des ontologies déjà existantes. Par conséquent, il devient difficile de récupérer les informations provenant de différentes sources dans le Web. Pour une représentation efficace et homogène des domaines de connaissances, il serait alors nécessaire d'intégrer (ou de fusionner) toutes les ontologies pour former de nouvelles ontologies plus complètes et mieux modélisées qui les remplacera. Dans le premier chapitre, nous avons passé en revue les principales définitions des notions essentielles pour cerner le champ d'étude. Une étude bibliographique sur le Web Sémantique, l'ontologie, et l'ingénierie ontologique a été menée. Nous avons établi au deuxième chapitre un bilan des définitions et des méthodes existantes qui s'appliquent dans le cadre de l'intégration des ontologies. Notamment, parmi ces méthodes ou définitions, il y a celles qui sont restées uniquement théoriques. Dans le troisième chapitre, nous avons mis au point une nouvelle méthode qui permet d'intégrer deux ou plusieurs ontologies à l'aide des alignements entre elles, pour générer une nouvelle ontologie qui les englobe. Dans le quatrième chapitre, nous avons décrit notre environnement de travail et les critères d'évaluation des outils d'intégration, nous avons appliqué et évalué notre approche dans la pratique, et nous avons prouvé qu'elle est générique, efficace et scalable. Figure 1 . 1 - 11Fragment d'une ontologieCheatham and Pesquita (2017) Formellement , le processus de matching peut être vu comme une fonction f qui, à partir d'une paire d'ontologies O et O à mettre en correspondance, un ensemble de paramètres p, et un ensemble de ressources externes r, retourne en sortie un alignement A (éventuellement un mapping) entre ces deux ontologies : A = f (O, O , p, r). Figure 1 . 2 - 12Matching De Bruijn et al. (2006) Figure 1 . 3 - 13Processus général du matchingCheatham and Pesquita (2017) Figure 1 . 4 14Noy and Musen (2000) pensent que dans l'alignement, les ontologies sources(généralement de domaines complémentaires) doivent être toujours séparées et consistantes les unes avec les autres, tout en ayant des liens entre elles. Les auteurs Zhu et al. (2009) le pensent aussi et définissent l'alignement par le processus qui combine deux ontologies et qui établit ensuite une collection de relations binaires (correspondances) entre elles.(a)Noy and Musen (2000) (b)Zhu et al. (2009) Formellement , étant donné deux ontologies O et O (ayant les langages L et L ) et un ensemble de relations d'un alignement A, une correspondance est un triplé (e, e , r), tel que e ∈ O, e ∈ O , et r ∈ Θ. La correspondance (e, e , r) déclare que la relation bidirectionnelle r relie les entités e et e ; mais elle est souvent accompagnée aussi par un identifiant et une confiance, ainsi, elle sera représentée généralement par un tuple (id, e, e , r, n) où id est son identifiant unique, et n est sa mesure de confiance Figure 1 . 5 - 15Alignement Abels et al. (2005) Figure 1 1Choi et al. (2006), le mapping des ontologies est utilisé principalement dans trois situations : Formellement, la transformation des ontologies à l'aide d'un alignement (mapping) A entre deux ontologies O et O , génère une ontologie O qui transforme les entités de O par celles de O suivant les correspondances dans A. Elle peut être exprimée par l'opérateur suivant : T ransf orm(O, A) = O . Les opérations de transformation sont orientées, i.e. la transformation a une source et une cible identifiées, ainsi, à partir d'un alignement, il est possible de générer deux opérations (dans les deux sens) selon la source et la cible. Figure 2 . 1 - 21Fusion dePinto (1999) interprétée parKeet (2004) Figure 2.2 -Fusion deAbels et al. (2005) Fusion comme étant une ontologie intermédiaire SelonKalfoglou and Schorlemmer (2003), la "forte" notion de fusion peut être détendue en prenant l'articulation (l'alignement des deux ontologies O et O ) avec laquelle une ontologie O pourrait être définie.Fusion de De Bruijn et al.D'après De Bruijn et al. (2006), la fusion des ontologies est la création d'une nouvelle ontologie qui unie deux ou plusieurs ontologies en se basant sur les correspondances entre elles. Selon eux, la nouvelle ontologie doit capturer toutes les connaissances des ontologies sources et refléter toutes les correspondances entre elles pour pouvoir les remplacer. Nous notons qu'ils n'évoquent pas les domaines des ontologies sources (différents ou similaires). Ils distinguent deux approches distinctes dans la fusion des ontologies :• Fusion complète (Full Merge) : Chaque paire d'entités équivalentes est fusionnée en une seule entité. • Ontologie de pont : Nous allons l'expliquer tout de suite. Figure 2 . 3 - 23Fusion complète De Bruijn et al. (2006) Fusion dans la symétrie et l'asymétrie Selon Raunich and Rahm et Zhang et al. (2017) utilisent les termes "fusion" et "intégration" comme des synonymes. Figure 2 . 4 - 24Ontologie de pont De Bruijn et al. (2006) 2.1.2 Principaux outils de fusion et leurs limites Outils célèbres Les approches les plus connues de fusion des ontologies telles que PROMPT* Noy and Musen (2000), Chimaera McGuinness et al. (2000), et FCA-Merge Stumme and Maedche (2001) sont des Full Merge, semi-automatiques (nécessitant l'intervention d'experts et introduisant un effort manuel important, surtout pour les grandes ontologies) qui ne se basent pas sur les mappings, i.e. elles n'appliquent pas une séparation entre le matching et la fusion Raunich and Rahm (2012). L 'outil de Chatterjee et al. Dans leur expérimentation, Chatterjee et al. (2017) ont choisi de créer une nouvelle ontologie dans le domaine de l'agriculture, en fusionnant des ontologies de sous-domaines (de la récolte, les engrais, la terre (le sol), et la météo). § Ce travail est en réalité une intégration (non pas une fusion), car les ontologies d'entrée appartiennent à différents domaines, et l'ontologie résultante est de domaine (interdisciplinaire) plus large qui englobe ces sous-domaines (c'est une composition de sous-domaines). Ils font le parsing des fichiers .owl des ontologies d'entrée et extraient leur ensemble d'entités (en utilisant la bibliothèque "Owlready" en Python), puis ils font le matching de chaque couple d'ontologies (en combinant plusieurs techniques de matching (i.e. de niveau élémentaire et structurel). A l'aide des alignements générés par le matching, ils appliquent une fusion complète des entités similaires et les mettent dans l'ontologie résultante O M , puis ils copient les entités restantes (non fusionnées) des ontologies sources dans O M , et génèrent un fichier .owl correspondant à O M . et al. (2017), le processus de fusion des ontologies avec la méthode OIM-SM prend deux ontologies et retourne une nouvelle ontologie (sous forme d'arbre, i.e. sans héritage multiple). Il se compose des étapes suivantes : 1. Le matching d'équivalence sémantique entre les concepts des deux ontologies. 2. La fusion de toutes les paires de concepts équivalents, pour produire un nouveau concept à la place de chaque paire. Concernant les instances et les propriétés de chaque couple de concepts (A et B), ils ont proposé d'appliquer deux règles de fusion pour former le nouveau concept C : * L'ensemble des instances de C est l'union de l'ensemble des instances de A et de B. * L'ensemble des propriétés de C est l'intersection de l'ensemble des propriétés de A et de B. Figure 2 . 5 - 25Correspondances entre deux ontologies Zhang et al. (2017)Figure 2.6 -Fusion initiale des fragments d'ontologies Zhang et al. (2017) Dans les expérimentations, ils ont fusionné l'ontologie BCO (Biological Collections Ontology) qui contient 127 concepts, avec l'ontologie ACO (Animal in Context Ontology) qui contient 510 concepts, dans 9 minutes ; et ils ont utilisé comme référence une fusion retournée artificiellement. Figure 2 . 7 - 27Résultat final de la fusionde Zhang et al. (2017) Figure 2 . 8 - 28Intégration des ontologiesMena et al. (1996) Intégrationde Sowa Selon Sowa (1997), l'intégration est "le processus de recherche de points communs entre deux ontologies A et B et de dérivation d'une nouvelle ontologie C facilitant l'interopérabilité entre les systèmes informatiques basés sur les ontologies A et B. La nouvelle ontologie C peut remplacer A ou B, ou peut être utilisée comme intermédiaire entre un système basé sur A et un autre basé sur B". Il n'a pas spécifié les domaines des ontologies à intégrer. Intersection des ontologies où une nouvelle ontologie O N fusionne et standardise les termes des entités en correspondance de O 1 et O 2 , tout en les renommant dans O 1 et O 2 (qui sont des nouvelles versions de O 1 et O 2 ) par les termes fusionnés et standardisés. (C'est la transformation des termes des entités correspondues en des termes communs) Figure 2 . 9 - 29Intégration deHeflin and Hendler (2000) Figure 2 . 210 -Intégration de et Zhang et al. (2017) utilisent les termes "fusion" et "intégration" comme des synonymes.Intégration comme étant une ontologie de pontSelonUdrea et al. (2007), l'intégration des ontologies est l'ajout des axiomes de l'alignement A (entre O1 et O2) à l'union de O1 et O2 produisant à la fin une ontologie consistante et cohérente. Les correspondances de A sont utilisées pour créer des liens logiques (des axiomes) qui représentent la sémantique des relations entre les différentes entités (l'équivalence, la subsumption, la disjonction etc.).Selon Euzenat and Shvaiko(2013), l'intégration des ontologies est l'inclusion dans une ontologie O d'une autre ontologie O et des assertions exprimant des liens entre ces deux ontologies (des axiomes de pont). L'ontologie résultante O est censée contenir la connaissance des deux ontologies initiales (O et O ). Il n'y a pas vraiment de différence entre leurs définitions de fusion et d'intégration, à part le fait que, selon eux, contrairement à la fusion qui ne modifie pas les ontologies d'entrée, dans l'intégration, l'ontologie source O est inchangée tandis que l'ontologie initiale O est modifiée (plutôt augmentée par O ). En d'autres termes, l'intégration, selon eux, se fait d'une manière incrémentale, alors que la fusion se fait d'une manière non incrémentale. § C'est l'approche que nous allons implémenter. (Nous expliquerons plus les notions d'inconsistance et d'incohérence dans le chapitre 4). L 'outil ContentMap (le plus proche de notre travail) Pour Jiménez-Ruiz et al. (2009), un ensemble de correspondances (d'un Mapping) est représenté par une ontologie M , où les correspondances sont des axiomes de la forme subClassOf (e, e ), equivalentClass(e, e ), et disjointW ith(e, e ) pour la relation de subsomption, d'équivalence, et de disjonction respectivement ; et les identifiants et les valeurs de confiance des correspondances sont des annotations d'axiomes qui n'ont aucun effet sur les inférences. Dans leurs expérimentations, ils ont utilisé quatre petites ontologies qui décrivent toutes le domaine des références bibliographiques, mais qui sont développées séparément. Leur taille varie de 130 entités (58 classes, 46 propriétés d'objet, et 26 propriétés de données) à 49 entités (18 classes, 12 propriétés d'objet, et 19 propriétés de données) et de 235 axiomes à 96 axiomes. O-INR est l'ontologie avec laquelle les trois autres ontologies (O-MIT, O-UMBC, et O-AIFB) ont été intégrées chacune à part. Il existe trois alignements de référence : un alignement pour O-MIT et O-INR contenant 119 correspondances, un alignement pour O-UMBC et O-INR contenant 83 correspondances, et un alignement pour O-AIFB et O-INR contenant 98 correspondances. Ils ont intégré O-MIT, O-UMBC, et O-AIFB séparément avec O-INR en utilisant leurs alignements de référence correspondants, puis ils ont évalué les conséquences sémantiques de leurs ontologies résultantes. Dans tous les cas, ils ont trouvé un nombre signifiant d'inférences imprévues. Par exemple, lors de l'intégration de O-AIFB et O-INR, ContentMap a détecté 34 concepts insatisfiables (originaires des deux ontologies) pour lesquels il y a eu un nombre énorme de justifications (généralement complexes) qui ont rendu la réparation manuelle extrêmement difficile. Egalement, lors de l'intégration de O-MIT et O-INR, ContentMap a détecté des nouvelles subsomptions qui ont été identifiées et réparées automatiquement. D'un point de vue temps, le goulot d'étranglement est le calcul de toutes les justifications des inférences imprévues. Une fois les justifications calculées, le temps de réparation est, selon eux, relativement court (ils ne l'ont pas précisé). Ils ont remarqué aussi que l'utilisation des correspondances générées automatiquement a abouti à un plus grand nombre d'inférences imprévues, e.g. quand ils ont intégré O-AIFB et O-INR en utilisant l'outil de matching CIDER avec un seuil de confiance égale à 0.1, ils ont trouvé 55 concepts insatisfiables et 34 subsomptions imprévues qui sont des erreurs causées principalement par des correspondances incorrectes.Pour conclure, les auteurs ont fait une fusion (non pas une intégration), précisément une ontologie de pont, semi-automatique à de petites ontologies de même domaine, et malgré la réparation des alignements d'entrée, ils trouvent toujours énormément de classes insatisfiables dans l'ontologie de sortie. Ils n'évoquent pas le temps d'exécution de ces expérimentations. L'outil de Ziemba et al.L'algorithme d'intégration des ontologiesde Ziemba et al. (2015) utilise essentiellement les outils de refactoring et d'intégration de l'éditeur "Protégé" qui facilitent énormément leur processus d'intégration. Il est divisé en trois parties :1. L'intégration de la première ontologie :(a) Créer une nouvelle ontologie vide dans l'éditeur Protégé (Ils ont choisi de lui donner l'IRI (l'identificateur) : "Intégrée") ; 2 . 2La sélection, l'importation et le refactoring d'une nouvelle ontologie source dans l'ontologie cible, et faire l'alignement entre elles, en utilisant les dictionnaires, les thésaurus, et les outils de "Protégé", pour l'introduire ensuite sous forme de relations d'équivalence et de subsomption entre les entités des ontologies source et cible. Figure 2 . 211 -Incohérence de la fusion de O1 etO2 Fahad et al. (2010) L'exemple de la figure 2.12 illustre une incohérence logique causée par deux correspondances entre l'ontologie "National Cancer Institute Thesaurus" (NCIT) et l'ontologie "Foundational Model of Anatomy" (FMA). Cela se produit car, lors de l'intégration, la classe Fibrillar_Actin devient (suite à l'équivalence) une sous-classe de Anatomic_Structure_System_or_Substance et de Gene_Product, qui sont deux classes disjointes. § Résoudre ces incohérences est loin d'être facile. Figure 2 . 212 -Incohérence de l'ontologie de pont Cheatham and Pesquita (2017) Udrea et al. (2007) exigent l'exploitation de la sémantique des ontologies pendant la génération des correspondances entre elles (pendant le matching), pour parvenir à créer une ontologie consistante et cohérente suite au processus d'intégration (ou de fusion). Et Fahad et al. (2010) exigent de prêter une attention particulière aux conflits sémantiques générés à cause des relations disjointes dans les ontologies sources. appelé notre algorithme d'intégration "OIA2R" (Ontology Integration : Alignment Reuse and Refactoring). Ce que notre algorithme génère est une ontologie de pont, i.e., l'union des ontologies d'entrée et des alignements entre eux. Puisque nous allons convertir les correspondances contenues dans les alignements d'entrée en des axiomes OWL, ces alignements sont considérés comme des ontologies OWL intermédiaires (constituées d'entités ayant des relations d'équivalence). Ainsi, implicitement, c'est une union des ontologies sources et des ontologies intermédiaires (l'articulation). Dans le cas de deux ontologies O 1 et O 2 , ayant un alignement A qui peut être vu comme une ontologie O A , le résultat sera une nouvelle ontologie O 3 de sorte que O 3 = O 1 + O 2 + A, ou plutôt O 3 = O 1 + O 2 + O A . Le schéma de la figure 3.3 illustre nos dires. Figure 3 . 1 - 31Processus général de l'intégration des ontologies Figure 3 . 2 - 32Processus général de notre méthode d'intégration des ontologies (OIA2R) Figure 3 . 3 - 33Ontologie de pont (Ont3) le parsing des classes (des ontologies d'entrée) et de leurs définitions (descriptions), et au fur et à mesure, nous créons les axiomes correspondants à ces classes et à leurs définitions dans notre nouvelle ontologie. Nous faisons le parsing des propriétés d'objet (des ontologies d'entrée) et de leurs définitions, et au fur et à mesure, nous créons les axiomes correspondants à ces propriétés d'objet et à leurs définitions dans notre nouvelle ontologie. Nous faisons le parsing des propriétés de données (des ontologies d'entrée) et de leurs définitions, et au fur et à mesure, nous créons les axiomes correspondants à ces propriétés de données et à leurs définitions dans notre nouvelle ontologie. Et, nous faisons le parsing des individus anonymes (des ontologies d'entrée) et de leurs définitions, et au fur et à mesure, nous créons les axiomes correspondants à ces individus et à leurs définitions dans notre nouvelle ontologie. Nous parsons les classes des ontologies d'entrée, et nous remplissons au fur et à mesure le HSet des classes par tous les URIs originaux des classes. Nous parsons les propriétés d'objet des ontologies d'entrée, et nous remplissons au fur et à mesure le HSet des propriétés d'objet par tous les URIs originaux des propriétés d'objet. Nous parsons les propriétés de données des ontologies d'entrée, et nous remplissons au fur et à mesure le HSet des propriétés de données par tous les URIs originaux des propriétés de données. Nous parsons les individus des ontologies d'entrée, et nous remplissons au fur et à mesure le HSet des individus par tous les URIs originaux des individus. Figure 3 . 5 - 35Debugage d'une classe insatisfiable dans une ontologie de pont Figure 3 3Figure 3.6 -Formation des classes insatisfiables Figure 3 . 7 - 37Deux correspondances ayant la même entité source Figure 3 . 8 - 38Cause de l'incohérence d'une ontologie de pont nant de l'ontologie Ont3) avait été correspondue avec une seule classe de l'autre ontologie (002), précisément la classe avec laquelle elle a la plus grande mesure de similarité, nous aurons évité toutes ces incohérences. Figure 3 . 9 - 39Résolution des insatisfiabilités Figure 3 . 10 - 310Transformation d'un alignement (1-à-N) en un mapping(1-à-1) Figure 3 . 311 -Nouvelle définition de l'intégration sémantique Figure 3 . 312 -Intégration incrémentale(cas 1) Figure 3 . 313 -Intégration incrémentale (cas 2)Nous proposons trois types d'intégration non incrémentale :• Intégration 2-à-2 : Les ontologies sont intégrées uniquement à l'aide des alignements entre les paires d'ontologies consécutives (c.f.,figure 3.14),• Intégration 1-à-N : Les ontologies sont intégrées à l'aide des alignements entre une ontologie choisie (préférée ou prioritaire) et les autres ontologies (c.f., figure 3.15), • Intégration N-à-N : Les ontologies sont intégrées à l'aide des alignements entre toute paire d'ontologies possible (c.f., figure 3.16). L'intégration N-à-N est la plus complète, par contre les deux autres types d'intégration (1-à-N et 2-à-2) ne le sont pas (i.e., n'assurent pas une interopérabilité complète). Tenons l'exemple de cinq ontologies appartenant au même domaine (O 1 , O 2 , O 3 , O 4 , and O 5 ) pour faire une intégration 2-à-2. Supposons que toutes les ontologies contiennent une classe A, à part l'ontologie O 4 . Si O 4 était dans la quatrième position, alors la classe A de l'ontologie O 5 ne va pas avoir une Figure 3 Figure 3 . 3315 -Intégration non incrémentale(1-to-N) Figure 3 . 316 -Intégration non incrémentale (N-to-N) correspondance d'équivalence avec une classe de l'ontologie O 4 . Ce qui fait qu'elle ne sera pas intégrée avec les autres classes A des autres ontologies (ayant la position 1, 2 et 3). L'intégration 1-à-N par contre résout ce problème. Tenons le même exemple en choisissant l'ontologie O 1 comme l'ontologie préférée, avec qui les quatre autres ontologies (O 2 , O 3 , O 4 , and O 5 ) seront alignées. Dans ce cas, la classe A de l'ontologie O 1 va être correspondue à toutes les classes A existantes, y compris celle de l'ontologie O 5 . Malheureusement, cette méthode ne va pas garantir une interopérabilité complète. Par exemple, si une classe B existe seulement dans l'ontologie O 3 et O 4 , ces deux classes ne vont pas être intégrées (parce que ce type d'intégration n'utilise pas l'alignement entre O 3 and O 4 ). Ces inconvénients sont tous palliés par l'intégration N-à-N. Mais dans le cas d'une ontologie de pont, cette dernière va générer de multiple redondances et cycles. Par exemple, parmi les cinq ontologies d'entrée, les ontologies O 1 , O 2 , et O 3 ont une entité A en commun. Dans une ontologie de pont, nous aurons des liens d'équivalence entre O1:A et O2:A, O2:A et O3:A, O1:A et O3:A. L'équivalence entre O1:A et O3:A peut être déduite des deux autres équivalences. Il s'agit donc d'un lien redondant. Et sachant qu'une relation d'équivalence est formellement composée de deux relations de subsumption (chacune dans un sens), il y aura deux cycles de subsomption entre ces trois entités (un cycle dans chaque direction). Figure 3 . 317 -Agrégation des ontologies Figure 4 . 2 - 42Agrégation de OIA2R Figure 4 . 3 - 43Intégration de "référence" Figure 4 . 4 - 44Intégration de OIA2R Figure 4 . 5 - 45Debugage d'une classe insatisfiable dans une ontologie de pont Dans la figure 4.6, nous modélisons la représentation graphique des axiomes de justification ci-dessus, où les classes en rouge sont les classes insatisfiables. Figure 4 . 6 - 46Formation des classes insatisfiablesSachant que la relation d'équivalence (des "bridging" axiomes) est en fait égale à deux relations de subsomption dans les deux sens, le schéma devient comme le montre la figure 4.7. Figure 4 . 7 - 47Cause de l'incohérence d'une ontologie de pont Figure 4 . 8 - 48Debugage d'une classe insatisfiable après une fusion Figure 4 . 9 - 49Formation d'une classe insatisfiable après une fusion complète Table des matières desTable des figures ivListe des acronymes ALCOMO Applying Logical Constraints on Matching Ontologies AML AgreementMakerLight API Application Programming Interface AROMA Association Rule Ontology Matchinh Approach CIDER Context and Interface baseD ontology alignER ContentMap LogiC-based ONtology inTEgratioN Tool using MAPpings DTD Document Type Definition FITON Framework for InTegrating ONtologies F-logic Frame logic FMA Foundational Model of Anatomy HTML HyperText Markup Language ILIADS Integrated Learning In Alignment of Data and Schema IRI Internationalized Resource Identifier KIF Knowledge Interchange Format LGPL Lesser General Public Licence LOD Linked Open Data LogMap Logic-based Methods for Ontology Mapping NCI National Cancer Institute Thesaurus OAEI Ontology Alignment Evaluation Initiative OIM-SM Ontology Integration Method based on Semantic Mapping OLA OWL Lite Alignment OWL Ontology Web Language RDF Resource Description Framework RDFS RDF-Schema SWRL Semantic Web Rule Language SNOMED CT SNOMED Clinical Terms URI Uniform Resource Identifier URL Uniform Resource Locator WWW World Wide Web W3C WWW Consortium XML Extensible Markup Language YAM++ Yet Another Matcher Ontology Language) est un langage de représentation de connaissances qui permet d'écrire (de construire) des ontologies Web, et tout comme RDF, il est un langage profitant de l'universalité syntaxique de XML. OWL devient une recommandation du W3C en 2004, et OWL 2 le devient en 2009. A part sa capacité de définir et de décrire des classes, des propriétés, et des individus de classes, OWL permet aussi de définir des relations entre les classes (union, intersection, disjonction, équivalence, subsomption etc.), des contraintes de cardinalité pour les valeurs des propriétés (nombre minimum, maximum, ou exact), des relations spéciales pour les propriétés (transitive, symétrique, fonctionnelle, inverse, réflexive, etc.), et des restrictions sur le domaine et le co-domaine des propriétés, etc. Par conséquent, OWL possède une logique très développée qui permet le raisonnement sémantique sur ces règles. Comparé aux langages RDF et RDFS, OWL offre aux machines une plus grande capacité d'interprétation du contenu Web, grâce à son vocabulaire riche et sa sémantique formelle.Les classes définies par l'utilisateur sont toutes des enfants de la superclasse « owl:Thing » (qui représente l'ensemble de tous les individus) et des parents de la sous-classe « owl:Nothing » (qui représente l'ensemble vide).Les propriétés d'objet et de type de données définies par l'utilisateur sont toutes respectivement des enfants des super propriétés « owl:TopObjectProperty » et « owl:TopDataProperty », et des parents des sous-classes « owl:BottomObjectProperty » et « owl:BottomDataProperty ». Les propriétés d'annotation telles que « owl:versionInfo », « rdfs:label », « rdfs:comment », « rdfs:seeAlso », « owl:priorVersion » etc. sont des constructeurs intégrés dans OWL. 2.1. FUSION DES ONTOLOGIES * Le plugin de PROMPT est dépassé et non fonctionnel maintenant (il n'est plus disponible pour le téléchargement). L'outil de Caldarola et Rinaldi Le Framework de Caldarola and Rinaldi (2016) contient quatre blocs principaux : 1. Le bloc de récupération des ontologies 2. Le bloc de normalisation des ontologies 3. Le bloc de matching des ontologies : Ce bloc est responsable de l'obtention d'un ensemble d'alignements (A) qui sont des correspondances entre les entités des ontologies d'entrée et de l'ontologie cible. Le matcher implique trois types d'opérations de matching (à base de chaînes, sémantique, et linguistique) qui vont également aider à faire une analyse automatique qui évalue et découvre les ontologies d'entrée les plus similaires à l'ontologie cible (i.e. les ontologies pertinentes) parmi lesquels les ingénieurs de connaissances vont sélectionner les ontologies locales à réutiliser en les intégrant dans l'ontologie cible. 4. Le bloc de fusion des ontologies : Il est responsable de l'intégration des ontologies d'entrée sélectionnées dans une ontologie OWL globale qui sera plus riche. Selon les mesures des correspondances contenues dans l'ensemble des alignements (A), les opérations suivantes seront effectuées sur les entités appariées des ontologies : ). Il s'agit d'une nouvelle ontologie O M , positionnée entre les deux ontologies O 1 et O 2 , qui contient les règles / les axiomes (de transformation) pour mettre en correspondance des entités entre O 1 et O 2 . Révisions de Mapping où O 1 , une nouvelle version de O 1 , contient (à part les entités et les axiomes de O 1 ) les règles qui mettent en correspondance les entités de O 1 par rapport à O 2 , et O 2 , une nouvelle version de O 2 , contient (à part les entités et les axiomes de O 2 remarquent deux perceptions de réparation et de debugage dans les travaux de fusion ou d'intégration des ontologies :• Quelques auteurs considèrent que les ontologies (à intégrer ou fusionner) sont correctes et toujours plus fiables que les alignements, et s'il y a d'incohérence ou d'inconsistance, c'est 3.6. NOUVELLE DÉFINITION DE LA NOTION D'INTÉGRATION forcément à cause des alignements (LogMap et ALCOMO). Ils cherchent alors à trouver l'ensemble minimal de conflits entraînant l'incohérence de l'alignement, et suppriment les correspondances qui causent les insatisfiabilités dans les classes de l'ontologie résultante pour minimiser leur impact. L'expérimentation est réalisée à l'aide des bases de test Conference, Anatomy, et Large Biomedical disponibles dans le cadre de la compagne OAEI (Ontology Alignment Evaluation Initiative). Menée depuis 2004 par un groupe de chercheurs sur le matching des ontologies, l'initiative de l'évaluation des alignements d'ontologies (OAEI) est une plate-forme internationale standard d'évaluation des outils de matching. Elle vise à améliorer les différents matchers d'ontologies en évaluant et en comparant leurs forces et leurs faiblesses à l'aide d'une suite d'alignements de référence qu'elle fournit. Les résultats des campagnes d'évaluation de chaque année, ainsi que l'ensemble des bases et des alignements de référence peuvent être téléchargés sur le site Web de OAEI. Table 4 . 41 -Caractéristiques des ontologies de la base ConferenceConference Classes Niv Prop Obj Niv Prop Data Niv Instances Axiomscmt 29 4 49 1 10 1 0 226 conference 59 7 46 2 18 1 0 285 confOf 38 3 13 1 23 1 0 196 edas 103 4 30 1 20 1 114 739 ekaw 73 6 33 2 0 0 0 233 iasted 140 6 38 1 3 1 4 358 sigkdd 49 4 17 1 11 1 0 116 Total/Max 491 7 226 2 85 1 118 2 153 Table 4 . 42 -Caractéristiques des ontologies de la base AnatomyAnatomy Classes Niv Prop Obj Niv Prop Data Niv Instances Axioms human 3 304 13 2 1 0 0 0 11 545 mouse 2 743 7 3 1 0 0 0 4 838 Total/Max 6 047 13 5 1 0 0 0 16 383 Table 4 . 43 -Caractéristiques des ontologies de la base LargeBioLargeBio Classes Niv Prop Obj Niv Prop Data Niv Instances Axioms FMA 78 988 21 0 0 54 1 0 79 218 NCI 66 724 17 123 6 67 1 0 96 046 SNOMED 122 464 34 55 3 0 0 0 191 203 Total/Max 268 176 34 178 6 121 1 0 366 467 Table 4 . 44 -Les alignements de référence de la base ConferenceTable 4.5 -Les alignements de référence de la base AnatomyTable 4.6 -Les alignemens de référence de la base LargeBioAlignment Cellules cmt-conference 15 (14) cmt-confOf 16 cmt-edas 13 cmt-ekaw 11 cmt-iasted 4 cmt-sigkdd 12 conference-confOf 15 conference-edas 17 conference-ekaw 25 conference-iasted 14 conference-sigkdd 15 confOf-edas 19 confOf-ekaw 20 (19) confOf-iasted 9 confOf-sigkdd 7 edas-ekaw 23 edas-iasted 19 edas-sigkdd 15 ekaw-iasted 10 ekaw-sigkdd 11 iasted-sigkdd 15 Total 305 (303) () : filtré Alignment Nombre de cellules Original (1-to-N) Filtré (1-to-1) human-mouse 1 516 1 491 Alignment Original (1-to-N) Filtré (1-to-1) = ? Taille = ? Taille FMA-NCI 2 686 338 3 024 2 337 170 2 507 FMA-SNOMED 6 026 2 982 9 008 5 186 2 568 7 754 SNOMED-NCI 17 210 1 634 18 844 13 358 740 14 098 Total 25 922 4 954 30 876 20 881 3 478 24 359 Thing", et B = "owl:Nothing", alors il s'agit d'un test de consistance. -Si A = "une classe", et B = "owl:Nothing", il s'agit d'un test de satisfiabilité. -Si A et B sont toutes les deux des classes, il s'agit d'un test de subsomption.Table 4.7 -Caractéristiques de l'ontologie résultant d'une intégration ou d'une agrégation Sortie = Ontologie résultante Classes Propriétés d'objet Propriétés data Individus4.6 Résultats et évaluation 4.6.1 Résultats Entrées = ontologies (+ alignements) « Conference » 491 226 85 118 « Anatomy » 6 047 5 0 0 « Large Bio » 268 176 178 121 0 Table 4 . 48 -Qualité de l'ontologie résultant d'une agrégationTable 4.9 -Qualité de l'ontologie résultant de l'intégration des ontologies de ConferenceOntologies d'entrée Ontologie de sortie Classes insatisfiables Axioms logiques Consistance OIA2R Réf OIA2R Réf OIA2R Réf Conference 0 0 1 860 2 153 Anatomy 0 0 6 635 16 383 LargeBio 0 0 244 942 366 467 Conference Nombre des classes insatisfiables Al originaux (1-à-N) Al filtrés (1-à-1) OIA2R Réf OIA2R Réf Intégration 2-à-2 0 5 0 5 Intégration 1-à-N 0 0 0 0 Intégration N-à-N 54 54 Table 4 . 410 -Préservation des axiomes après l'intégration des ontologies de ConferenceConference Nombre des axiomes logiques Al originaux Al filtrés OIA2R Réf Attendus OIA2R Réf Attendus Intégration 2-à-2 1 957 2 250 2 250 (2 153 + 97) 1 956 2 249 2 249 (2 153 + 96) Intégration 1-à-N 1 931 2 224 2 224 (2 153 + 71) 1 930 2 223 2 223 (2 153 + 70) Intégration N-à-N 2 165 2 458 2 458 (2 153 + 305) 2 163 2 456 2 456 (2 153 + 303) Table 4 . 412 -Préservation des axiomes après l'intégration des ontologies de AnatomyAnatomy Nombre des axiomes logiques Al originaux Al filtrés OIA2R Réf Attendus OIA2R Réf Attendus Intégration 2-à-2 8 151 17 899 17 899 (16 383 + 1 516) 8 126 17 874 17 874 (16 383 + 1 491) Table 4 . 413 -Qualité de l'ontologie résultant de l'intégration des ontologies de LargeBioLargeBio Nombre de classes insatisfiables Al originaux Al filtrés OIA2R Réf OIA2R Réf Intég 2-à-2 Al originaux 120 743 190 486 67 342 141 941 Al réparés 11 978 -11 078 - Intég 1-à-N Al originaux 58 608 118 579 27 773 65 043 Al réparés 56 - 48 96 Intég N-à-N Al originaux 136 301 206 232 80 320 157 121 Al réparés 14 655 -12 919 - Table 4 . 414 -Préservation des axiomes après l'intégration des ontologies de LargeBioLargeBio Nombre des axiomes logiques Al originaux Al filtrés OIA2R Réf Attendus OIA2R Réf Attendus Intég 2-à-2 Al originaux 266 810 388 335 388 335 (366 467 + 21 868) 261 547 383 072 383 072 (366 467 + 16 605) Al réparés 264 838 386 363 386 363 (366 467 + 19 896) 260 637 382 162 382 162 (366 467 + 15 695) Intég 1-à-N Al originaux 256 974 378 499 378 499 (366 467 + 12 032) 255 203 376 728 376 728 (366 467 + 10 261) Al réparés 253 654 375 179 375 179 (366 467 + 8 712) 252 465 373 990 373 990 (366 467 + 7 523) Intég N-à-N Al originaux 275 818 397 343 397 343 (366 467 + 30 876) 269 301 390 826 390 826 (366 467 + 24 359) Al réparés 270 864 392 389 392 389 (366 467 + 25 922) 265 823 387 348 387 348 Table 4 . 415 -Temps d'exécution d'une intégration N-à-NTps d'exécutionCPU (s)Notre intégration La référence +loading -loading +loading -loading Conference 1,531 0,406 1,375 0,171 Anatomy 3,093 0,703 3,562 0,453 Large Bio 36,859 8,406 41,375 4,890 Table 4 . 416 -Qualité de l'ontologie intégrée (LargeBio OAEI Task 1) FMA1-NCI 1Table 4.17 -Qualité de l'ontologie intégrée (LargeBio OAEI Task 3)Table 4.18 -Qualité de l'ontologie intégrée (LargeBio OAEI Task 5)Table 4.19 -Qualité de l'ontologie intégrée (LargeBio OAEI Task 2)Nombre de classes insatisfiables Al original Al filtré OIA2R Full merge OIA2R Full Merge Al original 1 727 826 410 173 Al réparé 0 0 0 0 FMA2-SNOMED1 Nombre de classes insatisfiables Al original Al filtré OIA2R Full merge OIA2R Full Merge Al original 13 508 7 212 10 048 4 379 Al réparé 0 0 0 0 NCI 2-SNOMED2 Nombre de classes insatisfiables Al original Al filtré OIA2R Full merge OIA2R Full Merge Al original 34 639 19 132 25 637 12 990 Al réparé 0 0 0 0 FMA3-NCI 3 Nombre de classes insatisfiables Al original Al filtré OIA2R Full merge OIA2R Full Merge Al original 7 175 6 272 1 158 995 Al réparé 0 0 0 0 Table 4 . 420 -Qualité de l'ontologie intégrée (LargeBio OAEI Task 6) Nous remarquons (comme l'avaient ditRaunich and Rahm NCI 3-SNOMED3 Nombre de classes insatisfiables Al original Al filtré OIA2R Full merge OIA2R Full Merge Al original 92 149 76 280 49 825 42 331 Al réparé 0 0 0 0 § .5. INGÉNIERIE ONTOLOGIQUE .1. FUSION DES ONTOLOGIES Dans la littérature, le problème de l'intégration des ontologies a été largement étudié au cours des dernières années, mais il reste toujours un défi si nous voulons réaliser une intégration de manière automatique, efficace, sur de grandes ontologies, en préservant toutes les données originales, et sans produire d'erreurs (conflits sémantiques / logiques). Nous faisons le parsing des propriétés d'annotation (des ontologies d'entrée) et de leurs définitions, et au fur et à mesure, nous créons les axiomes correspondants à ces propriétés d'annotation et à leurs définitions dans notre nouvelle ontologie. Nous faisons le parsing des individus / instances (des ontologies d'entrée) et de leurs définitions, et au fur et à mesure, nous créons les axiomes correspondants à ces individus et à leurs définitions dans notre nouvelle ontologie. Nous remarquons qu'après l'ajout des "bridging" axiomes d'équivalence, la classe "002#Tissue_Dissection" devient par inférence une sous-classe des deux classes "002#Fin-dings_and_Disorders_Kind" et "002#NCI_Kind" qui sont disjointes (information extraite de l'ontologie originale (Ont2)). Ceci est contradictoire, car une classe ne peut pas être une sous-classe de deux classes disjointes. Aucune instance ne peut la satisfaire. La même chose s'applique pour les autres classes coloriées en rouge. Si la classe "003#Clinical_finding" (prove- . https://github.com/ernestojimenezruiz/logmap-matcher 2. http://web.informatik.uni-mannheim.de/alcomo/ Nous allons passer tout de suite à la concrétisation de notre approche décrite dans ce chapitre. RemerciementsJe remercie Monsieur Sadok Ben Yahia, Professeur à la Faculté des Sciences de Tunis et directeur du Laboratoire d'Informatique en Programmation, Algorithmique et Heuristique (LIPAH), pour la confiance qu'il m'a accordée en acceptant de diriger mes travaux de mastère. Je remercie sa disponibilité continue et je voudrais lui éprouver toute mon admiration.RésuméCe travail est accompli dans le cadre d'un projet de mémoire de mastère de recherche. Le but est d'intégrer deux ou plusieurs ontologies (de mêmes ou de différents domaines) dans une nouvelle ontologie OWL consistante et cohérente pour assurer leur interopérabilité sémantique. Pour ce faire, nous avons choisi de créer une ontologie de pont qui inclut toutes les ontologies sources et leurs axiomes de pont dans une nouvelle ontologie. Par la suite, nous avons introduit un critère qui aide à obtenir une ontologie de meilleure qualité (ayant le minimum de conflits sémantiques / logiques). Nous avons proposé également une nouvelle terminologie qui clarifie les notions floues et mal placées utilisées dans les travaux de l'état de l'art. Enfin, nous avons testé et évalué notre outil OIA2R à l'aide des ontologies et des alignements de référence de OAEI. Il s'est avéré qu'il est générique, efficace, scalable, et assez performant.Mots clés: Ontologie, Intégration des ontologies, Fusion des ontologies, Matching, Alignement, Mapping, Consistance, Cohérence, Insatisfiabilité, OWL, Réparation des alignements, debugage des alignements.AbstractThis work is done as part of a research master's thesis project. The goal is to integrate two or more ontologies (of the same or different domains) in a new consistent and coherent OWL ontology to insure semantic interoperability between them. To do this, we have chosen to create a bridge ontology that includes all source ontologies and their bridging axioms in a new ontology. Subsequently, we introduced a new criterion for obtaining an ontology of better quality (having the minimum of semantic / logical conflicts). We have also proposed a new terminology that clarifies the unclear and misplaced notions used in state-of-the-art works. Finally, we tested and evaluated our OIA2R tool using OAEI ontologies and reference alignments. It turned out Pour but de mettre en relief les axiomes d'équivalence ajoutés à l'union des ontologies sources et bien les montrer dans nos captures, nous avons choisi de faire une intégration N-à-N. Nous avons choisi d'imprimer le résultat de l'intégration des plus grandes ontologies pour prouver que notre Framework monte à l'échelle facilement. comme le montreront les temps d'exécutionPour but de mettre en relief les axiomes d'équivalence ajoutés à l'union des ontologies sources et bien les montrer dans nos captures, nous avons choisi de faire une intégration N-à-N. Nous avons choisi d'imprimer le résultat de l'intégration des plus grandes ontologies pour prouver que notre Framework monte à l'échelle facilement (comme le montreront les temps d'exécution). La première ontologie insérée en entrée est. FMA. 3wholeLa première ontologie insérée en entrée est "FMA 3" (whole); . La , NCI. 3wholeLa deuxième ontologie est "NCI 3" (whole); . La , SNOMED 3" (wholeLa troisième ontologie est "SNOMED 3" (whole). Voici ce que donne l'exécution de la première partie du code qui réalise une agrégation / composition simple des ontologies d'entrée (i.e., sans les "bridging" axiomes) : Pour la référence : les axiomes sont exactement identiques aux originaux. Figure 4.1Voici ce que donne l'exécution de la première partie du code qui réalise une agrégation / composition simple des ontologies d'entrée (i.e., sans les "bridging" axiomes) : Pour la référence : les axiomes sont exactement identiques aux originaux (Figure 4.1). Pour OIA2R : les axiomes sont décrits exactement comme les originaux sauf que nous personnalisons les IRIs de toutes les entités mentionnées. Figure 4.2Pour OIA2R : les axiomes sont décrits exactement comme les originaux sauf que nous personnalisons les IRIs de toutes les entités mentionnées (Figure 4.2). En effet, si nous ne gardons pas d'axiomes de disjonction, nous n'obtiendrons aucune classe insatisfaisable, et toutes nos ontologies de sortie seraient cohérentes et consistantes, mais incomplètes (i.e., manquant des informations de disjonction précieuses). Notez que toutes les classes insatisfiables sont causées par la préservation des connaissances de disjonction des alignements d'entrée. Nous concluons que, lorsque toutes les correspondances sont des correspondances d'équivalence, la seule cause de conflits est les relations. DisjointWith" issues des ontologies d'entréeNotez que toutes les classes insatisfiables sont causées par la préservation des connaissances de disjonction des alignements d'entrée. En effet, si nous ne gardons pas d'axiomes de disjonction, nous n'obtiendrons aucune classe insatisfaisable, et toutes nos ontologies de sortie seraient cohérentes et consistantes, mais incomplètes (i.e., manquant des informations de disjonction précieuses). Nous concluons que, lorsque toutes les correspondances sont des correspondances d'équivalence, la seule cause de conflits est les relations "DisjointWith" issues des ontologies d'entrée. Nous remarquons aussi que dans l'ontologie résultant d'une intégration N-à-N, le nombre de classes insatisfiables est beaucoup plus important que celui de l'ontologie résultant d'une intégration 2-à-2 ou 1-à-N. L'ontologie de référence contient toujours plus de classes insatisfiables que notre ontologie. Par conséquent, nous serions dans le risque d'avoir une inconsistance possible si jamais il y avait un individu instancié par une des classes insatisfiables, ou si jamais des individus avaient un conflit entre eux suite à des axiomes de pont de type "sameAs". Dans notre cas, les ontologies sources utilisées ne contiennent pas d'instances, à part "edas" et "iasted" dont toutes les instances sont instanciées par des classes qui n'ont aucune correspondance avec d'autres classes, donc sont hors de danger. Nous constatons aussi qu'une intégration d'ontologies de différents domaines. Constatations Dans tous les cas d'intégration, notre ontologie finale est complète dans le sens où elle conserve toutes les entités et la hiérarchie des ontologies d'entrée, et toutes les correspondances des alignements d'entrée. Dans l'agrégation (sans "bridging" axiomes), notre ontologie n'aura aucun ajout de classe insatisfiable, et le nombre de niveaux de sa hiérarchie sera toujours égal au nombre maximal des niveaux de hiérarchie des ontologies d'entrée. Dans l'ontologie de pont, nous constatons que suite à l'ajout des "bridging" axiomes, le raisonneur HermiT génère beaucoup trop de classes insatisfiables. comme dans "Anatomy") génère toujours moins de conflits qu'une intégration d'ontologies de même domaine. comme dans "Conference" et "Large Bio")Constatations Dans tous les cas d'intégration, notre ontologie finale est complète dans le sens où elle conserve toutes les entités et la hiérarchie des ontologies d'entrée, et toutes les correspondances des alignements d'entrée. Elle ne parvient pas pourtant à préserver tous les axiomes des ontologies d'entrée, contrairement à l'ontologie de "référence". Dans l'agrégation (sans "bridging" axiomes), notre ontologie n'aura aucun ajout de classe insatisfiable, et le nombre de niveaux de sa hiérarchie sera toujours égal au nombre maximal des niveaux de hiérarchie des ontologies d'entrée. Dans l'ontologie de pont, nous constatons que suite à l'ajout des "bridging" axiomes, le raisonneur HermiT génère beaucoup trop de classes insatisfiables. Nous remarquons aussi que dans l'ontologie résultant d'une intégration N-à-N, le nombre de classes insatisfiables est beaucoup plus important que celui de l'ontologie résultant d'une intégration 2-à-2 ou 1-à-N. L'ontologie de référence contient toujours plus de classes insatisfiables que notre ontologie. Par conséquent, nous serions dans le risque d'avoir une inconsistance possible si jamais il y avait un individu instancié par une des classes insatisfiables, ou si jamais des individus avaient un conflit entre eux suite à des axiomes de pont de type "sameAs". Dans notre cas, les ontologies sources utilisées ne contiennent pas d'instances, à part "edas" et "iasted" dont toutes les instances sont instanciées par des classes qui n'ont aucune correspondance avec d'autres classes, donc sont hors de danger. Nous constatons aussi qu'une intégration d'ontologies de différents domaines (comme dans "Anatomy") génère toujours moins de conflits qu'une intégration d'ontologies de même domaine (comme dans "Conference" et "Large Bio"). nous ne parvenons pas toujours à avoir un nombre de niveaux fixe (un niveau maximal) dans la hiérarchie des classes de notre ontologie, car le raisonneur qui découvre les niveaux (et les classes de chaque niveau) ne termine pas son raisonnement. On dirait que, suite à l'ajout des "bridging" axiomes, le raisonneur rencontre une boucle infinie. un cercle vicieux) dans son raisonnementA part cela, nous ne parvenons pas toujours à avoir un nombre de niveaux fixe (un niveau maximal) dans la hiérarchie des classes de notre ontologie, car le raisonneur qui découvre les niveaux (et les classes de chaque niveau) ne termine pas son raisonnement. On dirait que, suite à l'ajout des "bridging" axiomes, le raisonneur rencontre une boucle infinie (un cercle vicieux) dans son raisonnement. Interprétations Ces insatisfiabilités sont dues au fait que l'axiome d'équivalence entre deux entités est formellement équivaut à deux axiomes de subsomption réciproques : equivalentClass (C1 C2) = subClassOf (C1 C2) + subClassOf. C2 C1Interprétations Ces insatisfiabilités sont dues au fait que l'axiome d'équivalence entre deux entités est formellement équivaut à deux axiomes de subsomption réciproques : equivalentClass (C1 C2) = subClassOf (C1 C2) + subClassOf (C2 C1) Perspectives : Dans nos prochains travaux, nous allons nous projeter sur la fusion des ontologies qui constitue le plus haut niveau d'interopérabilité sémantique entre les ontologies, et cela pour but de minimiser au maximum les erreurs de l'ontologie résultante de ce processus. En effet, la fusion génère toujours moins d'insatisfiablités que l. § Et l'ajout de ces subsomptions implicites aux équivalences infère de nouvelles connaissances qui peuvent être contradictoires. ontologie de pont que nous avons réalisée dans ce mémoire§ Et l'ajout de ces subsomptions implicites aux équivalences infère de nouvelles connaissances qui peuvent être contradictoires. Perspectives : Dans nos prochains travaux, nous allons nous projeter sur la fusion des ontologies qui constitue le plus haut niveau d'interopérabilité sémantique entre les ontologies, et cela pour but de minimiser au maximum les erreurs de l'ontologie résultante de ce processus. En effet, la fusion génère toujours moins d'insatisfiablités que l'ontologie de pont que nous avons réalisée dans ce mémoire. Nous exploiterons aussi d'autres relations sémantiques à part la relation d'équivalence dans les alignements, telles que la subsomption et la disjonction, pour que l'interopérabilité soit maximale et que toute hétérogénéité soit traitée. Nous exploiterons aussi d'autres relations sémantiques à part la relation d'équivalence dans les alignements, telles que la subsomption et la disjonction, pour que l'interopérabilité soit maximale et que toute hétérogénéité soit traitée. nous comptons exploiter le domaine de la fouille de données dans nos prochains travaux de fusion ou d'intégration des ontologies. En effet, les contributions de notre laboratoire LIPAH ont atteint un niveau avancé dans ce domaine, ce qui va énormément nous aider. Fca-Merge Suivant L&apos;exemple De, Maedche Stumme, Citons en quelques travaux intéressants. Bouzouita et al.Suivant l'exemple de FCA-Merge Stumme and Maedche (2001), nous comptons exploiter le domaine de la fouille de données dans nos prochains travaux de fusion ou d'intégration des ontologies. En effet, les contributions de notre laboratoire LIPAH ont atteint un niveau avancé dans ce domaine, ce qui va énormément nous aider. Citons en quelques travaux intéressants : Bouzouita et al. (2006); . Gasmi, Gasmi et al. (2007); . Cellier, Cellier et al. (2008); . Ben Othman, Yahia, Othman and Ben Yahia (2008); . Hamrouni, Hamrouni et al. (2008); . Ayouni, Ayouni et al. (2010, 2011); . Brahmi, Brahmi et al. (2010, 2011); . Hamdi, Hamdi et al. (2013); . Bouker, Bouker et al. (2014) Il faut également noter qu'un autre axe de recherche très intéressant et plus difficile se présente. C'est le domaine de réparation, de debugage, ou de révision des ontologies et des alignements. Ce domaine aidera énormément à avoir des ontologies de bonne qualité suite à l. intégration des ontologiesIl faut également noter qu'un autre axe de recherche très intéressant et plus difficile se présente. C'est le domaine de réparation, de debugage, ou de révision des ontologies et des alignements. Ce domaine aidera énormément à avoir des ontologies de bonne qualité suite à l'intégration des ontologies. Creating Ontologies using Ontology Mappings: Compatible and Incompatible Ontology Mappings. M A Abbas, G Berio, Web Intelligence (WI) and Intelligent Agent Technology (IAT) Workshops. IEEEAbbas, M. A. and Berio, G. (2013). Creating Ontologies using Ontology Mappings: Compatible and Incompatible Ontology Mappings. In Web Intelligence (WI) and Intelligent Agent Technology (IAT) Workshops, pages 143-146. IEEE. Identification of common methods used for ontology integration tasks. S Abels, L Haak, A Hahn, Proceedings of the first international workshop on Interoperability of heterogeneous information systems. the first international workshop on Interoperability of heterogeneous information systemsACMAbels, S., Haak, L., and Hahn, A. (2005). Identification of common methods used for ontology integration tasks. In Proceedings of the first international workshop on Interoperability of heterogeneous information systems, pages 75-78. ACM. Predicting the Empirical Robustness of the Ontology Reasoners based on Machine Learning Techniques. N Alaya, S Ben Yahia, M Lamolle, the International Conference on Knowledge Engineering and Ontology Development KEOD. SciTePressAlaya, N., Ben Yahia, S., and Lamolle, M. (2015a). Predicting the Empirical Robustness of the Ontology Reasoners based on Machine Learning Techniques. In the International Conference on Knowledge Engineering and Ontology Development KEOD, pages 61-73. SciTePress. Ranking with Ties of OWL Ontology Reasoners Based on Learned Performances. N Alaya, S Ben Yahia, M Lamolle, the 7th International Joint Conference on Knowledge Discovery, Knowledge Engineering and Knowledge Management. Springer3Alaya, N., Ben Yahia, S., and Lamolle, M. (2015b). Ranking with Ties of OWL Ontology Reasoners Based on Learned Performances. In the 7th International Joint Conference on Knowledge Discovery, Knowledge Engineering and Knowledge Management, IC3K, volume 631, pages 234-259. Springer. Towards Unveiling the Ontology Key Features Altering Reasoner Performances. N Alaya, S Ben Yahia, M Lamolle, abs/1509.08717CoRRAlaya, N., Ben Yahia, S., and Lamolle, M. (2015c). Towards Unveiling the Ontology Key Features Altering Reasoner Performances. CoRR, abs/1509.08717. What Makes Ontology Reasoning so Arduous?: Unveiling the key ontological features. N Alaya, S Ben Yahia, M Lamolle, the 5th International Conference on Web Intelligence, Mining and Semantics. ACM4Alaya, N., Ben Yahia, S., and Lamolle, M. (2015d). What Makes Ontology Reasoning so Arduous?: Unveiling the key ontological features. In the 5th International Conference on Web Intelligence, Mining and Semantics, WIMS, pages 4:1-4:12. ACM. RakSOR: Ranking of Ontology Reasoners Based on Predicted Performances. N Alaya, S Ben Yahia, M Lamolle, the 28th IEEE International Conference on Tools with Artificial Intelligence, ICTAI. IEEEAlaya, N., Ben Yahia, S., and Lamolle, M. (2016). RakSOR: Ranking of Ontology Reasoners Based on Predicted Performances. In the 28th IEEE International Conference on Tools with Artificial Intelligence, ICTAI, pages 1076-1083. IEEE. Multi-Label Based Learning for Better Multi-Criteria Ranking of Ontology Reasoners. N Alaya, M Lamolle, Ben Yahia, S , International Semantic Web Conference. SpringerAlaya, N., Lamolle, M., and Ben Yahia, S. (2017). Multi-Label Based Learning for Better Multi-Criteria Ranking of Ontology Reasoners. In International Semantic Web Conference, pages 3-19. Springer. Extracting compact and information lossless sets of fuzzy association rules. Fuzzy Sets and Systems. S Ayouni, S Ben Yahia, Laurent , A , 183Ayouni, S., Ben Yahia, S., and Laurent, A. (2011). Extracting compact and information lossless sets of fuzzy association rules. Fuzzy Sets and Systems, 183(1):1-25. Mining closed gradual patterns. S Ayouni, A Laurent, S Ben Yahia, P Poncelet, International Conference on Artificial Intelligence and Soft Computing (ICAISC) (1). SpringerAyouni, S., Laurent, A., Ben Yahia, S., and Poncelet, P. (2010). Mining closed gradual patterns. In International Conference on Artificial Intelligence and Soft Computing (ICAISC) (1), pages 267-274. Springer. Common reasons for ontology inconsistency. S Bail, 18Bail, S. (2013). Common reasons for ontology inconsistency. http://ontogenesis. knowledgeblog.org/1343. [Online; accessed 18-Feb-2018]. Mining undominated association rules through interestingness measures. S Bouker, R Saidi, S Ben Yahia, Mephu Nguifo, E , International Journal on Artificial Intelligence Tools. 23041460011Bouker, S., Saidi, R., Ben Yahia, S., and Mephu Nguifo, E. (2014). Mining undominated associa- tion rules through interestingness measures. International Journal on Artificial Intelligence Tools, 23(04):1460011. GARC: A new associative classification approach. I Bouzouita, S Elloumi, Ben Yahia, S , International Conference on Data Warehousing and Knowledge Discovery (DaWaK). SpringerBouzouita, I., Elloumi, S., and Ben Yahia, S. (2006). GARC: A new associative classification approach. In International Conference on Data Warehousing and Knowledge Discovery (DaWaK), pages 554-565. Springer. Towards a multiagent-based distributed intrusion detection system using data mining approaches. I Brahmi, S Ben Yahia, H Aouadi, P Poncelet, International Workshop on Agents and Data Mining Interaction (ADMI). SpringerBrahmi, I., Ben Yahia, S., Aouadi, H., and Poncelet, P. (2011). Towards a multiagent-based distributed intrusion detection system using data mining approaches. In International Workshop on Agents and Data Mining Interaction (ADMI), pages 173-194. Springer. MAD-IDS: novel intrusion detection system using mobile agents and data mining approaches. I Brahmi, S Ben Yahia, P Poncelet, Pacific-Asia Workshop on Intelligence and Security Informatics (PAISI). SpringerBrahmi, I., Ben Yahia, S., and Poncelet, P. (2010). MAD-IDS: novel intrusion detection system using mobile agents and data mining approaches. In Pacific-Asia Workshop on Intelligence and Security Informatics (PAISI), pages 73-76. Springer. An Approach to Ontology Integration for Ontology Reuse. E G Caldarola, A M Rinaldi, the 17th IEEE International Conference on Information Reuse and Integration, IRI 2016. IEEECaldarola, E. G. and Rinaldi, A. M. (2016). An Approach to Ontology Integration for Ontology Reuse. In the 17th IEEE International Conference on Information Reuse and Integration, IRI 2016, pages 384-393. IEEE. A framework for ontology integration. D Calvanese, G De Giacomo, M Lenzerini, Proceedings of the First International Conference on Semantic Web Working Symposium, SWWS'01. the First International Conference on Semantic Web Working Symposium, SWWS'01CEUR-WS.orgCalvanese, D., De Giacomo, G., and Lenzerini, M. (2001). A framework for ontology integration. In Proceedings of the First International Conference on Semantic Web Working Symposium, SWWS'01, pages 303-316. CEUR-WS.org. A parameterized algorithm to explore formal contexts with a taxonomy. P Cellier, S Ferré, O Ridoux, M Ducasse, International Journal of Foundations of Computer Science. 1902Cellier, P., Ferré, S., Ridoux, O., and Ducasse, M. (2008). A parameterized algorithm to explore formal contexts with a taxonomy. International Journal of Foundations of Computer Science, 19(02):319-343. Ontology Merging: A Practical Perspective. N Chatterjee, N Kaushik, D Gupta, R Bhatia, International Conference on Information and Communication Technology for Intelligent Systems. SpringerChatterjee, N., Kaushik, N., Gupta, D., and Bhatia, R. (2017). Ontology Merging: A Practical Perspective. In International Conference on Information and Communication Technology for Intelligent Systems, pages 136-145. Springer. Semantic Data Integration. M Cheatham, C Pesquita, Handbook of Big Data Technologies. SpringerCheatham, M. and Pesquita, C. (2017). Semantic Data Integration. In Handbook of Big Data Technologies, pages 263-305. Springer. A survey on ontology mapping. N Choi, I.-Y Song, H Han, ACM SIGMOD Record. 353Choi, N., Song, I.-Y., and Han, H. (2006). A survey on ontology mapping. ACM SIGMOD Record, 35(3):34-41. Ontology mediation, merging and aligning. Semantic Web Technologies. J De Bruijn, M Ehrig, C Feier, F Martín-Recuerda, F Scharffe, M Weiten, De Bruijn, J., Ehrig, M., Feier, C., Martín-Recuerda, F., Scharffe, F., and Weiten, M. (2006). Ontology mediation, merging and aligning. Semantic Web Technologies, pages 95-113. XMap: results for OAEI 2015. W E Djeddi, M T Khadir, Ben Yahia, S , the 10th International Workshop on Ontology Matching (OM) collocated with the 14th International Semantic Web Conference (ISWC). 1545CEUR-WS.orgDjeddi, W. E., Khadir, M. T., and Ben Yahia, S. (2015). XMap: results for OAEI 2015. In the 10th International Workshop on Ontology Matching (OM) collocated with the 14th International Semantic Web Conference (ISWC), volume 1545, pages 216-221. CEUR-WS.org. CLONA results for OAEI 2015. M El Abdi, H Souid, M Kachroudi, Ben Yahia, S , the 10th International Workshop on Ontology Matching collocated with the 14th International Semantic Web Conference (ISWC). 1545CEUR-WS.orgEl Abdi, M., Souid, H., Kachroudi, M., and Ben Yahia, S. (2015). CLONA results for OAEI 2015. In the 10th International Workshop on Ontology Matching collocated with the 14th International Semantic Web Conference (ISWC), volume 1545, pages 124-129. CEUR-WS.org. Ontology Matching, Second Edition. J Euzenat, P Shvaiko, SpringerEuzenat, J. and Shvaiko, P. (2013). Ontology Matching, Second Edition. Springer. Disjoint-Knowledge Analysis and Preservation in Ontology Merging Process. M Fahad, N Moalla, A Bouras, M A Qadir, M Farukh, The Fifth International Conference on Software Engineering Advances, ICSEA. IEEEFahad, M., Moalla, N., Bouras, A., Qadir, M. A., and Farukh, M. (2010). Disjoint-Knowledge Analysis and Preservation in Ontology Merging Process. In The Fifth International Conference on Software Engineering Advances, ICSEA, pages 422-428. IEEE. A Classification of Ontology Change. G Flouris, D Plexousakis, G Antoniou, Semantic Web Applications and Perspectives (SWAP). 201Flouris, G., Plexousakis, D., and Antoniou, G. (2006). A Classification of Ontology Change. In Semantic Web Applications and Perspectives (SWAP), volume 201. CEUR-WS.org. Extraction of association rules based on literalsets. G Gasmi, S Ben Yahia, E M Nguifo, S Bouker, International Conference on Data Warehousing and Knowledge Discovery (DaWaK). SpringerGasmi, G., Ben Yahia, S., Nguifo, E. M., and Bouker, S. (2007). Extraction of association rules based on literalsets. In International Conference on Data Warehousing and Knowledge Discovery (DaWaK), pages 293-302. Springer. Encyclopedia of Database Systems. T Gruber, I L L Ontology, M T Özsu, OntologyGruber, T., Ontology, I. L. L., and Özsu, M. T. (2009). Encyclopedia of Database Systems. Ontology. Trust inference computation for online social networks. S Hamdi, A Bouzeghoub, A L Gancarski, Ben Yahia, S , 12th IEEE International Conference on Trust, Security and Privacy in Computing and Communications (TrustCom). IEEEHamdi, S., Bouzeghoub, A., Gancarski, A. L., and Ben Yahia, S. (2013). Trust inference computation for online social networks. In 12th IEEE International Conference on Trust, Security and Privacy in Computing and Communications (TrustCom), pages 210-217. IEEE. Enriching the DBpedia Ontology with Shared Conceptualizations from Folksonomies. S Hamdi, A L Gançarski, A Bouzeghoub, Ben Yahia, S , the 36th Annual IEEE Computer Software and Applications Conference. IEEEHamdi, S., Gançarski, A. L., Bouzeghoub, A., and Ben Yahia, S. (2012). Enriching the DBpedia Ontology with Shared Conceptualizations from Folksonomies. In the 36th Annual IEEE Computer Software and Applications Conference, COMPSAC, pages 551-556. IEEE. Linking trust in social networks with the semantic web: FOAF case. S Hamdi, A L Gancarski, A Bouzeghoub, Ben Yahia, S , International Machine Learning and Data Analytics Symposium (MLDAS). Hamdi, S., Gancarski, A. L., Bouzeghoub, A., and Ben Yahia, S. (2015). Linking trust in social networks with the semantic web: FOAF case. In International Machine Learning and Data Analytics Symposium (MLDAS). Succinct minimal generators: Theoretical foundations and applications. T Hamrouni, S Ben Yahia, Mephu Nguifo, E , International journal of foundations of computer science. 1902Hamrouni, T., Ben Yahia, S., and Mephu Nguifo, E. (2008). Succinct minimal generators: Theoretical foundations and applications. International journal of foundations of computer science, 19(02):271-296. Dynamic Ontologies on the Web. J Heflin, J Hendler, AAAI/IAAI. Heflin, J. and Hendler, J. (2000). Dynamic Ontologies on the Web. In AAAI/IAAI, pages 443-449. LogMap: Logic-based and Scalable Ontology Matching. E Jiménez-Ruiz, B C Grau, the 10th International Semantic Web Conference (ISWC), Part I. SpringerJiménez-Ruiz, E. and Grau, B. C. (2011). LogMap: Logic-based and Scalable Ontology Matching. In the 10th International Semantic Web Conference (ISWC), Part I, pages 273-288. Springer. Ontology Integration Using Mappings: Towards Getting the Right Logical Consequences. E Jiménez-Ruiz, B C Grau, I Horrocks, R B Llavori, the 6th European Semantic Web Conference (ESWC). SpringerJiménez-Ruiz, E., Grau, B. C., Horrocks, I., and Llavori, R. B. (2009). Ontology Integration Using Mappings: Towards Getting the Right Logical Consequences. In the 6th European Semantic Web Conference (ESWC), pages 173-187. Springer. Exploring OWL-DL Primitives for Automatic Ontology Alignment Tools Parametrization. M Kachroudi, S Ben Yahia, S Zghal, Eighth International Conference on Semantics, Knowledge and Grids (SKG). IEEEKachroudi, M., Ben Yahia, S., and Zghal, S. (2012). Exploring OWL-DL Primitives for Automatic Ontology Alignment Tools Parametrization. In Eighth International Conference on Semantics, Knowledge and Grids (SKG), pages 261-264. IEEE. Fiona: A Framework for Indirect Ontology Alignment. M Kachroudi, A Chelbi, H Souid, Ben Yahia, S , the 22nd International Symposium on Methodologies for Intelligent Systems. Springer9384Kachroudi, M., Chelbi, A., Souid, H., and Ben Yahia, S. (2015). Fiona: A Framework for Indirect Ontology Alignment. In the 22nd International Symposium on Methodologies for Intelligent Systems, ISMIS, volume 9384, pages 224-229. Springer. Initiating cross-lingual ontology alignment with information retrieval techniques. M Kachroudi, G Diallo, Ben Yahia, S , 6émes Journées Francophones sur les Ontologies (JFO). Kachroudi, M., Diallo, G., and Ben Yahia, S. (2016). Initiating cross-lingual ontology alignment with information retrieval techniques. In 6émes Journées Francophones sur les Ontologies (JFO). OAEI 2017 results of KEPLER. M Kachroudi, G Diallo, Ben Yahia, S , the 12th International Workshop on Ontology Matching (OM) co-located with the 16th International Semantic Web Conference (ISWC). 2032CEUR-WS.orgKachroudi, M., Diallo, G., and Ben Yahia, S. (2017a). OAEI 2017 results of KEPLER. In the 12th International Workshop on Ontology Matching (OM) co-located with the 16th International Semantic Web Conference (ISWC), volume 2032, pages 138-145. CEUR-WS.org. On the composition of large biomedical ontologies alignment. M Kachroudi, G Diallo, Ben Yahia, S , the 7th International Conference on Web Intelligence, Mining and Semantics. ACM24Kachroudi, M., Diallo, G., and Ben Yahia, S. (2017b). On the composition of large biomedical ontologies alignment. In the 7th International Conference on Web Intelligence, Mining and Semantics, WIMS, pages 24:1-24:10. ACM. LDOA results for OAEI 2011. M Kachroudi, E B Moussa, S Zghal, Ben Yahia, S , the 6th International Workshop on Ontology Matching (OM). 814Kachroudi, M., Moussa, E. B., Zghal, S., and Ben Yahia, S. (2011). LDOA results for OAEI 2011. In the 6th International Workshop on Ontology Matching (OM), volume 814. CEUR-WS.org. OntoPart: at the cross-roads of ontology partitioning and scalable ontology alignment systems. M Kachroudi, S Zghal, Ben Yahia, S , International Journal of Metadata, Semantics and Ontologies (IJMSO). 83Kachroudi, M., Zghal, S., and Ben Yahia, S. (2013a). OntoPart: at the cross-roads of ontology partitioning and scalable ontology alignment systems. International Journal of Metadata, Semantics and Ontologies (IJMSO), 8(3):215-225. Paramétrage intelligent de l'alignement d'ontologies par l'intégrale de choquet. M Kachroudi, S Zghal, Ben Yahia, S , Extraction et gestion des connaissances (EGC'13). Kachroudi, M., Zghal, S., and Ben Yahia, S. (2013b). Paramétrage intelligent de l'alignement d'ontologies par l'intégrale de choquet. In Extraction et gestion des connaissances (EGC'13), pages 377-382. Using Linguistic Resource for Cross-Lingual Ontology Alignment. M Kachroudi, S Zghal, Ben Yahia, S , International Journal of Recent Contributions from Engineering. 11Science & IT (iJES)Kachroudi, M., Zghal, S., and Ben Yahia, S. (2013c). Using Linguistic Resource for Cross-Lingual Ontology Alignment. International Journal of Recent Contributions from Engineering, Science & IT (iJES), 1(1):21-27. Bridging the multilingualism gap in ontology alignment. M Kachroudi, S Zghal, Ben Yahia, S , International Journal of Metadata, Semantics and Ontologies (IJMSO). 93Kachroudi, M., Zghal, S., and Ben Yahia, S. (2014). Bridging the multilingualism gap in ontology alignment. International Journal of Metadata, Semantics and Ontologies (IJMSO), 9(3):252-262. Ontology Mapping: the state of the art. The knowledge engineering review. Y Kalfoglou, W M Schorlemmer, 18Kalfoglou, Y. and Schorlemmer, W. M. (2003). Ontology Mapping: the state of the art. The knowledge engineering review, 18(1):1-31. Automatic Approach for Ontology Evolution based on Stability Evaluation. K Kamoun, S Ben Yahia, the 8th International Conference on Web Information Systems and Technologies WEBIST. SciTePressKamoun, K. and Ben Yahia, S. (2012a). Automatic Approach for Ontology Evolution based on Stability Evaluation. In the 8th International Conference on Web Information Systems and Technologies WEBIST, pages 452-455. SciTePress. Information content similarity measure to assess stability during ontology enrichment. K Kamoun, S Ben Yahia, International Review on Computers and Software. 73Kamoun, K. and Ben Yahia, S. (2012b). Information content similarity measure to assess stability during ontology enrichment. International Review on Computers and Software, 7(3). A novel global measure approach based on ontology spectrum to evaluate ontology enrichment. K Kamoun, S Ben Yahia, Complexity. 1739Kamoun, K. and Ben Yahia, S. (2012c). A novel global measure approach based on ontology spectrum to evaluate ontology enrichment. Complexity, 39(17). Stability Assess Based on Enhanced Information Content Similarity Measure for Ontology Enrichment. K Kamoun, S Ben Yahia, the 4th International Conference on Model and Data Engineering. Springer8748Kamoun, K. and Ben Yahia, S. (2014). Stability Assess Based on Enhanced Information Content Similarity Measure for Ontology Enrichment. In the 4th International Conference on Model and Data Engineering, MEDI, volume 8748, pages 146-153. Springer. Evolution d'ontologies: revue et critiques. K Kamoun, M Harzallah, P Kuntz, Ben Yahia, S , Atelier Recherche d'informations personnalisées sur le Web, Conférence EGC'10. Kamoun, K., Harzallah, M., Kuntz, P., and Ben Yahia, S. (2010). Evolution d'ontologies: revue et critiques. In Atelier Recherche d'informations personnalisées sur le Web, Conférence EGC'10. Aspects of ontology integration. The PhD Proposal, School of Computing. C M Keet, ScotlandNapier UniversityKeet, C. M. (2004). Aspects of ontology integration. The PhD Proposal, School of Computing, Napier University, Scotland. Combining and relating ontologies: an analysis of problems and solutions. M Klein, IJCAI-01 Workshop on Ontologies and Information Sharing. CEUR-WS.orgKlein, M. (2001). Combining and relating ontologies: an analysis of problems and solutions. In IJCAI-01 Workshop on Ontologies and Information Sharing, pages 53-62. CEUR-WS.org. Guidelines on geographic ontology integration. M Kokla, Proceedings of the ISPRS Technical Commission II Symposium. the ISPRS Technical Commission II SymposiumKokla, M. (2006). Guidelines on geographic ontology integration. In Proceedings of the ISPRS Technical Commission II Symposium, pages 67-72. A new methodology to streamline ontology integration processes. N K Leung, S K Lau, N Tsang, the Fourth International Conference on Digital Information and Communication Technology and its Applications (DICTAP). IEEELeung, N. K., Lau, S. K., and Tsang, N. (2014). A new methodology to streamline ontology integration processes. In the Fourth International Conference on Digital Information and Communication Technology and its Applications (DICTAP), pages 174-179. IEEE. Ontology merging using prompt plug-in of protégé in Semantic Web. S K Malik, N Prakash, S Rizvi, International Conference on Computational Intelligence and Communication Networks (CICN). IEEEMalik, S. K., Prakash, N., and Rizvi, S. (2010). Ontology merging using prompt plug-in of protégé in Semantic Web. In International Conference on Computational Intelligence and Communication Networks (CICN), pages 476-481. IEEE. The Chimaera Ontology Environment. D L Mcguinness, R Fikes, J Rice, S Wilder, AAAI/IAAIMcGuinness, D. L., Fikes, R., Rice, J., and Wilder, S. (2000). The Chimaera Ontology Environ- ment. AAAI/IAAI, 2000:1123-1124. Alignment Incoherence in Ontology Matching. C Meilicke, Universität MannheimPhD thesisMeilicke, C. (2011). Alignment Incoherence in Ontology Matching. PhD thesis, Universität Mannheim. Managing Multiple Information Sources through Ontologies: Relationship between Vocabulary Heterogeneity and Loss of Information. E Mena, V Kashyap, A Illarramendi, A P Sheth, Knowledge Representation Meets Databases (KRDB). CEUR-WS.org. Mena, E., Kashyap, V., Illarramendi, A., and Sheth, A. P. (1996). Managing Multiple Information Sources through Ontologies: Relationship between Vocabulary Heterogeneity and Loss of Information. In Knowledge Representation Meets Databases (KRDB). CEUR-WS.org. Enabling Technology for Knowledge Sharing. R Neches, R E Fikes, T Finin, T Gruber, R Patil, T Senator, W R Swartout, AI magazine. 12336Neches, R., Fikes, R. E., Finin, T., Gruber, T., Patil, R., Senator, T., and Swartout, W. R. (1991). Enabling Technology for Knowledge Sharing. AI magazine, 12(3):36. PROMPT: Algorithm and Tool for Automated Ontology Merging and Alignment. N F Noy, M A Musen, AAAI/IAAI. AAAI Press / The MIT PressNoy, N. F. and Musen, M. A. (2000). PROMPT: Algorithm and Tool for Automated Ontology Merging and Alignment. In AAAI/IAAI, pages 450-455. AAAI Press / The MIT Press. Yet another approach for completing missing values. L B Othman, S Ben Yahia, Concept Lattices and Their Applications. SpringerOthman, L. B. and Ben Yahia, S. (2008). Yet another approach for completing missing values. In Concept Lattices and Their Applications, pages 155-169. Springer. Towards Ontology Reuse. H S Pinto, Proceedings of AAAI99's Workshop on Ontology Management, WS-99. AAAI99's Workshop on Ontology Management, WS-9913Pinto, H. S. (1999). Towards Ontology Reuse. In Proceedings of AAAI99's Workshop on Ontology Management, WS-99, volume 13, pages 67-73. Ontologies: How can they be built?. H S Pinto, J P Martins, Knowledge and Information Systems. 64Pinto, H. S. and Martins, J. P. (2004). Ontologies: How can they be built? Knowledge and Information Systems, 6(4):441-464. Towards a Benchmark for Ontology Merging. S Raunich, E Rahm, OTM Confederated International Workshops. SpringerRaunich, S. and Rahm, E. (2012). Towards a Benchmark for Ontology Merging. In OTM Confederated International Workshops, pages 124-133. Springer. Target-driven Merging of Taxonomies with ATOM. S Raunich, E Rahm, Information Systems. 42Raunich, S. and Rahm, E. (2014). Target-driven Merging of Taxonomies with ATOM. Information Systems, 42:1-14. . U Sattler, R Stevens, P Lord, 18Sattler, U., Stevens, R., and Lord, P. (2013). (i can't get no) satisfiability. http://ontogenesis. knowledgeblog.org/1329. [Online; accessed 18-Feb-2018]. Electronic communication in the onto-std mailing list. J Sowa, Sowa, J. (1997). Electronic communication in the onto-std mailing list. Knowledge Engineering: Principles and Methods. Data and knowledge engineering. R Studer, V R Benjamins, D Fensel, 25Studer, R., Benjamins, V. R., Fensel, D., et al. (1998). Knowledge Engineering: Principles and Methods. Data and knowledge engineering, 25(1):161-198. FCA-Merge: Bottom-Up Merging of Ontologies. G Stumme, A Maedche, the 7th International Joint Conference on Artificial Intelligence (IJCAI). Morgan KaufmannStumme, G. and Maedche, A. (2001). FCA-Merge: Bottom-Up Merging of Ontologies. In the 7th International Joint Conference on Artificial Intelligence (IJCAI), pages 225-234. Morgan Kaufmann. Leveraging Data and Structure in Ontology Integration. O Udrea, L Getoor, R J Miller, SIGMOD International Conference on Management of Data. ACMUdrea, O., Getoor, L., and Miller, R. J. (2007). Leveraging Data and Structure in Ontology Integration. In SIGMOD International Conference on Management of Data, pages 449-460. ACM. Semantically Intelligent Semi-Automated Ontology Integration. Q Umer, D Mundy, Proc. of the World Congress on Eng. of the World Congress on EngUmer, Q. and Mundy, D. (2012). Semantically Intelligent Semi-Automated Ontology Integration. In Proc. of the World Congress on Eng. Assessing heterogeneity by classifying ontology mismatches. P R Visser, D M Jones, T J Bench-Capon, M J Shave, Proceedings of the FOIS. the FOIS98Visser, P. R., Jones, D. M., Bench-Capon, T. J., and Shave, M. J. (1998). Assessing heterogeneity by classifying ontology mismatches. In Proceedings of the FOIS, volume 98. A Wróblewska, T Podsiadly-Marczykowska, R Bembenik, G Protaziuk, H Rybinski, Methods and Tools for Ontology Building, Learning and Integration-Application in the SYNAT Project. Intelligent Tools for Building a Scientific Information Platform. 390Wróblewska, A., Podsiadly-Marczykowska, T., Bembenik, R., Protaziuk, G., and Rybinski, H. (2012). Methods and Tools for Ontology Building, Learning and Integration-Application in the SYNAT Project. Intelligent Tools for Building a Scientific Information Platform, 390:121-151. Contributions à l'alignement d'ontologies OWL par agrégation de similarités. S Zghal, ArtoisPhD thesisZghal, S. (2010). Contributions à l'alignement d'ontologies OWL par agrégation de similarités. PhD thesis, Artois. SODA: an OWL-DL based Ontology Matching System. S Zghal, S Ben Yahia, E M Nguifo, Y Slimani, the 2nd International Workshop on Ontology Matching (OM-07). 304Zghal, S., Ben Yahia, S., Nguifo, E. M., and Slimani, Y. (2007a). SODA: an OWL-DL based Ontology Matching System. In the 2nd International Workshop on Ontology Matching (OM-07), volume 304. CEUR-WS.org. OACAS: results for OAEI 2011. S Zghal, M Kachroudi, S Ben Yahia, E M Nguifo, the 6th International Workshop on Ontology Matching (OM). 814Zghal, S., Kachroudi, M., Ben Yahia, S., and Nguifo, E. M. (2011). OACAS: results for OAEI 2011. In the 6th International Workshop on Ontology Matching (OM), volume 814. CEUR-WS.org. Une nouvelle méthode d'alignement et de visualisation d'ontologies OWL-Lite. S Zghal, K Kamoun, S Ben Yahia, E M Nguifo, Extraction et gestion des connaissances (EGC'07), volume RNTI-E-9. Zghal, S., Kamoun, K., Ben Yahia, S., and Nguifo, E. M. (2007b). Une nouvelle méthode d'ali- gnement et de visualisation d'ontologies OWL-Lite. In Extraction et gestion des connaissances (EGC'07), volume RNTI-E-9, pages 197-198. EDOLA : Une nouvelle méthode d'alignement d'ontologies owl-lite. S Zghal, K Kamoun, S Ben Yahia, E M Nguifo, Y Slimani, COnférence en Recherche d'Infomations et Applications -CORIA. Université de Saint-ÉtienneZghal, S., Kamoun, K., Ben Yahia, S., Nguifo, E. M., and Slimani, Y. (2007c). EDOLA : Une nouvelle méthode d'alignement d'ontologies owl-lite. In COnférence en Recherche d'Infomations et Applications -CORIA, pages 351-367. Université de Saint-Étienne. A new alignment method for OWL-Lite ontologies using propagation of similarity over the graph. S Zghal, E M Nguifo, K Kamoun, S Ben Yahia, Y Slimani, the 18th International Workshop on Database and Expert Systems Applications (DEXA). IEEEZghal, S., Nguifo, E. M., Kamoun, K., Ben Yahia, S., and Slimani, Y. (2007d). A new alignment method for OWL-Lite ontologies using propagation of similarity over the graph. In the 18th International Workshop on Database and Expert Systems Applications (DEXA), pages 524-528. IEEE. OIM-SM: A method for ontology integration based on semantic mapping. L Zhang, J Ren, Li , X , Journal of Intelligent and Fuzzy Systems. 323Zhang, L., Ren, J., and Li, X. (2017). OIM-SM: A method for ontology integration based on semantic mapping. Journal of Intelligent and Fuzzy Systems, 32(3):1983-1995. Ontology Integration for Linked Data. L Zhao, R Ichise, Journal on Data Semantics. 34Zhao, L. and Ichise, R. (2014). Ontology Integration for Linked Data. Journal on Data Semantics, 3(4):237-254. Research on ontology integration combined with machine learning. L Zhu, Q Yang, Chen , W , Second International Conference on Intelligent Computation Technology and Automation, ICICTA'09. IEEE1Zhu, L., Yang, Q., and Chen, W. (2009). Research on ontology integration combined with machine learning. In Second International Conference on Intelligent Computation Technology and Automation, ICICTA'09, volume 1, pages 464-467. IEEE. Integration of Domain Ontologies in the Repository of Website Evaluation Methods. P Ziemba, J Jankowski, J Watrobski, W Wolski, J Becker, Federated Conference on Computer Science and Information Systems (FedCSIS). IEEEZiemba, P., Jankowski, J., Watrobski, J., Wolski, W., and Becker, J. (2015). Integration of Domain Ontologies in the Repository of Website Evaluation Methods. In Federated Conference on Computer Science and Information Systems (FedCSIS), pages 1585-1595. IEEE.
sample_771
0.8159
arxiv
Cosmologia e Representação 1 Marcelo Byrro Ribeiro Instituto de Física Universidade Federal do Rio de Janeiro -UFRJ Cosmologia e Representação 1 IntroduçãoDe onde viemos? Para onde vamos? Qual a origem de tudo que nos cerca? Houve um início para esse todo, para esse Universo, que nos cerca? Se houve um início, como e quando ocorreu? Essas são perguntas têm sido feitas desde tempos imemoriais, em qualquer cultura e em qualquer época. O conjunto de respostas a essas perguntas, que necessariamente incluirão implicitamente algum tipo de definição acerca de noções como "todo", "origem" e "Universo" constituem uma cosmologia. Se essas questões forem respondidas em um contexto de mitos de criação, então teremos um conjunto de respostas que constituem uma cosmologia mitológica. Já se essas respostas estiverem dentro de um contexto baseado na crença aos Deuses, ou em apenas um só Deus, teremos uma cosmologia religiosa. Vivemos em uma sociedade onde a ciência e a tecnologia têm um papel fundamental, formando um dos pilares essenciais da civilização moderna. Assim, é natural que as perguntas acima também sejam formuladas dentro de um contexto científico, o que significa que a sociedade moderna também foi capaz de produzir uma cosmologia, porém baseada na ciência e tecnologia.Tal cosmologia científica foi gerada após um longo processo de desenvolvimento e amadurecimento da ciência moderna, ocorrido durante séculos, até que esta alcançou Introdução De onde viemos? Para onde vamos? Qual a origem de tudo que nos cerca? Houve um início para esse todo, para esse Universo, que nos cerca? Se houve um início, como e quando ocorreu? Essas são perguntas têm sido feitas desde tempos imemoriais, em qualquer cultura e em qualquer época. O conjunto de respostas a essas perguntas, que necessariamente incluirão implicitamente algum tipo de definição acerca de noções como "todo", "origem" e "Universo" constituem uma cosmologia. Se essas questões forem respondidas em um contexto de mitos de criação, então teremos um conjunto de respostas que constituem uma cosmologia mitológica. Já se essas respostas estiverem dentro de um contexto baseado na crença aos Deuses, ou em apenas um só Deus, teremos uma cosmologia religiosa. Vivemos em uma sociedade onde a ciência e a tecnologia têm um papel fundamental, formando um dos pilares essenciais da civilização moderna. Assim, é natural que as perguntas acima também sejam formuladas dentro de um contexto científico, o que significa que a sociedade moderna também foi capaz de produzir uma cosmologia, porém baseada na ciência e tecnologia. Tal cosmologia científica foi gerada após um longo processo de desenvolvimento e amadurecimento da ciência moderna, ocorrido durante séculos, até que esta alcançou 1 Palestra apresentada na mesa redonda "O Debate entre Ciência e Religião" ocorrido no XII Simpósio Nacional da Associação Brasileira de História das Religiões (ABHR) em 2 de junho de 2011 na Universidade Federal de Juiz de Fora. 2 E-mail: mbr at if.ufrj.br; Internet page: http://www.if.ufrj.br/~mbr/ um grau de desenvolvimento onde as ciências físicas puderam formular as questões acima dentro de seus próprios critérios científicos e responder, pelo menos parcialmente, essas perguntas. Esse conjunto de respostas e a atividade de responder às perguntas cujas respostas ainda não são inteiramente satisfatórias, dentro dos critérios de qualidade da pesquisa científica moderna, formam atualmente uma área de pesquisa de intensa atividade conhecida como cosmologia científica moderna. O objetivo desse trabalho é apresentar uma breve descrição da cosmologia científica moderna, seus resultados principais e suas bases conceituais mais gerais. Procurarei fazer isso dentro de um arcabouço epistemológico que permita um diálogo com outras formas de pensamento, em particular o religioso, mas sem se restringir a este. Resumidamente, essa visão epistemológica propõe que as teorias científicas são representações, imagens, da natureza. Dentro desse ponto de vista a ciência não pode conhecer as essências ou, o que é o mesmo, porque o mundo é tal como ele é realmente. Assim, as respostas propostas pela ciência moderna são parciais, simplificadas e substituíveis. Uma outra forma de ver isso é afirmar que a verdade é provisória. E, como consequência natural dessa visão, o mesmo conjunto de fenômenos, ou perguntas científicas, podem ter múltiplas respostas, ou representações, conclusão esta comumente denominada de pluralismo teórico. Portanto, esse pluralismo de concepções da natureza abre espaço para o diálogo entre diferentes formas de pensamento. Não há aqui qualquer pretensão de se chegar a respostas finais às perguntas cosmológicas apresentadas no início desse texto. Alias, como dito acima, e veremos em detalhes abaixo, o arcabouço epistemológico proposto exclui essa possibilidade, ou seja, não permite que possamos jamais chegar a respostas finais, ou últimas, para qualquer problema, seja ele científico ou não. No entanto, o espaço aberto para o diálogo permite que ambos os lados possam sair enriquecidos desde que as ideias geradas nesse diálogo mostrem-se úteis dentro dos domínios de validade de cada forma de pensamento uma vez que sejam averiguadas e aprovadas pelos critérios de qualidade próprios de cada domínio. Portanto, não há aqui qualquer preocupação de se criticar a religião em nome da ciência ou vice-versa. Os tempos de beligerância entre ciência e religião devem ser deixados para trás. 2 Cosmologia Científica Moderna Durante cerca de quatro séculos a ciência moderna rotulou como não-científicas as questões que indagavam pela origem de tudo, pela história e pelo desenvolvimento dos objetos e estruturas celestes. Afinal era preciso se distinguir radicalmente da filosofia e da teologia e conquistar a sua autonomia e independência com relação a essas duas formas mais antigas de conhecimento. Mas, principalmente, faltavam à ciência moderna os conceitos e equações físicas apropriadas que permitissem abordar e desenvolver as ideias de "todo" e "origem" segundo os seus próprios critérios. Por não possuir as ferramentas necessárias para lidar com essas questões, ou seja, leis e teorias científicas acopladas aos essenciais dados astronômicos, a ciência moderna não estava suficientemente madura para se aventurar na Conforme discutido acima, como as questões que definem a cosmologia científica moderna não lhe pertencem inteiramente ou unicamente, é natural que habitantes de outras áreas de conhecimento desejem respondê-las. Refiro-me aqui aos filósofos e teólogos. Se a ciência moderna sente-se suficientemente segura e madura para, dentro de seus próprios critérios, responder às perguntas cosmológicas, por que haveria ela, então, sentir qualquer receio de dialogar com a religião e a teologia? A maturidade e a confiança da ciência moderna, não raramente defendidos de forma arrogante, devem se traduzir em vontade e coragem de conversar com outrem. O diálogo certamente fica mais rico e interessante quando se reconhece a importância de ouvir aqueles que habitam outros domínios científico epistemológicos. Afinal, em que ocasião afirmamos mais fundamentalmente nossa humanidade do que quando nos perguntamos pela nossa origem e pelo nosso destino? A Física do Universo As Hipóteses Cosmológicas A primeira hipótese assume que as leis físicas verificáveis dentro dos limites do Sistema Solar são igualmente válidas em regiões muitos mais distantes nas quais esta validade não foi verificada ou onde não podemos testá-las com os meios tecnológicos atuais. Assim, a cosmologia científica moderna estuda todos os objetos e grupos de objetos físicos, incluindo os mais remotos, nos quais as nossas leis físicas têm significado e podem ser aplicadas de maneira consistente e bem-sucedida. A justificativa desta hipótese deve ser observacional, ou seja, a astronomia e astrofísica devem nos fornecer dados que possam justificar esta premissa. Dados obtidos por meio da cuidadosa, paciente e sistemática observação dos céus feita por gerações de pesquisadores usando telescópios e, mais recentemente, satélites artificiais, nos permitem validar esta hipótese em termos gerais. A segunda premissa básica é a de que os objetos cosmológicos interagem gravitacionalmente. Isto é consequência da constatação de que das quatro forças fundamentais conhecidas pela física, a saber, as forças gravitacional, eletromagnética e nucleares forte e fraca, somente a gravidade e a força eletromagnética têm longo alcance, mas considerando a evidência empírica de que os objetos celestes são eletricamente neutros, a gravidade é, portanto, a interação física mais importante entre os objetos cosmológicos. A teoria gravitacional cujos conceitos e equações permitem lidar com 5 conceitos com o "todo" ou "totalidade" é a TRG. O que distingue esses três casos é a quantidade de matéria no universo. Esses submodelos definem o conceito de massa crítica, acima da qual o universo vai finalmente paralisar sua expansão e iniciar um processo de contração, e abaixo da qual o universo se expande eternamente. O caso intermediário, denominado universo plano, define a massa crítica: se o universo tiver massa total inferior ao do modelo plano, então é aberto. Se for superior, é fechado. Uma vigorosa área de pesquisa em cosmologia tem sido a tentativa de determinar qual dos três tipos mais se aproxima ao universo observado. Se assumirmos, por argumentos teóricos, que o universo é plano e, ao mesmo tempo, observamos matéria compatível somente com o modelo aberto, uma maneira de resolver esta contradição é supormos que existe matéria invisível, que não emite luz. Em outras palavras, esse cenário implica que há grande quantidade de matéria escura. O Modelo Cosmológico Padrão Observações astronômicas realizadas na última década do século XX sugerem que o universo pode estar se acelerando, ou seja, a matéria estaria se afastando mais rapidamente entre si do que o previsto no submodelo aberto. Para que isso ocorra dentro do cenário do modelo FLRW é preciso avançar a hipótese da existência de uma força de expansão extra, proveniente de algum tipo de matéria não detectável diretamente e de natureza desconhecida. Essa matéria interagiria gravitacionalmente, gerando uma energia de aceleração proveniente desse material ainda não detectado. Tal energia foi batizada de energia escura. Uma vigorosa pesquisa teórica e observacional, envolvendo vários telescópios espalhados pelo mundo e o lançamento de satélites artificiais dedicados, se iniciou na primeira década do século XXI com o objetivo de procurar rastrear a natureza e composição dessa possível energia escura. Uma conclusão imediata que emerge da constatação da existência da expansão é que o universo deve ter estado "concentrado" no passado, tendo, por motivos não esclarecidos, se iniciado um processo de expansão em determinada época. Este é o átomo primordial sugerido por Lemaître. Deve-se enfatizar que o átomo primordial não necessariamente implica em um ponto ou uma "origem", pois o universo poderia ter estado em estado estático, sem contração ou expansão, até que algum evento tenha dado início a uma expansão. No entanto, cálculos posteriores mostraram que os três sub-modelos FLRW, apresentados acima, implicam que esta concentração de matéria teria ocorrido em um tempo finito do passado, onde toda a matéria do universo concentrada e com densidade e temperaturas infinitas. Desta constatação matemática nasce o conceito da "grande explosão", ou big bang, que é interpretado por muitos como sendo a criação do Universo. No caso dos modelos fechados, se em algum momento o universo parar a expansão e iniciar um processo de contração, então quando o universo estiver todo contraído de volta a um ponto temos o que se chama de "grande implosão", ou big crunch. É importante observar que o big bang e o big crunch são noções matemáticas. O modelo teórico prevê estes estados como casos limites, isto é, se o processo de evolução do Universo continuasse, e isto sob o implacável ponto de vista da lógica. Porém, a teoria não é capaz de dizer nada sobre o que eles significam ou como e porque eles podem ter aparecido. A própria física não pode ser feita no big bang, pois não se conhece nenhum sistema físico que tenha densidade e pressão infinitos. Associar ao big bang uma idéia de "criação" é, na verdade, uma interpretação com raízes, filosóficas. Teorias baseadas na física quântica aplicadas à cosmologia, a chamada cosmologia quântica, tentam superar essas limitações, mas até o momento tal abordagem não produziu resultados satisfatórios. 8 O universo físico é, por definição, infinito, e isso requer uma teoria física capaz de lidar matematicamente com essa característica. A TRG provê essa teoria, permitindo finalmente que a interpretação física de ideias como "Universo" e "totalidade" sejam colocadas em bases físicas seguras. Evidências Observacionais do Modelo Cosmológico Padrão Universo e Totalidade Horizontes e Universo Observável Um dos postulados básicos da TRG afirma que a velocidade da luz é constante. A velocidade da luz, embora muito alta, não é infinita. Assim, a transmissão de um sinal deve ocorrer em um tempo finito, para todos os observadores, pois todos medem o mesmo valor para esta velocidade. Há aqui uma consequência importante. Informação que chegue a nós de uma estrela ou galáxia distante (por exemplo, uma explosão) demorará para nos atingir, e enquanto ela não chegar nós não teremos nenhuma informação, a qual é "carregada" pela luz, acerca dessa galáxia ou estrela. Em outras palavras, algo poderá ter ocorrido do outro lado do Universo, mas que demorará algum tempo, talvez muito tempo, até que percorra o caminho até nós e possamos então tomar conhecimento da existência deste fenômeno (por exemplo, a explosão). No jargão técnico da relatividade, diz-se que no momento desse evento (explosão) esta estrela ou galáxia estava fora de nosso horizonte. Os horizontes são uma consequência da finitude da velocidade da luz, e implicam que nós não temos conhecimento imediato de tudo o que ocorre no Universo. Só saberemos da 12 existência de determinados fenômenos em nosso futuro. Esta é uma limitação teórica intrínseca. Se, no entanto, a cosmologia concebe o Universo como um todo, a totalidade, e ao mesmo tempo concebe a existência de horizontes, é inescapável a conclusão de que, ao abordar regiões infinitamente distantes de nós, a cosmologia nos obriga a concluir que só saberemos algo sobre estas regiões em nosso futuro, já que atualmente elas estão fora de nosso horizonte. Este conceito, levado ao seu limite, diz que, se uma determinada região do universo enviar um sinal que demore, digamos, um tempo superior ao da existência de nosso Sistema Solar, isto é, se o sinal só chegar a Terra quando o Sol e seus planetas não mais existirem, teremos então que aceitar a ideia de que podem existir regiões do universo suficientemente distantes sobre as quais nós nunca obteremos qualquer informação, pelo menos aquelas que viajam à velocidade da luz. Os horizontes implicam, portanto, em regiões que somente tornar-se-ão conhecidas futuramente, ou mesmo em regiões que permanecerão para sempre incognoscíveis. Sendo assim, o que chamamos de universo observável é apenas uma parte da totalidade universal. Em outras palavras, somente aquela região do Universo cuja luz hoje nos alcança ou nos alcançou no passado. Singularidades e o Big Bang O conceito de horizonte discutido acima é intrínseco à cosmologia, indicando portanto que a teoria indica algumas de suas próprias limitações. No entanto, os horizontes não são os únicos conceitos onde a teoria mostra a sua autolimitação. As singularidades, isto é, regiões do espaço-tempo onde as grandezas físicas deixam de ser definíveis, também são limitações da teoria. Exemplos de singularidades são os objetos conhecidos como buracos negros e o big bang. Ambos aparecem como resultados de aplicações específicas da TRG. Stephen W. Hawking (1942-) e Roger Penrose (1931-) estudaram profundamente as singularidades e chegaram a um conjunto de teoremas que afirmam que as singularidades não podem ser removidas das teorias gravitacionais geométricas. Portanto, dentro da física que conhecemos não há como evitar que modelos cosmológicos tenham um big bang e/ou um big crunch. À luz destes teoremas, não nos resta outra opção senão aceitar as singularidades e procurar interpretá-las no contexto das aplicações da TRG. No caso do big bang, ele é uma singularidade que aparece no limite de se olhar ao reverso o processo de expansão do universo. Sua interpretação, porém, é controversa devido às diferentes perspectivas epistemológicas adotadas pelos pesquisadores sobre duas possíveis maneiras de entendermos o que são teorias físicas. Se teorias físicas correspondem diretamente à natureza, temos, então, uma identificação entre teoria e objeto. Neste caso se estamos seguros de que há uma expansão e que vários dados relacionados são consistentes com esta ideia, então o big bang deve corresponder a algum efeito físico. Resta, portanto, desenvolver a física necessária para finalmente podermos entendê-lo. Se, por outro lado, assumirmos que teorias físicas são representações da natureza, então o big bang é o local onde a física conhecida encontra os seus limites de validade, isto é, ela é intrinsecamente incapaz de discutir o big bang. Nada então podemos afirmar, a não ser que a nossa teoria não é conclusiva. Em outras palavras, concluiríamos que nada podemos concluir. Veremos a seguir que não é possível discutir a natureza do big bang sem assumir uma ou outra posição epistemológica. A proposta a ser apresentada a seguir é de que a melhor maneira de entendermos teorias físicas é supondo-as serem representações. Teorias Científicas e Representações Um aspecto fundamental discutido no início desse texto é o de que a ciência só se sente em condições de fazer afirmações em certos domínios de validade. Dito de outra forma, as leis e as teorias científicas referem-se, quando vistas individualmente, a setores específicos do real, sendo, portanto, representações dos fenômenos naturais. Esta afirmação reflete a opção epistemológica adotada nesse trabalho, a qual considero a mais conveniente, talvez a única possível, que permite um diálogo tranquilo com outros saberes, particularmente o religioso, sem que ocorra um diálogo de surdos. A tese de que as teorias científicas são representações é antiga, no entanto ficarei aqui circunscrito a apenas um autor da ciência Se nossas teorias científicas são descrições da Natureza, uma consequência importante dessa tese é a de que é necessário aceitar que nossas teorias e modelos possuem limitações intrínsecas e inevitáveis. Por mais elaboradas e detalhadas que sejam, nossas teorias ou modelos jamais serão capazes de representar todas as características da Natureza, da mesma forma que o desenho de uma laranja jamais poderá capturar todos os aspectos da fruta. O desenho de uma laranja é feito em uma folha plana de papel, portanto não pode ser "virado" para podermos olhar do outro lado do desenho da fruta, e é feito a partir de um ponto de vista, de uma perspectiva, da fruta, a qual pode mudar se ao virarmos a laranja descobrirmos uma parte apodrecida no lado oposto a qual não estava representada no desenho original. O outro lado da fruta pode ser representado por outro desenho. Em suma, uma teoria científica, assim como um desenho, não pode representar todas as características da Natureza e é, portanto, limitada e incompleta. Existirão então sempre novos aspectos a serem incluídos nas teorias, os quais podem não somente complementar os aspectos já representados, refinando-os, como também podem inclusive modificar radicalmente a imagem que temos da Natureza. A tese de que as teorias científicas são representações da Natureza permite extrair ainda outra consequência importante: um mesmo fenômeno natural pode ser representado por 16 mais de uma teoria ou modelo. Essa tese é comumente denominada de pluralismo teórico. Boltzmann acreditava que os mesmos fenômenos naturais podem ser descritos e explicados de maneiras diferentes a partir da adoção de perspectivas não só distintas e complementares, mas até mesmo excludentes. Assim, a ideia de que as teorias científicas são representações possui também uma implicação pouco comum, que é sua capacidade de combater o dogmatismo na medida em que, como dito acima, favorece uma postura pluralista. Diante de uma situação na qual torna-se impossível escolher uma teoria a partir de critérios estritamente científicos, devem os cientistas apelar para outros, situados além dos domínios da ciência. A escolha de uma teoria dependeria de vários fatores, inclusive de preferência epistemológica. Ao final de sua vida, Boltzmann chegou mesmo a afirmar que a escolha por uma teoria científica poderia ser também determinada por critérios pessoais. Assim, até mesmo critérios como moda podem entrar Uma outra conclusão importante a ser retirada da tese de que as teorias científicas são representações da Natureza é que não pode haver na ciência nenhuma teoria que seja eternamente verdadeira, pois nenhuma teoria científica pode atingir os níveis dos porquês e dos constituintes últimos dos fenômenos naturais. Assim, segue-se que nenhuma teoria científica pode afirmar conhecer verdades imutáveis. A verdade científica é provisória. Sendo assim, ela pode ser "alcançada" de diversas maneiras, ou seja, através de teorias diferentes. Quanto maior o número de teorias à disposição dos cientistas, maiores são as chances de se obterem melhores representações dos fenômenos naturais. A tarefa do processo científico é ser uma eterna busca por melhores, mais adequadas, representações da Natureza, sem jamais ser capaz de esgotá-las. O conhecimento científico é melhor caracterizado por uma busca incessante e sem fim por melhores, mas nunca definitivas, representações dos fenômenos naturais. A substituição de uma teoria científica por outra, característica principal da ciência moderna, obra permanentemente em aberto, só pode acontecer caso assegure-se que nenhuma teoria científica pode alcançar o estágio de definitivamente verdadeira. Em outras palavras, uma teoria científica pode ser melhor do que outra e nada mais do que isso. Diálogo com a Religião e outros Saberes Como afirmei acima, a ciência moderna em geral, e a cosmologia científica em particular, não deveriam se sentir inseguras em dialogar com outras formas de pensamento pois já conquistaram sua autonomia e são suficientemente maduras a ponto de, sob seus próprios critérios de qualidade, abordar temas que interessam a outros saberes. Então, por que deveriam se negar ao diálogo, apenas afirmando de forma arrogante o inegável papel essencial das ciências no mundo moderno? Creio que, mesmo tendo de fato existido no passado, não há hoje mais razão objetiva para tal hostilidade. Sendo assim, o diálogo só pode ocorrer no campo das representações, conforme as teses epistemológicas de Boltzmann discutidas na seção anterior. Esta é a "arena" do diálogo, onde ideias podem cruzar de um lado para outro e produzir frutos, isto é, novas ideias e aplicações para os lados que dialogam. Mas, cada conceito, cada representação, que se mostrou útil em um determinado domínio de conhecimento somente poderá tornar-se útil em outro se for devidamente adaptado de forma a cumprir os requerimentos e critérios de qualidade próprios de cada domínio. Transposições automáticas jamais darão certo pois cada domínio de conhecimento tem seus próprios critérios e metodologias. Para exemplificar esse ponto, relembro a passagem acima onde foi dito que o conceito de evolução já era utilizado no século XIX em outras áreas da ciência, mas foi somente no século XX que ele surge na cosmologia científica, tornando-se útil nesta quando foi verificado que ela poderia ser associada aos conceitos produzidos pela física moderna e a TRG para concluir, por exemplo, que existe uma história térmica do universo. Esse simples exemplo mostra que os conceitos, as representações, devem ser devidamente compreendidos dentro de um domínio e, uma vez aceita sua possível utilidade em outro domínio, ser então devidamente interpretadas dentro do último. Abre-se então a possibilidade de que conceitos originados e desenvolvidos em um certo domínio de validade possam ser devidamente reinterpretados e utilizados em outro domínio de validade. Em outras palavras, não há qualquer impedimento que a física "empreste" seus conceitos, suas representações, a outras áreas, como a teologia, ou tome "emprestado" representações, imagens, de outros domínios de conhecimento e os adaptem, os reinterpretem, de forma a se tornarem úteis dentro da física. Um outro exemplo desse tipo de fertilização cruzada, onde representações originadas em um domínio são reinterpretadas e aplicadas em outro domínio de validade, pode ser visto nas ciências sociais. Em seu livro "The Uncertainties of Knowledge", o sociólogo Immanuel Wallerstein (1930-) Não se trata aqui de realizar uma exposição das teorias de Wallerstein, cuja leitura é instigante. As citações acima servem apenas como um exemplo a mais de como representações originadas em um domínio de conhecimento podem ser consideradas úteis em outros domínios, gerando fertilização cruzada ao serem devidamente reinterpretadas, adaptadas e conceitualmente incorporadas como representações em áreas por vezes muito distantes de onde elas se originaram. Para concluir esta seção, é importante observar que debates sobre representações originadas em um domínio e possivelmente utilizadas em outro também ocorrem de forma indireta. Por exemplo, no final do século XX alguns cientistas, principalmente os físicos, começaram a falar em Deus. Alguns deles acreditam que o desenvolvimento da ciência, em particular da cosmologia científica, tornarão possível que os cientistas conheçam a mente de Deus. Embora essas afirmações sejam feitas de modo rápido sem que sejam devidamente apresentadas as razões para acreditarmos que a ciência, e não mais a religião, poderá conhecer os planos que Deus usou para criar a natureza, esse não deixa de ser um fenômeno curioso e até mesmo inesperado. Mas, paralelamente, começaram a aparecer algumas obras escritas por filósofos, teólogos e mesmo por cientistas que analisam de forma mais cautelosa as relações entre a ciência e a religião. Nesses trabalhos não existe a preocupação de verificar se a ciência pode, ou não, descobrir os planos traçados por Deus. Não existe igualmente a preocupação de se criticar a religião em nome da ciência ou viceversa. Essas análises procuram tomar como ponto de partida resultados científicos e filosóficos onde sobressai-se a tese de que as teorias científicas são representações, além de deixar claro, mesmo de forma indireta, que é preciso deixar para trás os tempos de beligerância entre ciência, filosofia e religião. Não pretendo realizar aqui uma análise exaustiva da literatura sobre esse assunto, portanto a discussão a seguir será breve e limitada a apenas um autor que considero representativo dessa tendência, o físico, cosmólogo e teólogo jesuíta William R. Stoeger (1943-). Suas preocupações e posições são semelhantes à nossa discussão acima no que se refere à distinção dos domínios de conhecimento da ciência e da teologia. As posições e reflexões de Stoeger são equilibradas e fecundas, pois ele respeita as particularidades de cada uma das partes envolvidas, e sem esse respeito nada poderá ser alcançado em relação a uma justa apreciação do que cabe à ciência, à filosofia e à religião. Em suas análises e discussões, Stoeger têm por objetivo encontrar espaço para cada uma das partes envolvidas pois, segundo ele, não existe razão a priori para acreditarmos que a 22 ciência ocupou todos os espaços disponíveis para a vida humana. A ciência não deve ser compreendida como um substituto para a religião ou para a filosofia. Por outro lado, a filosofia e a religião devem prestar atenção àquilo que ocorre na ciência; caso contrário, suas análises poderão não ter valor. Stoeger parte da constatação que, sendo uma teoria científica uma representação da natureza, a ciência não pode afirmar como esta é de fato (ou realmente). Essa tese possibilita a compreensão de que a ciência não conseguirá descrever, os fenômenos vinculados à espiritualidade, pois esta "atua" em um domínio diferente da ciência. "É ilusão acreditar que essas representações incrivelmente ricas dos fenômenos são isomorfismos não construídos que meramente descobrimos no mundo real. Ao contrário, são construídos -meticulosamente -e não há indícios de que sejam isomórficos com estruturas no mundo como este é em si". (Stoeger 2002, p. 36) Sobre o papel a ser cumprido pela filosofia na intermediação entre a ciência e a teologia, também aos olhos de Stoeger a filosofia é responsável por este diálogo. Espera-se que o conflito resultante seja criativo, o que implica no desdobramento de novos modos de interação e cooperação entre a ciência e a teologia. Além disso, cabe à filosofia a tarefa de avaliar quão "eficiente" é este diálogo e respeitar a complementaridade entre a ciência e a religião, mais especificamente a cosmologia e a teologia. Elas são complementares porque 24 ambas nos fornecem diferentes perspectivas do mesmo tipo de questionamento proveniente das mesmas perguntas advindas da mesma realidade experimentada. Conclusão Nesse trabalho procurou-se apresentar o que é cosmologia, definida como a tentativa de responder a um conjunto de perguntas as quais são comuns a várias formas de pensamento, como a teologia, filosofia e ciência. Mostrou-se que a cosmologia científica moderna é uma forma particular de cosmologia, onde as respostas às perguntas cosmológicas aparecem no contexto da física moderna, em particular da Teoria da Relatividade Geral de Einstein. Mostrou-se também que a cosmologia científica tem seus próprios pressupostos e arcabouço teórico, que parte da premissa de que o Universo pode ser estudado como um sistema físico único e define a totalidade como sendo o conjunto de todos os objetos que nos cercam e que se influenciam mutuamente. Foram apresentadas as evidências observacionais que fornecem suporte empírico às conclusões teóricas da cosmologia científica e como esta interpreta conceitos como origem, universo observável, big bang, etc. A seguir apresentei a visão epistemológica adotada nesse trabalho que, resumidamente, assume que as teorias científicas não passam de representações da natureza, do real, ou mundo externo e, portanto, são intrinsecamente limitas e incompletas, o que abre a possibilidade de haver uma multiplicidade de representações, configurando o que comumente se chama de pluralismo teórico. Foi argumentado então que é no terreno das representações que pode existir um diálogo entre as várias formas de pensamento, não só o científico e religioso, mas também entre os vários domínios de pensamento científico, e que conceitos originados em um domínio podem ser apropriados e utilizados em outros, mas que isso somente funciona se não houver transposição automática, mas tendo clareza do significado dos conceitos dentro de seus domínios de origem e respeitando os critérios de qualidade e metodologia de cada domínio de pensamento. Para concluir, acredito que não é demais enfatizar que as questões relativas à cosmologia científica não lhe pertencem somente, pois, afinal, aquele que em tempos muito remotos, perguntou-se pela primeira vez "De onde viemos?", "Qual a origem desse todo que me cerca?" e "Qual o destino desse Universo?" com certeza não fez essas perguntas motivado por questões relacionadas à física do Universo. Com certeza a sua preocupação era conhecer os desejos e desígnios de seus Deuses. A primeira característica importante do modelo padrão é que o Universo encontra-se em expansão, ou seja, é dinâmico, e seu conteúdo material muda com o tempo. Em outras palavras, o modelo evolui. A dinâmica do universo pode ser determinada por três submodelos: 1. submodelo aberto: o universo encontra-se em expansão eterna; 2. submodelo plano: o universo também se expande eternamente, mas somente com a energia mínima necessária para tal, enquanto que no caso acima a energia para manter a expansão eterna é acima da mínima; 3. submodelo fechado: a expansão do universo vai decrescendo até que ele atinge um máximo. A partir daí o universo inicia uma contração. A cosmologia científica moderna entende o conceito de totalidade como sendo o Universo, isto é, como o conjunto de todos os objetos que nos cercam e se influenciam mutuamente. Esse conjunto é como uma entidade física única, a qual pode ser descrita através de conceitos e métodos da geometria diferencial, cujos fundamentos foram estabelecidos por Georg F. B. Riemann (1826-1866), e variáveis físicas típicas, tais como densidade, energia 10 e pressão. Essas últimas têm seu comportamento regido pelas soluções das equações do campo gravitacional oriundas da TRG. A conceituação desse universo físico se desdobra em dois pilares conceituais fundamentais, os quais, ao mesmo tempo em que o definem, o descrevem e também o sustentam. O primeiro é o empírico/observacional, isto é, aquilo que relaciona o universo físico com a natureza. O segundo é o representativo, onde se encontram a matemática e as teorias físicas subjacentes. Mais especificamente, podemos dizer que o universo físico da cosmologia moderna apoia-se sobre as seguintes bases: • Aquilo que podemos observar astronomicamente nos céus e relacionar experimentalmente com a física conhecida e descrita nos laboratórios terrestres. Por exemplo, quando captamos e estudamos por meio de instrumentos especiais a luz das galáxias distantes podemos concluir se existe ou não algum elemento conhecido na Terra, como o cálcio ou o lítio, apenas comparando as propriedades da luz emitidas por estes mesmos elementos em laboratórios terrestres; • Aquilo que podemos concluir quando usamos as teorias físicas conhecidas, em particular a TRG, e a sua subjacente expressão em linguagem e conceitos matemáticos. Por exemplo, ao usarmos a geometria Riemanniana, a qual define e descreve matematicamente o conceito de curvatura, junto à hipótese relativística de que o espaço e o tempo são indissociáveis, obtemos uma descrição geométrica do espaço-tempo como tendo quatro dimensões (uma temporal e três espaciais) onde podemos falar de uma curvatura neste mesmo espaço-tempo. É esta curvatura quadri-dimensional que define gravidade na TRG. Estes dois aspectos são fundamentais, intrínsecos e indissociáveis na cosmologia moderna. A parte observacional diz que o Universo natural mais amplo possível deve ser incluído no universo físico, e por mais amplo possível se deve entender o mais distante possível. Devese notar aqui que o termo "distância" deve ser entendido no seu sentido relativístico, ou seja, distância espacial e "distância" temporal. Isso significa que tanto os objetos situados longe de nós quanto os do nosso passado remoto fazem parte da totalidade cosmológica.Do que foi dito acima, conclui-se que não é possível haver uma distinção clara entre os conceitos físicos e os correspondentes modelos de universo. Os conceitos físicos, são necessários para se conceber e entender o universo físico. As teorias físicas tornam-se então irremediavelmente mescladas com as suas correspondentes aplicações, o que implica que no caso da cosmologia aquilo que entendemos por universo observável não pode existir independente de uma construção teórica. Antes do aparecimento da TRG não havia cosmologia, isto é, não havia uma disciplina científica que discutia a física do Universo.Embora o Universo exista independentemente de nós, só se tornou possível sondá-lo e estudá-lo por meio de uma interpretação teórica. Assim, em cosmologia, como em toda e qualquer ciência, é a teoria que determina o que é observacional, ou mesmo o que é observável. Ao mesmo tempo, a cosmologia observacional sugere que partes da teoria necessitam de atualização e revisão. Portanto, em cosmologia, teoria e observação interagem em mão dupla, uma modificando, concebendo e limitando a outra. O conceito de horizonte mostra de forma enfática como em cosmologia se faz presente esta vinculação de definição e limitação entre teoria e observação. moderna cujas teses são representativas dessa opção epistemológica e fornecem fundamentação suficiente para a discussão da próxima seção onde abordarei o tema acerca do diálogo com outras formas de pensamento.Ludwig Eduard Boltzmann foi um notável físico austríaco, um dos grandes físicos do passado, famoso pelas suas contribuições fundamentais à mecânica e 14 termodinâmica estatísticas. Foi o maior defensor da teoria atômica em uma época na qual essa teoria era ainda muito questionada e bastante controversa. Em 1896 Boltzmann escreveu um artigo no qual reafirmava a sua crença de que o atomismo era inevitável nas ciências naturais. Uma das principais razões que motivaram Boltzmann a defender o atomismo era o seu temor de que o acolhimento do energeticismo, teoria rival ao atomismo, por grande parte dos cientistas acarretasse necessariamente a marginalização do atomismo.Nesse caso Boltzmann acreditava que um clima dogmático iria inevitavelmente instalar-se na ciência, o que implicaria na extinção de toda e qualquer possibilidade de progresso científico. Isto porque, tal como no mundo natural, no mundo das teorias científicas, caberia à competição entre teorias desempenhar o papel fomentador do progresso (evolução). É a tentativa de mostrar que uma representação é melhor, ou mais adequada, do que outra que faz com que o cientista a aperfeiçoe. A principal tese epistemológica adotada por Boltzmann afirmava que toda teoria científica é uma representação da natureza. Para Boltzmann aquilo que constitui real e verdadeiramente a natureza é, e permanece para sempre, incognoscível para os cientistas. Além disso, Boltzmann defendia a ideia de que as representações são livres criações dos cientistas, o que o colocava em oposição a alguns de seus contemporâneos que acreditavam que era possível formular descrições diretas daquilo que é percebido com o uso dos nossos sentidos. Ao afirmar que as teorias científicas são criações livres dos cientistas, Boltzmann enfatizava que é impossível o trabalho científico sem o recurso a conceitos teóricos, os quais devem a sua origem ao fato de que é impossível a elaboração de toda e qualquer teoria científica a partir da mera observação dos fatos naturais. Por exemplo, o conceito de atração gravitacional na física de Isaac Newton (1642-1727) resulta da liberdade que os cientistas possuem para representar a natureza, pois pela mera observação da queda dos corpos não é possível elaborar um conceito como este. Se uma teoria científica representa, ou descreve, a Natureza, não se pode confundir a representação com o objeto representado, visto que são conceitos distintos. Se os confundirmos estaríamos fazendo o mesmo que, por exemplo, identificarmos o desenho de uma laranja com a fruta, o que, obviamente é incorreto. O que uma teoria científicaprocurar capturar são os aspectos mais básicos, ou importantes, de um fenômeno, da mesma forma que um desenho de uma laranja procura representar esta fruta da melhor forma possível por meio da cor, forma e, conforme a qualidade do desenho, textura, etc. Portanto, da mesma forma que o desenho da laranja tem uma relação com a própria laranja, e representa algumas características reais da fruta, as teorias científicas representam fenômenos e processos que realmente ocorrem na Natureza. Assim, as teorias científicas representam o real, e são, portanto, realistas, ou seja, as teorias científicas não podem conhecer as essências dos fenômenos naturais, suas causas últimas. Essa proposição afirma então que conhecer as essências dos fenômenos naturais é impossível. Além disso, da mesma forma que um desenhista escolhe como, e com que estilo, desenhará as características que ele vê como mais marcantes em uma laranja, essa tese admite implicitamente que os aspectos considerados básicos de uma teoria científica são definidos por escolha, individual ou coletiva, e podem mudar com o tempo. Portanto, tais escolhas são feitas em uma determinada época e em um determinado contexto social. No entanto, disposição tranquila para o diálogo não implica que ele existirá ou que, se existir, possa ser fecundo. Para que haja o diálogo é necessário haver um terreno comum, um local que ambos os lados "habitem" e com algo que possa ser compartilhado. A proposição a ser feita aqui é que cabe à filosofia ser o elemento de ligação entre, particularmente, mas não exclusivamente, a ciência e a teologia. Com isso quero dizer que a filosofia é a responsável pela existência do diálogo. É da própria natureza da filosofia o estabelecimento deste tipo de diálogo. Basta lembrar o exemplo de Platão que empregou a forma do diálogo para expor as suas ideias e convicções. Foi por meio do diálogo que Sócrates, Platão e Galileu Galilei (1564-1642) seduziram os seus oponentes, tornando-os adeptos de suas teorias. Precisamos, no entanto, de um último ingrediente para existir esse diálogo, ingrediente este que cabe especificamente à filosofia: mostrar inequivocamente que as teorias científicas são representações do real. No escopo delimitado pela ciência moderna, não há espaço para uma concepção de realismo essencialista como o aristotélico. As essências, aquilo que faz com que o mundo seja o que ele é, não podem ser conhecidas por meio dos procedimentos característicos da ciência moderna. No entanto, nem por isso a ciência moderna se afirma como incapaz de conhecer o real. A ciência moderna nunca abrirá mão de sua pretensão em conhecer o real, pois este é passível de ser parcialmente conhecido empiricamente, o que faz com que possamos sumarizar esse conhecimento por meio da teorização. Em outras palavras, a ciência moderna é realista, pois para ela o real, isto é, a natureza ou mundo 18 externo, existe independentemente do sujeito cognoscente. Assim, o mundo externo existe e existirá independente da percepção e inteligibilidade de qualquer um de nós. O mundo externo não é uma fantasia de nossa mente. Essas duas teses constituem o núcleo central da visão realista. Mas, apesar de ser impossível conhecer o mundo externo inteira e completamente, e certamente ser impossível prever seu futuro corretamente visto que o futuro não está determinado, é útil aprender o que podemos sobre o mundo externo com o objetivo de interpretar melhor a realidade, definida aqui como a interface entre o ser cognoscente e o mundo externo, para melhorar as condições de nossa existência. " Os limites de uma área específica -e o enfoque e as bases evidentes a ela apropriadossó são descobertos por meio da interação com outras áreas. Todas as áreas de conhecimento compartilham pelo menos um campo cultural comum e se influenciam mutualmente de diversas formas". (Stoeger 2002, p. 86). Stoeger compartilha também da visão de que somente é possível conhecer o que quer que seja por meio da razão humana, sendo que esta está associada a valores, conhecimentos prévios, experiências pessoais e privadas. Esse conjunto de fatores integra o arsenal de instrumentos à disposição do homem para elaborar e validar o conhecimento. busca de respostas para o conjunto de questões cujas respostas definem uma cosmologia: de onde viemos? Para onde vamos? Qual é a origem de tudo aquilo que nos cerca? Qual é a nossa origem? Qual será o nosso fim? A maturidade da ciência é uma tarefa que envolve muitas gerações de pesquisadores, ou seja, nunca é alcançada facilmente, e inclui teorias sólidas baseadas em experimentos reprodutíveis e observações confiáveis. No domínio da cosmologia esses resultados foram obtidos pela física somente no século XX após Albert Einstein (1879-1955) ter publicado em 1916 a formulação final para a sua Teoria da Relatividade Geral (TRG), a qual permitiu que a ciência moderna pudesse estabelecer uma cosmologia dentro de seus próprios termos. Por meio dela pode-se definir o Universo físico como a totalidade daquilo que podemos observar com nossos telescópios e satélites artificiais, do que não podemos observar agora por esses meios, mas poderemos no futuro, e daquilo que jamais poderemos observar. A cosmologia científica moderna define conceitos próprios para início, criação, evolução e horizonte, estabelece que o Universo está submetido à força gravitacional cujas equações descritivas e resultados de suas previsões teóricas, obtidas por meio da TRG, são passíveis de verificação e validação empírica por meio da astronomia. Como consequência dessa pesquisa, um dos mais significativos resultados da cosmologia do século XX diz respeito ao fato de que o Universo evolui, ou seja, que ele tem uma história. A ideia de evolução tornou-se científica em um domínio estranho à cosmologia científica moderna. Ela já estava presente em outras áreas do saber humano, como a biologia, a história e a antropologia, em uma época em que a cosmologia científica ainda não integrava o domínio das disciplinas científicas estritas, ou seja, nos tempos de Charles Darwin (1809-1882) na segunda metade do século XIX. Mas, para penetrar na cosmologia e receber sua interpretação em termos cosmológicos, a ideia de evolução teve que superar resistências iniciais, algumas destas formuladas pelo próprio Albert Einstein, ou seja, de um dos principais responsáveis pela transformação da cosmologia em ciência. Contrariando as equações da sua então recentemente proposta TRG e seguindo as suas ideias científicas preconcebidas até aquele momento, Einstein propôs em 1917 um universo estático. Anos mais tarde ele abandonou a solução do universo estático afirmando aquele ter sido o seu maior erro científico. A cosmologia científica nasceu em 1917 pois nesse ano Einstein publicou um artigo no qual as suas recém-propostas equações do campo gravitacional obtidas na TRG foram usadas para estudar a física do Universo. Neste artigo o físico alemão assumiu que o Universo pode ser tratado como um objeto único, uma entidade física única, e que o estudo do Universo como um todo é possível de ser feito por meio das leis da física. Basicamente, Einstein estabeleceu o problema cosmológico moderno e apresentou as duas perguntas essenciais que até hoje definem o objetivo da pesquisa em cosmologia científica, que é obter a estrutura geométrica e a distribuição de matéria do universo. As respostas dadas por Einstein a essas duas perguntas em seu artigo de 1917 foram insatisfatórias e hoje são consideradas inteiramente ultrapassadas e obsoletas. No entanto, embora as respostas atuais sejam bastante diferentes, as perguntas são ainda essencialmente as mesmas. Além de formular as perguntas básicas, Einstein fez outra contribuição fundamental à cosmologia, pois somente foi possível iniciar e continuar este estudo porque foram formuladas, implícita ou explicitamente, várias hipóteses fundamentais as quais permitem, e até certo ponto definem, o escopo da cosmologia científica.4 Portanto, não é coincidência o fato de que a cosmologia efetivamente nasce como disciplina científica somente após o aparecimento da TRG, a qual permitiu Einstein pensar o Universo em termos físicos e usar grandezas físicas típicas como energia e densidade para descrever o Universo. A terceira hipótese cosmológica é na verdade um conjunto de pressuposições físicomatemáticas que na prática têm o objetivo de simplificar matematicamente o problema a ser resolvido. Elas, portanto, têm um caráter subjetivo e expressam opiniões filosóficas subjacentes, sendo fonte freqüente de controvérsias devido a ausência de validação observacional direta, tendo, na melhor das hipóteses, indicação indireta. No entanto, elas são essenciais pois sem elas não seria possível obter soluções das equações do campo gravitacional fornecidas pela teoria gravitacional subjacente. As equações da TRG são bastante complexas e de difícil solução, necessitando, portanto, de serem simplificadas matematicamente. A primeira destas pressuposições matemáticas consiste na adoção do princípio Copernicano o qual afirma que não existem observadores privilegiados no Universo. Esse princípio é transcrito matematicamente na forma do assim chamado princípio cosmológico, o qual, na prática, consiste em uma justificativa da escolha, entre várias possíveis, da geometria do universo como sendo a de Friedmann-Lemaître-Robertson-Walker 3 (FLRW).A segunda destas pressuposições assume que o Universo pode ser modelado como um fluido sendo as galáxias seus elementos constituidores, isto é, elas são as "moléculas" desse fluido. Pode-se, portanto, descrever esse fluido cosmológico por meio de grandezas físicas típicas como densidade, pressão e temperatura.Há hoje um grande conjunto de evidências astronômicas associadas ao modelo FLRW (geometria FLRW + fluido cosmológico) a ponto de este ser chamado genericamente de 3 Alexander A. Friedmann foi o matemático russo que primeiro propôs, em 1922 e 1924, soluções das equações da TRG nas quais o Universo estava em expansão. O mesmo tipo de solução com expansão foi independentemente proposta pelo físico, matemático e padre belga Georges E.Lemaître (1894Lemaître ( - 1966 em 1927 e 1929. Lemaître também analisou as implicações físicas e chegou à conclusão de que poderia ter existido um átomo primordial a partir do qual o Universo teria se expandido. Em 1935 o matemático estadunidense Howard P.Robertson (1903Robertson ( -1961 e o matemático inglês Arthur G. Walker demonstraram independentemente que as soluções de Friedmann e Lemaître eram as mais gerais compatíveis com uma determinada classe de soluções matemáticas. modelo cosmológico padrão. Apesar de existirem modelos com outras geometrias, essas usam o modelo FLRW como referência.6 Conforme discutido acima, o modelo cosmológico padrão estabelece que (1) o Universo está em expansão. Tal foi comprovado empiricamente por Lemaître em 1927 e pelo astrônomo norte-americano Edwin P. Hubble em 1929. A descoberta da expansão do universo liquidou de vez com a credibilidade do primeiro modelo cosmológico estático proposto por Einstein em 1917, que hoje tem valor apenas histórico. A comprovação da expansão sugere (2) a evolução do Universo, resultado consistente com as observações de galáxias distantes em diferentes estágios de desenvolvimento. Os dados também nos mostram que (3) o Universo é isotrópico. Isotropia significa igualdade em todas as direções, ou seja, não existe diferença observacional ou teórica entre duas direções distintas. A contagem de galáxias em diferentes regiões do céu nos mostra empiricamente que não existe nenhuma direção privilegiada e o fato de existir uma radiação de fundo na frequência das micro-ondas, associada aos estágios iniciais do universo, a qual é detectada isotropicamente, fornece uma segunda evidência para a isotropia do universo. Dois grupos de evidências astronômicas também indicam que (4) o Universo passou por uma fase densa e quente. A primeira evidência é a própria radiação de micro-ondas, cuja melhor explicação é sua origem cosmológica e indica que a temperatura esteve mais alta no passado e, portanto, o universo foi mais quente. De acordo com o modelo FLRW, temperaturas mais altas estão vinculadas a maiores densidades, devido ao efeito reverso da expansão, isto é, no passado, o universo estava mais concentrado. A segunda fonte de evidência é a composição química da Terra, dos meteoritos, do sistema solar, das estrelas distantes e das galáxias. Esta composição é bem explicada pela existência de fusões nucleares em uma bola de fogo primordial, as quais produzem genericamente as abundâncias químicas observadas. Assim, a composição química observada seria resultado do processamento nuclear da matéria em uma época densa e quente. Por meio desse resultado pode-se estabelecer a (5) história térmica do universo a qual descreve as diversas fases de expansão e resfriamento. Há, finalmente, alguma evidência de que (6) o Universo é homogêneo. Métodos indiretos, provenientes da análise dos dados obtidos em telescópios e satélites artificiais, sugerem esta evidência.4. Conceitos Fundamentais da Cosmologia CientíficaQuando em 1917 Einstein assumiu que o Universo poderia ser tratado como um objeto único e empregou suas recém propostas equações do campo gravitacional obtidas na TRG para estudar a física do Universo, surgiu então uma nova disciplina científica, a cosmologia. Unicidade e totalidade passam a integrar o vocabulário da física, pois foi a primeira vez que a ideia de totalidade, presente até aquele momento apenas nas cosmologias mitológicas e filosóficas, ganhou uma consistente e coerente interpretação físico-matemática. O Universo transforma-se então em um objeto físico, passível de ser descrito e estudado por meio de grandezas físicas típicas como energia, pressão, densidade, temperatura, entre outras, e conceitos e métodos matemáticos e geométricos.Houve tentativas similares anteriores a Einstein, mas essas esbarraram em dificuldades, na época insuperáveis, devido a notória dificuldade da teoria gravitacional proposta por Isaac Newton (1642-1727), cerca de 250 anos antes de Einstein, em lidar com sistemas infinitos. discute o impacto da física Newtoniana na institucionalização das ciências sociais. Em suas palavras, "A ciência social foi institucionalizada no final do século XIX sob a sombra da dominação cultural da ciência Newtoniana. (...) Todas as ciências sociais, mas especialmente o trio economia, ciência política e sociologia tornaram-se crescentemente quantitativas e insistiam muito fortemente nas pressuposições de um universo social determinístico. O objeto da ciência social (...) era discernir leis universais similares àquelas que elas acreditavam a física foi capaz de estabelecer" (Wallerstein 2004, p. 38). Mais adiante, Wallerstein torna bastante claro como a metodologia teórica da física Newtoniana, ou seja, suas representações, foram vistas como úteis e acabaram sendo reinterpretadas pelas ciências sociais, as quais as adaptaram ao seu próprio contexto: "Aqueles que consideravam a ciência social (...) como em busca de leis universais, em geral argumentavam que não havia nenhuma diferença metodológica intrínseca entre o estudo científico dos fenômenos humanos e o estudo científico dos fenômenos físicos." "... historiadores foram pegos na idolatria da ciência Newtoniana. (...) Eles concebiam os fenômenos sociais como atômicos por natureza. Seus átomos eram os 'fatos' históricos. Esses fatos haviam sido registrados em documentos escritos, em grande parte localizados em arquivos. Eram empiricistas a um grau excessivo." (Wallerstein 2004, p. 74). 20 É interessante observar que a crítica de Wallerstein à abordagem metodológica tradicional das ciências sociais, conforme as citações acima, também se baseia em representações originadas na própria física, mas posteriores à física Newtoniana. Em suas palavras, "Todos sabemos muito bem que nos últimos 100 anos, e particularmente nos últimos 30 anos, esse modelo Newtoniano da ciência sofreu severo e sustentado ataque vindo de dentro do ventre do próprio monstro, de dentro da própria física e matemática. (...) Eu Wallerstein então usa as ideias desenvolvidas pelo físico-químico Ilya Prigogine (1917-2003), a cuja memória ele dedica seu livro, para contrapor a visão sociológica tradicional com as suas teorias baseadas no conceito de sistemas humanos mundiais históricos de longa duração, que evoluem e, ao decaírem, longe do equilíbrio, se bifurcam. "Ao levantar a bandeira da 'seta do tempo', ao afirmar que mesmo as menores unidades da matéria física têm uma trajetória histórica, uma que não pode ser ignorada, Prigogine não somente reforçou os cientistas sociais que sempre insistiram que não pode haver análise social que não seja histórica, como também transportou a ciência física para o terreno epistemológico central da ciência social. Ele renovou a clamor por uma ciência unificada". (Wallerstein 2004, p. 53)(Wallerstein 2004, p. 73). apenas indicarei os contra-slogans desse ataque: no lugar de certeza, probabilidades; no lugar de determinismo, caos determinístico; no lugar de linearidade, a tendência para se mover longe do equilíbrio em direção à bifurcação; no lugar de dimensões inteiras, fractais; no lugar de reversibilidade, a seta do tempo. E, eu acrescento, no lugar da ciência como fundamentalmente diferente do pensamento humanístico, ciência como parte da cultura". (Wallerstein 2004, p. 38). "O interesse da espiritualidade é muito diferente [daquele da ciência] -é conhecer e responder pessoal e comunalmente a Deus da maneira mais plena possível". (Stoeger 2002, p. 90). A preocupação central de Stoeger vem do fato de que os domínios do espiritual (teologia) e o natural (ciência) são diferentes. Estabelecer essa distinção é a sua primeira preocupação, "... vou examinar as leis da natureza -em especial sua posição ontológica -que acredito ser uma questão fundamental que precisa ser solucionada para haver progresso autêntico rumo à integração e para uma rearticulação fecunda da ação divina contra o plano de fundo de nossa descrição científica da natureza e seus processos." (Stoeger 2002, p. 21). Portanto, os objetos das ciências naturais não podem ser confundidos com os da religião. Em seguida Stoeger esclarece qual é o domínio de atuação da espiritualidade. "Estritamente falando, o conhecimento que se origina da espiritualidade não é tão especializado quanto o que se origina das ciências e é muito mais diretamente pessoal e social em sua origem, em sua relevância e em seu entrosamento (conseqüências). A espiritualidade diz respeito à nossa experiência e nossa resposta a esses elementos que funcionam como absolutos em nossas vidas conscientes, ou revelam o absoluto e dão sentido e orientação fundamentais à maneira como vivemos, como indivíduos e como comunidades". (Stoeger 2002, p. 88).Stoeger então adverte que a teologia e a religião não podem dar as costas aos desenvolvimentos e resultados obtidos pela ciência."... a maneira como interpretamos a Escritura, a filosofia e a teologia hoje indiretamente depende bastante dos avanços em muitas outras disciplinas, até mesmo nas ciências naturais e humanas."(Stoeger 2002, p. 86) A afirmação seguinte é bastante esclarecedora da proposta de Stoeger de que a base para o diálogo entre ciência e teologia está no fato de que em qualquer época todas as áreas do conhecimento humano se influenciam, pois participam de uma visão comum de mundo. "Nesse diálogo -e de fato em qualquer reflexão sobre o que ou a cosmologia ou a teologia está fazendo ou é capaz de fazer -a filosofia será um intermediário crucial, tanto ao nível da análise da linguagem comum como ao nível da epistemologia e metafísica. Isto decorre de que aqueles que estão envolvidos na pesquisa em cosmologia e aqueles envolvidos em teologia assumem importantes, embora normalmente inarticuladas, premissas acerca da realidade e nosso conhecimento dela, e ambos usam uma linguagem que reflete essas premissas mais profundas que são assumidas. Todos nós temos uma filosofia implícita. Para que o diálogo entre as duas comunidades seja frutífero, ele precisa abordar bem frequentemente a compatibilidade e aceitabilidade dessas premissas mais básicas do ponto de vista de ambas as disciplinas. Elas precisam ser submetidas a uma crítica permanente."(Stoeger 1989, p. 2,). • Marcelo Byrro Ribeiro &amp; Antonio Augusto Passos Videira, org.): ISBN 978-85-356-2768-8Cosmologia, uma Ciência Especial? Algumas Considerações sobre as Relações entre a Cosmologia Moderna, Filosofia e Teologia". Em "Teologia e Ciências Naturais. E. R. CruzSão PauloPaulinas• Marcelo Byrro Ribeiro & Antonio Augusto Passos Videira, "Cosmologia, uma Ciência Especial? Algumas Considerações sobre as Relações entre a Cosmologia Moderna, Filosofia e Teologia". Em "Teologia e Ciências Naturais": E. R. Cruz (org.): ISBN 978-85-356-2768-8, (São Paulo: Paulinas), 162-197, (2011); . • Marcelo Byrro Ribeiro &amp; Antonio Augusto Passos Videira, As Relações entre Ciência e Religião". Em Stoeger. ver abaixo• Marcelo Byrro Ribeiro & Antonio Augusto Passos Videira, "As Relações entre Ciência e Religião". Em Stoeger (2002; ver abaixo), Apresentação, pp. 9-19; O Problema da Criação na Cosmologia Moderna". Em "Mysterium Creationis -Um olhar Interdisciplinar sobre o Universo. • Marcelo Byrro Ribeiro &amp; Antonio Augusto Passos Videira, org.): ISBN 85-356-0575-4L. C. SusinPaulinasSão Paulo• Marcelo Byrro Ribeiro & Antonio Augusto Passos Videira, "O Problema da Criação na Cosmologia Moderna". Em "Mysterium Creationis -Um olhar Interdisciplinar sobre o Universo": L. C. Susin (org.): ISBN 85-356-0575-4, (São Paulo: Paulinas), 45-83, (1999); Cosmologia e Pluralismo Teórico. • Marcelo Byrro Ribeiro &amp; Antonio Augusto Passos Videira, 10.1590/S1678-31662004000400004Scientiae Studia. 2• Marcelo Byrro Ribeiro & Antonio Augusto Passos Videira, "Cosmologia e Pluralismo Teórico", Scientiae Studia, vol. 2, Nr. 4, 519-535, (2004) http://dx.doi.org/10.1590/S1678-31662004000400004 Boltzmann's Concept of Reality. • Marcelo, B Ribeiro, A P Antonio, Videira, arXiv:physics/0701308v1• Marcelo B. Ribeiro & Antonio A. P. Videira, "Boltzmann's Concept of Reality", arXiv:physics/0701308v1, (2007); Dogmatism and Theoretical Pluralism in Modern Cosmology. • Marcelo, B Ribeiro, A P Antonio, Videira, Apeiron. 5• Marcelo B. Ribeiro & Antonio A. P. Videira. "Dogmatism and Theoretical Pluralism in Modern Cosmology", Apeiron, vol. 5 (1998) 227-234; What Contemporary Cosmology and Theology Have to Say to One Another. • William, R Stoeger, CNTS Bulletin. 92• William R. Stoeger. "What Contemporary Cosmology and Theology Have to Say to One Another", CNTS Bulletin, vol. 9, number 2 (1989) 1-15. As Leis da Natureza -Conhecimento humano e Ação Divina. • William, R Stoeger, Tradução de Bárbara Theoto Lambert. Revisão de Marcelo Byrro Ribeiro e Antonio Augusto Passos Videira. Apresentação de Marcelo Byrro Ribeiro &• William R. Stoeger. "As Leis da Natureza -Conhecimento humano e Ação Divina". Tradução de Bárbara Theoto Lambert. Revisão de Marcelo Byrro Ribeiro e Antonio Augusto Passos Videira. Apresentação de Marcelo Byrro Ribeiro & . Antonio Augusto Passos Videira, 85-356-0821-4PaulinasSão PauloAntonio Augusto Passos Videira. ISBN 85-356-0821-4, (São Paulo: Paulinas), (2002) The Uncertainties of Knowledge. • Immanuel Wallerstein, 1-59213-243-XTemple University PressPhiladelphia• Immanuel Wallerstein. "The Uncertainties of Knowledge". ISBN 1-59213-243-X, (Philadelphia: Temple University Press), (2004) .
sample_1074
0.9403
arxiv
Novel Machine Learning Approach for Predicting Poverty using Temperature and Remote Sensing Data in Ethiopia Om Shah Lakeside School Krti Tallam Department of Ecology Stanford University 94305StanfordCA Novel Machine Learning Approach for Predicting Poverty using Temperature and Remote Sensing Data in Ethiopia Social SciencesSustainability Sciences Machine LearningPoverty ModelingClimate Change In many developing nations, a lack of poverty data prevents critical humanitarian organizations from responding to large-scale crises. Currently, socio-economic surveys are the only method implemented on a large scale for organizations and researchers to measure and track poverty. However, the inability to collect survey data efficiently and inexpensively leads to significant temporal gaps in poverty data; these gaps severely limit the ability of organizational entities to address poverty at its root cause. We propose a transfer learning model based on surface temperature change and remote sensing data to extract features useful for predicting poverty rates. Machine learning, supported by data sources of poverty indicators, has the potential to estimate poverty rates accurately and within strict time constraints. Higher temperatures, as a result of climate change, have caused numerous agricultural obstacles, socio-economic issues, and environmental disruptions, trapping families in developing countries in cycles of poverty. To find patterns of poverty relating to temperature that have the highest influence on spatial poverty rates, we use remote sensing data. The two-step transfer model predicts the temperature delta from high resolution satellite imagery and then extracts image features useful for predicting poverty. The resulting model achieved 80% accuracy on temperature prediction. This method takes advantage of abundant satellite and temperature data to measure poverty in a manner comparable to the existing survey methods and exceeds similar models of poverty prediction.Significance StatementAccording to the United Nations' Sustainable Development Goals, humanity's first and foremost goal is the elimination of worldwide poverty. Accurate, frequent poverty data is necessary for humanitarian organizations and policy makers to address poverty, especially in developing countries where a lack of poverty data has contributed to the uneven allocation of stimulus and resources. Without correctly directing resources to the impoverished, we cannot uplift communities out of cycles of poverty and successfully eliminate economic status as an obstacle to humanity's long-term success. The novel method to predict poverty discussed in this paper is essential to the critical need for poverty data in developing countries. Introduction There is a pressing need for inexpensive, abundant poverty data in developing nations. The United Nations' (UN) World That Counts publication reports the repercussions of lacking data are serious, ranging from a neglect of human rights to rapid environmental degradation. Sub-annual data is needed for countries to combat poverty through policy decisions, NGO funding, and effective disaster response. While sufficient poverty data is available for wealthy countries, through a combination of active and passive data sources, to properly accommodate humanitarian services, many developing countries face data shortages that limit their ability to serve at-risk communities [1]. The current prevailing data collection method, surveys, are time-consuming and expensive due to a variety of factors. Inefficient questionnaires decrease the quality of data collected while driving costs up. Furthermore, substantial portions of the population live in inaccessible rural areas making survey logistics difficult to plan [2]. Governments with strict budgeting requirements may not be willing to spend funds on employing survey personnel, or local leadership could harbor dissent towards data collection associated with a particular government or organization [3]. There is no consistent method for high quality data collection as any number of factors could impact proper execution. However, recent efforts focus on the use of machine learning to create poverty prediction solutions that utilize publicly available datasets and increase efficiency. Stanford University's Ermon Lab produced a machine learning transfer model that utilized nightlights as a proxy for urbanization and satellite imagery based image classification to support a poverty prediction task in multiple African countries. We extend the remote sensing based poverty mapping work researched by the Ermon Lab to examine the causal temperature-consumption relationship [4]. Causal relationships between consumption and consumption-determinators such as temperature are often viewed as downstream tasks [5]. In most cases, consumption-determinators are used to inform policy decisions after a deep learning model has been trained to predict consumption. It can be useful, however, to exploit the causal relationship directly in model training rather than as a corroboration of findings. Examining a singular causal relationship doesn't convey the full picture of poverty rates, but allows for segmenting determinants by their ability to explain variation in poverty rates. For example, organizations with climate focuses can direct resources towards areas most vulnerable to climate change, as seen through a temperature-consumption model. Monetary policy can be targeted towards economic relief for communities bearing the brunt of rising temperatures. An opportunity exists to solve the poverty data void through novel methods. The United Nations wrote in their 2020 World Social report that urbanization is linked to poverty: most of the world population in poverty live in rural areas. Migration from rural areas to urban areas can result in a reduction in poverty in many cases. However, the transfer of people between rural and urban areas is a long term effect and thus can only be measured through long term analysis [6]. We therefore look at a different cause of poverty linked to variance in regional poverty rates. For populations living in agricultural communities, climate change poses a greater threat. Rising global temperatures are drastically reducing crop harvest output in regions such as sub-saharan Africa where poverty rates exceed 40%, impacting families who rely on agricultural growth to escape poverty [7,8]. In addition to crop failures, high temperatures have also caused the evaporation of water sources and placed a financial burden on families to improve their roofing material [9,10]. What otherwise may have been a temporary period of low income and crop yields has transformed into long term financial distress. Global average temperature data can statistically represent the progress of climate change in the context of deep learning. Not only is temperature data abundant, but advances in satellite resolution have produced highly accurate climate datasets. However, by directly relating temperature data to poverty, we cannot assign weights to specific patterns between temperature and poverty. For example, visual patterns such as evaporating water sources or crop color combined with a high temperature correlation may indicate higher poverty rates than roof material. Remote sensing data is a potential data source for finding the strongest spatial links between temperature and poverty because satellite imagery can be collected instantaneously and inexpensively. Satellite data can measure a variety of natural and human developments such as water sources, roofing material, and crops, but also micro-features that are only a few pixels wide. Recent developments in machine learning tools and technology have increased computing efficiency for analyzing sophisticated forms of data such as satellite imagery. Machine learning models can be trained through indicators of climate change -namely temperature -to extract features from satellite imagery and produce meaningful poverty predictions. We propose using a transfer learning model trained on temperature data to extract features from satellite images and predict poverty in Ethiopia. While transfer learning is traditionally used to compensate for a lack of training data in a target problem, we utilize it as a way to introduce spatial observations of the indirect temperature-consumption relationship. The first step will predict temperature from satellite images to learn features useful in predicting poverty. The second step will extract a feature vector from the temperature model and use those features to linearly predict consumption, an economic indicator of poverty. Our three primary data sources are the satellite images, temperature data, and survey data. Satellite images are downloaded from the Google Static Maps API at a 16 factor zoom resolution. Temperature data is aggregated from WorldClim, a large scale climate database, at a 30 degree arc second resolution (approximately 1km by 1km). In this paper, average temperature refers to the average delta temperature between 1980 and 2016 for Ethiopia. Consumption per capita data is collected by the Living Standards Measurements Study (LSMS) 2016 socio-economic survey for Ethiopia. The first step of the transfer learning model predicts temperature from satellite images. A pretrained convolutional neural network (CNN) model predicts temperature from satellite images and outputs a trained model from which features can be extracted. The CNN model is pre-trained so it can skip over unnecessary training that learns basic image patterns recognized in most image recognition models [11]. The first layers of any CNN model will almost always find relationships in images such as edges and corners. To save time and energy on the computing device, we avoid retraining for elementary patterns. Feature extraction extracts the most useful features from each image and compiles a feature vector for the trained model [12]. In most image classification cases, feature extraction must be used because the sheer size of features from a large dataset of images can lead to unpredictable issues in later stages. Without feature extraction, the second part of the model trains on a noisy feature set and therefore produces a less accurate result. The second step of the model involves training a ridge regression model on the extracted feature set. Ridge regression, a form of linear regression, is used to fit the consumption per capita values to the feature set. Unlike standard linear regression, a ridge model adds a bias to the hypothesis function to reduce overfitting and create a function better suited for prediction [13]. This proves useful if we wish to implement the model in different geographic locations or with contrasting demographic data. We test the accuracy of our model using a five-fold cross validation model. With a standard holdout validation system, a model is tested using a limited set of test data which may introduce bias. The alternative method is a k-fold cross validation. Cross validation is a process of testing a model iteratively based on subsections of training data to ensure limited bias [14]. We limit bias because the model may have performed differently based on distinct geographic data trends within Ethiopia. The correlation of actual and predicted consumption values can be measured with an R^2 value, also known as the coefficient of determination. The R^2 value, a common metric in the machine learning and statistics fields, will inform us of the percentage of poverty rates in Ethiopia explained by the temperature model. Temperature data and satellite images from Ethiopia can be transformed into highly accurate poverty predictions through machine learning pattern analysis techniques. Methods The transfer learning model consists of two parts: predicting temperature using satellite images and predicting consumption from specific features of satellite images trained on temperature. Temperature data became a potential variable due to its relationship to poverty as an indicator of climate change. Only a specific range of temperatures -especially in developing countries -can support profitable crop yields, provide an environment with adequate water resources, and allow for unobstructed living [8,9,10]. In many places, the window of viable agricultural temperature is quickly closing in and water sources are rapidly depleting. We use temperature as a proxy for climate change and its impacts on poverty. Global average temperatures have been tracked by satellites for decades and their accuracy is getting more precise by year. The temperature data used in this paper has a spatial resolution of 30 arc seconds which equates to approximately a 1km by 1km resolution. While temperature data can be computed for any latitude and longitude in the world, consumption data can only be collected by various surveys that occur every couple of years on a household level. A survey that computes consumption per capita is the Living Standards Measurement Study (LSMS) that is conducted in numerous countries across the globe. Their initiative is linked with the World Bank making the dataset a reliable source of information. The data used in this paper is from the Socioeconomic Survey 2015-2016 in Ethiopia. Asset wealth was the targeted economic measure in other studies such as the one conducted by Yeh et al., where urbanization proxies such as nightlights are indicative of a net-positive collection of material resources by a population -roads, cars, building sizes. We chose to use consumption because the temperature-consumption relationship impacts the ability of households to achieve a net-positive income. Another benefit of using consumption data to test our model against is that we not only get the specific consumption values but also locations where those consumption values were collected. This is helpful because we don't have to find a separate list of latitudes and longitudes for where those consumption values may have been surveyed. Consumption is used as total consumption per capita, a popular metric of poverty in academia and industry applications [15]. We derive consumption per capita to normalize the consumption per individual which is a constant value in all locations instead of per household for which size can fluctuate. We calculate this by taking the total annual consumption of each household and dividing the value by the total number of household members. Procuring temperature data involves manipulating GeoTIFF data types and superimposing them onto the consumption data. WorldClim is an online repository of climate data from which we used average global temperature in degrees Celsius. A GeoTIFF file consists of an underlying map with embedded metadata [16]. TIFF files cover an entire area instead of specific locations like the LSMS survey. Due to this, any location derived from the LSMS data can be found in the TIFF file with its corresponding temperature. To further normalize the temperature data going into the model, a 10km by 10km bounding box around each location is created. We take the average temperature for this 100km^2 area instead of a single point at the latitude longitude provided by the survey data. For each location, in the form of latitude and longitude, from the LSMS survey, a consumption per capita value and average temperature value is assigned. This aggregated data is used to create specific download locations for the satellite images. To reciprocate taking the average temperature of a 10km by 10km bounding box, multiple images from each bounding box are taken instead of one image per box. This makes sure that there are enough training images for the model to predict temperature from validation images and subsequently predict consumption. Before downloading the images, a Gaussian mixture model is used to split the temperature data into three bins. Data binning is a pre-processing technique where data is placed into separate bins depending on their relation to measures of central tendency [17]. Each bin is represented by a central value of the data it covers, such as the mean. The mixture model segments any input data into n groups, similar to a k-means model. Each image location, for which an image will be downloaded, is assigned to a temperature bin based on its average temperature. This step will simplify the model so it only has to predict the temperature bin of a model instead of its exact temperature. Another benefit of using temperature bins is that they will remove any anomalies that may arise from the data due to isolated geographic events. This allows the long term temperature increase induced by climate change to shine through any noise. Alongside the original temperature and consumption data, the assigned temperature bin from the gaussian mixture model is added to the set of data points for each image. To download the images, we used the Google Static Image API. The only parameters needed by the API are latitude, longitude, and the zoom for the images. The API doesn't allow queries for specific timestamps, so the images downloaded were the most recent images taken by satellites. These images are likely <1 year old. We assume that model performance would increase if 2016 satellite images were downloaded. Once this step is complete, all images are downloaded to their respective locations on the hardware. The model used for predicting is a VGG-11 model pre-trained on ImageNet. The VGG CNN model achieved high accuracy at the 2014 ILSVRC and thus proved to be a viable model for predicting poverty [18]. We chose the VGG-11 model over newer architectures such as ResNet and VGG-19 as the experimental goal was to simply find notable features for classification into three bins. A more advanced model would not return an appropriate performance boost for the additional computing power needed. The numeral after VGG represents the number of weighted layers that each image will be passed through; in VGG-11, there are 11 weighted layers through which the satellite images will be passed. Any VGG model takes in an input image of 224 by 224 pixels. The first eight layers of the model are a combination of convolution and max pooling. These make up the convolutional layers of the VGG-11 model. Each convolutional layer throughout the entire course of the model uses 3x3 filters, the smallest group of pixels within the image, to train. Every layer, the number of filters doubles to increase the model's exposure to the image. The last three layers are dedicated to a fully connected neural network and a softmax activation function. The first two fully connected layers have 4096 channels each while the third layer has 1000 channels. The model outputted a temperature bin prediction for each image. We used a 20 epoch distribution for training the model. Out of the 20 epochs, ten will be used to train the last few layers while the rest will be used to train the entire model. We didn't have to dedicate all the layers because the first layers are pretrained. This highlights the benefit of using a pretrained model to efficiently utilize compute and memory. After the 20 epochs of training are complete, the next step is to extract features from the trained model. The model was trained on a batch size of 8. Additionally, we introduced augmentation and normalization functions to the model to vary input data. Augmentation involves performing minor edits such as flipping, reflecting, or color grading on images [19]. This increases the number of unique training data that the model receives on which it can train. Normalization takes a set of data and fits it into a given range. We must use normalization because larger values intrinsically have a greater impact on the model than smaller values. Normalization ensures there is no imbalanced influence of the training data on the model. Feature extraction is a critical step to analyzing the output of the trained model. The VGG-11 CNN model generates thousands of features from satellite images it finds important for predicting temperature. However, many of these features are discardable and limit the efficiency of the predictions [12]. To select what features we want to use, we must pass the model through a feature extraction process. The model used to extract features is a sequential classifier with only the first four layers. From the first layer, 25,088 features are taken as an input and by the last layer, 4096 features are outputted for each image. After the sequential layers, all remaining features are aggregated and compiled into a single feature vector for predicting consumption. Predicting consumption from the extracted features is conducted through ridge regression. We avoid optimizing the ridge model parameters and architecture as a performance boost to the training is unnecessary. The experiment focuses on measuring the linear relationship between temperature and poverty that inspired the use of ridge regression rather than pushing the boundaries on performance. Ridge regression models add penalties, called a bias, to the hypothesis to avoid overfitting the data and its outliers. By adding penalties, the model performs with greater accuracy on new data. This is ideal because there are still locations where poverty has not been predicted with the model. Ridge models consist of a cost function to calculate the mean squared error differences between predicted and actual output values for each training example. The squared magnitude of all coefficients is added to the overall cost function to skew any produced coefficients toward a higher cost [13]. It is important to note that the square magnitude is first multiplied by the optimal learning rate, alpha, before being added to the overall cost. This allows for faster fitting to the data. For each cluster of training images, multiple images from a similar location in Ethiopia, there is a 4096-feature vector. The feature vectors of all clusters are scaled to create a consistent set of training variables. The training variables are fed into a ridge regression model instantiated by pre-built machine learning libraries, which in this case is scikit-learn. The best alpha for the ridge model is found by iterating over a possible set of hard coded alphas and feeding them into the ridge model. The best alpha is the value which produces the highest R^2 value. Finding the accuracy of predicting consumption to track poverty is the final piece of the transfer learning model. We use a five fold cross validation model to test the performance of the trained ridge model; the five fold cross validation model used is a variant of industry standard k-fold cross validation. Instead of validating the model on a part of the data reserved solely for validation purposes, the data is segmented into k chunks. Holdout is performed on each chunk iteratively and the mean squared error is averaged over each fold [13]. With k-fold cross validation, each piece of training data will be trained on k-1 times and validated with k times. The primary reason for using k-fold cross validation is to limit any selective bias that may occur when separating the training data from validation data. We used a five-fold model because it balances out computational time with the least bias from the training data. Finally, the results of the five fold cross validation are graphed out. The trained model displayed an accuracy of 80% over all iterations conducted in 20 epochs for predicting temperature. During the five fold cross validation phase, the model achieved an R^2 score of 0.20. The R^2 score was calculated by dividing the residual sum of squares by the total sum of squares and subtracting the resulting value from 1. As seen by the graph, the predicted function should be as close to the equation f(x)=x as possible; this shows that every predicted consumption value is as close as possible to the actual consumption value. Results The temperature model correctly identifies trends throughout Ethiopia where poverty is high. As a whole, the model matches the actual consumption data in spatial poverty mapping: the northern regions have higher poverty rates than southern regions with the exceptions of outliers. The temperature model can be validated by established indicators of poverty such as NDVI [20] and population data. We ran two additional models using these variables to compare to the accuracy of the temperature model. Normalized difference vegetation index (NDVI), is calculated by measuring the difference between near-infrared light and red light. The data values have a range of -1 to 1. NDVI was used because it can serve as an indicator of land health, soil fertility, and rainfall. Due to this, it proves to be an indicator of poverty most similar to temperature data because both variables consider agriculture as a primary source of sustenance of families. NDVI data was collected from the Google Earth Engine software in the form of a TIFF file. The data was imposed onto individual download locations and matched with consumption data in a similar process as detailed above. NDVI ran through the complete pipeline and achieved an accuracy of 71.07% for the temperature prediction task with an R^2 score of 0.04 for predicting consumption. Like NDVI, population data was also collected using the Google Earth Engine in the TIFF format. Training on population data takes a different approach to predicting poverty. Instead of looking for the impacts of climate change, it's an indicator of urbanization and migration. After running through 20 epochs, the model received an accuracy of 70.05% for the temperature prediction task with an R^2 score of 0.05 for predicting consumption. The results of both of these models demonstrates the validity of temperature data and its expertise in predicting poverty. Conclusion While NDVI and population data offer important insights into the performance of alternative models, average temperature still reigns in terms of model performance and its global links to poverty. NDVI has real world ties to crop output and climate change, but it may lead to incorrect model assumptions with a vastly different geographic setting. Despite being located in a desert, with little to no vegetation, many North-African and developed Middle Eastern countries have a poverty rate at or lower than 30%. The visible geographic differences are too literal for accurately predicting poverty across a variety of environments. With population, another issue may arise. Populations for individual regions are primarily calculated through state-run surveys that happen every decade or so. In the off-years when surveys are not being conducted, large migratory patterns could arise and disappear. Another problem is that timely and accurate population data from any given year cannot be fed into the model. This nullifies the purpose of switching to a remote sensing based model where images are available readily and through a variety of data sources. In comparison to Yeh et al, our model solely focuses on the transfer learning method of poverty prediction. The transfer learning approach was intuitively thought to bolster the inherent benefits of using satellite imagery over a direct linear regression prediction. In Yeh et al, transfer learning was found to perform worse compared to a complete end-to-end model based on nightlights. The increased performance of an end-to-end model in the study points to the transfer learning discarding important spatial features critical to predicting poverty. In a future study, we wish to implement this approach to analyze the benefits of directly measuring poverty without a transfer step. The results from the temperature model therefore represent the best version of poverty tracking conducted within this study and on track to achieving the results of nighttime imagery models. The model was applied to predict Ethiopia's poverty, but the model has the ability to be used in any geographic location due to the ubiquitous access of temperature data. Temperature data does have its own caveats: notably, climatic anomalies can impact short term poverty tracking. Additionally, surveys excel in raw performance compared to our temperature model because it collects absolute poverty statistics directly from households, without the added noise created by machine learning algorithms. However, the demonstrated use of tracking regional poverty trends proves that the temperature model approaches survey data's poverty tracking performance Furthermore, the model is reproducible because the only data needed is temperature data and satellite imagery, widely available through organizations such as NOAA or Google. The model tested in this study is a simpler and accurate alternative to the expensive surveys of today. Given the shortcomings of a temperature model, we believe that the model performance may be increased through data collection improvements. While spatial average was conducted via a clustering system, temporal averaging can also be conducted by utilizing more data. WorldClim's averaged monthly datasets can be used to limit the effect of climatic anomalies on the model. Thus, the CNN model would train on an intra-annual subset of data. Additionally, the model's three data sources -satellite data, temperature data, and consumption data -have gaps in their collection time periods. Satellite data is the most recent, taken within 1 year, while temperature data and consumption data are from the same time periods. Shifting to the use of Google Earth Engine would allow us to control the time parameter of image queries to better align with the temperature and consumption data. These changes would increase the performance of our model when regressing. In addition to altering the data collection methods, expanding the study to additional countries would allow us to test the temperature model's generalizability. In this study we prefer generalizing, both in CNN training and ridge training, as a way to reduce overfitting in Ethiopia's own distinct climate and procuring unbiased model results. When including other countries in a future study, an additional step would need to be taken to ensure that a variety of economic regions and climates are being counted to avoid a strict adherence to the high-temperature high-poverty scenario. There may be countries at risk from climate change but with resources available to actively fight against it or countries not affected by climate change but instead other poverty determinants such as access to education, healthcare, and a robust political system. Categorizing these scenarios and representing them through inclusive datasets is critical to extrapolating the predictions of the temperature model. The ubiquitous nature of data collected actively and passively has the potential to build a greater understanding of demographics in countries where wealth and consumption data is lacking. However, the same data sources may fuel a struggle for data sovereignty and ethical implications. This warrants a minor discussion of the implications of global, instantaneous, data-driven poverty predictions. In this study, poverty is viewed through the lens of annual consumption which is a predominantly capital-driven view of community status. In certain communities, a welfare ranking may function as a more inclusive framework for analyzing poverty. Welfare-based studies also take into consideration agricultural communities that practice subsistence farming, growing only as much food needed to support their household. To properly acknowledge the various types of global lifestyles, it is important to present poverty and consumption predictions within the historical context of a community. Using a transfer learning model utilizing high resolution remote sensing data and global average temperature data, we accurately predict poverty in Ethiopia. A convolutional neural network based on the advanced VGG-11 standard is trained on temperature data to intrinsically detect features in satellite images that could be useful for predicting poverty. These features are aggregated to produce fully-fledged poverty estimates comparable -and in some cases even exceeding -in accuracy to other established poverty tracking methods. This novel method cuts down on crucial time needed to collect survey data and enables a more efficient process for maintaining poverty standards in developing nations. This technology has the full potential to revolutionize how countries and organizations work across the globe to address poverty. Figure 1 . 1The results of the cross validation model are shown with the actual consumption per values plotted on the x-axis and the predicted consumption per capita values plotted on the y-axis. The R^2 value represents the amount of variance of the dependent variable that can be explained by the independent variable. Figure 2. The scale indicates normalized total consumption per capita for each administrative zone in Ethiopia for actual versus predicted consumption (left and right respectively) at LSMS survey locations. Model performance in administrative zones is important for organizations and committees to pinpoint specific regions where poverty needs to be addressed. Competing InterestsWe declare no competing interests.Appendix: Code AvailabilityCode for this research was adapted from the pythonification work of Jean et al. by Jatin Mathur to examine the temperature-consumption relationship. All work is available at: https://github.com/omshah2006/Predicting-Poverty-Ethiopia A World That Counts: Mobilizing The Data Revolution for Sustainable Development. New York, USAUN Data Revolution GroupReportUN Data Revolution Group, "A World That Counts: Mobilizing The Data Revolution for Sustainable Development," New York, USA. Report. 2014. Poverty Monitoring Under Acute Data Constraints: A Role for Imputation Methods?" Inequality Matters. P Lanjouw, N Yoshida, P. Lanjouw, and N. Yoshida, "Poverty Monitoring Under Acute Data Constraints: A Role for Imputation Methods?" Inequality Matters, Nov. 2021. Improving the Quality of Data and Impact-Evolution Studies in Developing Countries. G Stecklov, A Weinreb, Washington, D.C., USAReport. IDB-TN-123Inter-American Development BankG. Stecklov, and A. Weinreb, "Improving the Quality of Data and Impact-Evolution Studies in Developing Countries," Inter-American Development Bank, Washington, D.C., USA. Report. IDB-TN-123, pp. 34-53, May 2010. Transfer Learning from Deep Features for Remote Sensing and Poverty Mapping. X Michael, J Neal, B Marshall, D Lobell, S Ermon, 30th AAAI Conference on Artificial Intelligence. X. Michael, J. Neal, B. Marshall, D. Lobell, and S. Ermon, "Transfer Learning from Deep Features for Remote Sensing and Poverty Mapping," 30th AAAI Conference on Artificial Intelligence, 2016. Using publicly available satellite imagery and deep learning to understand economic well-being in Africa. C Yeh, A Perez, A Driscoll, 10.1038/s41467-020-16185-wNature Communications. 11C. Yeh, A. Perez, A. Driscoll, et al, "Using publicly available satellite imagery and deep learning to understand economic well-being in Africa," Nature Communications 11, 2583, 2020 DOI: 10.1038/s41467-020-16185-w . World Social Report: Inequality in a Rapidly Changing World. UN Department of Economic and Social AffairsReportUN Department of Economic and Social Affairs, "World Social Report: Inequality in a Rapidly Changing World," New York, USA. Report. 2020. Climate Change, Agriculture and Poverty. T W Hertel, S D Rosch, AAEA Applied Economics Perspectives and Policies Journal. T. W. Hertel, and S. D. Rosch, "Climate Change, Agriculture and Poverty," AAEA Applied Economics Perspectives and Policies Journal, pp. 4-7, November 2010. Climate Change and Economic Growth: Evidence from the Last Half Century. M Dell, B F Jones, B A Olken, 10.3386/w14132National Bureau of Economic Research. M. Dell, B.F. Jones, and B.A. Olken, " Climate Change and Economic Growth: Evidence from the Last Half Century," National Bureau of Economic Research, June 2008. DOI: 10.3386/w14132 The other side of sea level change. M Prange, T Wilke, F P Wesselingh, Commun Earth Environ. 169M. Prange, T. Wilke, and F. P. Wesselingh, "The other side of sea level change," Commun Earth Environ vol. 1, no. 69, December 2020. Improving Thermal Comfort in Low-income Tropical Housing: The Case of Uganda. A Hashemi, H Cruikshank, A Cheshmehzangi, ZEMCH 2015 International Conference. Lecce ItalyA. Hashemi, H. Cruikshank, A. Cheshmehzangi, "Improving Thermal Comfort in Low-income Tropical Housing: The Case of Uganda," presented at ZEMCH 2015 International Conference, Lecce Italy, 2015. Pre-trained models: Past, present and future. X Han, AI Open. 2X. Han et al, "Pre-trained models: Past, present and future," AI Open, vol. 2, pp.. 225-250, 2021. Feature Extraction: A Survey of the Types, Techniques, Applications. A O Salau, S Jain, 2019 International Conference on Signal Processing and Communication (ICSC). A. O. Salau and S. Jain, "Feature Extraction: A Survey of the Types, Techniques, Applications," 2019 International Conference on Signal Processing and Communication (ICSC), 2019, pp. 158-164. Ridge Regression: Biased Estimation for Nonorthogonal Problems. A E Hoerl, R W Kennard, Technometrics. 121A.E. Hoerl, and R.W. Kennard, "Ridge Regression: Biased Estimation for Nonorthogonal Problems," Technometrics, vol. 12, no. 1, pp. 55-67, 1970. Cross-Validation. D Berrar, Encyclopedia of Bioinformatics and Computational Biology. Cambridge, MAAcademic PressD. Berrar, "Cross-Validation," in Encyclopedia of Bioinformatics and Computational Biology, Cambridge, MA: Academic Press, 2019, pp. 542-545. Household Surveys, Consumption, and the Measurement of Poverty. A Deaton, Economic Systems Research. 152A. Deaton, "Household Surveys, Consumption, and the Measurement of Poverty," Economic Systems Research, vol. 15, no. 2, pp. 135-159, 2003 The GeoTiff data interchange standard for raster geographic images. N Ritter, M Ruth, International Journal of Remote Sensing. 187N. Ritter, and M. Ruth, "The GeoTiff data interchange standard for raster geographic images," International Journal of Remote Sensing, vol. 18, no. 7, pp. 1637-1647, 1997. Parsimonious Gaussian mixture models of general family for binned data clustering: Mixture approach. J Wu, H Hamdan, 2012 IEEE 10th International Symposium on Applied Machine Intelligence and Informatics (SAMI). J. Wu, and H. Hamdan, "Parsimonious Gaussian mixture models of general family for binned data clustering: Mixture approach," 2012 IEEE 10th International Symposium on Applied Machine Intelligence and Informatics (SAMI), 2012, pp. 283-288. Very deep convolutional networks for large-scale image recognition. K Simonyan, A Zisserman, arXiv preprintK. Simonyan, and A. Zisserman, "Very deep convolutional networks for large-scale image recognition," arXiv preprint, 2014. The Effectiveness of Data Augmentation in Image Classification using Deep Learning. L Perez, J Wang, arXiv preprintL. Perez, and J. Wang, "The Effectiveness of Data Augmentation in Image Classification using Deep Learning," arXiv preprint, 2017. Predicting poverty with vegetation index. B Tang, Y Liu, Y Sun, D S Matteson, AAEA Applied Economic Perspectives and Policies Journal. B. Tang, Y. Liu, Y. Sun, and D.S. Matteson, "Predicting poverty with vegetation index." AAEA Applied Economic Perspectives and Policies Journal, pp. 1-16, 2021.
sample_1079
0.5304
arxiv
Effect of Rain Scavenging on Altitudinal Distribution of Soluble Gaseous Pollutants in the Atmosphere Tov Elperin Department of Mechanical Engineering The Pearlstone Center for Aeronautical Engineering Studies Ben-Gurion University of the Negev P. O. B. 65384105Israel Andrew Fominykh Department of Mechanical Engineering The Pearlstone Center for Aeronautical Engineering Studies Ben-Gurion University of the Negev P. O. B. 65384105Israel Boris Krasovitov Department of Mechanical Engineering The Pearlstone Center for Aeronautical Engineering Studies Ben-Gurion University of the Negev P. O. B. 65384105Israel Alexander Vikhansky School of Engineering and Material Science University of London Mile End RoadE1 4NSLondonQueen MaryUK Effect of Rain Scavenging on Altitudinal Distribution of Soluble Gaseous Pollutants in the Atmosphere 1 We suggest a model of rain scavenging of soluble gaseous pollutants in the atmosphere. It is shown that below-cloud gas scavenging is determined by non-stationary convective diffusion equation with the effective Peclet number. The obtained equation was analyzed numerically in the case of log-normal droplet size distribution. Calculations of scavenging coefficient and the rates of precipitation scavenging are performed for wet removal of ammonia (NH 3 ) and sulfur dioxide (SO 2 ) from the atmosphere. It is shown that scavenging coefficient is non-stationary and height-dependent. It is found also that the scavenging coefficient strongly depends on initial concentration distribution of soluble gaseous pollutants in the atmosphere. It is shown that in the case of linear distribution of the initial concentration of gaseous pollutants whereby the initial concentration of gaseous pollutants decreases with altitude, the scavenging coefficient increases with height in the beginning of rainfall. At the later stage of the rain scavenging coefficient decreases with height in the upper below-cloud layers of the atmosphere. Introduction Predicting chemical composition of the atmosphere and elucidating processes which affect atmospheric chemistry is important for addressing problems related to air quality, climate and ecosystem health. Wet deposition is very important in the removal of gaseous pollutants from the atmosphere, and thus strongly affects global concentration of gaseous pollutants in the atmosphere of Earth. Atmospheric composition is controlled by natural and anthropogenic emissions of gases, their subsequent transport and removal processes. Wet deposition, including below-cloud scavenging by rains, is one of the most important removal mechanisms that control the distribution, concentration and life-time of many gaseous species in the atmosphere. Rains, through the below-cloud scavenging and aqueous-phase processes, alter the chemical composition of the atmosphere on a global scale (see, e.g. Zhang et al. 2006). Inorganic nitrogen in wet deposition is a significant source of nutrients for phytoplankton and has a direct impact on the health of estuaries and coastal water bodies (see, e.g. Mizak et al. 2005). Negative impact of 2 SO on visibility was indicated, e.g. by Watson (2002), Green et al. (2005) and by Tsai et al. (2007). NH in a sea water whereby the ocean acts as a sink of soluble gases (see Georgii and Müller 1974;Georgii 1978). Information scavenging of these gases by rains. Hales (1972Hales ( , 2002, Hales et al. (1973) and Slinn (1974) considered removal of soluble pollutant gases from gas plumes. Hales (1972Hales ( , 2002 and Hales et al. (1973) assumed that concentration of the dissolved gas in a droplet is equal to concentration of saturation in liquid, corresponding to concentration of a trace soluble gas in the atmosphere at a certain height. Hales (1972) showed that if a drop falls through a plume and emerges into a clean air before reaching the ground, it may release most of the soluble gaseous pollutants that has been removed from more polluted regions. The significance of this effect is lowering the altitude of the regions with increased concentration of soluble gaseous pollutants under the influence of rain. Hales (2002) Stefan and Mircea (2003), Slinn (1977), Calderon et al. (2008), Asman (1995), Mircea et al. (2000Mircea et al. ( , 2004, Kumar (1985), Levine and Schwartz (1982), Dana et al. (1975), Elperin and Fominykh (2005). Asman (1995) investigated absorption of highly soluble gases by rain using the approximation of infinite solubility of absorbate in the absorbent and assuming that distribution of soluble gas in the atmosphere during the rain is time-dependent and uniform. The latter assumption allowed calculating numerically the dependence of the scavenging coefficient on the rainfall rate in the atmosphere. Power law dependence of the scavenging coefficient on the rainfall rate for ammonia absorption by rain, which was predicted by Asman (1995) theoretically, was confirmed experimentally by Mizak et al. (2005). All the above studies did not account for the dependence of scavenging coefficient on height, time and initial profile of soluble gas in the atmosphere. In this study we investigate the influence of the altitude absorbate inhomogenity in a gaseous phase on the rate of soluble gas scavenging by falling rain droplets. The problem is reduced to the equation of nonstationary convective diffusion with the effective Peclet number that depends on droplets size distribution (DSD). The obtained equation was solved numerically for log-normal DSD with Feingold-Levin parameterization (Feingold and Levin, 1986), and time and altitude dependence of the scavenging coefficient was analyzed. Description of the model In this study we consider absorption of a moderately soluble gas from a mixture containing inert gas by falling rain droplets. At time t = 0 rain droplets begin to fall and absorb gaseous pollutants (trace gases) from the atmosphere. It is assumed that the initial concentration of the dissolved trace gas in rain droplets is equal to the concentration of saturation in liquid corresponding to concentration of a trace soluble gas in a cloud and that the initial distribution (at time t = 0) of soluble trace gas in the atmosphere is known. It must be noted that for moderately soluble gases, only a small fraction of the gas dissolves in the cloud water. Therefore the concentration of the moderately soluble gas in the interstitial air in a cloud is close to the concentration of the soluble gas in the below-cloud atmosphere immediately adjacent to the cloud. Since the residence time of droplets in the cloud is large, the equilibrium is established between the concentration of a moderately soluble gas in the interstitial air and concentration of the dissolved gas in the cloud droplets (see Asman 1995). The goal of this study is to determine an evolution of concentration distribution of soluble trace gases in the atmosphere below the cloud under the influence of gas scavenging by falling rain droplets. Our analysis is not restricted to gases with low solubility and is valid for all gases which obey Henri's law. The suggested model is not constrained by a magnitude of a gradient of the soluble trace gas concentration in a gaseous phase. Following the approach suggested by Hales (1972Hales ( , 2002 and Hales et al. (1973), time derivative of the mixed-average concentration of the dissolved gas in a falling droplet can be written as follows: ( ) ( ) ( ) ( ) L G D L c mc dt dc − = τ 1 ,(2)⋅ ⋅ + = ,(3)where G d u ν / Re ⋅ = , G G D / Sc ν = . For small D τ Eq. (2) yields: ( ) ( ) ( )         − = t d c d c m c G D G L τ .(4) Total concentration of soluble gaseous pollutant in gaseous and liquid phases reads: ( ) ( ) ( ) L G c c c φ φ + − = 1(5) As can be seen from the Eq. (4) in the case when ( ) ( ) 1 << t d c d c G G D τ Eqs (4)-(5) yield: ( ) [ ] φ φ m c c G + − = ) 1 ( ,(6) where φ -volume fraction of droplets in the air. The total flux of the dissolved gas transferred by rain droplets is determined by the following expression: ( ) L c u q c ⋅ ⋅ = φ ,(7) where u -velocity of a droplet, ( ) L c -concentration of dissolved gas in a droplet. Using Eqs. (4) and (7) we obtain: ( ) ( )         − = t d c d c u m q G G D c τ φ .(8) Equation of mass balance for soluble trace gas in the gaseous and liquid phases is as follows: z q t c c ∂ ∂ − = ∂ ∂ .(9) Combining Eqs. (4) -(9) we obtain the following convective diffusion equation: ( ) ( ) ( ) 2 2 z c D z c U t c G G G ∂ ∂ = ∂ ∂ + ∂ ∂ ,(10)0 = t , ( ) ) (z f c G = (11) 0 = z , ( ) ( ) G G c c c 0 , = ,(12)L z = , ( ) 0 = ∂ ∂ z c G ,(13) where L -distance between the ground and the lower and U is the "wash-down" front velocity. Equation (10) implies that trace gas in the atmosphere is scavenged with a "wash-down" velocity U and is smeared by diffusion. Equations (10) -(13) can be rewritten in the following form: ( ) ( ) ( ) 2 2 Pe 1 η η ∂ ∂ ⋅ = ∂ ∂ + ∂ ∂ G G G C C T C (14) 0 = T , ( ) ) (η f C G = ,(15)0 = η , ( ) 1 = G C ,(16)1 = η , ( ) 0 = ∂ ∂ η G C ,(17) Where D UL / Pe = , L tU T / = , ( ) ( ) ( ) G G G c c c C 0 , = . Assuming that the dependence of the terminal fall velocity of a liquid droplet depends on its diameter is as follows (see Kessler, 1969): 2 1 1 d c u ⋅ = ,(18)0 = T , ( ) ( ) ( ) ( ) η ⋅ − + = 1 1 0 , 0 , G G G c gr c c C .(20) Results and discussions The cloud. Note that for gaseous pollutants their concentration at the ground is always larger than the concentration in a cloud (see e.g., Georgii and Müller, 1974;Georgii, 1978;Gravenhorst et al., 1978). Figs. 1-2 shows that the thickness of the layer "washed down" by precipitation strongly depends on the rainfall amount and also depends on the gas solubility. Inspection of Using the obtained numerical solution of the equation (14) with the boundary conditions (15)- (17) we also calculated the scavenging coefficient for soluble trace gas absorption from the atmosphere: 8 ( ) ( ) t c c G G ∂ ∂ − = 1 Λ .(22) The dependence of the scavenging coefficient vs. altitude in the case of ammonia wash out is shown in intensity are plotted for the early stage of rain (Fig. 5) as well as for the advanced stage of rain (Fig. 6). Figs. 3 -4. As can be seen from these plots the scavenging coefficient increases with rain intensity increase. In spite of the numerous theoretical calculations and measurements of scavenging coefficient available in the literature (see e.g., Beilke, 1970;Sperber and Hameed, 1986;Shimshock and De Pena, 1989;Renard et al., 2004;Mizak et al., 2005) the In particular, for wet deposition of ammonia very different values of scavenging coefficient are reported in the literature, in the range from less that 10 -5 (s -1 ) (Sperber and Hameed, 1986) to larger than 10 -3 (s -1 ) (in Mizak et al., 2005) are reported. This large scatter of data is mentioned in several studies and reviews (see e.g., Renard et al., 2004). Conclusions In this study we developed a model for scavenging of soluble trace gases in the atmosphere by rain. It is shown that gas scavenging is determined by non- about the evolution of the vertical profile of soluble gases with time allows calculating fluxes of these gases in an the ABL. Vertical transport of soluble gases in the ABL is an integral part of the atmospheric transport of gases and is important for understanding the global distribution pattern of soluble trace gases. An improved understanding of the cycle of soluble gases is also essential for the analysis of global climate change. Clouds and rains play essential role in vertical redistribution these gases. At the same time the existence of vertical gradients of the soluble gases in the atmosphere affects the rate of gas absorption by rain droplets (see Elperin et al. 2009). Note that the existing models of global transport in the atmosphere do not take into account the influence of rains on biogeochemical cycles of different gases. In spite of a large number of publications devoted to soluble gases scavenging by clouds (see, e.g., Elperin et al. 2007 and Elperin et al. 2008 and references therein) there are only a few studies on U u >> . The term in the right-hand side of Eq. (10) arises because we do not make a simplifying assumption about equality between the instantaneous concentration of the dissolved gas in a droplet and concentration of saturation in liquid corresponding to the concentration of a trace soluble gas in an atmosphere at a given height. In other words, Eq. (10) is valid when a characteristic diffusion time and a characteristic time of concentration change in a gaseous are of the same order of magnitude. For examplethe soluble gaseous species are molecularly dissolved in water droplets, and the molecules of these species do not dissociates into ions in the liquid phase (see Seinfeld and Pandis 2006, Chapter 7). The initial and boundary conditions for Eq. (10) are as follows: boundary of a cloud. Equation of non-stationary convective diffusion (10) with initial and boundary conditions (11) -(13) (see, e.g. Leij and Toride 1998) describes evolution of solvable trace gas distribution in the atmosphere under the influence of rain. Equation (13) is a condition of ground impermeability for soluble gases. The volume fraction of a liquid phase φ in Eq. (10) determines the intensity of rain, φ u R = Pe . If the initial distribution of a trace gas in the atmosphere is linear, the boundary condition given by Eq. (15) becomes Fig. 1 . 1above model of atmospheric trace gases scavenging by liquid precipitation was applied to study the evolution of trace soluble gas concentration in the atmosphere caused by rain. Results of numerical solution of Eqs. (14) -(17) with linear initial distribution of soluble trace gas in Evolution rain. Wet removal of soluble gases from the atmosphere strongly depends on the raindrops diameter that is determined by droplet size distribution (DSD). In our calculations we assumed the log-normal size distribution of raindrops with Feingold and Levin parameterization (Feingold and Levin, 1986) based on the long-time measurements of rain drops size spectra in Israel: Figs. 1 and 2 shows that the larger is the solubility of the trace gas in water, the smaller it is the quantity of precipitation required to washout it. For instance, inspection of Fig. 1 reveals that approximately 600 mm of precipitation can wash out 1 km of atmosphere from the ammonia gas. At the same time for wet removal of sulfur dioxide from the atmosphere of the same altitude the considerably higher amount of precipitation is required. Fig. 2 . 2Evolution of sulfur dioxide distribution in the atmosphere caused by rain scavenging In the calculations the initial concentration of dissolved trace gas in rain drops is assumed equal to the concentration of saturation in a liquid corresponding to the concentration of a trace soluble gas in a cloud. Therefore the soluble gas in the belowcloud atmosphere can be washed down only up to the concentration of soluble gas in the interstitial air in a Fig. 3 . 3Dependence of scavenging coefficient vs. altitude for ammonia wash out (linear initial distribution of ammonia in the atmosphere studies have showed that the scavenging coefficient which is measured or calculated under the assumption of the uniform soluble trace gas distribution may not accurately predict wet deposition of soluble trace gases in the presence of a gradient of concentration of trace gases in the atmosphere (see e.g. Assman, 1995; Mizak et al., 2005; Calderon et al., 2008). The suggested model takes into account the initial concentration gradient of soluble species in trace gas concentration in the atmosphere. Fig. 4 . 4Dependence of scavenging coefficient vs. altitude for ammonia wash out (linear initial distribution of ammonia in the atmosphere be seen from these plots the scavenging coefficient increases with the increase of the soluble species concentration gradient. The analysis of the plots on Figs. 3 -4 shows that the high values of the scavenging coefficient Λ in the below-cloud atmosphere immediately adjacent to the cloud at the early stage of a rain is explained by high rates of gas absorption by falling rain droplets. High rates of mass transfer between the rain droplets and soluble gas are caused by thin concentration boundary layers in droplets and in a gaseous phase at the initial stage of gas-liquid contact. For linear profile of soluble gas in the atmosphere, at the early stage of a rain, the scavenging coefficient increases with height. in an atmosphere with a non-uniform initial concentration profile of soluble gas is constant. Therefore the rate of change of concentration in a gaseous phase ( ) t c G ∂ ∂ / is constant. At the same height at the early stage of rain whereby the initial concentration profile of the soluble gas in the atmosphere is not disturbed significantly. Scavenging of soluble gas begins in the upper atmosphere and the front of scavenging propagates downwards with the "wash down" velocity that is proportional to Henry's constant and rain intensity (see Eq. 10). Concentration of a soluble gas in the below-cloud layer decreases to the concentration of a soluble gas in the interstitial air in a cloud. The subsequent rain droplets fall in the below-cloud atmosphere without absorbing soluble gas. This explains the decrease of the scavenging coefficient in the upper below-cloud layers of the atmosphere at the later stages of rain whereby the initial concentration profile of the soluble gas in the atmosphere changes significantly. Note that the soluble gas in the below-cloud layer is washed out only to the concentration of the soluble gas in the interstitial air in a cloud. At the ground the value of the scavenging coefficient increases with time because the concentration at the ground decreases faster than the rate of concentration change. Dependences of scavenging coefficient on the rate of precipitation are shown in Figs. 5 and 6. The dependences of the scavenging coefficient on rain Fig. 5 . 5Dependence of scavenging coefficient vs. rain intensity for ammonia wash out at the early stage of rain the predicted values of scavenging coefficient with those calculated from the measured concentrations of ammonia in rainwater reveals large discrepancies. Fig. 6 . 6Dependence of scavenging coefficient vs. rain intensity for ammonia wash out at the later stage The wide range of variation of the magnitude of scavenging coefficient is caused by dependence of scavenging coefficient on the altitude, time, initial gradient of the soluble gas concentration in the below-cloud atmosphere, droplet size distribution as well as on meteorological conditions (wind, temperature etc.) and difficulties associated with evaluating scavenging coefficient from the experiments. stationary convective diffusion equation with the effective Peclet number that depends on droplet size distribution (DSD). The obtained equation was analyzed numerically in the case of log-normal DSD with Feingold-Levin parameterization (Feingold and Levin, 1986). The simple form of the obtained equation allows analyzing the dependence of the rate of soluble gas scavenging on different parameters, e.g. rain intensity, gas solubility, gradient of absorbate concentration in a gaseous phase etc. Using the developed model we calculated scavenging coefficient and the rates of scavenging of different trace gases (SO 2 and NH 3 ). The obtained results can be summarized as follows: 1. It is demonstrated that scavenging coefficient for the wash out of soluble atmospheric gases by rain is time-dependent. It is shown that value of scavenging coefficient at the ground increases with time whereas the value of scavenging coefficient in the below-cloud atmosphere immediately adjacent to the cloud decreases with the amount of precipitation. 2. It is shown that scavenging coefficient in the atmosphere is height-dependent. Scavenging of soluble gas begins in the upper atmosphere and scavenging front propagates downwards with "wash down" velocity and is smeared by diffusion. We have found that in the case of linear initial distribution of concentration of gaseous pollutants whereby the initial concentration of gaseous pollutants decreases with altitude, the scavenging coefficient c Λ increases with height at an early stage of rain. At the advanced stage of rain scavenging coefficient decreases with height in the upper below-cloud layers of the atmosphere. 3. It is found that scavenging coefficient strongly depends on the initial distribution of soluble trace gas concentration in the atmosphere. Calculations performed for linear distribution of the soluble gaseous species in the atmosphere show that the scavenging coefficient increases with the increase of soluble species gradient. The developed model can be used for the analysis of precipitation scavenging of hazardous gases in the atmosphere by rain and for validating advanced models for predicting scavenging of soluble gases by rain. and 2. A model for particle microphysics, turbulent mixing, and radiative transfer in the stratocumulus-topped marine boundary-layer and comparison with measurements. A S Ackerman, O B Toon, P V Hobbs, 11Ackerman, A. S., Toon, O.B., Hobbs, P.V., 1995. A model for particle microphysics, turbulent mixing, and radiative transfer in the stratocumulus-topped marine boundary-layer and comparison with measurements. 11 . Journal of the Atmospheric Sciences. 528Journal of the Atmospheric Sciences, 52(8), 1204- 1236. Parameterization of below-cloud scavenging of highly soluble gases under convective conditions. W A H Asman, Atmospheric Environment. 29Asman, W.A.H., 1995. Parameterization of below-cloud scavenging of highly soluble gases under convective conditions. Atmospheric Environment 29, 1359-1368. Laboratory investigation of washout of trace gases, from Precipitation Scavenging. S Beilke, Proceedings of a Symposium. R.J Engelmann, W.G.N. Slinna SymposiumRichland, WashingtonBeilke, S., 1970. Laboratory investigation of washout of trace gases, from Precipitation Scavenging 1970, Proceedings of a Symposium, Richland, Washington, June 2-4, 1970. pp. 261-269. Ed. R.J Engelmann, W.G.N. Slinn. Rainfall scavenging coefficients for atmospheric nitric acid and nitrate in a subtropical coastal environment. S M Calderon, N D Poor, S W Campbell, P Tate, B Hartsell, Atmospheric Environment. 42Calderon, S. M., Poor, N. D., Campbell, S. W., Tate, P. and Hartsell, B., 2008. Rainfall scavenging coefficients for atmospheric nitric acid and nitrate in a subtropical coastal environment. Atmospheric Environment 42, 7757-7767. Rain scavenging of SO 2 and sulfate from power plant plumes. M T Dana, J M Hales, M A Wolff, Journal of Geophysical Research. 80Dana, M. T., Hales, J. M. and Wolff, M. A., 1975. Rain scavenging of SO 2 and sulfate from power plant plumes. Journal of Geophysical Research 80, 4119- 4129. The effects of scrubber installation at the Navajo generating station on particulate sulfur and visibility levels in the Grand Canyon. M Green, R Farber, N Lien, K Gebhart, J Molenar, H Iyer, D Eatough, Journal of the Air & Waste Manegement Association. 55Green, M., Farber, R., Lien, N., Gebhart, K., Molenar, J., Iyer, H. and Eatough, D., 2005. The effects of scrubber installation at the Navajo generating station on particulate sulfur and visibility levels in the Grand Canyon. Journal of the Air & Waste Manegement Association 55, 1675-1682. Conjugate mass transfer during gas absorption by falling liquid droplet with internal circulation. T Elperin, A Fominykh, Atmospheric Environment. 39Elperin, T., and Fominykh, A. 2005. Conjugate mass transfer during gas absorption by falling liquid droplet with internal circulation. Atmospheric Environment 39, 4575-4582. Evaporation and condensation of large droplets in the presence of inert admixtures containing soluble gas. T Elperin, A Fominykh, B Krasovitov, Journal of the Atmospheric Sciences. 64Elperin, T., Fominykh, A. and Krasovitov, B., 2007. Evaporation and condensation of large droplets in the presence of inert admixtures containing soluble gas. Journal of the Atmospheric Sciences 64, 983-995. Scavenging of soluble gases by evaporating and growing cloud droplets in the presence of aqueousphase dissociation reaction. T Elperin, A Fominykh, B Krasovitov, Atmospheric Environment. 42Elperin, T., Fominykh, A., and Krasovitov, B., 2008. Scavenging of soluble gases by evaporating and growing cloud droplets in the presence of aqueous- phase dissociation reaction. Atmospheric Environment 42, 3076-3086. Effect of altitude concentration gradient of soluble gaseous pollutants on their scavenging by falling rain droplets. T Elperin, A Fominykh, B Krasovitov, Journal of the Atmospheric Sciences. 66Elperin, T., Fominykh, A. and Krasovitov, B., 2009. Effect of altitude concentration gradient of soluble gaseous pollutants on their scavenging by falling rain droplets. Journal of the Atmospheric Sciences 66, 2349-2358. The lognormal fit to raindrop spectra from frontal convective clouds in. G Feingold, Levin , Z , Feingold, G., and Levin, Z., 1986. The lognormal fit to raindrop spectra from frontal convective clouds in . Israel, Journal of Climate and Applied Meteorology. 25Israel. Journal of Climate and Applied Meteorology 25, 1346-1363. Detection of excess ammonia emissions from in-use vehicles and the implications for fine particle control. M P Fraser, G R Cass, Environmental Science and Technology. 32Fraser, M.P. and Cass, G. R., 1998. Detection of excess ammonia emissions from in-use vehicles and the implications for fine particle control. Environmental Science and Technology 32, 1053-1057. On the distribution of ammonia in the middle and lower troposphere. H W Georgii, W J Müller, Tellus. 26Georgii, H.W. and Müller, W.J., 1974. On the distribution of ammonia in the middle and lower troposphere. Tellus, 26, 180-184. Large scale spatial and temporal distribution of sulfur compounds. H W Georgii, Atmospheric Environment. 12Georgii, H.W., 1978. Large scale spatial and temporal distribution of sulfur compounds, Atmospheric Environment, 12, 681-690. The influence of clouds and rain on the vertical distribution of sulfur dioxide in one. G Gravenhorst, Th Janssen-Schmidt, D H Ehhalt, E P Röth, Gravenhorst, G., Janssen-Schmidt, Th., Ehhalt, D. H. and Röth, E. P., 1978. The influence of clouds and rain on the vertical distribution of sulfur dioxide in one- Fundamentals of the theory of gas scavenging by rain. J M Hales, Atmospheric Environment. 6Hales, J.M., 1972. Fundamentals of the theory of gas scavenging by rain, Atmospheric Environment 6, 635- 659. A linear model for predicting the washout of pollutant gases from industrial plumes. J M Hales, M T Dana, M A Wolf, AIChE Journal. 19Hales, J.M., Dana, M. T. and Wolf, M. A., 1973. A linear model for predicting the washout of pollutant gases from industrial plumes. AIChE Journal, 19, 292-297. Wet removal of pollutants from Gaussian plumes: Basic linear equations and computational approaches. J M Hales, Journal of Applied Meteorology. 41Hales, J.M., 2002. Wet removal of pollutants from Gaussian plumes: Basic linear equations and computational approaches. Journal of Applied Meteorology, 41, 905-918. On the distribution and continuity of water substance in atmospheric circulation. E Kessler, Meteorological Monographs. 1032ppKessler, E., 1969. On the distribution and continuity of water substance in atmospheric circulation. Meteorological Monographs, 10, no. 32, 84 pp. An Eulerian model for scavenging of pollutants by raindrops. S Kumar, Atmospheric Environment. 19Kumar, S., 1985. An Eulerian model for scavenging of pollutants by raindrops. Atmospheric Environment, 19, 769-778. Analytical solution for solute transport in finite soil columns with arbitrary initial distributions. F J Leij, N Toride, Soil Science Society of America Journal. 62Leij, F. J. and Toride, N., 1998. Analytical solution for solute transport in finite soil columns with arbitrary initial distributions. Soil Science Society of America Journal, 62, 855-864. In-cloud and below-cloud scavenging of nitric acid vapor. S Z Levine, S E Schwartz, Levine S. Z. and Schwartz, S. E., 1982. In-cloud and below-cloud scavenging of nitric acid vapor. . Atmospheric Environment. 16Atmospheric Environment 16, 1725-1734. Analytical formulas for the below-cloud scavenging 12 coefficient of an irreversibly soluble gas: a quantitative evaluation for HNO 3. M Mircea, S Stefan, M C Facchini, S Fuzzi, International Journal of Environment and Pollution. 21Mircea, M., Stefan, S., Facchini, M.C. and Fuzzi, S., 2004. Analytical formulas for the below-cloud scavenging 12 coefficient of an irreversibly soluble gas: a quantitative evaluation for HNO 3 . International Journal of Environment and Pollution, 21, 547-565. Precipitation scavenging coefficient: influence of measured aerosol and raindrop size distributions. M Mircea, S Stefan, S Fuzzi, Atmospheric Environment. 34Mircea, M., Stefan, S. and Fuzzi, S., 2000. Precipitation scavenging coefficient: influence of measured aerosol and raindrop size distributions. Atmospheric Environment, 34, 5169-5174. Empirical atmospheric deposition parameters -survey Atmospheric Environment. T A Mcmahon, P J Denison, 13McMahon, T. A. and Denison, P. J., 1979. Empirical atmospheric deposition parameters -survey Atmospheric Environment, 13, 571-585. Below-cloud ammonia scavenging in convective thunderstorms at a coastal research site in. C A Mizak, S W Campbell, M E Luther, R P Carnahan, R J Murphy, N D Poor, Atmospheric Environment. 39Mizak, C. A., Campbell, S. W., Luther, M. E., Carnahan, R. P., Murphy, R. J. and Poor, N. D., 2005. Below-cloud ammonia scavenging in convective thunderstorms at a coastal research site in Tampa, FL, USA. Atmospheric Environment, 39, 1575-1584. Microphysics of Clouds and Precipitation. H R Pruppacher, J D Klett, Kluwer Academic PublishersDordrechtPruppacher, H.R. and Klett, J.D., 1997. Microphysics of Clouds and Precipitation. Dordrecht, Kluwer Academic Publishers. Fate of ammonia in the atmosphere -a review for applicability to hazardous releases. J J Renard, S E Calidonna, M V Henley, Journal of Hazardous Materials. Renard, J. J., Calidonna, S. E., Henley, M.V., 2004. Fate of ammonia in the atmosphere -a review for applicability to hazardous releases, Journal of Hazardous Materials, B108 29-60. Atmospheric Chemistry and Physics. From Air Pollution to Climate Change. J H Seinfeld, S N Pandis, John Wiley & Sons1225NYSecondSeinfeld, J.H., and Pandis, S. N., 2006. Atmospheric Chemistry and Physics. From Air Pollution to Climate Change. Second ed. John Wiley & Sons, NY. 1225p. Below-cloud scavenging of tropospheric ammonia. J M Shimshock, De Pena, R G , Tellus. 41Shimshock, J.M., and De Pena, R.G., 1989. Below-cloud scavenging of tropospheric ammonia. Tellus 41B, 296-304. The redistribution of gas plume caused by reversible washout. W G N Slinn, Atmospheric Environment. 83Slinn, W.G.N., 1974. The redistribution of gas plume caused by reversible washout, Atmospheric Environment, 8(3) 233-239. Some approximations for the wet and dry removal of particles and gases from the atmosphere. W G N Slinn, Water, Air, and Soil Pollution. 7Slinn, W.G.N., 1977. Some approximations for the wet and dry removal of particles and gases from the atmosphere. Water, Air, and Soil Pollution, 7, 513- 543. Rate of precipitation scavenging of nitrates on central long-island. K R Sperber, S Hameed, Journal of Geophysical Research-Atmospheres. 91D11Sperber, K.R. and Hameed, S., 1986. Rate of precipitation scavenging of nitrates on central long-island, Journal of Geophysical Research-Atmospheres 91(D11) 1833- 1839. Sensitivity of the precipitation scavenging coefficient of nitric acid vapour to raindrop size distribution. S Stefan, M Mircea, Romanian Reports in Physics. 552Stefan, S., and M. Mircea, 2003. Sensitivity of the precipitation scavenging coefficient of nitric acid vapour to raindrop size distribution. Romanian Reports in Physics, 55(2) 76-81. Long-term visibility trends in one highly urbanized, one highly industrialized, and two Rural areas of Taiwan. Y I Tsai, S C Kuo, W J Lee, C L Chen, P T Chen, Science of the Total Environment. 382Tsai, Y.I., Kuo, S.C., Lee, W.J., Chen, C.L. and Chen, P.T., 2007. Long-term visibility trends in one highly urbanized, one highly industrialized, and two Rural areas of Taiwan, Science of the Total Environment, 382, 324-341. Visibility: Science and regulation. J G Watson, Journal of the Air & Waste Manegement Association. 52Watson, J.G., 2002. Visibility: Science and regulation, Journal of the Air & Waste Manegement Association, 52, 628-713. The scavenging of nitrogen compounds by clouds and precipitation: part II. The effects of cloud microphysical parameterization on model predictions of nitric acid scavenging by clouds. S Wurzler, Atmospheric. Research. 47Wurzler, S., 1998. The scavenging of nitrogen compounds by clouds and precipitation: part II. The effects of cloud microphysical parameterization on model predictions of nitric acid scavenging by clouds. Atmospheric. Research 47-48, 219-233. Estimating ammonia emission factors in Europe: summary of the work of the UNECE ammonia expert panel. K W Van Der Hoek, Atmospheric Environment. 32Van der Hoek, K.W., 1998. Estimating ammonia emission factors in Europe: summary of the work of the UNECE ammonia expert panel. Atmospheric Environment 32, 315-316. Numerical Investigation of Gas Scavenging by Weak Precipitation. L Zhang, R Vet, D V Michelangeli, Journal of Atmospheric Chemistry. 54Zhang, L., Vet, R. and Michelangeli, D. V., 2006. Numerical Investigation of Gas Scavenging by Weak Precipitation, Journal of Atmospheric Chemistry, 54, 203-231.
sample_1116
0.5301
arxiv
L'usage de la combinatoire chez Girard Desargues : le cas du théorème de Ménélaüs 20 janvier 2018 Marie Anglade Jean-Yves Briend L'usage de la combinatoire chez Girard Desargues : le cas du théorème de Ménélaüs 20 janvier 2018 1. Nous emploierons ce terme plutôt que celui de « faisceau » qui a, dans le langage mathématique contemporain, un autre sens.Abstract. We show in this article how Girard Desargues, in his well known text on conics, the Brouillon Project, manages to use Menelaos' theorem with some awesome virtuosity. To this end, we propose a detailed analysis of his combinatorial approach, which was already visible in the development of his notion of involution. We shall study the proofs of two important theorems of the Brouillon. The first is the theorem of the "ramée", stating that the configuration of involution is invariant by perspective projection, and the second is the great theorem of Desargues on pencils of conics. We shall also study in the same spirit the first lemma (dealing with the hexagram) of the Essay pour les coniques by Pascal and the Advis charitables by de Beaugrand. segments de droites que l'auteur nomme des rameaux. Si ces rameaux sont sur le tronc, il sont pliés au tronc, et si au contraire ils lui sont transverses, alors ils sont déployés au tronc. Deux tels rameaux peuvent se couper, et les nouveaux segments ainsi définis dans les rameaux s'appellent des brins de rameaux.Pour comprendre la propositionénoncée ci-dessus, il faut se reporterà la page 10 du Brouillon Project, aux lignes 50à 59, où Desarguesécrit :« La proposition qui suit au long avec sa demonstration est la mesme que celle du hault de la page 3, & dont il est dit qu'elle est enoncée autrement en Ptolomée.Quand en une droicte H, D, G, comme troncà trois poincts H, D, G, comme noeuds passent trois droictes comme rameaux déployez HKh, D4h, G4K, le quelconque brin Dh, du quelconque de ces rameaux D4h, contenu entre son noeud D, & le quelconque des deux autres rameaux HKh, està son accouplé le brin D4, contenu entre le mesme noeud D, & l'autre troisiéme des mesmes rameaux G4K, en raison mesme que la composée des raisons d'entre les deux brins de chacun des deux autres rameaux convenablement ordonnez, a sçavoir de la raison du brin comme Hh, au brin comme HK, & de la raison du brin comme GK, au brin comme G4. » La figure 1 permet de se faire une idée de ce dont parle Desargues : on y reconnaît l'énoncé connu aujourd'hui sous le nom de théorème de Ménélaüs. Au dix-septième siècle, ce résultat n'était connu qu'au travers de la Composition mathématique (ou Almageste) de Claude Ptolémée, voir par exemple [12], notamment les préliminaires pour les démonstrations sphériques, chapitre XI du livre I, plus particulièrement I.13. On sait maintenant que Ptolémée s'est inspiré pour ce passage du traité des Sphériques de Ménélaüs d'Alexandrie, où ce théorème de géométrie euclidienne plane està la base de la preuve du résultat correspondant pour les quadrilatères sphériques complets. On trouvera une traduction en allemand de ce texte par Max Krause dans[8]. Nous verrons que, par l'usage qu'il en fait, Desargues ne considère pas le théorème de Ménélaüs comme unénoncé de géométrie du triangle, mais qu'il se place plutôt dans la tradition d'étude de la figure secteur ou du quadrilatère complet que l'on trouve chez les mathématiciens de langue arabe comme Thābit ibn Qurra dans son Traité sur la figure secteur (voir [14]) ou Nas .ī r al-Dīn al-T .ū sī dans son Traité du quadrilatère, (voir [3]).Comme il l'a fait pour les involutions, Desargues a choisi soigneusement ses notations pour faire apparaître la combinatoire du théorème, permettant ainsi par la suite son application répétée et automatique (voir plus loin).Dans sa version aujourd'hui enseignée (voir le chapitre 3.4 du livre [4] par exemple), le théorème de Ménélaüs est présenté comme un résultat portant sur un triangle, ici hK4, et une droite, ici HDG, coupant les trois côtés du Les mathématiques,à la vérité, ont beaucoup plus de certitude ; mais quand je songe aux profondes méditations qu'elles exigent ; comme elles vous tirent de l'action et des plaisirs pour vous occuper tout entier ; ses démonstrations me semblent bien chères, et il fautêtre fort amoureux d'une vérité pour la chercherà ce prix là. (. . .) Je vous l'avouerai ingénuement : il n'y a point de louanges que je ne donne aux grands mathématiciens, pourvu que je ne le sois pas. Saint-Évremond, Jugement sur les sciences, où peut s'appliquer un honnête homme, avant 1665. Résumé Nous montrons dans cet article comment Desargues, dans son Brouillon Project sur les coniques, parvientà utiliser le théorème de Ménélaüs de manière particulièrement virtuose. Pour cela, nous analysons son approche combinatoire, déjàà l'oeuvre dans sonétude de la notion d'involution etétudions les preuves de deux théorèmes importants du Brouillon, celui dit de la « ramée »énonçant l'invariance de l'involution par perspective, et le grand théorème de Desargues sur les pinceaux 1 de coniques. Nous examinons sous ce même angle le premier lemme de l'Essay pour les coniques de Pascal et les Advis charitables de Beaugrand. Introduction La « méthode perspective » de Girard Desargues consisteà démontrer une proposition pour toute section conique en se rétablissant 2 , par une projection de centre le sommet du cône, sur un plan coupant le cône selon un cercle (voir l'article [1] de Kirsti Andersen sur ce sujet). Il suffit pour cela que l'énoncé de la proposition fasse appelà des objets qui soient invariants par projection centrale. Desargues introduit etétudie, dans les dix premières pages de son Brouillon Project 3 sur les coniques de 1639, la notion d'involution, disposition particulière de trois couples de points alignés satisfaisantà certaineségalités de rectangles, qui généralise et enrichit la notion de division harmonique (voir l'article [2] des auteurs du présent texte). Il démontre alors qu'étant données deux droites ∆, δ et un point K pris hors de ces deux droites, les images, par la projection de centre K de ∆ sur δ, de six points de ∆ en involution, sont eux aussi en involution. C'est le théorème de la ramée, terminologie introduite par Jean-Pierre le Goff dans son article [9]. La démonstration de ce résultat est un tour de force de Desargues qui emploie successivement huit fois (en deux séries de quatre) le théorème de Ménélaüs pour parvenirà ses fins. Nous allons dans cet article montrer comment Desargues, par une manière judicieuse et systématique d'appliquer le théorème de Ménélaüs, peut en faire un usage quasi automatique par une simple analyse de la combinatoire du théorème qu'il souhaite démontrer. Cette manière de faire, déjà présente dans ses développements sur l'involution, trouve ici une illustrationéclatante. Elle se retrouve plus loin dans le Brouillon Project, plus particulièrement pour la démonstration du théorème d'involution pour les pinceaux de coniques, que nous analyseronségalement ici. Après une présentation de la manière dont Desargues conçoit le théorème de Ménélaüs et la mise en exergue de la combinatoire qu'il met en place pour son usage, nous analysons la démonstration du théorème de la ramée et de certains de ses cas particuliers, puis celle du théorème d'involution. Pour chacun de ces deux résultats, nous donnonségalement une preuve utilisant le langage moderne des transformations projectives. Complétant notre analyse commencée dans [2], nousétudions ensuite la version de Jean de Beaugrand du théorème d'involution dans ses Advis Charitables de 1640. Nous concluons cet article par la présentation d'une preuve du Lemme I de l'Essay pour les coniques de Blaise Pascal utilisant la technique ménélienne mise au point par Desargues, comme l'a fait Christian Houzel dans [7]. Remarque : dans ce texte, nous employons les notations modernes pour exprimer les rapports de grandeurs sous forme de fractions, plutôt que de respecter le strict usage euclidien qui est le propre du Brouillon Project. Introduction : english version 1 La proposition «énoncée autrement en Ptolomée » A la fin de la page 2 et au début de la page 3 du Brouillon Project, Girard Desargues rappelle les références des résultats desÉléments d'Euclide qu'il utilisera dans la suite de son texte, et une proposition qu'ilénonce ainsi : « Quand en un mesme Plan,à trois poincts, comme noeuds, d'une droicte, comme tronc, passent trois quelconques rameaux déployezà ce tronc, les deux brins de quelconque de ces rameaux contenus entre leur noeud ou tronc, & chacun des autres deux rameaux sont entre eux en raison mesme que la composée des raisons d'entre les deux pareils brins de chacun de ces autres deux rameaux convenablement ordonnez. Enoncée autrement en Ptolomée. » Il précise en note qu'il démontrera cette propositionà la page 10. Rappelons tout d'abord la signification de la terminologie employée 4 . Lorsque Desargues s'intéresseà des points alignés sur une droite qu'il veut mettre en exergue, il parle de cette droite comme d'un tronc. Les points en questions sur cette droite sont qualifiés de noeuds. De ces noeuds peuvent partir des Réciproquement, si cette identité est vérifiée pour trois points H, D, G pris sur les côtés du triangle, alors ces trois points sont alignés. L'esprit dans lequel Desarguesénonce le théorème de Ménélaüs est cependant assez différent. Il sélectionne, ou met en exergue, l'un des rameaux, ici D4h, issu du tronc HDG, eténonce une identité entre le rapport des brins sur ce rameau et une composition de rapports de brins pris sur les deux autres rameaux. C'est ce qu'ilénonce lorsqu'ilécrit que 5 La figure 2 illustre le principe de cette preuve. Desarguesévoque ensuite le fait que ce théorème admet des cas particuliers, comme celui par exemple où des rameaux sont parallèles 7 , eténonce 6. Rappelons qu'une famille de droites parallèles ou concourantes forme une ordonnance dont le but est le point de concours, point qui està l'infini s'il s'agit d'une famille de droites parallèles. Nous renvoyons pour celaà la première page du Brouillon project. 7. p. 11, l. 5 que sa réciproque, concluant, sous une hypothèse d'égalité de rapports,à l'alignement des trois points H, D, G, est vraie 8 . 2 La combinatoire arguésienne pour le théorème de Ménélaüs Nous allons maintenant décrire comment,à notre sens, Desargues comprend la combinatoireà l'oeuvre dans le théorème de Ménélaüs. Nous montrerons dans les sections suivantes que c'est cette analyse qui lui permet d'appliquer de manière presqu'aveugle ou automatique cette proposition pour démontrer le théorème de la ramée et certains de ses corollaires, ou encore son théorème d'involution. Le point de départ est un tronc 9 sur lequel se situent trois noeuds N 1 , N 2 , N 3 . De ces trois noeuds partent trois rameaux déployés r 1 , r 2 , r 3 se coupant deux a deux en a = r 2 ∩ r 3 , b = r 1 ∩ r 3 et c = r 1 ∩ r 2 . Choisissant un rameau quelconque, par exemple r 1 , on peut former le rapport de brins de rameaux N 1 b N 1 c . On veutécrire ce rapport comme composé de rapports de brins de rameaux sis sur les autres rameaux de la configuration. Voici comment on trouve cette composition de manière automatique : aétant le point d'intersection manquant dans le rapport, onécrit pour commencer N 1 b N 1 c = •b •a •a •c . On considère alors le premier terme de cette composition. Les points b et a sont sur le rameau r 3 issu du noeud N 3 , que l'on place donc dans le rapport : N 1 b N 1 c = N 3 b N 3 a •a •c . Pour le second terme, a et c sont sur le rameau r 2 issu du noeud N 2 et l'on obtient finalement 10 N 1 b N 1 c = N 3 b N 3 a N 2 a N 2 c . 8. p. 11, l. 7 9. Par advis, ce développement est de la figure 3. 10. Notons que si l'on partait du rapport inverse N 1 c/N 1 b, alors, en procédant de la même façon, nous obtiendrions la même identité,à une inversion près des rapports. Remarquons pour finir que c'est vraiment l'examen de la figure secteur (correspondantà la partie grisée 11 dans la figure 3) et le choix d'un rapport comme N 1 b/N 1 c pris sur l'une de ses branches, qui donne mécaniquement sa décomposition en produit de rapports comme ci-dessus. Cela sera misà profit dans la suite par Desargues, et nous allons maintenant passerà la lecture des pages 10à 18 du Brouillon Project, où il va utiliser de manière intensive et particulièrement virtuose le théorème de Ménélaüs. 3 Le théorème de la ramée : cas générique Après avoir introduit sa terminologie arboricole etétudié en détail sa notion d'involution, Desargues définit, aux lignes 9 et suivantes de la page 10 du Brouillon Project, ce qu'il entend par une ramée. La ramée d'un arbre Rappelons qu'une droite sur laquelle Desargues va considérer des points en involution s'appelle un tronc. Soient, sur un tel tronc, six points que l'on considère comme formant trois couples de noeuds B, H; C, G; D, F. On dit que 11. Ou en vert, si vous disposez des figures en couleur. ces trois couples de noeuds sont en involution si d'une part les couples sont entre eux tous disposés de manièreàêtre soit mêlés soit démêlés 12 Dans la foulée de cette définition esténoncé ce que nous nommerons le théorème de la ramée, que l'on peutécrire de la manière suivante : Théorème 3.1 En reprenant les notations qui précèdent, si les six droites de la ramée (BK), (HK), . . . coupent une droite quelconque du même plan en des points notés b, h, c, g, d, f , alors les trois couples b, h; c, g; d, f sont en involution. La figure 4 illustre la configuration envisagée par Desargues. On peut comprendre ceténoncé comme une proposition d'invariance : si l'on effectue une projection centrale, ou perspective, d'une droite ∆ vers une autre droite δ, alors les images de six points en involution forment elles aussi une involution. Nous allons donner trois versions de la preuve de ce théorème. Les deux premières suivent de très près la démonstration de Desargues, mais en donnent des analyses quelque peu différentes dans l'esprit. La troisième présente la preuve contemporaine faisant appelà l'interprétation de l'involution comme transformation homographique involutive. La démonstration du théorème de la ramée Cette première présentation de la démonstration de Desargues est celle qui,à notre avis, illustre le mieux le caractère systématique de l'usage de la combinatoire du théorème de Ménélaüs. Nous aurons l'occasion d'illustrer ce point de vueà nouveau lorsque nous présenterons la démonstration du théorème d'involution pour les quadrangles. Desargues commence par affirmer que 14 si le but de l'ordonnance des rameaux està distance infinie, la proposition estévidente. On la déduit en effet facilement du théorème de Thalès, grâce au parallélisme des rameaux de la ramée. Ce n'est donc que dans le cas où ce but K està distance finie que Desargues se donne la peine de présenter la démonstration. Celle-ci est rédigée de manièreà la fois très soigneuse et très dense. Il va appliquer 8 fois le théorème de Ménélaüs, en deux séries de 4, dans une démarche systématique qui lui permet, en contrôlant parfaitement la combinatoire, de transférer une identité de rapports de rectangles formés par des segments en la droite (BH) en une identité de rapports formés de même sur la droite image (bh). Nous allons présenter cette preuve, dans une forme très proche de celle adoptée par Desargues, en mettant en exergue la combinatoire utilisée par l'auteur. Par commodité, nous noterons ∆ le tronc source de la projection de centre K, c'est-à-dire (BH), et δ son tronc image (bh). Pour démontrer que bh, cg, df sont trois couples de points en involution, on devrait démontrer qu'ils sont tous de même mêlés ou démêlés 15 . Desargues ne s'attarde pas sur la chose et l'énonce commeétant uneévidence 16 . Ce n'est en fait pas si facile que cela dans ce contexte ; la version moderne de la preuve (voir plus bas) nous convaincra sans peine que cela est effectivement vrai. Il s'attaque directementà la démonstration de l'égalité entre rapports de rectangles. 14 Desargues commence par ramener les rapports en minuscules, comme gd/gf , sur la droite intermédiaire. Si l'onécrit un tel rapport générique sous la forme xd/xf , où x prend successivement les valeurs g, c, b, h, on peut noter n l'image de x par la projection de centre K sur la droite intermédiaire, de sorte que n prendra les valeurs successives 4, 3, 2, 5 et Desargues considère alors la figure secteur donnée par les points D, f, K, d, n, x, comme illustré sur la figure 6. L Il aurait pu ensuite effectuer une manipulation analogueà partir des rapports en majuscules, comme GD/GF, mais il préfère transférer les rapports qu'il a obtenu ci-dessus, comme 4D/4f , vers la droite source ∆. Nous verrons plus bas qu'il manque là l'occasion de simplifier sa démonstration. Les rapports qu'il veut décomposer peuvent donc s'écrire sous la forme nD/nf , où n prend successivement les valeurs 4, 3, 2, 5. Notons X l'image de n par la projection de centre K sur la droite source ∆, de sorte que X prend successivement les valeurs G, C, B, H. Desargues utilise alors la figure secteur construite sur les points F, K, f, D, n, X, comme donnée par la figure 7. Desargues obtient ainsi les identités suivantes 19 : 4D 4f = GD GF KF Kf , 3D 3f = CD CF KF Kf , 2D 2f = BD BF KF Kf et 5D 5f = HD HF KF Kf . 19. p. 11, l. 45 et suivantes. Des deux premières identités de la première série on tire alors dg.dc f g.f c = Kd KD 2 4D 4f 3D 3f et des deux premières identités de la seconde 4D 4f 3D 3f = KF Kf 2 DG.DC FG.FC , soit, en posant α = Kd KD 2 KF Kf 2 , l'identité 20 dg.dc f g.f c = α DG.DC FG.FC . Des deux dernières identités issues des deux séries ci-dessus on tire de même 21 db.dh f b.f h = α DB.DH FB.FH , ce qui permet de conclure finalement que db.dh f b.f h = dg.dc f g.f c , et donc que les trois couples de points df, cg, bh sont en involution 22 . Terminons cette section par une remarque que ne manquera pas de faire un lecteur attentif du Brouillon,à savoir que Desargues procède en quelque sorteà l'envers de ceà quoi l'on s'attend, surtout si l'on aà l'esprit le fait que le théorème de la ramée est un théorème d'invariance. Il part en effet des rapports de rectangles sur la droite δ au but de la perspective, c'est-à-dire des rapports en lettres minuscules, et remonte, via la droite intermédiaire Df jusqu'aux rapports de rectangles en lettres majuscules, sur la droite source ∆. Cela peut paraître légitime du fait de la symétrie de la perspective de centre K, qui procède de la même manière que l'on aille de ∆ vers δ ou vice versa. Mais cette façon de faire complique outre mesure la démonstration qui pourrait se contenter d'une seule série de quatre applications du théorème de Ménélaüs, comme nous allons le voir maintenant, et devrait nous inciterà la prudence avant d'affirmer que le théorème de Desargues peutêtre historiquement vu comme unénoncé d'invariance de l'involution par projection 23 . En reprenant la deuxième série d'identités de rapports obtenue grâce au théorème de Ménélaüs, nous avons en effet 4D 4f = GD GF KF Kf , 3D 3f = CD CF KF Kf , 2D 2f = BD BF KF Kf et 5D 5f = HD HF KF Kf . Nous en déduisons donc immédiatement que D2.D5 f 2.f 5 = DB.DH FB.FH KF Kf 2 et D3.D4 f 3.f 4 = DC.DG FC.FG KF Kf 2 . Du fait que D, F; B, H; C, G sont en involution, on en déduit immédiatement que les points D, f ; 2, 5; 3, 4 sont en involution eux aussi. Ainsi est-il démontré un cas particulier du théorème de la ramée : si la droite sur laquelle on projette passe par l'un des points en involution (ici on projette sur la droite Df qui passe par le point D) alors les images sont elles aussi en involution (ici les couples images sont D, f ; 2, 5; 3, 4). Il suffit alors d'appliquer ce même résultatà la projection de Df sur δ pour obtenir le fait que les couples d, f ; b, h; c, g sont en involution. Le systématisme combinatoire de Desargues, s'il lui est d'un grand secours et lui permet d'être très efficace, lui masque cependant la nature véritable de son théorème de la ramée,à savoir celle d'uń enoncé d'invariance d'une configuration par la transformation perspective. La fin de la démonstration estévidemment la même que celle donnée dans la section précédente et nous ne la reproduisons donc pas ici. Il est cependant instructif de consulter la version manuscrite du Brouillon project, celle faite par Philippe de la Hire et qui est conservéeà la bibliothèque de l'Institut de France sous la référence Ms-1595. C'est grâceà cette source que Poudra a pu faire la premièreédition du Brouillon et elle en aété pendant un siècle la seule version connue. D'uneécritureélégante, ce manuscrit se lit très facilement. En outre, la Hire y donne en annexe des figures de sa main pourà peu près toutes les propositions du Brouillon. Ce sont ces figures qui sont reproduites dans l'édition de Taton [16]. La figure 8 montre ainsi le dessin dit « figure 11 » par la Hire et illustrant la situation de ramée. Il y donneégalement des explications sur la démonstration même du théorème, en précisant les diverses configurations ménéliennes utilisées par Desargues. Nous reproduisons ici la page 75 du manuscrit, où l'on reconnait sans peine deséclaircissements sur la démonstration présentée ci-dessus. Une analyse succincte de la démonstration en utilisant la terminologie arguésienne Le théorème de la ramée : la version algébro-géométrique moderne Nous renvoyonsà l'article [2] pour un traitement complet de la théorie des involutions. Nous travaillons ici dans un plan projectif P défini sur un corps de caractéristique différente de 2. Rappelons que si ∆ est une droite projective de P, alors trois couples de points (B, H), (C, G), (D, F) sur ∆ sont en involution au sens de Desargues si et seulement s'il existe une homographie involutive Φ de ∆ dans elle-même telle que Φ(B) = H, Φ(C) = G et Φ(D) = F. Soient δ une autre droite de P et K un point pris hors de δ ∪ ∆. Considérons la projection de centre K de ∆ sur δ, que nous noterons π. La transformation φ = π −1 •Φ•π de δ sur elle-même est une homographie, car Φ et π en sont, et c'est une involution comme conjuguée de l'involution Φ. Nous en déduisons que les points images b = π(B), h = π(H) etc. forment trois couples de points d'une involution sur δ. Ce raisonnement nous permetégalement de conclure que Φ et φ sont de même nature,à savoir elliptiques ou hyperboliques, et que les points fixes de Φ, c'est-à-dire les noeuds moyens doubles de l'involution (BH, CG, DF) ont pour images les points fixes de φ, c'est-à-dire les noeuds moyens doubles de l'involution (bh, cg, df ). Le théorème de la ramée : cas particuliers Comme le dit Desargues, sa proposition fourmille de cas particuliers intéressants. En voici un exemple, qui ne figure pas explicitement dans le Brouillon, montrant comment on peut construireà la règle et au compas le conjugué harmonique d'un point par rapportà un couple d'autres points. Rappelons que même si Desargues n'écrit jamais les mots « division harmonique » , ilétudie avec précision cette notion et ses contemporains n'auront pas laissééchapper ce fait 24 . Nous pouvons par exemple citer les lignes 28 et suivantes de la page 8, quiénoncent clairement le fait que la notion d'involution généralise et précise celle de division harmonique : « Partantà ces mots quatre poincts en involution, on concevra comme de deux especes d'un mesme genre, l'un ou l'autre de ces deuxévenemens, assavoir l'un où quatre poincts en une droicte chacunà distance finie, y donnent trois pieces consecutives, dont la quelconque extréme està la mitoyenne comme la somme 24. Rappelons que d'une division harmonique on peut définir deux involutions, en spécifiant quels sont les noeuds extrêmes ou points fixes de l'homographie correspondante. Nous renvoyonsà [2] pour les définitions d'arbre, de souche et la démonstration de l'équivalence arbre-involution, ainsi que pour l'analyse détaillée des liens entre involution et division harmonique. des trois està l'autre extréme : L'autre, où trois poinctsà distance finie en une droicte avec un quatriesmeà distance infinie, y donnent de mesme trois pieces, dont la quelconque extréme està la mitoyenne comme la somme des trois està l'autre extréme. Ce qui est incomprehensible & semble impliquer a l'abord, en ce que les trois poinctsà distance finie donnent en ce cas deux pieceségales entre elles, par où le poinct du milieu se trouve, & souche, & noeud extréme, coupléà la distance infinie. Si l'on note E le point de la droite bcà distance infinie, alors bc, DE forment une involution ou division harmonique. D'après le théorème de la ramée, le projeté F, par la perspective de centre K, de ce point sur la droite BC fera de BC, DF une involution de quatre points seulement. Ce point F n'est autre que l'intersection de la droite BC avec la droite passant par K et parallèleà bc. Figure 10 -Construction du conjugué harmonique F du point D par rapport au couple BH Dans le Brouillon, l'étude des cas particuliers du théorème de la ramée commence juste après la fin de sa démonstration. Desargues examine rapidement 25 le cas où la droite δ, sur laquelle on projette, est parallèleà l'un des rameaux de la ramée, par exemple au rameau DK. Le point d se trouve alors a distance infinie et son accouplé, le point f , est donc la souche de l'arbre associéà l'involution. Ici Desargues raisonne de manière projective, utilisant sa caractérisation de la souche comme accouplée au pointà l'infini sur la droite. B = H C = G D c b K F Il passe ensuite 26à un cas très liéà l'exemple que nous avons donné en tête de cette section,à savoir celui où l'on ne dispose que de quatre points en involution B = H, C = G, DF 27 , et où la droite sur laquelle on projette est parallèleà l'un des rameaux issus d'un des points du couple de noeuds extrêmes : ainsi cb est parallèleà DK, par exemple. Desargues affirme que dans ce cas f est milieu de cb. La figure 11 illustre cette situation. Dans la figure utilisée dans l'édition de Taton [16], p. 130, on constate que le point c est montré comme unià C (et aussià G et g, ce qui illustre le fait qu'il s'agit de noeuds moyens doubles). Ceci trouve son explication dans la phrase mystérieuse de la ligne 35 de la page 12 : « Car ayant fait que cette quelconque cb, ou sa paralelle, qui est mesme chose, passe au poinct CG. » Desargues dit en fait ici que pour montrer que f est milieu de cb, il suffit de le démontrer pour une quelconque parallèleà cb, par exemple celle passant par C. Ce passage se conlut page 13, ligne 51, par la phrase « Cette manière foisonne en semblables moyens pour conclure qu'en une droicte quatre poincts ou bien trois couples de noeuds sont en involution, mais cecy peut suffireà en ouvrir la miniere avec ce qui suit. » Il s'agit en quelque sorte de la première mise en exergue de sa méthode ou manière perspective, consistantà déduire des involutions de situations particulières faisant intervenir des milieux de segments ou des bissectrices de droites, par le truchement d'une projection 36. p. 13, l. 26. centrale. Nous reverrons cette méthode brillamment mise en oeuvre dans la démonstration du théorème d'involution, voir plus bas. Le théorème d'involution de Desargues pour les quadrangles complets Après son analyse de cas particuliers du théorème de la ramée, Desargues commenceà la ligne 54 de la page 13 du Brouillon la présentation de la théorie des coniques, qu'il appelle coupes de rouleau. Nous n'entrerons pas ici dans les détails, pour lesquels nous renvoyons le lecteurà l'original. De la ligne 37 de la page 15à la ligne 55 de la page 16, il définit puis commente sa notion de traversale, qui ne sera reprise dans l'étude des coniques qu'après un long développement courant de la fin de la page 16 jusqu'au milieu de la page 20, dans lequel il démontre le grand théorème du Brouillon,à savoir le théorème d'involution pour les pinceaux de coniques basés sur un quadrangle complet, ainsi qu'un théorème analogue mais plus précis concernant le cercle, dont nous ne parlerons pas ici 37 . Nous allons nous concentrer sur le théorème d'involution, dont voici l'énoncé tel que donné par Desargues aux lignes 51 et suivantes de la page 16 Nous allons dans cette section montrer comment Desargues utilise le théorème de Ménélaüs pour démontrer le théorème concernant les points d'intersection avec les bornales, puis comment il utilise le théorème de la ramée pour ramener le cas de l'intersection avec une coniqueà celui de l'intersection avec un cercle. Enfin nous donnerons une version moderne de ce théorème et de sa preuve. Le théorème d'involution pour les quadrangles : la preuve de Desargues analysée Dans la citation donnée ci-dessus de l'énoncé du théorème d'involution, nous avons coupé la fin de la phrase, où Desargues précise ce qui se passe lorsque deux bornales sont parallèles entre elles. Nous reviendrons plus bas sur ce cas et allons pour l'instant présenter la preuve de Desargues dans le cas général. Celle-ci est d'une grandeélégance et d'une grande concision, mais elle peutêtre difficileà suivre pour un lecteur contemporain. Comme nous l'avons fait pour le théorème de la ramée, nous allons mettre en exergue la combinatoireà l'oeuvre dans cette démonstration. Rappelons les données : les quatre bornes B, C, D, E forment un quadrangle complet dans le plan, ce qui signifie que si l'on prend trois points quelconques parmi ces quatre, ils ne sont pas alignés. Les six diagonales, ou bornales du quadrangle, se coupent deux-à-deux en trois points 38 : le rectangle PG, PH, gémeau du rectangle PI, PK 48 », autrement dit, que les trois couples de noeuds I, K; P, Q; G, H sont en involution 49 . A la fin de cette démonstration, Desarguesécrit la chose suivante 50 : « Où l'on void que c'est une mesme proprieté de trois couples de rameaux déployez au tronc d'un arbre quand ils sont tous d'une mesme ordonnance entre eux, & quand ils sont disposez comme icy aux quatre poincts B, C, D, E, de façon que le but de l'ordonnance de trois couples de rameaux est comme sis ces quatre poincts B, C, D, E, s'unissoientà un seul poinct. » Desargues rapproche ici le théorème d'involution de celui de la ramée. Plus précisément, ilénonce que le théorème de la ramée est un cas limite du théorème d'involution au sens où, si les quatre points du quadrangle tendentà s'unir en un seul, les six bornales tendent vers une ordonnance de droites qui vont couper toute transversale selon six points en involution. Dit autrement, un pinceau de droites obtenu comme limite des diagonales d'un quadrangle quand les quatre bornes viennentà se confondre n'est pas un pinceau quelconque mais un pinceau harmonique, ce qui n'a rien d'intuitif et montre la profondeur de vue de Desargues. Avant de démontrer son théorème d'involution dans toute sa force en faisant entrer en jeu une conique passant par les quatre sommets du quadrangle, Desargues en démontre un cas particulier dans le cas où deux des bornales sont parallèles. Nous allons examiner ce cas maintenant. Le théorème d'involution pour les quadrangles : un cas particulier Comme nous l'avons dit plus haut, nous avons, dans notre citation de l'énoncé du théorème d'involution par Desargues, coupé la fin. Juste après avoirécrit que si B, C, D, E est un quadrangle complet dont les bornales couplées BC, ED; BE, DC; BD, EC se coupent respectivement en N, F et R, ces bornales coupent une droite quelconque de leur plan en trois couples de points IK, PQ, GH qui forment une involution, Desargues conclut qu'en outre 51 « si les deux bornales droictes d'une des couples BCN, EDN, sont parallèles entre elles, les rectangles de leurs couples relatives de brins déployez au tronc sont entre eux comme leurs gémeaux les rectangles des brins pliez au tronc & de mesme ordre sont entre eux. sont parallèles, que donc le but de leur ordonnance està distance infinie, et qu'il n'hésite pasà nommer ce pointà l'infini. Il l'appelle N. Qu'il n'hésite pasà donner un nomà un point dont l'existence est si problématique montre que l'inspiration de Desargues provient clairement de la théorie et de la pratique de la perspective, induisant chez lui, comme l'écrit René Taton dans [16] 52 , une « grande rigueur dans ses principes projectifs ». Le théorème d'involution de Desargues dans toute sa force ne porte pas uniquement sur les quadrangles, mais sur les pinceaux 58 de coniques passant par les quatre points du quadrangle. Dit autrement, Desargues démontre,à la suite de la preuve donnée plus haut sur le quadrangle B, C, D, E, que si en outre une conique C passe par ces quatre points, alors celle-ci coupe la droite ∆ en deux points L, M tels que les quatre couples de points I, K; P, Q; G, H et L, M sont en involution. Il pourrait conclure ici mais, dans un rare mouvement de sympathie pour le lecteur 61 , il va remettre les lettres dans un ordre permettant de comprendre que la composition de rapports obtenue est composée des mêmes raisons que Desargues passe ensuite au cas d'une conique quelconque. Sa manière de rédiger change alors radicalement : d'une manière très marquée par la combinatoire des rapports, il passeà un style très littéraire où l'usage des lettres pour nommer les points est réduità sa plus simple expression. Plus qu'une démonstration, ce qu'il décrit alors est une démarche générale. On trouve là une sorte de manifeste de sa méthode par perspective, ce qui pourrait fort bienêtreà la source de ce qui influença Leibniz quelques décennies plus tard (voir l'article [5] de Valérie Debuiche). Voici comment Desargues procède : il commence parécrire que si par B, C, D, E passe une conique quelconque, il n'est en fait pas nécessaire de faire de nombreuses figures correspondant aux différents cas possibles. On peut en effet se ramener au cas du cercle en rétablissant la conique sur le plan de base du cône, où elle devient un cercle 63 . Il reprend alors brutalement les notations précédentes en supposant que B, C, D, E sont dans le plan de base du cône et donc sur un cercle. Il ne va pas nommer le plan dans lequel il va démontrer son théorème d'involution pour une conique quelconque, ni les points du quadrangle par lesquels passe cette conique, mais rester dans un registre descriptif. Ilécrit de manière précise et simple que toute la construction est affaire d'incidence et qu'elle se transporte du plan de base au plan de la conique considérée grâce aux droites menées par le sommet du cône. Plus précisément, les droites issues du sommet donnent en le plan de la conique les mêmes bornales, points et couples de points etc. que ceux déjà etudiés dans le plan de base du cône 64 . Le théorème de la ramée lui permet alors de transférer la situation d'involution démontrée dans le cas du cercle, c'est-à-dire sur la plate assiette du cône,à une situtation d'involution pour la conique quelconque. Il affirme pour conclure que cette méthode « s'applique en de nombreuses occasions » et que la plupart des droites ou points remarquables associésà une conique sont générés d'une manière qui permet de l'appliquer 65 . Dit autrement, pour Desargues, la plupart des propriétés intéressantes des coniques sont des propriétés projectives. Il s'agit, après la phrase de la page 13, ligne 51, citée plus haut, de la deuxième mention d'une méthode générale de démonstration par perspective. Détaillons un peu sa preuve. Plaçons-nous dans un plan y et considérons dans ce plan une conique C quelconque passant par les quatre points d'un quadrangle b, c, d, e. Soit de plus δ une droite du même plan. Cette droite coupe les trois couples de bornales en les points p, q; g, h; i, k, et la conique en les points l et m. La conique C est l'intersection d'un cône C, de sommet Dans cette section nous supposons le lecteur familier avec les rudiments de géométrie projective tels qu'on les trouve par exemple dans le livre [15]. Soient, dans un plan projectif P défini sur un corps commutatif quelconque, quatre points p, q, r, s en position générale. Nous entendons par là que trois points quelconques choisis parmi ces quatre sont non-alignés. Soit par ailleurs L une droite projective générique de P, c'est-à-dire une droite ne passant par aucun des quatre points susnommés. Notons comme suit les points d'intersection des bornales du quadrangle p, q, r, s avec la droite L : rs ∩ L = b, pq ∩ L = b ; pr ∩ L = c, qs ∩ L = c ; ps ∩ L = a, qr ∩ L = a . Il s'agit de démontrer qu'il existe une homographie involutive φ de L dans elle même telle que φ(a) = a , φ(b) = b et φ(c) = c . Nous allons la construire comme composée de trois perspectives ou projections centrales. Nous invitons la lectriceà se reporterà la figure 19 pour suivre le raisonnement qui suit. Posons u = pr ∩ qs et t = ar ∩ qs. Par la perspective de centre r de L vers qs, les points a, b, c, c sont respectivement envoyés vers les points t, s, u, c . Ces derniers points ont pour images, par la perspective de centre a de qs vers pr, les points r, p, u, c, points qui s'envoient alors, par la perspective de centre q de pr vers L, sur les points a , b , c , c. La composée de ces perpectives est une homographie, qui envoie a sur a , b sur b etéchange c et c . Du fait que c = c , cette homographie est involutive et le théorème d'involution de Desargues pour les quadrangles est démontré. Remarquons au passage que cela donne un procédé de construction,à la règle seule, de l'involution induite par le quadrangle sur la droite L. Considérons maintenant, pour simplifier, que le corps de base soit celui des nombres réels. L'ensemble F des coniques du plan passant par les quatre points p, q, r, s forme un pinceau linéaire de coniques. Ce pinceau contient exactement trois coniques dégénérées,à savoir celles formées des couples de bornales. Par chaque point de L passe une unique conique du pinceau ; soit C l'une d'entre elles, qui coupe L en deux points l, l qui sontéventuellement confondus si C est tangenteà L. Nous supposerons ici pour simplifier que la Comme p et q sont deux points pris sur la conique, cette dernière définit une homographie α du pinceau p * des droites passant par p dans le pinceau q * des droites passant par q. Soit par ailleurs π p l'homographie d'incidence de p * sur L et π q celle de q * sur L. La transformation σ = π q • α • π Dans la figure 19, la situation des couples de points est de type démêlée, l'involution obtenue est hyperbolique et elle admet deux points fixes (les noeuds moyens doubles, dans la terminologie de Desargues, voir [2]). Il arrive cependant, comme le montre la figure 20, que l'involution obtenue soit elliptique, c'est-à-dire sans point fixe. Dans la situation où l'involution est hyperbolique, on remarque qu'il existe exactement deux coniques passant par les quatre points p, q, r, s du quadrangle et qui soient de plus tangenteà L : les deux points de tangence obtenus sont les points fixes (ou noeuds moyens doubles) de l'involution. On peut, par un calcul simple en prenant un repère projectif adapté, montrer que la distinction entre le cas où l'involution induite par le quadrangle est hyperbolique et celui où elle est elliptique se réduità l'examen du signe du discriminant d'un certain polynôme quadratique. ce qui achève la démonstration de Beaugrand. Ce qui suit de son texte est assez révélateur de son aveuglement faceà la notion d'involution età la puissance de l'argument perspectif de Desargues. En effet, de la ligne 40 de la page 5à la ligne 27 de la page suivante, il démontre, en utilisant les mêmes méthodes, les deux identités qui manquent pour prouver que A, C; B, E; F, G forment une involution,à savoir que Il déclare alors que la seconde identité, passée selon lui sous silence par Desargues, est « plus considérable que les précédentes. » Il n'a pas vu que la méthode arguésienne, unificatrice, permet de ne démontrer qu'une seule des analogies, les autres s'ensuivant par le simple fait que les points sont en involution. 7 Le Lemme I de l'Essay pour les coniques de Blaise Pascal Par ailleurs, l'Essay présente un peu plus loin, au lemme IV, le théorème d'involution de Desargues, comme une conséquence de son lemme I et l'on sait en outre que l'on peut démontrer le lemme Ià l'aide du théorème d'involution. Ce théorèmeétantà la base de la construction de la théorie arguésienne des traversales, il est peu probable aussi que Pascal ait procédé dans ses démonstrations en utilisant uniquement la construction de Desargues. Sans doute une voie médiane a-t-elleété celle historiquement empruntée, et nous n'en saurons pas d'avantage que ne soit retrouvée quelque source nouvelle que les chasseurs de manuscrits ou les avanies du temps auraient laisséeéchapper. Pour une analyse plus fine de l'oeuvre de Pascal en géométrie, et plus particulièrement sur ce qu'il pouvait connaitre des sources antiques, la lectrice peut consulter l'article [17] de René Taton. Conclusion La lecture des 18 premières pages du Brouillon Project ne faità nos yeux que confirmer l'opinion de certains contemporains de Desargues sur ses qualités de géomètre et l'on pense plus particulièrementà Pascal, bien-sûr, mais aussi au R.P. Mersenne,à Descartes, ouà Carcavy (voir [16]). Mais cela donne aussi toute sa valeurà l'intuition de Poncelet faisant du Lyonnais le père fondateur de la géométrie projective, comme on peut le lire, par exemple, a la page xxxviii de son Traité de propriétés projectives des figures de 1822, voir [11]. Desargues dispose en effet d'une grande aisance technique, illustrée par sa maîtrise redoutable de la combinatoire, aisance qu'il met toujours au service d'une volonté unificatrice et clarificatrice dans les problèmes abordés, mettant au jour une méthode générale de démonstration inspirée de ses recherches sur la perspective. On peut néanmoins déplorer qu'il n'ait pris ni la peine ni le temps de mettre en ordre et en forme sesécrits, nous laissant avec un Brouillon dont la forme comme le contenu ont sans doute plus desservi sa réputation qu'assuré sa postérité. Postérité qui a pris parfois une tournure surprenante, comme le rappelle la première phrase d'Une histoire modèle de Raymond Queneau : «C'est en juillet 1942 que j'ai commencé d'écrire ce que je voulais intituler, en m'inspirant de Desargues : Brouillon projet d'une atteinteà une science absolue de l'histoire ; au mois d'octobre, j'abandonnais ce travail, n'en ayant rédigé que les XCVI premiers chapitres. » Figure 1 - 1La configuration du théorème de Ménélaüs d'après Desargues triangle et souvent appelée transversale ou ménélienne. On l'énonce alors de la manière suivante Figure 2 - 2La droite auxiliaire pour la preuve du théorème de Ménélaüs Figure 3 - 3La combinatoire arguésienne pour le théorème de Ménélaüs Figure 4 - 4La configuration de la ramée Figure 5 - 5La droite auxiliaire du couple mixte Df Figure 6 - 6La figure secteur pour la première série d'applications du théorème de Ménélaüs. Figure 7 - 7La figure secteur pour la seconde série d'applications du théorème de Ménélaüs L'application du théorème de Ménélaüs est encore une fois automatique et nous donne nD nf = XD XF KF Kf . Figure 8 - 8La figure 11 du manuscrit de la Hire illustrant le théorème de la ramée.-tronc 3KC, rameaux D4f, DCF, Figure 9 - 9Les explications de la Hire pour la démonstration du théorème de la ramée » Ainsi, considérons trois points alignés B, C & D. On chercheà construire le point F de sorte que BC, DF forment une division harmonique ou, dit autrement, une involution de quatre points seulement que l'on pourraitécrire B = H; C = G; D, F, voir la figure 10. Menons par D une sécanteà la droite BD, et plaçons sur cette droite deux points b et c de sorte que D soit le milieu de bc ( D « mypartit » la pièce bc). Les droites bB et cC se coupent un point que nous noterons K, de sorte que les points B, D, C sont images des points b, D, c par la perspective de centre K envoyant la droite bc sur la droite BC. Figure 11 -Figure 12 -Figure 13 - 111213Le premier cas particulier Il s'attaque ensuiteà la réciproque, qu'il démontre de deux manières différentes. La première est strictement projective 31 . Supposons f milieu de cb. Comme c = g; d, f ; b = h sont les points obtenus par la projection depuis le point K d'une configuration C = G; D, F; B = H de points en involution, alors c = g; d, f ; b = h doitêtre une involution et donc, fétant milieu de cb, le point d doitêtreà distance infinie. Ainsi DK est parallèleà cb.La seconde démonstration est plus classique et ne fait pas usage des points a l'infini. Traçons la droite passant par C et parallèleà FK. Celle-ci coupe DK en N et BK en L. On projette donc le tronc FD sur une nouvelle droite parallèleà l'un des rameaux FK et ce que nous venons de démontrer permet de conclure que N est milieu de CL. C'est ici qu'il faut se placer dans le cas où c = C, ce que Desargues fait implicitement dans sa réciproque, ce qui est quelque peu incorrect, mais pas très grave, comme nous allons le voir. Notons c = C et f , b les points images de B, F par la projection de centre K. Alors f est milieu de c b et comme Kf est parallèleà c L, le théorème de la droite des milieux dans le triangle CLb implique que K est milieu de Lb . Du fait que maintenant K est milieu de Lb et N le milieu de LC, ce même théorème, dans le même triangle permet de conclure que DK est parallèleà c b , donc a cb. La déduction du cas généralà partir du cas particulier c = C n'est pas aussiévidente que Desargues le laisse entendre.Ayant traité ce premier cas particulier, Desarguesétend la terminologie des noeuds correspondants aux rameaux issus de ces points 32 . Considérons31. p. 12, l. 43-47. 32. p. 12, l. 55 le cas de quatre points BH, CG, DF en involution entre eux, de sorte que B, H, C, G soient noeuds moyens doubles (ainsi B = H et C = G) et D, F noeuds extrêmes. Rappelons que cela signifie que {D, F}, {B, C} forment une division harmonique et que, pour l'involution choisie, D et F, noeuds extrêmes, sont correspondants entre eux, de même que B et C, noeuds moyens 33 . Il déclare en conséquence que les rameaux DK, FK sont correspondants entre eux, de même que les rameaux BK, CK. En termes modernes, le pinceau de droites {KD, KF}, {KB, KC} est un pinceau harmonique. On conçoit alors aisément que les cas particuliers de cette situation, quand les configurations de points font apparaître des milieux de segments, vont engendrer des configurations de droites faisant intervenir des bissectrices de secteurs angulaires. Considérons pour commencer 34 le cas où les rameaux correspondants BK, GK = CK sont perpendiculaires (voir la figure 12). Ils sont alors les deux bissectrices des deux autres rameaux correspondants entre eux DK et FK. La démonstration commence en haut de la page 13 et s'y termineà la ligne 10. Traçons par D la droite parallèleà BK ; celle-ci coupe KF en f . Comme BK est perpendiculaireà GK, Df est perpendiculaireà GK. Le point 3, intersection de Df et KG est, d'après ce qui précède, milieu de Df . Il s'ensuit que KG est bissectrice de l'angle DKF. En fait Desargues recourt ici au premier cas d'égalité des triangles dans Euclide, ici les triangles K3D et K3f . L'autre bissection se déduit par les mêmes méthodes. Le cas où les rameaux correspondants sont perpendiculaires. Desargues passe ensuiteà la réciproque de cette proposition, permettant là aussi une constructionà la règle et au compas de divisions harmoniques 35 . Si GK est bissectrice de l'un des angles formés par les rameaux correspondants entre eux DK et FK, alors GK est perpendiculaireà BK. Pour démontrer cela, l'auteur mène par D la droite perpendiculaireà GK, qui coupe KF en un point noté f et KG en un point noté 3. Comme GK bissecte l'angle DKF, les angles en K des deux triangles K3D et K3f sontégaux. Par ailleurs ceux-ci ont un côté commun et les deux angles en 3 de ces triangles sont eux aussiégaux (à 33. p. 8, l. 10, voir aussi [2]. 34. p. 12, l. 59 et la suite 35. p. 13, l. 11-20. un angle droit). Ces deux triangles sont doncégaux et 3 est alors le milieu de Df . D'après la réciproque du premier cas particulier démontré ci-dessus, on en déduit que Df est parallèleà BK et donc que BK est perpendiculairè a KG. La suiteélabore sur ces cas particuliers pour montrer comment on peut déduire que quatre points sont en involution. Voici un exemple d'énoncé démontré par Desargues 36 , les autresétant du même accabit. Considérons une droite BK et prenons sur icelle un point h. Prenons enfin un autre point G, traçons le segment Gh et prenons son milieu f . Traçons alors Kf et nommons F le point d'intersection de la droite Kf avec la droite BG. Menons la parallèleà Gh par le point K et notons D le point d'intersection de cette droite avec BG. Alors les quatre points B, D, G, F sont en involution. La démonstration est une fois de plus toute projective : les trois points G, f, h et le pointà l'infini forment une involution où passent quatre rameaux d'une même ordonnance en K, ils donnent donc sur la droite BG quatre points B, G, D, F en involution. Le cas particulier de la page 13, lignes 26 et suivantes. Figure 14 - 14de l'original : « Quand en un planà quatre poincts B, C, D, E, comme bornes couplées trois fois entre elles, passent trois couples de bornales BCN, EDN, BEF, DCF, BDR, ECR, chacune de ces trois couples de droictes bornales & le bord courbe d'une quelconque coupe de rouleau, qui passeà ces quatres poincts B, C, D, E, donne en quelconque autre droicte de leur plan ainsi qu'en un tronc I, G, K, une des couples de noeuds d'une involution IK, PQ, GH, & LM (. . .) ». Avant d'analyser plus avant l'énoncé, rappelons que quatre points d'un même plan, en position générale et formant ce que l'on appelle un quadrangle complet, sont appelés par Desargues des bornes. Une droite reliant deux bornes s'appelle une bornale et les bornales viennent naturellement par couples. Ainsi, les six bornales du quadrangle B, C, D, E forment trois couples de droites BC, ED; BE, CD; BD, CE. Si l'on considère maintenant une droite ∆ en position générale (la « quelconque autre droicte de leur plan ») et si l'on nomme I, K les intersections de ∆ avec BC et ED respectivement, P, Q ceux de ∆ avec BE et CD et enfin G, H ceux de ∆ avec BD et CE, alors, selon l'énoncé de Desargues, les trois couples de points I, K; P, Q; G, H sont en involution. Mieux, si C est une conique quelconque passant par les quatre bornes B, C, D, E et si cette conique coupe ∆ en deux points L et M, alors les deux points L, M sont un couple dans la même involution que les couples IK, PQ, GH. Notons au passage que Desargues nomme les points d'intersection des bornales entre elles F, N et R, car il va les utiliser dans sa preuve du théorème. La figure 14 illustre la situation réduite au cas du simple quadrangle, nous renvoyons le lecteurà la suite du texte pour un schéma où figure la conique. Le théorème d'involution pour le quadrangle : GH, PQ, IK sont en involution. Figure 15 - 15La figure secteur P, Q, F, I, C, B utilisée par Desargues. Figure 16 - 16Le cas où deux bornales sont parallèles L'énoncé donné est quelque peu obscur mais il est complètement explicité par sa démonstration. Desargues commence 53 par considérer le quadrangle B, C, D, E avec deux bornales parallèles BC et DE, et un tronc coupant les bornales en K, I, Q et P (voir la figure 16). Sur ce tronc on dispose de deux couples IK et QP. En I on peut considérer le couple de rameaux déployés IC, IB, dont le couple relatif doitêtre un couple de rameaux partant de K. Ce couple ne peutêtre que le couple de rameaux eux aussi déployés KD, KE tracés dans la bornale coupléeà celle qui contient I, C et B. Ces deux couples de rameaux relatifs ont chacun un couple de gémeaux,à savoir ceux obtenus en prenant les deux autres points d'un couple sur la figure, c'est-à-dire les points Q et P. Ainsi Desargues veut dire, par la phrase elliptique citée ci-Il affirme 54 que cette identité estévidente du fait du parallélisme des deux bornales. En effet, en appliquant le théorème de Thalès aux deux droites concourantes en Q par composition permet de déduire l'identitéécrite ci-dessus. Aux lignes suivante 55 , Desargues va encore une fois faire montre de systématisme combinatoire et montrer que l'on peut déduire bien d'autre identités de rapports dans ce cas de figure. Il constate en effet que la configuration envisagée n'est pas celle d'un quadrangleà deux bornales parallèles et d'une transversale coupant les bornales, mais plutôt celle de cinq droites dont deux sont parallèles en elles. Les deux droites paralèles sont ici BC, DE et les trois droites non parallèles sont KI, DC et EB (voir encore la figure 16 Figure 17 - 17Le théorème d'involution pour le pinceau des coniques passant par B, C, D et E. La démonstration de Desargues se fait par le relief et utilise l'invariance de la configuration d'involution par projection centrale, c'est-à-dire le théorème de la ramée. Plus précisément, il démontre le théorème dans le cas où la 58. Ou pinceaux. conique est un cercle, puis utilise une ramée depuis le sommet du cône pour obtenir le résultat dans le cas d'une section conique quelconque. Supposons donc pour commencer que la conique passant par B, C, D, E est un cercle 59 . Rappelons que la démonstration pour le quadrangle revenait a montrer que QI.QK PI.PK = QG.QH PG.PH en démontrant que ces deux rapportsétaientégauxà une composition de mêmes raisons,Pour achever la démonstration du théorème de Desargues, il suffit donc de démontrer que le rapport QL.QM PL.PM est lui aussi composé des mêmes raisons. Desargues commence 60 par décomposer le rapport QC.QD/PB.PE en se servant du rectangle FC.FD pourécrire QC.QD PB.PE = QC.QD FC.FD FC.FD PB.PE . Dans la même phrase, il utilise la proposition 35 du livre III desÉléments, qui affirme que QL.QM = QC.QD, PL.PM = PB.PE et FC.FD = FB. Figure 18 - 18Le rétablissement de la figure d'une section quelconque vers le cercle s et de cercle de base C inclus dans le plan x, la plate assiette du cône selon la terminologie arguésienne. Les droites menées du sommet s aux divers points du plan y définis ci-dessus coupent la plate assiette x en des points B, C, D, E qui forment un quadrangle inscrit dans le cercle de base du cône. Traçons le plan z défini par le sommet s et la droite δ. Ce plan coupe la plate assiette y selon une droite ∆. Les droites menées du sommet s aux divers points de δ définis plus haut donnent sur ∆ les points P, Q; G, H; I, K; L, M qui correspondent exactement aux intersections des bornales du quadrangle B, C, D, E et du cercle de base C avec la droite ∆. Comme Desargues a démontré que les points P, Q; G, H; I, K; L, M sont en involution et que l'on dispose dans le plan z de la ramée d'un arbre de but s donnant en la droite δ les points p, q; g, h; i, k; l, m, il en déduit que ces derniers sont eux aussi en involution.5.4Le théorème d'involution pour les faisceux de coniques : le point de vue moderne, précisions sur les noeuds moyens Figure 19 - 19L'involution de Desargues comme composée de perspectives.conique C du pinceau F est générique au sens où elle est non-dégénérée et où l = l . une homographie de L et l'on voit facilement que σ(a) = c, σ(c ) = a , σ(l) = l et σ(l ) = l . Il existe par ailleurs une unique homographie involutive η de L telle que η(a ) = c et η(l) = l , de sorte bien-sûr que η(c) = a et η(l ) = l. L'homographie φ = η • σ satisfait alorsà φ(a) = a , φ(c) = c , φ(l) = l et φ(l ) = l. Comme l = l , φ est une involution et comme elle prend en a et a les mêmes images que l'involution construite plus haut dans le cas du quadrangle, c'est en fait l'involution de Desargues et en particulier φ(b) = b . Le théorème d'involution de Desargues pour les pinceaux de coniques est donc démontré. Figure 20 - 20Situation où le quadrangle induit une involution elliptique. Figure 23 -Figure 24 - 2324Le Lemme I de Blaise Pascal. fait le contenu du lemme I du jeune Blaise, quiétait fortà l'aise avec ces questions. L'idée de la démonstration que nous allons présenter et qui pourrait tout a fait s'insérer dans le Brouillon Project de Desargues est la suivante : en utilisant le théorème de Ménélaüs deux fois dans des figures secteurs bien choisies, ainsi que les propositions d'Euclide sur la puissance d'un point par rapportà un cercle, on démontre que les rapports anharmoniques [A, α, M, P] et [A, β, S, Q] sontégaux, où α = NO ∩ PK et β = NO ∩ QV, de sorte que, d'après la proposition 142 du livre III de la Collection de Pappus, les points X, M et S sont alignés, voir pour cela la figure 24. Il s'agit donc de démontrer que l'on a l'égalité suivante : La proposition 142 du livre VII de la Collection de Pappus. Comme Desargues, réordonnons les lettres pour mettre en oeuvre facilement la combinatoire ménélienne et réécrivons la liste des rapports intervenant dans l'analogie ci-dessus sous la forme suivante : MA Mα , Pα PA , SA Sβ , Qβ QA . En appliquant le théorème de Ménélaüsà la figure secteur constituée des points A, M, α, β, O, le brin Dh està son accouplé le brin D4 comme la composée des raisons du brin Hh au brin HK et du brin GK au brin G4. Autrement dit, Desarguesénonce l'identité ci-dessus tronc ne reste que le point K par lequel on trace la parallèle au tronc HDG, qui coupe le rameau D4h en un point que l'on note f . Considérant tout d'abord le point h du rameau choisi D4h, intersection 6 des deux droites HKh, D4f , le théorème de Thalès nous assure quesous la forme : Dh D4 = Hh HK GK G4 . La preuve qu'il présente est tout-à-fait classique et s'appuie sur l'application, dans deux triangles différents (ou plutôt dans deux ordonnances de droites différentes), du théorème de Thalès. Il part du rameau D4h qui, basé sur le noeud D donne deux brins de rameaux Dh et D4. Hors de ce rameau et du 5. p. 10, l. 52-59 Dh Df = Hh HK . Considérant ensuite l'autre point 4 du rameau D4h, intersection des deux droites G4K, D4h, le théorème de Thalès nous assure que Df D4 = GK G4 . Il reste alorsà composer les raisons, pour obtenir Dh D4 = Dh Df Df D4 = Hh HK GK G4 . et si d'autre part leségalités de rapports suivantes sont satisfaites :Considérons en outre un point K pris hors du tronc. Il nous permet de définir trois couples de rameaux déployés, c'est-à-dire trois couples de segments issus du tronc : BK, HK; CK, GK; DK, FK. Ces trois couples de rameaux forment ce que Desargues appelle la ramée d'un arbre 13 .GF.GD CF.CD = GB.GH CB.CH , FC.FG DC.DG = FB.FH DB.DH , HC.HG BC.BG = HD.HF BD.BF . Nous donnons ici très rapidement lesétapes de la preuve de Desargues en utilisant sa terminologie de noeuds troncs et rameaux dans sonénonciation du théorème de Ménélaüs. Nous reprenons les notations de la section précédente et y renvoyonségalement pour les figures. Rappelons qu'il s'agit de démontrerque dg.dc f g.f c = db.dh f b.f h en montrant que ces deux rapports sontégaux,à un même facteur de pro- portionnalité près, aux mêmes rapportsécrits avec des lettres majuscules, pour lesquels il y aégalité du fait de l'hypothèse que B, H; C, G; D, F sont en involution. Desargues trace pour cela la droite Df sur laquelle par ramée on dispose des points D, f, 2, 3, 4 & 5. Il utilise ensuite huit fois le théorème de Ménélaüs en deux séries de 4. Dans la première série, ses rameaux sont sys- tématiquement portés par les droites df, Dd, Df , leurs points d'intersection sont toujours d, f, et D. Il fait alors varier les troncs, prenant successivement pour ceux-ci gK4, cK3, bK2 et hK5. Sur la droite Dd le rameau sera toujours DKd ce qui donnera une partie du facteur commun mentionné plus haut. Cela lui permet d'obtenir les identités suivantes : -tronc gK4, rameaux dgf, DKd, D4f , identité gd gf = Kd KD 4D 4f ; -tronc cK3, rameaux dcf, DKd, D3f , identité cd cf = Kd KD 3D 3f ; -tronc bK2, rameaux dbf, DKd, D2f , identité bd bf = Kd KD 2D 2f et enfin -tronc hK5, rameaux dhf, DKd, D5f , identité hd hf = Kd KD 5D 5f . Pour la seconde série, il prend systématiquement ses rameaux sur les trois droites Df, DF, Ff et il fait varier les troncs, prenant successivement pour ceux-ci 4KG, 3KC, 2KB et 5KH. Sur la droite Ff le rameau sera toujours FKf ce qui donnera l'autre partie du facteur communévoqué plus haut. Il obtient ainsi les identités suivantes : -tronc 4KG, rameaux D4f, DGF, FKf , identité 4D 4f = GD GF KF Kf ; Cela découle effectivement de manière immédiate du théorème de Thalès. RAJOUTER UNE DROITE PARALLELE PAR C DANS LA FIGURE.Nous supposerons donc que c = C. On déduit du théorème de Thalès, que bc BC = KD BD et cf CF = DK DF , ce qui, après réarrangement des rapports et composition, donne 28 cb cf = BC BD FD FC . Mais il aété démontré plus haut dans le Brouillon 29 que dans ce cas d'invo- lution de quatre points, la composée des raisons de BCà BD et de FDà FC est la « raison double », c'est-a-dire vaut 2. Desargues en conclut 30 que cb = 2cf. 25. p. 12, l. 27-29 26. p. 12, l. 32 27. Remarquons le changement de convention par rapport aux dix premières pages du Brouillon, puisque le couple B, H n'est plus le couple de noeuds extrêmes. 28. p. 12, l. 39 29. p. 10, l. 4, voir aussi [2], la section sur les noeuds moyens doubles. 30. p. 12, l. 42 BC et ED en N, BE et DC en F, BD et EC en R. On considère ensuite une droite ∆ dans le plan contenant le quadrangle, générique au sens où elle n'est parallèleà aucune bornale et ne contient aucun des points B, C, D, E, F, N, R. Elle coupe alors les bornales en les points suivants : BC et ED en I et K respectivement, BE et DC en P et Q, et BD et CE en G et H.Il s'agit de démontrer que (I, K; P, Q; G, H) forme sur la droite ∆ une involution, c'est-à-dire, pour reprendre la terminologie de Desargues, que les rectangles sontà leurs relatifs comme leurs gémeaux sont entre eux. Il nous suffit de démontrer par exemple queQI.QK PI.PK = QG.QH PG.PH . Le couple sur lequel on se base est ici le couple (P, Q), correspondant au couple de bornales BE et DC qui se coupent au point F qui va servir de « pi- vot » dans les applications du théorème de Ménélaüs. Desargues commence par transformer ces rapports de rectangles en composés de rapports de lon- gueurs, faisant apparaître quatre rapports dont il change l'ordre des lettres pourêtre en mesure d'utiliser efficacement sa combinatoire ménélienne 39 : IQ IP , KQ KP , GQ GP , HQ HP . 38. p. 16, l. 57 39. p. 17, l.4 et l. 14 Il examine alors chaque rapport séparément 40 . Pour clarifier les choses, donnons- en une présentation générale. Les figures secteurs considérées par Desargues vont toutes contenir les points P, Q ainsi que le pivot F. Les trois autres points X et α, β sont tels que si X, prenant successivement les valeurs I, K, G, H,à savoir les premières lettres des segments intervenant dans les rapports ci- dessus, alors α et β sont les deux bornes telles que X soit sur la bornale (αβ). Choisissons de nommer α la borne d'où part une bornale menant en Q et β celle dont une bornale mène en P. Ainsi, quand X prend successivement les valeurs I, K, G, H, le couple αβ prend les valeurs (C, B), (D, E), (D, B), (C, E). L'application du théorème de Ménélaüsà la figure secteur composée des points P, Q, F, X, α, β donne alors XQ XP = αQ αF βF βP , et la figure 15 donne une illustration d'une des figures secteurs utilisées par Desargues. Dans le détail, cela donne : -Le rapport IQ/IP 41 : IQ IP = CQ CF BF BP . -Le rapport KQ/KP 42 : KQ KP = DQ DF EF EP . -Le rapport GQ/GP 43 : GQ GP = DQ DF BF BP . -Le rapport HQ/HP 44 : HQ HP = CQ CF EF EP . Il résulte des deux premières applications du théorème de Ménélaüs que 45 QI.QK PI.PK = CQ CF BF BP DQ DF EF EP . 40. p. 17, l. 7à 19 41. p. 17, l. 7 42. p. 17, l. 9 43. p. 17, l. 16 44. p. 17, l. 18 45. p. 17, l. 11 De même découle des deux dernières applications du théorème de Ménélaüsque 46 QG.QH PG.PH = DQ DF BF BP CQ CF EF EP . Ainsi les deux rapports de rectangles QI.QK PI.PK et QG.QH PG.PH sont composées des mêmes raisons 47 et ils sont doncégaux, ce qui prouve que « le rectangle des brins QI, QK, està son relatif le rectangle PI, PK, comme le rectangle QG, QH, gémeau du rectangle QI, QK, està son relatif 46. p. 17, l. 20 47. p.17, l. 23 ). Les trois droites non parallèles jouent un rôle symétrique, donnant en quelque sorte naissanceà trois quadrilatères (ici des trapèzes) assortis d'un tronc : DECB avec tronc KIQP, DKIC avec tronc EBFP et enfin KEBI avec tronc DCQF. L'analyse combinatoire faite ci-dessus dans le cas du trapèze DEBC se transfère aux deux autres cas : 56CI.CB DK.DE = CQ.CF DQDF en considérant le trapèze KEBI et 57 BI.BC. EK.ED = BF.BP EF.EP , en considérant le trapèze DKIC. 54. p.17, l.36 55. p. 17, l. 37à 48 56. p. 17, l. 45 57. p. 17, l. 47 5.3 Le théorème d'involution pour les pinceaux de co- niques : la « méthode perspective » de Desargues 6 Le théorème d'involution dans les Advis Charitables de Jean de BeaugrandNous avons, dans l'article[2],étudié comment Jean de Beaugrand, dans le recueil des advis Charitables de 1640, avait reçu le Brouillon Project, en restant aveugle aux innovations de Desargues concernant l'involution. Nous allons dans cette section continuer notre analyse du texte de Beaugrand en examinant comment il y démontre le théorème d'involution en en faisant un corollaire de la proposition 17 du livre III des Coniques d'Apollonius. Nous renvoyonsà la page 312 de l'édition[13] issue de l'arabe proposée par Roshdi Rashed, ouà la page 209 de l'édition[6] issue des sources grecques, proposée par Micheline Decorps-Foulquier et Michel Federspiel. Rappelons comment de Beaugrandénonce le théorème d'involution : « Si on prend les quatre points K, N, O, V, dans la section Conique, K N G O V F, & que l'on tire les quatre droictes KN, KO, VN, VO tellement qu'il parte deux droictes & non plus de chacun de ces poincts, & puis que l'on tire en telle façon que l'on voudra la droite F ACG, EB, je dis que comme le rectangle FAG est au rectangle FCG, ainsi le rectangle BAE est au rectangle BCE ». Précisons la situation envisagée par de Beaugrand. Les quatres bornes K, N, V, O sont sur une conique C et l'on choisit une transversale générique ∆ qui va couper la conique C aux points F et G, les bornales couplées KN, VO en B et E respectivement, et les bornales couplées KO, NV en C et A respectivement.Figure 21 -Le théorème d'involution de Desargues dans les Advis Charitables. ou encore, pour adopter un ordre des lettres plus en accord avec la pratique de Desargues, faisant apparaître une involution : La figure 21 montre bien qu'il s'agit là de l'une des analogies impliquant que les trois couples A, C; B, E; F, G sont en involution sur la droite ∆ et l'énoncé de Beaugrand est donc un cas particulier du théorème de Desargues. Voyons comment de Beaugrand le démontre. Il commence sa démonstration en traçant, par C, la droite parallèleà NV et que nous nommerons µ. Cette droite coupe la conique en les points Q et R. Il considère alors le point P intersection des deux bornales couplées KO et NV, sans qu'il ne précise ce point dans le texte, renvoyant aux figures. Il affirme 66 alors qu'il découle de la proposition 17 du livre III d'Apollonius sans donner plus de détail. Il a cependant raison et voici pourquoi. L'analogie ci-dessus estéquivalenteà la suivante : et l'on est alors amenéà tracer une droite µ , tangenteà C et parallèleà NV, de même qu'une droite κ , tangenteà C et parallèleà KO. Si l'on nommre A le point de tangence de µ à C, B le point de tangence de κ à C et Γ le point d'intersection de µ et κ , nous reconnaissons effectivement le cadre d'application de la proposition apollinienne qui nous dit que et l'affirmation de Beaugrand est effectivement facilement vérifiée 67 . En composant les deux membres de l'identité obtenue ci-dessus par le rapport AN.AV/NP.PV, il obtient tout d'abord 68 Il enchaîne immédiatement 69 en disant que par la même proposition d'Apollonius, le premier membre estégalà FA.AG/FC.CG. Cela revient en effetà 66. Advis Charitables, p. 5, l. 25. 67. Et, par advis, cette démonstration est de la figure 22.Figure 22 -L'application d'Apollonius III.17 par de Beaugrand.qui, comme nous l'avons vu ci-dessus, découle bien de la proposition 17 du livre III des Coniques. Il applique ensuite 70 deux fois le théorème de Ménélaüs, dans un argument difficileà suivre car l'original comporte quelques fautes de frappes. Enécrivant les analogies données par le théorème de Ménélaüs comme le fait Desargues, de Beaugrand obtient d'abord 71De la composition des deux identités obtenues ci-dessus découle alorsK O N F V G ∆ B C A E Il affirme qu'alors FA.AG FC.CG = BA.AE BC.CE , AF.AG CF.CG = AB.AE CB.CE . que NP.PV QC.CR = KP.PO KC.CO , PN.PV PK.PO = CQ.CR CK.CO , CQ.CR CK.CO = ΓA 2 ΓB 2 = PN.PV PK.PO , AN.AV QC.CR = AN.AV PN.PV PK.PO CK.CO . 68. p. 5, l. 26. 69. [. 5, l. 28 K O N F V G ∆ B C A E µ R Q P A µ B κ Γ démontrer l'identité de rapport AN.AV AF.AG = CQ.CR CF.CG , BA BC = NA NP KP KC puis EA EC = VA VP OP OC . AN.AV PN.PV PK.PO CK.CO = BA.AE BC.CE , 70. p. 5, l. 31 et suivantes. 71. p. 5, l. 33. Des propositions 35 et 36 du livre III deséléments d'Euclide on déduit par ailleurs que Kα.Pα = Nα.Oα, Nβ.Oβ = Vβ.Qβ et PA.KA = QA.VA, ce qui entraîne derechef que ce qui achève la preuve de l'égalité des deux birapports donc la concourance des droites PQ, MS et αβ et, conséquemment, l'alignement des points M, S et X comme le prétendait le lemme. le choix du vocabulaire arguésien, comme celui d'ordonnance (de droites) ou d'ordonnée, est clairement fait en référenceà la terminologie apollonienne classique et montre que Desargues a bien conscience d'unifier et de généraliser les travaux et méthodes du Pergeois.Pα PA = Nα QA Oα VA KA Kα et Qβ QA = Nβ PA Oβ KA VA Vβ . D'où suit d'abondant que AM αM αP AP = VA Vβ Oβ Oα Nα QA Oα VA KA Kα soit encore AM αM αP AP = KA QA Oβ.Nα Kα.Vβ . On démontre de même que AS βS βQ AQ = VA PA Oβ.Nα Kα.Vβ , . Comme Desargues l'écrit, p.22, l. 19 de l'original du Brouillon Project. 3. Nous nous basons dans la suite sur l'unique exemplaire connu, numérisé par la Bibliothèque nationale de France et conservé au département Réserve des livres rares sous la référence RESM-V-276. . Nous renvoyonsà[2] pour plus de détails. . Voir[2] pour plus de détails sur la combinatoire de l'involution. 13. Rappelons qu'une involution est définie par Desarguesà partir de la notion d'arbre, et qu'il démontre que ces deux notions sontéquivalentes. On pourrait donc parler de la ramée d'une involution. . p. 12, l. 11 21. p. 12, l. 7 22. p. 12. l. 26. . Voir[9] qui montre sur ce point un enthousiasme peut-être un peu hâtif. . Voir sonénoncé p. 18, l. 49 de l'original. Nous voudrions montrer dans cette section comment la méthode arguésienne, dont Blaise Pascal se réclame dans son Essay sur les coniques de 1640, peutêtre appliquée pour démontrer le lemme I dudit essai, lemme qui entraîne aisément l'énoncé sur l'hexagramme mystique. Nous nous sommes pour cela fortement inspirés de l'article[7] de Christian Houzel.Nous formulerons ce lemme de manière un peu différente de celle de Pascal, en utilisant cependant les mêmes lettres pour nommer les points, et ce afin de mettre directement en exergue l'énoncé sur l'hexagramme.Lemme 7.1 Soient C une conique et six points P, V, N; O, K, Q situés sur C et ainsi accouplés : (P, O; V, K; N, Q). Si M est le point d'intersection de la droite PK avec la droite VO, S celui de NK avec VQ et X celui de NO avec PQ, alors X est sur la droite MS.Démonstration. -L'énoncé du lemme ne fait apparaître que des questions d'incidences et il est donc suffisant de le démontrer dans le cas où C est un cercle, puisque le cas d'une coupe de rouleau générale s'obtiendra en rabattant le plan de coupe sur la plate assiette du cône par une perspective depuis le sommet d'icelui. C'est, en l'occurence, le contenu du Lemme II de l'Essay. On remarque ensuite qu'il nous suffit, comme le montre la figure 23, de démontrer que les trois droites MS, NO et PQ sont concourantes, ce qui constitue en La démonstration qui précède, toute convaincante qu'elle soit, laisseà désirer sur un point : si l'on admet que Pascal a travaillé sur ce sujet sous la houlette de Desargues, on peut penser qu'il a donné une preuve de son lemme qui soit autonome et ne fasse pas appel, du moins directement, aux résultats d'Apollonius. Sur la connaissance que Desargues pouvait avoir des traités antiques d'Apollonius et de Pappus, il est assez difficile de se faire une idée précise. Il se défend souvent d'en avoir fait lecture, affirmant par exemple, dans sa lettreà Mersenne du 4 avril 1638 72 qu'il n'a « conoissance de ces matieres que par (ses) propres et particulieres contemplations (. . .) », opinion qui se trouve relayée par d'autres, comme Carcavy dans sa lettreà Huyghens du 22 juin 1656 73 . On peut cependant penser que Desargues a au moins une connaissance indirecte des sources antiques grâce, par exemple,à ses contacts avec Claude Mydorge, qui publia en plusieurs fois (en 1631 et 1639) un traité sur les coniques 74 . Des passages de sa lettreà Mersenne citée cidessus peuventêtre interprétés comme allant en ce sens. Enfin et surtout, Voir l'édition de Taton. 16Voir l'édition de Taton [16], pp. 80-86. Voir l'article [10] de Luigi Maierù sur ce sujet. Voir l'article [10] de Luigi Maierù sur ce sujet. Aix-Marseille, sans qui ce travail n'aurait jamais vu le jour ; nous remercions en particulier Sara Ploquin-Donzenac pour son aide précieuse et constante. Nous tenonségalementà remercier Valérie Debuiche et Sylvie Pic pour les fructueuses discussions que nous avons au sujet du Brouillon Project. Nous remercions plus particulièrement Philippe Abgrall pour ses nombreuses suggestions et sa relecture attentive du présent texte. Nous remercionségalement Sylvie Biet, conservatrice en chef de la bibliothèque de l'Institut de France pour nous avoir permis d'accéderà la version manuscrite de la main de. Remerciements : les auteurs tiennentà remercier l'équipe de la licence sciences et humanités de l'université d. Philippe de la Hire du Brouillon Project. RéférencesRemerciements : les auteurs tiennentà remercier l'équipe de la licence sciences et humanités de l'université d'Aix-Marseille, sans qui ce travail n'au- rait jamais vu le jour ; nous remercions en particulier Sara Ploquin-Donzenac pour son aide précieuse et constante. Nous tenonségalementà remercier Va- lérie Debuiche et Sylvie Pic pour les fructueuses discussions que nous avons au sujet du Brouillon Project. Nous remercions plus particulièrement Phi- lippe Abgrall pour ses nombreuses suggestions et sa relecture attentive du présent texte. Nous remercionségalement Sylvie Biet, conservatrice en chef de la bibliothèque de l'Institut de France pour nous avoir permis d'accéderà la version manuscrite de la main de Philippe de la Hire du Brouillon Project. Références Desargues' method of perspective : its mathematical content, its connection to other perspective methods and its relation to Desargues' ideas on projective geometry. Kirsti Andersen, Centaurus. 341Kirsti Andersen. Desargues' method of perspective : its mathematical content, its connection to other perspective methods and its relation to Desargues' ideas on projective geometry. Centaurus, 34(1) :44-91, 1991. La notion d'involution dans le Brouillon Project de Girard Desargues. Marie Anglade, Jean-Yves Briend, Arch. Hist. Exact Sci. 716Marie Anglade and Jean-Yves Briend. La notion d'involution dans le Brouillon Project de Girard Desargues. Arch. Hist. Exact Sci., 71(6) :543-588, 2017. Alexandre Pacha, Caratheodory , Traité du Quadrilatère, attribuéà Nassiruddin-el-Toussy. Typographie et Lithographie Osmanié, Constantinople. Alexandre Pacha Caratheodory. Traité du Quadrilatère, attribuéà Nassiruddin-el-Toussy. Typographie et Lithographie Osmanié, Constan- tinople, 1891. Geometry revisited. H S M Coxeter, S L Greitzer, New Mathematical Library. 19Random House, IncH. S. M. Coxeter and S. L. Greitzer. Geometry revisited, volume 19 of New Mathematical Library. Random House, Inc., New York, 1967. Perspective in Leibniz's invention of characteristica geometrica : the problem of Desargues' influence. Valérie Debuiche, Historia Math. 404Valérie Debuiche. Perspective in Leibniz's invention of characteris- tica geometrica : the problem of Desargues' influence. Historia Math., 40(4) :359-385, 2013. Apollonius de Perge, Coniques, Tome 2.3 : Livres II -IV. Scientia Graeco-Arabica. Micheline Decorps, - Foulquier, Michel Federspiel, Walter de GruyterBerlin, New YorkMicheline Decorps-Foulquier and Michel Federspiel. Apollonius de Perge, Coniques, Tome 2.3 : Livres II -IV. Scientia Graeco-Arabica. Walter de Gruyter, Berlin, New York, 2010. Blaise Pascal et les sections coniques. Christian Houzel, Les courbes. Etudes sur l'histoire d'un concept. ParisChristian Houzel. Blaise Pascal et les sections coniques. In Les courbes. Etudes sur l'histoire d'un concept, pages 87-106. Libr. Sci. A. Blanchard, Paris, 2013. Die Sphärik von Menelaos aus Alexandrien. Max Krause, der Verbesserung von Abū Nas . r Mans .ū r ibn Alī ibn Irāq. Number 17 in Abhandlungen der Gesellschaft der Wissenschaften zu Göttingen. Philologischhistorische Klasse. Weidmann. BerlinMax Krause. Die Sphärik von Menelaos aus Alexandrien, in der Verbes- serung von Abū Nas . r Mans .ū r ibn Alī ibn Irāq. Number 17 in Abhand- lungen der Gesellschaft der Wissenschaften zu Göttingen. Philologisch- historische Klasse. Weidmann, Berlin, 1936. Desargues et la naissance de la géométrie projective. Jean-Pierre Le Goff, Desargues en son temps. ParisJean-Pierre Le Goff. Desargues et la naissance de la géométrie projective. In Desargues en son temps, pages 157-206. Libr. Sci. A. Blanchard, Paris, 1994. Le Traité des coniques de Claude Mydorge, entre lecture des Classiques et les nouvellesélaborations. Luigi Maieru, Les courbes.Études sur l'histoire d'un concept. ParisLuigi Maieru. Le Traité des coniques de Claude Mydorge, entre lecture des Classiques et les nouvellesélaborations. In Les courbes.Études sur l'histoire d'un concept, pages 39-86. Libr. Sci. A. Blanchard, Paris, 2013. Traité des propriétés projectives des figures. Jean-Victor Poncelet, libraire, quai des Augustins. Paris1822Jean-Victor Poncelet. Traité des propriétés projectives des figures. Ba- chelier, libraire, quai des Augustins, Paris, 1822. Composition Mathématique de Claude Ptolémée, traduite pour la premiè fois du grec en français par M. Halma, tome premier. Claude Ptolémée, Henri Grand1813ParisClaude Ptolémée. Composition Mathématique de Claude Ptolémée, tra- duite pour la premiè fois du grec en français par M. Halma, tome pre- mier. Henri Grand, Paris, 1813. Apollonius de Perge, Coniques, Tome 2.1 : Livres II et III. Scientia Graeco-Arabica. Roshdi Rashed, Walter de GruyterBerlin, New YorkRoshdi Rashed. Apollonius de Perge, Coniques, Tome 2.1 : Livres II et III. Scientia Graeco-Arabica. Walter de Gruyter, Berlin, New York, 2010. Thabīt ibn Qurra, Science and Philosophy in Ninth-Century Baghdad. Scientia Graeco-Arabica. Roshdi Rashed, Walter de GruyterBerlin, New YorkRoshdi Rashed. Thabīt ibn Qurra, Science and Philosophy in Ninth- Century Baghdad. Scientia Graeco-Arabica. Walter de Gruyter, Berlin, New York, 2010. . Jean-Claude Sidler, ParisGéométrie projective. 2 e cyle, capes, agrégation. DunodJean-Claude Sidler. Géométrie projective. 2 e cyle, capes, agrégation. Dunod, Paris, 2000. L'oeuvre mathématiques de G. Desargues. Bibl. de philosophie contemporaine Félix Alcan. Presses universitaires de France. René Taton, ParisRené Taton. L'oeuvre mathématiques de G. Desargues. Bibl. de philoso- phie contemporaine Félix Alcan. Presses universitaires de France, Paris, 1951. L'oeuvre de Pascal en géométrie projective. Revue d'histoire des sciences et de leurs applications. René Taton, 15René Taton. L'oeuvre de Pascal en géométrie projective. Revue d'histoire des sciences et de leurs applications, 15(3-4) :197-252, 1962.
sample_1117
0.8645
arxiv
Effective radiative forcing in the aerosol-climate model CAM5.3- MARC-ARG Benjamin S Grandey Center for Environmental Sensing and Modeling Singapore-MIT Alliance for Research and Technology Singapore Daniel Rothenberg Center for Global Change Science Massachusetts Institute of Technology CambridgeMassachusettsUSA Alexander Avramov Center for Global Change Science Massachusetts Institute of Technology CambridgeMassachusettsUSA Department of Environmental Sciences Emory University AtlantaGeorgiaUSA Qinjian Jin Center for Global Change Science Massachusetts Institute of Technology CambridgeMassachusettsUSA Hsiang-He Lee Center for Environmental Sensing and Modeling Singapore-MIT Alliance for Research and Technology Singapore Xiaohong Liu Department of Atmospheric Science University of Wyoming LaramieWyomingUSA Zheng Lu Department of Atmospheric Science University of Wyoming LaramieWyomingUSA Samuel Albani Department of Earth and Atmospheric Sciences Cornell University IthacaNew YorkUSA LSCE/IPSL Laboratoire des Sciences du Climat et de l'Environnement CEA-CNRS-UVSQ Gif-sur-YvetteFrance Chien Wang Center for Environmental Sensing and Modeling Singapore-MIT Alliance for Research and Technology Singapore Center for Global Change Science Massachusetts Institute of Technology CambridgeMassachusettsUSA Effective radiative forcing in the aerosol-climate model CAM5.3- MARC-ARG Correspondence to: Benjamin S. Grandey (benjamin@smart.mit.edu) We quantify the effective radiative forcing (ERF) of anthropogenic aerosols modelled by the aerosol-climate model CAM5.3-MARC-ARG. CAM5.3-MARC-ARG is a new configuration of the Community Atmosphere Model version 5.3 (CAM5.3) in which the default aerosol module has been replaced by the two-Moment, Multi-Modal, Mixing-stateresolving Aerosol model for Research of Climate (MARC). CAM5.3-MARC-ARG uses the default ARG aerosol activation scheme, consistent with the default configuration of CAM5.3. We compute differences between simulations using year-1850aerosol emissions and simulations using year-2000 aerosol emissions in order to assess the radiative effects of anthropogenic aerosols. We compare the aerosol column burdens, cloud properties, and radiative effects produced by CAM5.3-MARC-ARG with those produced by the default configuration of CAM5.3, which uses the modal aerosol module with three lognormal modes (MAM3). Compared with MAM3, we find that MARC produces stronger cooling via the direct radiative effect, stronger cooling via the surface albedo radiative effect, and stronger warming via the cloud longwave radiative effect.The global mean cloud shortwave radiative effect is similar between MARC and MAM3, although the regional distributions differ. Overall, MARC produces a global mean net ERF of W m -2 , which is stronger than the global mean net ERF of W m -2 produced by MAM3. The regional distribution of ERF also differs between MARC and MAM3, largely due to differences in the regional distribution of the cloud shortwave radiative effect. We conclude that the specific representation of aerosols in global climate models, including aerosol mixing state, has important implications for climate modelling.IntroductionAerosol particles influence the earth's climate system by perturbing its radiation budget. There are three primary mechanisms by which aerosols interact with radiation. First, aerosols interact directly with radiation by scattering and absorbing solar and thermal infrared radiation(Haywood and Boucher, 2000). Second, aerosols interact indirectly with radiation by perturbing clouds, by acting as the cloud condensation nuclei on which cloud droplets form and the ice nuclei that facilitate freezing of cloud droplets (Fan et al., 2016; Rosenfeld et al., 2014): for example, an aerosol-induced increase in cloud cover would lead to increased scattering of "shortwave" solar radiation and increased absorption of "longwave" thermal infrared radiation. Third, aerosols can influence the albedo of the earth's surface (Ghan, 2013): for example, deposition of absorbing aerosol on snow reduces the albedo of the snow, causing more solar radiation to be absorbed at the earth's surface. The "effective radiative forcing" (ERF) of anthropogenic aerosols, defined as the top-of-atmosphere radiative effect caused by anthropogenic emissions of aerosols and aerosol precursors, is often used to quantify the radiative effects of aerosols (Boucher et al., 2013). The anthropogenic aerosol ERF is approximately equivalent to "the radiative flux perturbation associated with a change from preindustrial to present-day [aerosol emissions], calculated in a global climate −1.75 ± 0.04 −1.57 ± 0.04 ! 1 model using fixed sea surface temperature" (Haywood and Boucher, 2000). This approach "allows clouds to respond to the aerosol while [sea] surface temperature is prescribed" (Ghan, 2013). The primary tools available for investigating the anthropogenic aerosol ERF are state-of-the-art global climate models. However, there is widespread disagreement among these models, especially regarding the magnitude of anthropogenic aerosol ERF (Quaas et al., 2009; Shindell et al., 2013). Of particular importance are model parameterizations related to aerosol-cloud interactions, such as the aerosol activation scheme (Rothenberg et al., 2017), the choice of autoconversion threshold radius (Golaz et al., 2011), and constraints on the minimum cloud droplet number concentration (Hoose et al., 2009). The detailed representation of aerosols also likely plays an important role, because the aerosol particle size and chemical composition determine hygroscopicity and hence influence aerosol activation (Petters and Kreidenweis, 2007).The magnitude of the ERF of anthropogenic aerosols is highly uncertain: estimates of the global mean anthropogenic aerosol ERF range from to W m -2(Boucher et al., 2013). Since the present-day anthropogenic aerosol ERF partially masks the warming effects of anthropogenic greenhouse gases, the large uncertainty in the anthropogenic aerosol ERF is a major source of uncertainty in estimates of equilibrium climate sensitivity and projections of future climate(Andreae et al., 2005). Furthermore, the anthropogenic aerosol ERF is regionally inhomogeneous, adding another source of uncertainty in climate projections (Shindell, 2014). The regional inhomogeneity of the anthropogenic aerosol ERF has likely also influenced rainfall patterns during the 20 th century (Wang, 2015). In order to improve understanding of current and future climate, including rainfall patterns, it is necessary to improve understanding of the magnitude and regional distribution of the anthropogenic aerosol ERF.In this manuscript, we investigate the uncertainty in anthropogenic aerosol ERF associated with the representation of aerosols in global climate models. In particular, we assess the aerosol radiative effects produced by a new configuration of the Community Atmosphere Model version 5.3 (CAM5.3). In this new configuration -CAM5.3-MARC-ARG -the default modal aerosol module has been replaced with the two-Moment, Multi-Modal, Mixing-state-resolving Aerosol model for Research of Climate (MARC). We compare the aerosol radiative effects produced by CAM5.3-MARC-ARG with those produced by the default modal aerosol module in CAM5.3. 2 Methodology 2.1 Modal aerosol modules (MAM3 and MAM7) The Community Earth System Model version 1.2.2 (CESM 1.2.2) contains the Community Atmosphere Model version 5.3 (CAM5.3). Within CAM5.3, the default aerosol module is a modal aerosol module which parameterizes the aerosol size distribution with three log-normal modes (MAM3), each assuming a total internal mixture of a set of fixed chemical species (Liu et al., 2012). Optionally, a more detailed modal aerosol module with seven log-normal modes (MAM7) (Liu et al., 2012) can be used instead of MAM3. More recently, a version containing four modes (MAM4) (Liu et al., 2016) has also been coupled to CAM5.3, but we do not consider MAM4 in this study.The seven modes included in MAM7 are Aitken, accumulation, primary carbon, fine soil dust, fine sea salt, coarse soil dust, and coarse sea salt. Within each of these modes, MAM7 simulates the mass mixing ratios of internally-mixed sulfate, ammonium, primary organic carbon, secondary organic carbon, black carbon, soil dust, and sea salt .In MAM3, four simplifications are made: first, the primary carbon mode is merged into the accumulation mode;second, the fine soil dust and fine sea salt modes are also merged into the accumulation mode; third, the coarse soil dust and coarse sea salt modes are merged to form a single coarse mode; and fourth, ammonium is implicitly included via sulfate and is no longer explicitly simulated. As a result, MAM3 simulates just three modes: Aitken, accumulation, and coarse. This reduces the computational expense of the model. The two-Moment, Multi-Modal, Mixing-state-resolving Aerosol model for Research of Climate (MARC) The two-Moment, Multi-Modal, Mixing-state-resolving Aerosol model for Research of Climate (MARC), which is based on the aerosol microphysical scheme developed by Ekman et al. (2004Ekman et al. ( , 2006 and Kim et al. (2008), simulates the evolution of mixtures of aerosol species. Previous versions of MARC have been used both in cloud-resolving model simulations (Ekman et al., 2004(Ekman et al., , 2006(Ekman et al., , 2007Engström et al., 2008;Wang, 2005aWang, , 2005b and in global climate model simulations (Ekman et al., 2012;Kim et al., 2008Kim et al., , 2014. Recently, an updated version of MARC has been coupled to CAM5.3 within CESM1.2.2 . In contrast to MAM, MARC tracks the number concentrations and mass concentrations of both externally-mixed and internally-mixed aerosol modes with assumed lognormal size distributions. The externally-mixed modes include three pure sulfate modes (nucleation, Aitken, and accumulation), pure organic carbon, and pure black carbon. The internallymixed modes include mixed organic carbon plus sulfate and mixed black carbon plus sulfate. In the mixed organic carbon plus sulfate mode, it is assumed that the organic carbon and sulfate are mixed homogeneously within each particle; in the mixed black carbon plus sulfate mode, it is assumed that each particle contains a black carbon core surrounded by a sulfate shell. Sea salt and mineral dust are represented using sectional single-moment schemes, each with four size bins (Albani et al., 2014;Mahowald et al., 2006;Scanza et al., 2015). Sea salt emissions follow the default scheme used by MAM , based on simulated wind speed and sea surface temperature. Dust emissions follow the tuning of Albani et al. (Albani et al., 2014), based on simulated wind speed and soil properties, including soil moisture and vegetation cover. Emissions of sulfur dioxide, dimethyl sulfide, primary sulfate aerosol, organic carbon aerosol, black carbon aerosol, and volatile organic compounds (such as isoprene and monoterpene) are prescribed. The aerosol removal processes represented by MARC -including nucleation scavenging by both stratiform and Simulations In order to compare results from MAM3, MAM7, and MARC, five CAM5.3 simulations are performed: 1. "MAM3_2000", which uses MAM3 with year-2000 aerosol (including aerosol precursor) emissions; 2. "MAM7_2000", which uses MAM7 with year-2000 aerosol emissions; 3. "MARC_2000", which uses MARC with year-2000 aerosol emissions; 4. "MAM3_1850", which uses MAM3 with year-1850 aerosol emissions; and 5. "MARC_1850", which uses MARC with year-1850 aerosol emissions. The three simulations using year-2000 emissions, referred to as the "year-2000 simulations", facilitate comparison of aerosol fields and cloud fields; the two simulations using year-1850 emissions, referred to as the "year-1850 simulations", further facilitate analysis of the aerosol radiative effects produced by MAM3 and MARC. There is no MAM7 simulation using year-1850 aerosol emissions, due to a lack of year-1850 emissions files for MAM7. The only difference between the year-2000 simulations and the year-1850 simulations is the aerosol (including aerosol precursor) emissions. In the figures and discussion of results, "2000-1850" and "! " both refer to differences between the year-2000 simulation and the year-1850 simulation for a given aerosol module (e.g. MARC_2000-MARC_1850). The prescribed emissions for both MAM and MARC follow the default MAM emissions files, described in the Supplement of Liu et al. (2012), based on Lamarque et al. (2010). This differs from , who used different emissions of organic carbon aerosol, black carbon aerosol, and volatile organic compounds. In this study, we deliberately use identical emissions for MAM and MARC so that the influence of emissions inventories can be minimised when the results are compared. For the MAM simulations, the aerosol emissions from some sources follow a vertical profile . For the MARC simulations, sulfur emissions follow the same vertical profile as for MAM; but all organic carbon, black carbon, and volatile organic compounds are emitted at the surface. 2.5% of the sulfur dioxide is emitted as primary sulfate. Mineral dust and sea salt emissions are not prescribed, being calculated "online". Each simulation is run for 32 years, and the first two years are excluded as spin-up. Hence, a period of 30 years is analysed. Diagnosis of radiative effects Pairs of prescribed-SST simulations, with differing aerosol emissions, facilitate diagnosis of anthropogenic aerosol ERF via the "radiative flux perturbation" approach (Haywood et al., 2009). When "clean-sky" radiation diagnostics are available, the ERF can be decomposed into contributions from different radiative effects (Ghan, 2013). (We use the term "radiative forcing" only when referring to ERF, defined as the radiative flux perturbation between a simulation using year-1850 emissions and a simulation using year-2000 emissions; we use the term "radiative effect" more generally.) The shortwave effective radiative forcing (! ) can be decomposed as follows: ! (1) where ! refers to the 2000-1850 difference, ! is the direct radiative effect, ! is the clean-sky shortwave cloud radiative effect, and ! is the 2000-1850 surface albedo radiative effect. These components are defined as follows: ! (2) ! (3) ∆ E R F SW E R F SW = ∆ DR E SW + ∆ C R E SW + ∆ SR E SW ∆ DR E SW C R E SW ∆ SR E SW E R F SW = ∆ F DR E SW = (F − F clean ) ! 4 ! (4) !(5) where ! is the net shortwave flux at top-of-atmosphere (TOA), ! is the clean-sky net shortwave flux at TOA, and ! is the clean-sky clear-sky net shortwave flux at TOA. ("Clear-sky" refers to a hypothetical situation where clouds do not interact with radiation; "clean-sky" refers to a hypothetical situation where aerosols do not directly interact with radiation.) The longwave effective radiative forcing (! ) is calculated as follows: ! (6) where ! is the net longwave flux at TOA, ! is the clear-sky net longwave flux at TOA, and ! is the longwave cloud radiative effect. Eq. (6) assumes that aerosols and surface albedo changes do not influence the longwave flux at TOA, so that ! . The net effective radiative forcing (! ) is simply the sum of ! and ! : ! .(7) All the quantities mentioned in Eqs. (1)-(7) are calculated at TOA. We also consider absorption by aerosols in the atmosphere (! ), defined as follows: ! (8) where ! is the net shortwave flux at the earth's surface, and ! is the clean-sky net shortwave flux at the earth's surface. Results We focus on model output fields relating to different components of the ERF, taking each component in turn: the direct radiative effect, the cloud radiative effect, and the surface albedo radiative effect. When discussing each of these components, we also discuss related model field; for example, in the section discussing the direct radiative effect we also consider other fields related to direct aerosol-radiation interactions. But first, to provide context for the discussion of the radiative effects, we examine the aerosol column burdens. Aerosol column burdens An aerosol column burden, also referred to as a loading, reveals the total mass of a given aerosol species in an atmospheric column. The advantage of column burdens is that they are relatively simple to understand, facilitating comparison between the different aerosol modules. However, when comparing the column burdens, it is important to remember that information about aerosol size distribution and aerosol mixing state is hidden. Information about the vertical distribution is also hidden, because the burdens are integrated throughout the atmospheric column. Oceania. For both MAM3 and MARC, global mean ! accounts for more than half of global mean year-2000 ! , indicating that anthropogenic sulfur emissions are responsible for more than half of the global burden of sulfate aerosol. unchanged so these species are unlikely to contribute to ! . S8e, f) likely also influence ! , because precipitation efficiently removes sea salt aerosol from the atmosphere. Total sulfate aerosol burden C R E SW = (F clean − F clean,clear ) ∆ SR E SW = ∆ F clean,clear F F clean F clean,clear E R F LW E R F LW = ∆ L ≈ ∆ ( L − L clear) = ∆ C R E LW L L clear C R E LW ∆ L clear ≈ 0 E R F SW+LW E R F SW E R F LW E R F SW+LW = ∆ (F + L) = E R F SW + E R F LW ≈ E R F SW + ∆ C R E LW A A A SW A A A SW = ( F − F clean) − (F surface − F surface clean ) F surface F surface clean B u r de n SO4 Total organic carbon aerosol burden Total black carbon aerosol burden However, it should be noted that the 2000-1850 differences in ! , surface wind speed, and precipitation rate are both relatively small and often statistically insignificant across most of the world. If an interactive dynamical ocean were to be used, allowing SSTs to respond to the anthropogenic aerosol ERF, it is likely that we would find much larger 2000-1850 differences in surface wind speed, precipitation rate, and ! . play a role. As we noted above when discussing the sea salt burden, if an interactive dynamical ocean were to be used, it is likely that we would find much larger 2000-1850 differences in surface wind speed, precipitation rate, and ! . Total dust aerosol burden Aerosol-radiation interactions and the direct radiative effect Aerosol optical depth Aerosols scatter and absorb shortwave radiation, leading to extinction of incoming solar radiation. Before considering the direct radiative effect, we first look at aerosol optical depth (! ), a measure of the total extinction due to aerosols in an atmospheric column. have also previously noted that the ! for MARC is generally lower than that retrieved from the MODerate Resolution Imaging Spectroradiometer (MODIS; Collection 5.1); but it should be noted that differences in spatial-temporal sampling (Schutgens et al., 2017(Schutgens et al., , 2016 have not been accounted for. The differences between the aerosol burdens for MAM3 and MARC, discussed above, are insufficient to explain the differences in year-2000 ! . Hence it is likely that differences in the optical properties of the MARC aerosols and the MAM3 aerosols are responsible for the fact that MARC generally produces lower values of ! . ∆ B u r de n salt B u r de n salt B u r de n salt B u r de n salt B u r de n salt B u r de n dust B u r de n dust B u r de n dust B u r de n dust B u r de n dust ∆ B u r de n dust B u r de n dust B u r de n dust B u r de n dust B u r de n dust B u r de n dust AOD AOD AOD AOD AOD AOD AOD AOD ! 7 Positive 2000-1850 differences in ! , ! , and ! , discussed above, drive positive values of ! , the 2000-1850 difference in ! ( Fig. 6d-f). As was the case for year-2000 ! , ! produced by MARC is generally much lower than ! produced by MAM3. Direct radiative effect Figure 7a-c shows the direct radiative effect (! ) for the year-2000 simulations. ! reveals the influence of direct interactions between radiation and aerosols on the net shortwave flux at TOA (Eq. (3)). Aerosols that scatter shortwave radiation efficiently, such as sulfate, generally contribute to negative values of ! , indicating a cooling effect on the climate system; aerosols that absorb shortwave radiation, such as black carbon, generally contribute to positive values of ! , indicating a warming effect on the climate system. Other factors, such as the presence of clouds, the vertical distribution of aerosols relative to clouds, and the albedo of the earth's surface, also play a role in determining ! (Stier et al., 2007). Due to these factors -especially the differing impact of scattering and absorbing aerosols and Absorption by aerosols in the atmosphere Figure 8a-c shows the absorption of shortwave radiation by aerosols in the atmosphere (! ; Eq. (8) ∆ AOD AOD AOD ∆ AOD ∆ AOD DR E SW DR E SW DR E SW DR E SW DR E SW AOD DR E SW DR E SW AOD DR E SW DR E SW ∆ DR E SW DR E SW −0.02 ± 0.01 ∆ DR E SW ∆ DR E SW −0.18 ± 0.01 A A A SW A A A SW DR E SW A A A SW B u r de n dust A A A SW A A A SW B u r de n BC A A A SW B u r de n dust B u r de n BC A A A SW A A A SW ∆ A A A SW A A A SW ∆ B u r de n BC ∆ A A A SW A A A SW ∆ A A A SW A A A SW ∆ A A A SW ! 8 3.3 Aerosol-cloud interactions and the cloud radiative effects Cloud condensation nuclei concentration Many aerosol particles have the potential to become the cloud condensation nuclei (CCN) on which water vapour condenses to form cloud droplets. Figure 9a- When we look in more detail at the regional distribution of year-2000 ! for MAM3, and compare this to the column burden results, we notice that locations with high ! have either high ! or high ! . This suggests that, for MAM3, the organic carbon aerosol -internally-mixed with other species with high hygroscopicitycontributes to efficient CCN, consistent with two previous MAM3-based studies that found that organic carbon emissions from wildfires can exert a strong influence on clouds (Grandey et al., 2016a;Jiang et al., 2016). In contrast, for MARC, the regional distribution of year-2000 ! closely resembles that of ! but does not resemble that of ! . This suggests that, for MARC, the organic carbon aerosol -much of which remains in a pure organic carbon aerosol mode with very low hygroscopicity -is not an efficient source of CCN. If we look at the results for ! , the 2000-1850 difference in ! (Figs. 9d-f, S1d-f, and S2d-f), similar deductions about sulfate aerosol and organic carbon aerosol can be made as were made above. For MAM3, the regional distribution of ! reveals that changes in the availability of CCN are associated with both ! and ! . For MARC, the regional distribution of ! is associated with ! , but is not closely associated with ! . For both MAM and MARC, ! is generally positive, revealing increasing availability of CCN between year-1850 and year-2000. The absolute increase is smaller for MARC than for MAM. It is important to note that these ! results are for a fixed supersaturation of 0.1%; but as pointed out by Rothenberg et al. "all aerosol [particles] are potentially CCN, given an updraft sufficient enough in strength to drive a highenough supersaturation such that they grow large enough to activate" . Furthermore, the number of CCN that are actually activated is influenced by competition for water vapour among various types of aerosol particles, which depends on the details of the aerosol population including size distribution and mixing state. When aerosol particles with a lower hygroscopicity rise alongside aerosol particles with a higher hygroscopicity in a rising air parcel, the latter would normally be activated first at a supersaturation that is much lower than the one required for the former to become activated; the consequent condensation of water vapour to support the diffusive growth of the newly formed cloud particles would effectively lower the saturation level of the air parcel and further reduce the chance for the lower hygroscopicity aerosol particles to be activated Wang, 2016, 2017). In other words, ! at a fixed supersaturation is not necessarily a good indicator of the number of CCN that are actually activated, because activation depends on specific environmental conditions and the details of the aerosol population present. In an aerosol model such as MAM3 that includes only internally-mixed modes, the hygroscopicity of a given mode is derived by volume weighting through all the included aerosol species and is therefore not very sensitive to changes in the chemical composition of the mode. In contrast, MARC explicitly handles mixing state and thus hygroscopicity of each individual type of aerosol. Column-integrated cloud droplet number concentration The availability of CCN influences cloud microphysics via the formation of cloud droplets. Figure 10a- : there appears to be no influence from organic carbon aerosol, consistent with the ! results discussed above; and the influence of sulfate aerosol appears weaker than for MAM. Interestingly, there is good agreement between MAM and MARC over the Southern Ocean: for both MAM and MARC, sea salt appears to have a substantial influence on year-2000 ! . When we look at ! , the 2000-1850 difference in ! (Fig. 10d-f), we see that anthropogenic emissions generally drive increases in ! , as expected. The absolute increase is smaller for MARC than for MAM. Grid-box cloud liquid and cloud ice water paths In addition to influencing cloud microphysical properties (such as cloud droplet number concentration), the availability of CCN and ice nuclei influence cloud macrophysical properties (such as cloud water path). Figure 11a-c shows grid-box cloud liquid water path (! ) for the year-2000 simulations. Year-2000 ! is highest in the tropics and midlatitudes. The regional distribution of year-2000 ! is similar to that of total cloud fractional coverage (Fig. S4a-c). increases in ! over Europe, East Asia, Southeast Asia, South Asia, parts of Africa, and northern South America -the regional distribution of ! is similar to the regional distributions of ! and ! . MARC produces large increase in ! over the same regions, and additionally over Australia and North America. Overall, ! is larger for MARC than for MAM3, especially over the Northern Hemisphere mid-latitudes. For MARC, in comparison with MAM3, the relatively strong ! response contrasts with the relatively weak ! response and ! response. Globally, for both MAM3 and MARC, the ! response is relatively weak (Fig. 12d-f). However, relatively large values of ! , both positive and negative, are found regionally. This regional response differs between MAM3 and MARC. For both MAM3 and MARC, it appears that decreases in ! correspond to increases in ! (Fig. 2e, f); but this relationship is likely spurious, because organic carbon aerosol does not directly influence ice processes in either aerosol module. The same applies to ! , the 2000-1850 difference in ! (Fig. 13d-f), which is strongly negatively correlated with ! and ! : increases in ! and ! drive a stronger shortwave cloud cooling effect. For both MAM3 and MARC, the cooling effect of ! is strongest in the Northern Hemisphere, particularly regions with high anthropogenic sulfur emissions, especially East Asia, Southeast Asia, and South Asia. Compared with MAM3, MARC produces a slightly stronger ! response in the mid-latitudes and a slightly weaker ! response in the sub-tropics. Another difference between MAM3 and MARC is the land-ocean contrast: compared with MAM3, MARC often produces a slightly stronger ! response over land but a weaker ! response over ocean. Shortwave cloud radiative effect When globally averaged, the global mean for MARC ( W m -2 ) is very similar to that for MAM3 ( W m -2 ). Considering the differences between MAM3 and MARC, we find it somewhat surprising that the two aerosol modules produce such a similar global mean response, although we have noted differences in the regional distribution. Longwave cloud radiative effect The cooling effect of ! is partially offset by the warming effect of ! (Eq. (6)), the longwave cloud radiative effect which arises due to absorption of longwave thermal infrared radiation. The surface albedo radiative effect In addition to interacting with radiation both directly and indirectly via clouds, aerosols can influence the earth's radiative energy balance via changes to the surface albedo. The surface albedo radiative effect (! ; Eq. (5)), "includes effects of both changes in snow albedo due to deposition of absorbing aerosol, and changes in snow cover induced by deposition and by the other aerosol forcing mechanisms" (Ghan, 2013). For both MAM and MARC, deposition of absorbing aerosol is enabled via the coupling between CAM5 and the land scheme in CESM; and "other aerosol forcing mechanisms" include aerosol-induced changes in precipitation rate. Aerosol-induced changes in column water vapor can also influence the calculation of ! , because ! is sensitive to near-infrared absorption by water vapour; but the contribution from such changes in column water vapour is small. W P liquid W P total W P liquid W P total ∆ C R E SW C R E SW ∆ W P liquid ∆ W P total W P liquid W P total ∆ C R E SW ∆ C R E SW ∆ C R E SW ∆ C R E SW ∆ C R E SW ∆ CR E SW −2.11 ± 0.03 −2.09 ± 0.04 ∆ CR E SW C R E SW C R E LW C R E LW C R E LW W P ice ∆ C R E LW C R E LW ∆ C R E LW ∆ C R E LW ∆ C R E LW + 0.54 ± 0.02 + 0.66 ± 0.02 ∆ C R E LW ∆ C R E SW ∆ SR E SW ∆ SR E SW F clean,clear ∆ SR E SW ∆ SR E SW ∆ SR E SW ∆ SR E SW + 0.00 ± 0.02 ∆ SR E SW −0.12 ± 0.02 ! 11 The ! response is associated with 2000-1850 changes in snow cover over both land and sea-ice ( Fig. S10d-f): increases in snow cover lead to negative ! values, while decreases in snow cover lead to positive ! values. Changes in snow rate (Fig. S11d-f) likely play a major role, explaining much of the snow cover response. Changes in black carbon deposition (Fig. S12d-f), contributing to changes in the mass of black carbon in the top layer of snow ( Fig. S13d-f), may also play a role. The mass of black carbon in the top layer of snow is much lower for MARC compared with MAM ( Fig. S13a-c); the 2000-1850 difference in the mass of black carbon in the top layer of snow is also much lower for MARC compared with MAM ( Fig. S13d-f). Net effective radiative forcing The net effective radiative forcing (! ) -the 2000-1850 difference in the net radiative flux at TOA (Eq. (7)) -is effectively the sum of the radiative effect components we discussed above. Figure 16 shows ! ; Table 1 summarises the global mean contribution from the different radiative effect components. In general, the cloud shortwave component, ! , dominates, resulting in negative values of ! across much of the world. In particular, strongly negative values of ! , indicating a large cooling effect, are found near regions with substantial anthropogenic sulfur emissions. The cooling effect is far stronger in the Northern Hemisphere than it is in the Southern Hemisphere. If coupled atmosphere-ocean simulations were to be performed, allowing SSTs to respond, the large inter-hemispheric difference in ! would likely impact inter-hemispheric temperature gradients and hence rainfall patterns (Chiang and Friedman, 2012;Grandey et al., 2016b;Wang, 2015). Across much of the globe, the net cooling effect of ! produced by MARC is similar to that produced by MAM. However, in the mid-latitudes, MARC produces a stronger net cooling effect, especially over North America, Europe, and northern Asia. Another difference is that MARC appears to exert more widespread cooling over land than MAM does, while the opposite appears to be the case over ocean. These differences in the regional distribution of ! are largely due to differences in the regional distribution of ! . As mentioned in the previous paragraph, rainfall patterns are sensitive to changes in surface temperature gradients. Therefore, if SSTs were allowed to respond to the forcing, the differences in the regional distribution of ! between MARC and MAM may drive differences in rainfall patterns. When averaged globally, MAM3 produces a global mean of W m -2 ; MARC produces a stronger global mean of W m -2 . The produced by CAM5.3-MARC-ARG is particularly strong compared with many other global climate models (Shindell et al., 2013). However, the global mean ! may become weaker if the inter-annual variability in the wildfire emissions of organic carbon were to be carefully accounted for (Grandey et al., 2016a). Summary and conclusions The specific representation of aerosols in global climate models, especially the representation of aerosol mixing state, has important implications for aerosol hygroscopicity, aerosol lifetime, aerosol column burdens, aerosol optical properties, and cloud condensation nuclei availability. For example, in addition to internally-mixed modes, MARC also includes a pure organic carbon aerosol mode and a pure black carbon aerosol mode both of which have very low hygroscopicity. The low hygroscopicity of these pure organic carbon and pure black carbon modes likely leads to increased aerosol lifetime compared with the internally-mixed modes. Therefore, far away from emissions sources, the column burdens of organic carbon aerosol and black carbon aerosol are higher for MARC compared with MAM3, which contains only internally-mixed aerosol modes. Furthermore, the representation of aerosol mixing state, and the associated implications for hygroscopicity, strongly influences the ability of the aerosol particles to act as cloud condensation nuclei. We have demonstrated that changing the aerosol module in CAM5.3 influences both the direct and indirect radiative effects of aerosols. Standard CAM5.3, which uses the MAM3 aerosol module, produces a global mean net ERF of ∆ SR E SW ∆ SR E SW ∆ SR E SW E R F SW+LW E R F SW+LW ∆ C R E SW E R F SW+LW E R F SW+LW E R F SW+LW E R F SW+LW E R F SW+LW ∆ C R E SW E R F SW+LW E R F SW+LW −1.57 ± 0.04 E R F SW+LW −1.75 ± 0.04 E R F SW+LW E R F SW+LW ! 12 W m -2 associated with the 2000-1850 difference in aerosol (including aerosol precursor) emissions; CAM5.3-MARC-ARG, which uses the MARC aerosol module, produces a stronger global mean net ERF of W m -2 , a particularly strong cooling effect compared with other climate models (Shindell et al., 2013). As summarised below, the difference in the global mean net ERF is primarily driven by differences in the direct radiative effect and the surface albedo radiative effect; but indirect radiative effects via clouds contribute to differences in the regional distribution of ERF produced by MAM3 and MARC. By analysing the individual components of the net ERF, we have demonstrated that: 1. The global mean 2000-1850 direct radiative effect produced by MAM3 ( W m -2 ) is close to zero due to the warming effect of black carbon aerosol opposing the cooling effect of sulfate aerosol and organic carbon aerosol. In contrast, the 2000-1850 direct radiative effect produced by MARC is W m -2 , with the cooling effect of sulfate aerosol being larger than the warming effect of black carbon aerosol. 2. The global mean 2000-1850 shortwave cloud radiative effect produced by MARC ( W m -2 ) is very similar to that produced by MAM3 ( W m -2 ). However, the regional distribution differs: for MAM3, the cooling peaks in the Northern Hemisphere subtropics; while for MARC, the cooling peaks in the Northern Hemisphere mid-latitudes. The land-ocean contrast also differs: compared with MAM3, MARC often produces stronger cooling over land but weaker cooling over ocean. For both MAM3 and MARC, the 2000-1850 shortwave cloud radiative effect is closely associated with changes in liquid water path. 3. The global mean 2000-1850 longwave cloud radiative effect produced by MARC ( W m -2 ) is stronger than that produced by MAM3 ( W m -2 ). For both MAM3 and MARC, the 2000-1850 longwave cloud radiative effect is closely associated with changes in ice water path and high cloud cover. 4. The global mean 2000-1850 surface albedo radiative effect produced by MARC ( W m -2 ) is also stronger than that produced by MAM3 ( W m -2 ). The 2000-1850 surface albedo radiative effect is associated with changes in snow cover. If climate simulations were to be performed using a coupled atmosphere-ocean configuration of CESM, these differences in the radiative effects produced by MAM3 and MARC would likely lead to differences in the climate response. In particular, the differences in the regional distribution of the radiative effects would likely impact rainfall patterns (Wang, 2015). In light of these results, we conclude that the specific representation of aerosols in global climate models has important implications for climate modelling. Important interrelated factors include the representation of aerosol mixing state, size distribution, and optical properties. Appendix A: Computational performance In order to assess the computational performance of MARC, in comparison with MAM, we have performed six timing simulations. The configuration of these simulations is described in the caption of Table S1. Before looking at the results, it is worth noting that the default radiation diagnostics differ between MARC and MAM. As highlighted by Ghan (Ghan, 2013), in order to calculate the direct radiative effect of aerosols, a second radiation call is required in order to diagnose "clean-sky" fluxes -in this diagnostic clean-sky radiation call, interactions between aerosols and radiation are switched off. In MARC, these clean-sky fluxes are diagnosed by default. However, in MAM, these clean-sky fluxes are not diagnosed by default, although simulations can be configured to include the necessary diagnostics. The inclusion of the clean-sky diagnostics increases computational expense. Hence, in order to facilitate a fair comparison between MARC and MAM, we have performed two simulations for each aerosol module: one with clean-sky diagnostics switched on, and one with clean-sky diagnostics switched off. The results from the timing simulations are shown in Table S1. When clean-sky diagnostics are switched off, as would ordinarily be the case for long climate-scale simulations, using MARC increases the computational cost by only 6% condensation nuclei concentration (Figs. S1 and S2), cloud water path and fraction (Figs. S3-S7), total precipitation rate ( Fig. S8), wind speed (Fig. S9), snow cover and rate (Figs. S10 and S11), and black carbon deposition (Figs. S12 and S13). Table Table S1: Results from the six timing simulations. Each of these simulations consists of "20-day model runs with restarts and history turned off" (CESM Software Engineering Group, 2015), repeated five times in order to assess variability. The repetition of each simulation allows the standard error to be calculated via calculation of the corrected sample standard deviation. For consistency, all runs have been submitted on the same day. For each run, 720 processors, spread across 20 nodes on Cheyenne ) E R F SW+LW Δ surface albedo radiative effect (! ) ∆ SR E SW Δ longwave cloud radiative effect (! ) ∆ C R E LW Δ shortwave cloud radiative effect (! ) ∆ C R E SW Δ direct radiative effect (! ) ∆ DR E SW ! 19 Supplementary CESM 1.2.2, with CAM5.3, is used for all simulations. Greenhouse gas concentrations and sea surface temperatures (SSTs) are prescribed using year-2000 climatological values, based on the "F_2000_CAM5" component set. CAM5.3 is run at a horizontal resolution of 1.9°×2.5° with 30 levels in the vertical direction. Clean-sky radiation diagnostics are included, facilitating diagnosis of the direct radiative effect. The Cloud Feedback Model Intercomparison Project (CFMIP) Observational Simulator Package (COSP) (Bodas-Salcedo et al., 2011) is switched on, although the COSP diagnostics are not analysed in this manuscript. Figure Figure 1a-c shows the total sulfate aerosol burden (! ) for the year-2000 simulations. For all three aerosol Figure 1d-f shows ! Figure 2a - 2ac shows the total organic carbon aerosol burden (! ) for the year-2000 simulations. For both MAM3 and MARC, year-2000 ! peaks in the tropics, especially sub-Saharan Africa and South America, due to emissions from wildfires. The impact of anthropogenic emissions of organic carbon aerosol is evident over South Asia and East Asia. Biogenic emissions of isoprene and monoterpene also contribute to ! . In general, year-2000 ! is higher for MARC than it is for MAM. This suggests that the organic carbon aerosol lifetime is longer for MARC compared with MAM, consistent with the differing representations of mixing state influencing wet removal efficiency: MAM3 assumes that all organic carbon aerosol is internally-mixed with other species, whereas MARC also includes a pure organic carbon aerosol mode with very low hygroscopicity. Over the major emissions regions of organic carbon aerosol, MAM3 and MARC both produce positive values of ! , the 2000-1850 difference in ! (Fig. 2d-f). However, negative values of ! are found over North America, especially for MAM3. These 2000-1850 differences arise due to changes in both wildfire emissions and anthropogenic emissions of organic carbon aerosol between year-1850 and year-2000. Although emissions of some volatile organic compounds do change between year-1850 and year-2000, emissions of isoprene and monoterpene remain Figure 3a - 3ac shows the total black carbon aerosol burden (! ) for the year-2000 simulations. For both MAM3 and Figure 5a - 5ac shows the total dust aerosol burden (! ) for the year-2000 simulations. Dust emission primarily occurs over desert areas, especially the Sahara Desert, so year-2000 ! is highest directly over and downwind of these desert source regions. Year-2000 ! is much larger for MARC, which follows Albani et al., (2014), compared with MAM. The largest differences between MAM3 and MARC appear to occur directly over the desert source regions, suggesting that differences in dust emission drive the differences in year-2000 ! -if this is the case, dust emission is far higher for MARC compared with MAM over the Sahara, Middle East, and East Asian deserts, while the opposite may be true over southern Africa and Australia. However, differences in the lifetime of dust aerosol may also contribute to the differences in year-2000 ! between MAM and MARC. We expect the dust aerosol lifetime to be longer for MARC compared with MAM3, because MAM3 assumes internal mixing of dust with sulfate and sea salt within the coarse mode, thereby increasing the wet removal rate (Liu et al., 2012), while MARC assumes that dust aerosol remains pure (with no internal mixing).! , the 2000-1850 difference in ! (Fig. 5d-f), reveals that ! decreases between year-1850 and year-2000, especially over the Sahara Desert. Both MAM3 and MARC produce a similar zonal mean decrease in ! . The reasons for the 2000-1850 changes in ! are unclear, although changes in surface wind speed (Fig. S9d-f), influencing emission, and changes in precipitation rate (Fig. S8d-f), influencing lifetime, likely Figure 6a - 6ac shows ! for the year-2000 simulations. For both MAM and MARC, zonal mean year-2000 ! peaks in the Northern Hemisphere subtropics, driven by emission of dust from deserts, especially the Sahara Desert. Over other regions, both anthropogenic aerosol emissions and natural aerosol emissions, including emissions of sea salt, contribute to year-2000 ! . The year-2000 ! values for MARC are often much lower than those for MAM3, especially over subtropical ocean regions. Figure 12a - 12ac shows grid-box cloud ice water path (! ) for the year-2000 simulations. As with ! , year-2000 ! is highest in the tropics and mid-latitudes. The regional distribution of year-2000 ! is similar to that of high-level cloud fractional coverage (Fig. S7a-c), and is similar between MAM and MARC. However, year-2000 ! is consistently lower for MARC than for MAM. Although MARC and MAM3 are coupled to the same ice and mixed-phase cloud microphysics scheme (Gettelman et al., 2010; Liu et al., 2007), differences in the availability of ice nuclei can arise due to differences in dust and sulfate number concentrations and size distributions. Differences in tuneable parameters, for which observational constraints do not exist, may also play a role: the uncertainties associated with ice nucleation are very large (Garimella et al., 2017). The 2000-1850 differences in ! and ! are shown in Figs. 11d-f and 12d-f. MAM3 produces large Figure 13a - 13ac shows the clean-sky shortwave cloud radiative effect (! ; Eq. (4)) for the year-2000 simulations. Clouds scatter much of the incoming solar radiation, exerting a strong cooling effect on the climate system. This cooling effect is strongest in the tropics and mid-latitudes. The regional distribution of year-2000 ! is strongly negatively correlated Figure 14a - 14ac shows ! for the year-2000 simulations. As with the shortwave cooling effect, the longwave warming effect is strongest in the tropics and mid-latitudes, for both MAM and MARC. The regional distribution of year-2000 ! is positively correlated with ! (Fig. S12ac) and high-level cloud fraction (Fig. S7a-c) -high-level ice cloud drives the longwave warming effect. The same is true for ! , the 2000-1850 difference in ! (Fig. 14d-f): changes in high-level ice cloud cover drive changes in the longwave cloud warming effect. For both MAM3 and MARC, ! is positive over much of Southeast Asia, South Asia, the Indian Ocean, the Atlantic Ocean, and Pacific Ocean; ! is negative over much of Africa and parts of South America. When averaged globally, MAM3 produces a global mean ! of ! W m -2 , while MARC produces a stronger global mean of W m -2 . Hence offsets approximately one quarter to one third of the ! cooling effect. (! does not include changes in land use, because the only difference between the year-1850 and year-2000 simulations is the aerosol emissions.) Figure 15 shows ! , the 2000-1850 surface albedo radiative effect. In the Arctic and high-latitude land regions of the Northern Hemisphere, ! can be relatively large. MAM3 produces a mixture of positive and negative values, averaging out to approximately zero globally ( W m -2 ). However, MARC tends to produce mainly negative values, averaging out to a global mean of W m -2 . FiguresFigure 1 :Figure 2 : 21 !Figure 3 : 22 !Figure 4 : 23 !Figure 5 : 24 !Figure 6 :Figure 7 : 26 Figure 8 : 27 Figure 9 : 28 Figure 10 : 29 Figure 11 :Figure 12 : 31 Figure 13 : 32 Figure 14 :Figure 15 :Figure 16 : 1221322423524672682792810291112311332141516Annual mean total sulfate aerosol burden (! ). For the zonal means (a, d), the standard errors, calculated using the annual zonal mean for each simulation year, are indicated by shading; but this shading is not visible inFig. 1, because the standard errors are smaller than the width of the plotted lines. For the maps (b, c, e, f), the area-weighted global mean and associated standard error, calculated using the annual global mean for each simulation year, are shown below each map. For the maps showing 2000-1850 differences (e, f), white indicates differences with a magnitude less than the threshold value in the centre of the colour bar ( mg m -2 ). For locations where the magnitude is greater than this threshold value, stippling indicates differences that are statistically significant at a significance level of 0.05 after controlling the false discovery rate (Benjamini and Hochberg, 1995; Wilks, 2016); the two-tailed p values are generated by Welch's unequal variances t-test, using annual mean data from each simulation year as the input; the approximate p value threshold, ! , which takes the false discovery rate into account, is written underneath each map. The analysis period is 30 years. Annual mean total organic carbon aerosol burden (! ). MARC does not directly diagnose total organic carbon aerosol burden, so we have used the mass-mixing ratios diagnosed by MARC in order to calculate the total organic carbon aerosol burden -the errors associated with this post-processing step are estimated to be less than 1% for all grid-boxes, and the errors are far smaller when global mean averaging is applied. The figure components are explained in theFig. 1caption.B u r de n OC! Annual mean total black carbon aerosol burden (! ). MARC does not directly diagnose total black carbon aerosol burden, so we have used the mass-mixing ratios diagnosed by MARC in order to calculate the total black carbon aerosol burden. The figure components are explained in theFig. 1 caption.B u r de n BC! Annual mean total sea salt aerosol burden (! ). MARC does not directly diagnose sea salt aerosol burden, so we have used the mass-mixing ratios diagnosed by MARC in order to calculate the total sea salt aerosol burden. The figure components are explained in theFig. 1 caption.B u r de n salt! Annual mean dust aerosol burden (! ). MARC does not directly diagnose dust aerosol burden, so we have used the mass-mixing ratios diagnosed by MARC in order to calculate the total dust aerosol burden. The figure components are explained in theFig. 1 caption.B u r de ndust ! Annual mean aerosol optical depth (! ). The figure components are explained in the Fig. 1 caption. Annual mean direct radiative effect (! ; Eq. (3)). The figure components are explained in the Fig. 1 caption. For all four maps, white indicates differences with a magnitude less than the threshold value in the centre of the corresponding colour bar. DR E SW ! Annual mean absorption by aerosols in the atmosphere (! ; Eq. (8)). The figure components are explained in the Fig. 1 caption. For all four maps, white indicates differences with a magnitude less than the threshold value in the centre of the corresponding colour bar. A A A SW ! Annual mean cloud condensation nuclei concentration at 0.1% supersaturation (! ) in model level 24 (in the lower troposphere). The figure components are explained in the Fig. 1 caption. Corresponding results, showing ! near the surface and in the mid-troposphere (model level 19), are shown in Figs. S1 and S2 of the Supplement. C C N conc C C N conc ! Annual mean column-integrated cloud droplet number concentration (! ). The figure components are explained in the Fig. 1 caption. C DNC column ! Annual mean grid-box cloud liquid water path (! ). The figure components are explained in the Fig. 1 caption. Annual mean grid-box cloud ice water path (! ). The figure components are explained in the Fig. 1 caption. W P ice ! Annual mean clean-sky shortwave cloud radiative effect (! ; Eq. (4)). The figure components are explained in the Fig. 1 caption. For all four maps, white indicates differences with a magnitude less than the threshold value in the centre of the corresponding colour bar. C R E SW ! Annual mean longwave cloud radiative effect (! ; Eq. (6)). The figure components are explained in the Fig. 1 caption. For all four maps, white indicates differences with a magnitude less than the threshold value in the centre of the corresponding colour bar. Annual mean 2000-1850 surface albedo radiative effect (! ; Eq. (5)). The figure components are explained in the Fig. 1 caption. Annual mean 2000-1850 net effective radiative forcing (! ; Eq. (7)). The figure components are explained in the Fig. 1 caption. When comparing the relative contributions of the different radiative effect components to ! Introduction This document contains a supplementary table and supplementary figures for the manuscript titled "Effective radiative forcing in the aerosol-climate model CAM5.3-MARC-ARG". The supplementary figures are grouped thematically: cloud (doi:10.5065/D6RX99HX), have been used. As with the year-2000 and year-1850 simulations (Section 2.3 of the main manuscript), a model resolution of 1.9° × 2.5° is used, SSTs and greenhouse gas concentrations are prescribed using year-2000 climatological values, and aerosol and aerosol precursor emissions follow year-2000 emissions. In contrast to the simulations described in the main manuscript, COSP has not been used in these timing simulations. The simulation costs shown represent the total cost of all model components, including non-atmospheric components such as the land scheme. Figure S1 :Figure S2 :Figure S3 : 4 !Figure S4 :Figure S5 :Figure S6 :Figure S7 :Figure S8 :Figure S9 :Figure S10 :Figure S11 :Figure S12 :Figure S13 : S1S2S34S4S5S6S7S8S9S10S11S12S13Annual mean cloud condensation nuclei concentration at 0.1% supersaturation (" ) in the bottom model level. The figure components are explained in the caption of Fig. 1 in the main manuscript. Annual mean cloud condensation nuclei concentration at 0.1% supersaturation (" ) in model level 19 (in the mid-troposphere). The figure components are explained in the caption of Fig. 1 in the main manuscript. Annual mean grid-box total cloud water path (" ). The figure components are explained in the caption of Fig. 1 in the main manuscript. W P total = W P liquid + W P ice ! Annual mean total cloud fraction (" ). The figure components are explained in the caption of Fig. 1 in the main manuscript. Annual mean low-level cloud fraction (" ). The figure components are explained in the caption of Fig. 1 in the main manuscript. Annual mean mid-level cloud fraction (" ). The figure components are explained in the caption of Fig. 1 in the main manuscript. Annual mean high-level cloud fraction (" ). The figure components are explained in the caption of Fig. 1 in the main manuscript. Annual mean total precipitation rate. The figure components are explained in the caption of Fig. 1 in the main manuscript. Annual mean 10-m wind speed. The figure components are explained in the caption of Fig. 1 in the main manuscript. Annual mean fraction of the earth's surface covered by snow. The figure components are explained in the caption of Fig. 1 in the main manuscript. Annual mean total snow rate. The figure components are explained in the caption of Fig. 1 in the main manuscript. Annual mean total black carbon deposition over land. The figure components are explained in the caption of Fig. 1 in the main manuscript. Annual mean mass of black carbon in the the top layer over snow over land. The figure components are explained in the caption of Fig. 1 in the main manuscript. Hemisphere, especially over the remote Southern Ocean and Antarctica. In general, there is close agreement between MAM and MARC over the Northern Hemisphere tropics and the Southern Hemisphere. However, over the Northern Hemisphere subtropics and mid-latitudes, year-2000 ! is generally lower for MARC compared with MAM3. Interestingly, over the Northern Hemisphere subtropics, the zonal means are very similar between MAM7 and MARC.1a-c shows the total sulfate aerosol burden (! ) for the year-2000 simulations. For all three aerosol modules, year-2000 ! is highest in the Northern Hemisphere subtropics and mid-latitudes, especially near source regions with high anthropogenic emissions of sulfur dioxide. Year-2000 ! is much lower in the Southern than that for MAM, especially over remote regions far away from sources. This suggests that the black carbon aerosol lifetime is longer for MARC than it is for MAM, likely due to the low hygroscopicity of the pure black carbon aerosol modeMARC, year-2000 ! is high over sub-Saharan Africa and South America, as was the case for ! , due to large emissions of black carbon aerosol from wildfires. However, in contrast to ! , the peak in zonal mean year-2000 ! occurs in the Northern Hemisphere subtropics and mid-latitudes, due to anthropogenic emissions of black carbon aerosol over East Asia, South Asia, Europe, and North America. In the tropics, year-2000 ! is generally similar between MAM and MARC. Outside of the tropics, year-2000 ! for MARC is generally higher in MARC. MAM3 and MARC produce similar increases in ! between year-1850 and year-2000, as indicated by positive values of ! (Fig. 3d-f). For MARC, positive values of ! are found over even remote ocean regions, consistent with a longer black carbon lifetime for MARC compared with MAM3. 3.1.4 Total sea salt aerosol burden Figure 4a-c shows the total sea salt aerosol burden (! ) for the year-2000 simulations. For both MAM3 and MARC, year-2000 ! is highest over ocean areas with strong surface wind speeds (Fig. S9b, c). Over land, year-2000 ! is very low, suggesting that the sea salt aerosol generally has a relatively short lifetime, as expected due to the large particle size and high hygroscopicity. Year-2000 ! is very similar between MAM3 and MARC. This is not surprising, because MARC uses the same sea salt emissions parameterization as MAM3 does. ∆ B u r de n SO4 B u r de n SO4 ∆ B u r de n SO4 ∆ B u r de n SO4 B u r de n SO4 B u r de n OC B u r de n OC B u r de n OC B u r de n OC ∆ B u r de n OC B u r de n OC ∆ B u r de n OC ∆ B u r de n OC B u r de n BC B u r de n BC B u r de n OC B u r de n OC B u r de n BC B u r de n BC B u r de n BC B u r de n BC ∆ B u r de n BC ∆ B u r de n BC B u r de n salt B u r de n salt B u r de n salt B u r de n salt ! 6 For both MAM3 and MARC, ! , the 2000-1850 difference in ! (Fig. 4e, f), appears to be positively correlated with the 2000-1850 difference in surface wind speeds (Fig. S9e, f). Changes in precipitation rate (Fig. variations in the albedo of the earth's surface -large values of ! may not necessarily correspond to large values of ! . Having said that, for both MAM3 and MARC, the regional distribution of year-2000 ! shares some similarities with that of year-2000 ! . Over dark ocean surfaces in the subtropics, scattering by aerosols drives negative values of year-2000 ! . The impact of dust on year-2000 ! differs between MAM3 and MARC, likely due to differing optical properties: for MAM3, absorption by dust drives positive values over the bright surface of the Sahara Desert, while little radiative impact is evident downwind over the dark surface of the tropical Atlantic Ocean; for MARC, scattering by dust drives negative values over the tropical Atlantic Ocean, while little radiative impact is evident over the Sahara Desert.For MAM3, , the 2000-1850 difference in , is relatively weak at all latitudes(Fig. 7d, e), with a global mean of only W m -2 , due to the cooling effect of anthropogenic sulfur emissions being offset by the warming effect of increased black carbon aerosol emissions. In contrast, for MARC, reveals a relatively strong cooling effect across much of the Northern Hemisphere(Fig. 7d, f), especially near anthropogenic sourcesof sulfur emissions, leading to a global mean of W m -2 . ) for the year-2000 simulations. Consideration of ! , which reveals heating of the atmosphere by aerosols, complements consideration of ! . For example, over the Sahara Desert, we noted above that the dust aerosol in MARC exerts only a weak direct radiative effect at TOA (Fig. 7c); however, Fig. 8c reveals that the dust aerosol in MARC leads to strong heating of the atmosphere. For both MAM and MARC, year-2000 ! is largest near emission sources of dust, especially over the Sahara Desert where year-2000 ! is particularly high, showing that dust is the primary driver of year-2000 ! . Further away from the dust emission source regions, year-2000 ! is spatially correlated with year-2000 ! , showing that black carbon aerosol also contributes to year-2000 ! . Despite the fact that year-2000 ! and ! are larger for MARC compared with MAM, year-2000 ! is generally weaker for MARC compared with MAM3: this difference in year-2000 ! is likely due to differences in the aerosol optical properties, associated with different handling of dust and black carbon aerosol mixing state between MAM3 and MARC.! , the 2000-1850 difference in ! (Fig. 8d-f), generally follows the same regional distribution as ! , showing that changes in emissions of black carbon aerosol dominate ! . Although dust dominates year-2000 ! , changes in dust emission exert only a relatively small influence on ! . As with year-2000 ! , ! is generally weaker for MARC compared with MAM3. B u r de n SO4 B u r de n OC B u r de n BC c shows the CCN concentration at a fixed supersaturation of 0.1% (! ) in the lower troposphere for the year-2000 simulations. Corresponding results showing year-2000 ! near the surface and in the mid-troposphere are shown in Figs. S1a-c and S2a-c of the Supplement. Looking at year-2000 ! across these different vertical levels, we make two initial observations: first, for both MAM and MARC, year-2000 ! is generally higher in the Northern Hemisphere; second, year-2000 ! is generally much lower for MARC compared with MAM. Table 1 : 1DR, and HHL analysed the results. BSG produced the figures shown in this manuscript. BSG wrote the manuscript, with contributions from all other co-authors. CW provided supervisory guidance throughout the project. Area-weighted global mean radiative effects. Combined standard errors are calculated using the annual global mean for each simulation year. The regional distributions of these radiative effects are shown inFigs. 7, 13, 14, 15, and 16. ! is the sum of the other radiative effect components.−1.57 ± 0.04 −1.75 ± 0.04 −0.02 ± 0.01 −0.18 ± 0.01 −2.11 ± 0.03 −2.09 ± 0.04 + 0.66 ± 0.02 + 0.54 ± 0.02 −0.12 ± 0.02 + 0.00 ± 0.02 A parameterization of aerosol activation: 2. Multiple aerosol types. H Abdul-Razzak, S J Ghan, 10.1029/1999JD901161J. Geophys. Res. 105D5Abdul-Razzak, H. and Ghan, S. J.: A parameterization of aerosol activation: 2. Multiple aerosol types, J. Geophys. Res., 105(D5), 6837-6844, doi:10.1029/1999JD901161, 2000. Improved dust representation in the Community Atmosphere Model. S Albani, N M Mahowald, A T Perry, R A Scanza, C S Zender, N G Heavens, V Maggi, J F Kok, B L Otto-Bliesner, 10.1002/2013MS000279J. Adv. Model. Earth Syst. 63Albani, S., Mahowald, N. M., Perry, A. T., Scanza, R. A., Zender, C. S., Heavens, N. G., Maggi, V., Kok, J. F. and Otto- Bliesner, B. L.: Improved dust representation in the Community Atmosphere Model, J. Adv. Model. Earth Syst., 6(3), 541-570, doi:10.1002/2013MS000279, 2014. Strong present-day aerosol cooling implies a hot future. M O Andreae, C D Jones, P M Cox, 10.1038/nature03671Nature. 4357046Andreae, M. O., Jones, C. D. and Cox, P. M.: Strong present-day aerosol cooling implies a hot future, Nature, 435(7046), 1187-1190, doi:10.1038/nature03671, 2005. MARC -Model for Research of Aerosols and Climate (version 1.0.4), Zenodo. A Avramov, D Rothenberg, Q Jin, S Garimella, B Grandey, C Wang, 10.5281/zenodo.1117370Avramov, A., Rothenberg, D., Jin, Q., Garimella, S., Grandey, B. and Wang, C.: MARC -Model for Research of Aerosols and Climate (version 1.0.4), Zenodo, doi:10.5281/zenodo.1117370, 2017. Controlling the False Discovery Rate: A Practical and Powerful Approach to Multiple Testing. Y Benjamini, Y Hochberg, J. R. Stat. Soc. B. 571Benjamini, Y. and Hochberg, Y.: Controlling the False Discovery Rate: A Practical and Powerful Approach to Multiple Testing, J. R. Stat. Soc. B, 57(1), 289-300, 1995. COSP: Satellite simulation software for model assessment. A Bodas-Salcedo, M J Webb, S Bony, H Chepfer, J.-L Dufresne, S A Klein, Y Zhang, R Marchand, J M Haynes, R Pincus, V O John, 10.1175/2011BAMS2856.1Bull. Am. Meteorol. Soc. 928Bodas-Salcedo, A., Webb, M. J., Bony, S., Chepfer, H., Dufresne, J.-L., Klein, S. A., Zhang, Y., Marchand, R., Haynes, J. M., Pincus, R. and John, V. O.: COSP: Satellite simulation software for model assessment, Bull. Am. Meteorol. Soc., 92(8), 1023-1043, doi:10.1175/2011BAMS2856.1, 2011. Clouds and Aerosols, in Climate Change 2013: The Physical Science Basis. Contribution of Working Group I to the Fifth Assessment Report of the Intergovernmental Panel on Climate Change. O Boucher, D Randall, P Artaxo, C Bretherton, G Feingold, P Forster, V.-M Kerminen, Y Kondo, H Liao, U Lohmann, P Rasch, S K Satheesh, S Sherwood, B Stevens, X Y Zhang, Y Nauels, V Xia, P M Bex, Midgley, T. F. Stocker, D. Qin, G.-K. Plattner, M. Tignor, S. K. Allen, J. BoschungCambridge University PressCambridge; New York, NY, USABoucher, O., Randall, D., Artaxo, P., Bretherton, C., Feingold, G., Forster, P., Kerminen, V.-M., Kondo, Y., Liao, H., Lohmann, U., Rasch, P., Satheesh, S. K., Sherwood, S., Stevens, B. and Zhang, X. Y.: Clouds and Aerosols, in Climate Change 2013: The Physical Science Basis. Contribution of Working Group I to the Fifth Assessment Report of the Intergovernmental Panel on Climate Change, edited by T. F. Stocker, D. Qin, G.-K. Plattner, M. Tignor, S. K. Allen, J. Boschung, A. Nauels, Y. Xia, V. Bex, and P. M. Midgley, Cambridge University Press, Cambridge, United Kingdom and New York, NY, USA., 2013. Extratropical Cooling, Interhemispheric Thermal Gradients, and Tropical Climate Change. J C H Chiang, A R Friedman, 10.1146/annurev-earth-042711-105545Annu. Rev. Earth Planet. Sci. 401Chiang, J. C. H. and Friedman, A. R.: Extratropical Cooling, Interhemispheric Thermal Gradients, and Tropical Climate Change, Annu. Rev. Earth Planet. Sci., 40(1), 383-412, doi:10.1146/annurev-earth-042711-105545, 2012. Explicit simulations of aerosol physics in a cloud-resolving model: a sensitivity study based on an observed convective cloud. A M L Ekman, C Wang, J Wilson, J Ström, doi:10.5194/ acp-4-773-2004Atmos. Chem. Phys. 43Ekman, A. M. L., Wang, C., Wilson, J. and Ström, J.: Explicit simulations of aerosol physics in a cloud-resolving model: a sensitivity study based on an observed convective cloud, Atmos. Chem. Phys., 4(3), 773-791, doi:10.5194/ acp-4-773-2004, 2004. Explicit Simulation of Aerosol Physics in a Cloud-Resolving Model: Aerosol Transport and Processing in the Free Troposphere. A M L Ekman, C Wang, J Ström, R Krejci, 10.1175/JAS3645.1J. Atmos. Sci. 632Ekman, A. M. L., Wang, C., Ström, J. and Krejci, R.: Explicit Simulation of Aerosol Physics in a Cloud-Resolving Model: Aerosol Transport and Processing in the Free Troposphere, J. Atmos. Sci., 63(2), 682-696, doi:10.1175/JAS3645.1, 2006. The effect of aerosol composition and concentration on the development and anvil properties of a continental deep convective cloud. A M L Ekman, A Engström, C Wang, 10.1002/qj.AtmosphereModeldoi:10.1029/2009JD013797Q. J. R. Meteorol. Soc. 133D1818216J. Geophys. Res.Ekman, A. M. L., Engström, A. and Wang, C.: The effect of aerosol composition and concentration on the development and anvil properties of a continental deep convective cloud, Q. J. R. Meteorol. Soc., 133(October), 937-948, doi:10.1002/qj. Atmosphere Model, J. Geophys. Res., 115(D18), D18216, doi:10.1029/2009JD013797, 2010. Technical Note: Estimating aerosol effects on cloud radiative forcing. S J Ghan, 10.5194/acp-13-9971-2013Atmos. Chem. Phys. 1319Ghan, S. J.: Technical Note: Estimating aerosol effects on cloud radiative forcing, Atmos. Chem. Phys., 13(19), 9971-9974, doi:10.5194/acp-13-9971-2013, 2013. Toward a Minimal Representation of Aerosols in Climate Models: Comparative Decomposition of Aerosol Direct, Semidirect, and Indirect Radiative Forcing. S J Ghan, X Liu, R C Easter, R Zaveri, P J Rasch, J.-H Yoon, B Eaton, 10.1175/JCLI-D-11-00650.1J. Clim. 2519Ghan, S. J., Liu, X., Easter, R. C., Zaveri, R., Rasch, P. J., Yoon, J.-H. and Eaton, B.: Toward a Minimal Representation of Aerosols in Climate Models: Comparative Decomposition of Aerosol Direct, Semidirect, and Indirect Radiative Forcing, J. Clim., 25(19), 6461-6476, doi:10.1175/JCLI-D-11-00650.1, 2012. Sensitivity of the Aerosol Indirect Effect to Subgrid Variability in the Cloud Parameterization of the GFDL Atmosphere General Circulation Model AM3. J.-C Golaz, M Salzmann, L J Donner, L W Horowitz, Y Ming, M Zhao, 10.1175/2010JCLI3945.1J. Clim. 2413Golaz, J.-C., Salzmann, M., Donner, L. J., Horowitz, L. W., Ming, Y. and Zhao, M.: Sensitivity of the Aerosol Indirect Effect to Subgrid Variability in the Cloud Parameterization of the GFDL Atmosphere General Circulation Model AM3, J. Clim., 24(13), 3145-3160, doi:10.1175/2010JCLI3945.1, 2011. Radiative effects of interannually varying vs. interannually invariant aerosol emissions from fires. B S Grandey, H.-H Lee, C Wang, 10.5194/acp-16-14495-2016Atmos. Chem. Phys. 1622Grandey, B. S., Lee, H.-H. and Wang, C.: Radiative effects of interannually varying vs. interannually invariant aerosol emissions from fires, Atmos. Chem. Phys., 16(22), 14495-14513, doi:10.5194/acp-16-14495-2016, 2016a. Transient Climate Impacts for Scenarios of Aerosol Emissions from Asia: A Story of Coal versus Gas. B S Grandey, H Cheng, C Wang, 10.1175/JCLI-D-15-0555.1J. Clim. 298Grandey, B. S., Cheng, H. and Wang, C.: Transient Climate Impacts for Scenarios of Aerosol Emissions from Asia: A Story of Coal versus Gas, J. Clim., 29(8), 2849-2867, doi:10.1175/JCLI-D-15-0555.1, 2016b. Estimates of the direct and indirect radiative forcing due to tropospheric aerosols: A review. J Haywood, O Boucher, 10.1029/1999RG000078Rev. Geophys. 384Haywood, J. and Boucher, O.: Estimates of the direct and indirect radiative forcing due to tropospheric aerosols: A review, Rev. Geophys., 38(4), 513-543, doi:10.1029/1999RG000078, 2000. Global Indirect Radiative Forcing Caused by Aerosols: IPCC (2007) and Beyond, in Clouds in the Perturbed Climate System: Their Relationship to Energy Balance, Atmospheric Dynamics, and Precipitation. J Haywood, L Donner, A Jones, J.-C Golaz, J. Heintzenberg and R. CharlsonMIT PressHaywood, J., Donner, L., Jones, A. and Golaz, J.-C.: Global Indirect Radiative Forcing Caused by Aerosols: IPCC (2007) and Beyond, in Clouds in the Perturbed Climate System: Their Relationship to Energy Balance, Atmospheric Dynamics, and Precipitation, edited by J. Heintzenberg and R. Charlson, MIT Press., 2009. Constraining cloud droplet number concentration in GCMs suppresses the aerosol indirect effect. C Hoose, J E Kristjánsson, T Iversen, A Kirkevåg, Seland, A Gettelman, 10.1029/2009GL038568Geophys. Res. Lett. 3612Hoose, C., Kristjánsson, J. E., Iversen, T., Kirkevåg, A., Seland and Gettelman, A.: Constraining cloud droplet number concentration in GCMs suppresses the aerosol indirect effect, Geophys. Res. Lett., 36(12), 1-5, doi: 10.1029/2009GL038568, 2009. Impacts of global open-fire aerosols on direct radiative, cloud and surface-albedo effects simulated with CAM5. Y Jiang, Z Lu, X Liu, Y Qian, K Zhang, Y Wang, X.-Q Yang, 10.5194/acp-16-14805-2016Atmos. Chem. Phys. 1623Jiang, Y., Lu, Z., Liu, X., Qian, Y., Zhang, K., Wang, Y. and Yang, X.-Q.: Impacts of global open-fire aerosols on direct radiative, cloud and surface-albedo effects simulated with CAM5, Atmos. Chem. Phys., 16(23), 14805-14824, doi: 10.5194/acp-16-14805-2016, 2016. Distribution and direct radiative forcing of carbonaceous and sulfate aerosols in an interactive size-resolving aerosol-climate model. D Kim, C Wang, A M L Ekman, M C Barth, P J Rasch, 10.1029/2007JD009756J. Geophys. Res. 113D1616309Kim, D., Wang, C., Ekman, A. M. L., Barth, M. C. and Rasch, P. J.: Distribution and direct radiative forcing of carbonaceous and sulfate aerosols in an interactive size-resolving aerosol-climate model, J. Geophys. Res., 113(D16), D16309, doi: 10.1029/2007JD009756, 2008. The responses of cloudiness to the direct radiative effect of sulfate and carbonaceous aerosols. D Kim, C Wang, A M L Ekman, M C Barth, D.-I Lee, 10.1002/2013JD020529J. Geophys. Res. Atmos. 1193Kim, D., Wang, C., Ekman, A. M. L., Barth, M. C. and Lee, D.-I.: The responses of cloudiness to the direct radiative effect of sulfate and carbonaceous aerosols, J. Geophys. Res. Atmos., 119(3), 1172-1185, doi:10.1002/2013JD020529, 2014. . J.-F Lamarque, T C Bond, V Eyring, C Granier, A Heil, Z Klimont, D Lee, C Liousse, A Mieville, B Owen, M G Schultz, D Shindell, S J Smith, E Stehfest, J Van Aardenne, O R Cooper, M Kainuma, N Mahowald, Lamarque, J.-F., Bond, T. C., Eyring, V., Granier, C., Heil, A., Klimont, Z., Lee, D., Liousse, C., Mieville, A., Owen, B., Schultz, M. G., Shindell, D., Smith, S. J., Stehfest, E., Van Aardenne, J., Cooper, O. R., Kainuma, M., Mahowald, N., Historical (1850-2000) gridded anthropogenic and biomass burning emissions of reactive gases and aerosols: methodology and application. J R Mcconnell, V Naik, K Riahi, D P Van Vuuren, 10.5194/acp-10-7017-2010Atmos. Chem. Phys. 1015McConnell, J. R., Naik, V., Riahi, K. and van Vuuren, D. P.: Historical (1850-2000) gridded anthropogenic and biomass burning emissions of reactive gases and aerosols: methodology and application, Atmos. Chem. Phys., 10(15), 7017- 7039, doi:10.5194/acp-10-7017-2010, 2010. Inclusion of Ice Microphysics in the NCAR Community Atmospheric Model Version 3 (CAM3). X Liu, J E Penner, S J Ghan, M Wang, 10.1175/JCLI4264.1J. Clim. 2018Liu, X., Penner, J. E., Ghan, S. J. and Wang, M.: Inclusion of Ice Microphysics in the NCAR Community Atmospheric Model Version 3 (CAM3), J. Clim., 20(18), 4526-4547, doi:10.1175/JCLI4264.1, 2007. Toward a minimal representation of aerosols in climate models: description and evaluation in the Community Atmosphere Model CAM5. X Liu, R C Easter, S J Ghan, R Zaveri, P Rasch, X Shi, J.-F Lamarque, A Gettelman, H Morrison, F Vitt, A Conley, S Park, R Neale, C Hannay, A M L Ekman, P Hess, N Mahowald, W Collins, M J Iacono, C S Bretherton, M G Flanner, D Mitchell, 10.5194/gmd-5-709-2012Geosci. Model Dev. 53Liu, X., Easter, R. C., Ghan, S. J., Zaveri, R., Rasch, P., Shi, X., Lamarque, J.-F., Gettelman, A., Morrison, H., Vitt, F., Conley, A., Park, S., Neale, R., Hannay, C., Ekman, A. M. L., Hess, P., Mahowald, N., Collins, W., Iacono, M. J., Bretherton, C. S., Flanner, M. G. and Mitchell, D.: Toward a minimal representation of aerosols in climate models: description and evaluation in the Community Atmosphere Model CAM5, Geosci. Model Dev., 5(3), 709-739, doi: 10.5194/gmd-5-709-2012, 2012. Description and evaluation of a new four-mode version of the Modal Aerosol Module (MAM4) within version 5.3 of the Community Atmosphere Model. X Liu, P.-L Ma, H Wang, S Tilmes, B Singh, R C Easter, S J Ghan, P J Rasch, 10.5194/gmd-9-505-2016Geosci. Model Dev. 92Liu, X., Ma, P.-L., Wang, H., Tilmes, S., Singh, B., Easter, R. C., Ghan, S. J. and Rasch, P. J.: Description and evaluation of a new four-mode version of the Modal Aerosol Module (MAM4) within version 5.3 of the Community Atmosphere Model, Geosci. Model Dev., 9(2), 505-522, doi:10.5194/gmd-9-505-2016, 2016. Sea-salt aerosol response to climate change: Last Glacial Maximum, preindustrial, and doubled carbon dioxide climates. N M Mahowald, J.-F Lamarque, X X Tie, E Wolff, !1610.1029/2005JD006459J. Geophys. Res. 111D55303Mahowald, N. M., Lamarque, J.-F., Tie, X. X. and Wolff, E.: Sea-salt aerosol response to climate change: Last Glacial Maximum, preindustrial, and doubled carbon dioxide climates, J. Geophys. Res., 111(D5), D05303, doi: ! 16 10.1029/2005JD006459, 2006. A New Two-Moment Bulk Stratiform Cloud Microphysics Scheme in the Community Atmosphere Model, Version 3 (CAM3). Part I: Description and Numerical Tests. H Morrison, A Gettelman, 10.1175/2008JCLI2105.1J. Clim. 2115Morrison, H. and Gettelman, A.: A New Two-Moment Bulk Stratiform Cloud Microphysics Scheme in the Community Atmosphere Model, Version 3 (CAM3). Part I: Description and Numerical Tests, J. Clim., 21(15), 3642-3659, doi: 10.1175/2008JCLI2105.1, 2008. A single parameter representation of hygroscopic growth and cloud condensation nucleus activity. M D Petters, S M Kreidenweis, 10.5194/acp-7-1961-2007Atmos. Chem. Phys. 78Petters, M. D. and Kreidenweis, S. M.: A single parameter representation of hygroscopic growth and cloud condensation nucleus activity, Atmos. Chem. Phys., 7(8), 1961-1971, doi:10.5194/acp-7-1961-2007, 2007. . J Quaas, Y Ming, S Menon, T Takemura, M Wang, J E Penner, A Gettelman, U Lohmann, N Bellouin, O Boucher, A M Sayer, G E Thomas, A Mccomiskey, G Feingold, C Hoose, J E Kristjánsson, X Liu, Y Balkanski, Quaas, J., Ming, Y., Menon, S., Takemura, T., Wang, M., Penner, J. E., Gettelman, A., Lohmann, U., Bellouin, N., Boucher, O., Sayer, A. M., Thomas, G. E., McComiskey, A., Feingold, G., Hoose, C., Kristjánsson, J. E., Liu, X., Balkanski, Y., Aerosol indirect effects -general circulation model intercomparison and evaluation with satellite data. L J Donner, P A Ginoux, P Stier, B Grandey, J Feichter, I Sednev, S E Bauer, D Koch, R G Grainger, A Kirkevåg, T Iversen, Ø Seland, R Easter, S J Ghan, P J Rasch, H Morrison, J.-F Lamarque, M J Iacono, S Kinne, M Schulz, 10.5194/acp-9-8697-2009Atmos. Chem. Phys. 922Donner, L. J., Ginoux, P. A., Stier, P., Grandey, B., Feichter, J., Sednev, I., Bauer, S. E., Koch, D., Grainger, R. G., Kirkevåg, A., Iversen, T., Seland, Ø., Easter, R., Ghan, S. J., Rasch, P. J., Morrison, H., Lamarque, J.-F., Iacono, M. J., Kinne, S. and Schulz, M.: Aerosol indirect effects -general circulation model intercomparison and evaluation with satellite data, Atmos. Chem. Phys., 9(22), 8697-8717, doi:10.5194/acp-9-8697-2009, 2009. Global observations of aerosolcloud-precipitation-climate interactions. D Rosenfeld, M O Andreae, A Asmi, M Chin, G De Leeuw, D P Donovan, R Kahn, S Kinne, N Kivekäs, M Kulmala, W Lau, K S Schmidt, T Suni, T Wagner, M Wild, J Quaas, 10.1002/2013RG000441Rev. Geophys. 524Rosenfeld, D., Andreae, M. O., Asmi, A., Chin, M., de Leeuw, G., Donovan, D. P., Kahn, R., Kinne, S., Kivekäs, N., Kulmala, M., Lau, W., Schmidt, K. S., Suni, T., Wagner, T., Wild, M. and Quaas, J.: Global observations of aerosol- cloud-precipitation-climate interactions, Rev. Geophys., 52(4), 750-808, doi:10.1002/2013RG000441, 2014. Metamodeling of Droplet Activation for Global Climate Models. D Rothenberg, C Wang, 10.1175/JAS-D-15-0223.1J. Atmos. Sci. 733Rothenberg, D. and Wang, C.: Metamodeling of Droplet Activation for Global Climate Models, J. Atmos. Sci., 73(3), 1255- 1272, doi:10.1175/JAS-D-15-0223.1, 2016. An aerosol activation metamodel of v1.2.0 of the pyrcel cloud parcel model: development and offline assessment for use in an aerosol-climate model. D Rothenberg, C Wang, doi:10.5194/ gmd-10-1817-2017Geosci. Model Dev. 104Rothenberg, D. and Wang, C.: An aerosol activation metamodel of v1.2.0 of the pyrcel cloud parcel model: development and offline assessment for use in an aerosol-climate model, Geosci. Model Dev., 10(4), 1817-1833, doi:10.5194/ gmd-10-1817-2017, 2017. On the representation of aerosol activation and its influence on model-derived estimates of the aerosol indirect effect. D Rothenberg, A Avramov, C Wang, 10.5194/acp-2017-680Atmos. Chem. Phys. Discuss. Rothenberg, D., Avramov, A. and Wang, C.: On the representation of aerosol activation and its influence on model-derived estimates of the aerosol indirect effect, Atmos. Chem. Phys. Discuss., (August), 1-35, doi:10.5194/acp-2017-680, 2017. Modeling dust as component minerals in the Community Atmosphere Model: development of framework and impact on radiative forcing. R A Scanza, N Mahowald, S Ghan, C S Zender, J F Kok, X Liu, Y Zhang, S Albani, 10.5194/acp-15-537-2015Atmos. Chem. Phys. 151Scanza, R. A., Mahowald, N., Ghan, S., Zender, C. S., Kok, J. F., Liu, X., Zhang, Y. and Albani, S.: Modeling dust as component minerals in the Community Atmosphere Model: development of framework and impact on radiative forcing, Atmos. Chem. Phys., 15(1), 537-561, doi:10.5194/acp-15-537-2015, 2015. On the spatio-temporal representativeness of observations. N Schutgens, S Tsyro, E Gryspeerdt, D Goto, N Weigum, M Schulz, P Stier, 10.5194/acp-17-9761-2017Atmos. Chem. Phys. 1716Schutgens, N., Tsyro, S., Gryspeerdt, E., Goto, D., Weigum, N., Schulz, M. and Stier, P.: On the spatio-temporal representativeness of observations, Atmos. Chem. Phys., 17(16), 9761-9780, doi:10.5194/acp-17-9761-2017, 2017. The importance of temporal collocation for the evaluation of aerosol models with observations. N A J Schutgens, D G Partridge, P Stier, 10.5194/acp-16-1065-2016Atmos. Chem. Phys. 162Schutgens, N. A. J., Partridge, D. G. and Stier, P.: The importance of temporal collocation for the evaluation of aerosol models with observations, Atmos. Chem. Phys., 16(2), 1065-1079, doi:10.5194/acp-16-1065-2016, 2016. Inhomogeneous forcing and transient climate sensitivity. D T Shindell, doi:10.1038/ nclimate2136Nat. Clim. Chang. 44Shindell, D. T.: Inhomogeneous forcing and transient climate sensitivity, Nat. Clim. Chang., 4(4), 274-277, doi:10.1038/ nclimate2136, 2014. . D T Shindell, J.-F Lamarque, M Schulz, M Flanner, C Jiao, M Chin, P J Young, Y H Lee, L Rotstayn, N Mahowald, G Milly, G Faluvegi, Y Balkanski, W J Collins, . J Conley, S Dalsoren, R Easter, S Ghan, Shindell, D. T., Lamarque, J.-F., Schulz, M., Flanner, M., Jiao, C., Chin, M., Young, P. J., Lee, Y. H., Rotstayn, L., Mahowald, N., Milly, G., Faluvegi, G., Balkanski, Y., Collins, W. J., Conley, a. J., Dalsoren, S., Easter, R., Ghan, S., Radiative forcing in the ACCMIP historical and future climate simulations. L Horowitz, X Liu, G Myhre, T Nagashima, V Naik, S T Rumbold, R Skeie, K Sudo, S Szopa, T Takemura, A Voulgarakis, J.-H Yoon, F Lo, 10.5194/acp-13-2939-2013Atmos. Chem. Phys. 136Horowitz, L., Liu, X., Myhre, G., Nagashima, T., Naik, V., Rumbold, S. T., Skeie, R., Sudo, K., Szopa, S., Takemura, T., Voulgarakis, A., Yoon, J.-H. and Lo, F.: Radiative forcing in the ACCMIP historical and future climate simulations, Atmos. Chem. Phys., 13(6), 2939-2974, doi:10.5194/acp-13-2939-2013, 2013. Aerosol absorption and radiative forcing. P Stier, J H Seinfeld, S Kinne, O Boucher, 10.5194/acp-7-5237-2007Atmos. Chem. Phys. 719Stier, P., Seinfeld, J. H., Kinne, S. and Boucher, O.: Aerosol absorption and radiative forcing, Atmos. Chem. Phys., 7(19), 5237-5261, doi:10.5194/acp-7-5237-2007, 2007. A modeling study of the response of tropical deep convection to the increase of cloud condensation nuclei concentration: 1. Dynamics and microphysics. C Wang, 10.1029/2004JD005720J. Geophys. Res. 110D2121211Wang, C.: A modeling study of the response of tropical deep convection to the increase of cloud condensation nuclei concentration: 1. Dynamics and microphysics, J. Geophys. Res., 110(D21), D21211, doi:10.1029/2004JD005720, 2005a. A modeling study of the response of tropical deep convection to the increase of cloud condensation nuclei concentration: 2. Radiation and tropospheric chemistry. C Wang, 10.1029/2005JD005829J. Geophys. Res. 110D2222204Wang, C.: A modeling study of the response of tropical deep convection to the increase of cloud condensation nuclei concentration: 2. Radiation and tropospheric chemistry, J. Geophys. Res., 110(D22), D22204, doi: 10.1029/2005JD005829, 2005b. 2015. ! 14References CESM Software Engineering Group: CESM User's Guide (CESM1.2 Release Series User's Guide). References CESM Software Engineering Group: CESM User's Guide (CESM1.2 Release Series User's Guide), [online] Available from: http://www.cesm.ucar.edu/models/cesm1.2/cesm/doc/usersguide/ug.pdf [accessed 2017-10-31], 2015. ! 14
sample_1145
0.9922
arxiv
Un nouveau regard sur le monde physique * 24 Apr 2002 Constantin Piron Département de Physique Théorique Université de Genève CH-1211Genève 4 Un nouveau regard sur le monde physique * 24 Apr 2002arXiv:physics/0204071v1 [physics.gen-ph] Dans ce colloque je discute la notion d'espace selon Descartes et Leibniz et j'y oppose le point de vue de Samuel Clarke et Isaac Newton comme solution pour comprendre la réalité du monde physique * Colloque de physique faità Genève le 16 décembre 1996 Au début de ce siècle la philosophie des sciences aété secouée par deux révolutions, les quanta et la relativité. Je ne vais pas vous décrire ici ces révolutions, vous les connaissez 1 . Mais paradoxalement pour la grande majoritée des physiciens l'image qu'ils se font du monde réel est restée pratiquement la même, celle d'il y a deux siècles, celle des philosophes Descartes et Leibniz. C'est pourquoi je vais tout d'abord vous résumer très brièvement le point de vue de ces deux philosophes, tel que je l'imagineà la lecture de leurs textes. En fait, de Descartes, il ne faut retenir que son désir de rigueur mathématique et sa conception mécaniste de l'Univers, il faut oublier ses innombrables tourbillons et surtout sa définition de l'essence des corps comme pure extension sans vide d'aucune sorte. Leibnizétait moins dogmatique pour lui l'espace n'est rien en soi ou tout au plus un tissu de relations entre des objets coexistant. Comme Max Jammer nous le rappelle dans son livre "Concepts of Space" 2 ce point de vue a déjaété défendu au 11 ième siècle par le philosophe musulman Al-Ghazale. Selon Aristote disait-il, le lieu présuppose l'existence de corps, tout comme le temps, qui est le nombre du mouvement. Or le dogme coranique affirme la création divine des corps, le temps et l'espace n'ont aucun sens "avant" et ne sont donc que pures relations entre les objets créés. Bien avant Galilée, Nicholas de Cusa en 1440 avait déja soustenu dans son traité "De docta ignorantia" 3 . que tous les points de vue que nous prenons pouŕ etudier l'univers sontéquivalents car il n'y a pas, disait-il, de centre du monde et donc ni lieu ni temps absolu. Mais après la découverte par Newton des lois du mouvement et des lois de la gravitation la situation s'est compliquée singulièrement. Il est vrai que la fameuse expérience du seau faite par Newton (son observation de la concavité de la surface de l'eau en rotation), n'a jamaisété considérée comme une preuve irréfutable d'un mouvement absolu et en particulier d'un mouvement absolu de rotation. Sur ce point, Leibniz est tout aussi affirmatif, dans sa dernière lettreà Huygens 4 ilécrit : "Je tiens donc que toutes les hypotheses sont equivalentes et lorsque j'assigne certains mouuementsà certains corps, je n'en ay ny puis avoir d'autre raison que la simplicité de l'Hypothese croyant qu'on peut tenir la plus simple (tout consideré) pour la véritable". Nos modernes, Einstein en tête, ont adopté complètement cette thèse et ainsi il sont acculésà devoirévoquer avec Mach l'effet lointain desétoiles fixes pour pouvoir expliquer l'expérience du seau de Newton. D'autre part il faut rappeler que la loi de gravitation de Newton, son actionà distance, n'a jamaisété acceptee (même par Newton), comme une loi de nature fondamentale mais comme une loi devant pouvoir s'expliquer mécaniquement. Dans l'Encyclopoedia Britannica 5 ,à l'article "Atoms", Maxwellécrit que la meilleure explication connue est celle proposée par George-Louis Le Sage dans son traité "Physique mécanique" publiéà Genève en 1818 6 . Venant de l'extérieur du monde et venant de toutes les directions, un flot de très nombreux et très petits corpuscules pousse tous les corps les uns contre les autres. La loi de force qui en résulte se trouve 'au miracle'être celle proposée par Newton. Cette théorie, dite des corpuscules ultramondains, est revenueà la mode vers 1870, aété alors abondamment discutée par les physiciens, même par des tout grands comme Sir William Thomson (le futur Lord Kelvin) et Henri Poincaré. Cette théorie, fut finalement abandonnéeà cause de toutes les difficultés qu'elle entraînait 7 . Mais elle ressemble curieusementà la théorie du graviton, l'hypothétique particule associéeà la gravitation, qui est encore aujourd'hui la théorieà la mode. Dans un autre domaine, mais toujours dans la même ligne philosophique l'éther luminifer aété inventé pour combler le rien du vide et pouvoir ainsi porter les ondes lumineuses de Maxwell. Après les travaux d'Einstein les physiciens ont apprisà se passer de l' existence d'unéther mais ils en ont gardé l'existence d'un champ, une notion dueà Faraday. Néanmoins, ils sont encore et toujours accrochésà la même vision philosophique mécaniste, des petites particules en mouvement s'entrechoquant dans un "rien". C'est ainsi que dans presque tous les livres sur l'électromagnétisme on peut lire, encore aujourd'hui, l'argument suivant : Dans le vide il n'y a que le champ, le champ D produit par une charge ne peut donc pasêtre différent du champ E qui agit sur l'autre charge. 10 . Mais c'est là aller trop loin. En fait Einstein a tort, car la lente et partiellement aléatoire décroissance de la vitesse de rotation de la terre, mise enévidence seulement après les années 60, a détruit irrévocablement l' argumentation de Mach en fournissant enfin une preuve objectiveà la thèse de Galilée contre celle de Ptolémée. Malgré la forme de la dynamique c'est bien la Terre elle-même qui tourne, car lesétoiles lointaines ne peuvent raisonnablement pas s'être toutes donner le mot pour ralentir chacune en son temps de manièreà créer l'illusion. La célèbre thèse de Minkowski qui explique la relativité par la géomètrie d'un Univers absolu estégalement en conflit avec l'expérience, car l'étude précise du mouvement global des satellites a montré qu'il n'y avait aucune dispersion dans la coordonnée temps de ces objets, ceux-ci restent confinés dans un espace R 3 le sous-espace décrit par les trois premières composantes du R 4 considéré 11 . Ce fait d'expérience ne peut s'expliquer que si l'univers R 4 est non pas défini une fois pour toutes, mais chaque fois reconstruit sur la base du repère au repos choisi. Il est en effet toujours possible dans deux R 4 liés par une transformation de Lorentz de définir dans chacun d'eux les deux familles de sous-espaces qui vont représenter au cours du temps notre espace physique 12 . Si donc l'existence du vide, si clairement imposée par l'expérience, est néanmoins niée par beaucoup, c'est qu'il existe un fort préjugé contre ce concept parmi les philosophes et les physiciens contemporains. C'est Newton lui-même qui a créé la confusion en comparant l'espaceà Dieu. Il aété si loin dans son idée qu'il aété conduitàécrire 13 : "[L'espacé etendu] est un effet, uneémanation de l'être existant primordial, car quand une chose quelconque est là, l'espace est là". En résumé, d'après Newton, l'espace existe car Dieu existe. C'est pourquoi les philosophes du siècle des lumières en ont immédiatement conclu que l'espace ne peut pas exister car Dieu n'existe pas 14 . Mais laissons là cette dispute philosophico-théologique stérile et considérons une toute autre objection. Comment quelque chose qui serait juste "rien", une absence de tout, pourrait avoir des propriétés tangibles? Car si ici, dans le vide, nous plaçons un instrument nous n'avons plus le vide. Ce raisonnement semble montrer l'impossibilité logique d'appréhender le vide en lui-même et c'est là apparemment une très sérieuse objection. Après la découverte des quanta et de la mécanique quantique, les physiciens ontété forcés de discuter plus en pronfondeur ce que signifie vraiment faire une mesure et tester une théorie. Après bien des discussions et grâce aux nombreuses expériences réalisées, un point de vue réellement nouveau s'est dégagé. Ainsi Diederik Aerts, dans sa thèse, a pu donné un sens précis au concept de propriété physique 15 . Il définit tout d'abord la notion de projet expérimental. C'est un projet précis, aussi précis que Bohr le désirait, d'une expérience qu'on aurait parfaitement la possibilité de mettreà exécution et dont un des résultats possibles a priori, le résultat dit positif, aété choisià l'avance. Aerts affirme alors que le système en lui même possède une propriété actuelle, unélément de réalité aurait dit Einstein, si dans l'éventualité de l'exécution de ce projet, le résultat positif est par avance certain d'être obtenu. Ce concept résout la difficulté en permettant de parler objectivement des propriétés du vide. Ainsi par exemple, affirmer qu'ici, dans cette région, le vide est Euclidien, c'est affirmer une propriété actuelle du vide, car si on construisait ici un triangle formé de trois solides règles rectilignes, très certainement, la somme des trois angles ainsi obtenus seraitégaleà 180 • . C'est le vide lui-même en l'absence des trois règles qui possède cette propriété. Ceci me rappelle une conversation que j'ai euà Copenhague avec Apostel durant une conférence. Il me disait dans l'énoncé de votre définition c'est le mot "si" qui est important et qui joue le rôle clef, vous dites en effet : Si vous exécutez cette expérience vous obtiendrez ce résultat. Les raisonnements des physiciens, ceux qui conduisentà des paradoxes, sont le plus souvent de faux raisonnements. Pour raisonner correctement en physique il ne suffit pas d'appliquer naïvement la logiqueà deux valeurs mais il faut aussi tenir compte du fait qu'il y a une troisième possibilité, ne pas faire l'expérience, et qu'ainsi le résultat cherché est par nature hypothétique. Ayant ainsi accepté l'existence objective du vide en soi nous pouvons en définir les propriétés et même les propriétés de nature non purement géométriques. En fait ce que nous avons appelé un champ n'est rien d'autre qu'une propriété du vide en soi. Par exemple, ici, le champélectrique E est unélément de réalité, car si on plaçait ici une chargeélectrique elle serait certainement accélérée de manière précise, en intensité et en direction. Comme nous l'avons déja dit, ce champ est le champ en l'absence de la charge. Si on réalisait cette expérience le champ E serait détruit, en fait il ne serait même plus défini. C'est là la manière correcte d'interpréter leséquations proposées par Maxwell. Ainsi une chargeélectrique, par son champ D, va agir sur le vide qui va réagir et produire le champ E. La difficulté mentionnée n'existe pas les deux champs ne sont pas du tout de même nature. Mais tout ceci n'est pas suffisant pour pouvoir comprendre le monde physique, le physicien doit encore changer sa conception sur la nature en soi des particules. Cela est inévitable après la découverte des phénomènes quantiques. L'électron n'est pas ce que la conception de Démocrite pourrait suggérer : un atome de substanceélectrique, un point idéal chargé. S'il est vrai que l'électron est bien une entité, un objet sans partie néanmoins il interagit non localement en se manifestant comme un tout. De ce point de vue c'est plus une monade au sens de Leibniz qu'un atome au sens de Démocrite. Ainsi l'atome d'hydrogène au repos dans l'état fondamental doitêtre conçu comme une boule ronde avec le proton et l'électron, tous les deuxégalement au repos et tous deux non localisés tout autour du centre, le proton plusà l'intérieur et l'électron plusà l'extérieur 16 . Ce modèle est trèséloigné de l'image planétaire et nécessairement plate qu'en a donné Bohr dans sa thèse. Dans ses discussions a propos de l'expérience des deux fentes de Young Heisenberg poseà Bohr la bonne question : nous voulons savoir, dit-il, si la particule passe par une des fentes, par l'autre ou par les deux ? C'est bien là la bonne question et après bien des expériences nous en connaissons maintenant la réponse, la particule ne passe, ni par une fente, ni par l'autre mais par les deuxà la fois 17 . Néanmoins le préjugé hérité du siècle dernier est encore si fort que dans un journal sérieux comme "Courrier CERN" on pouvait lire récemment : "Mais lesélectrons sont des particules et de ce point de vue unélectron doit traverser une fente ou l'autre, mais pas les deux 18 . Cette nouvelle conception du monde physique où une particule, comme l'électron, se manifeste au cours du temps par des propriétés particulières du vide lui-même 19 est la bonne manière d'interpréter les phénomènes physiques. De cette façon on peut comprendre, non seulement l'électromagnétisme mais aussi la mécanique quantique. Dans un article récent ecrit en l'honneur de Hepp et Hunziker j'ai montré comment enétudiant leséquations d'un champ du vide, le champ spinoriel, on pouvait démontrer les "règles" de la mécanique quantiqueà partir de lois de conservations, des lois du même type que celles qu'on dérive deséquations de Maxwell pour l'électromagnétisme. Ainsi les règles quantiques ne doivent pas nécessairementêtre imposées de force de l'extérieur, elles dérivent naturellement des propriétés du champ du vide lui-même. Cette identification brutale de E et D et en conséquence de H et B conduità bien des paradoxes. Par exemple la densité volumique de quantité de mouvement du champ devient alors indiscernable de la densité de surface de son flux d'énergie. Si abandonnant les vues de Descartes et Leibniz on adopte celles de Newton et Clarke et si on accepte l'existence en soi du vide et l'existence en soi du temps, toutes ces difficultés disparaissent d'elles-mêmes. Aussi laissez-moi vous présenter cette autre philosophie du monde physique. Comme Samuel Clarke l'affirme dans sa 4 ième réponseà Leibniz 8 : "L'espace vide n'est pas un attribut sans sujet mais un espace sans corps". En termes modernes, l'espace vide n'est pas rien mais un espace sans quark ni lepton. Dans le Scholium du chapitre Definitions au tout début des Principia, Isaac Newton 9 est tout aussi clair, après avoir mis en garde le lecteur sur les erreurs de l'homme commun et avoir soigneusement distingué entre absolu et relatif, vrai et apparent, mathématique et sens commun, ilécrit : I Le temps absolu vrai et mathématique de lui-même et de par sa nature propre, coule uniformément sans relationà rien d'extérieur, II L'espace absolu [vrai et mathématique] de part sa nature propre, sans relationà rien d'extérieur reste toujours similaire et immuable, A mon sens ce Scholium doitêtre replacé dans son contexte Platonicien. Quand Newtonécrit "absolu, vrai et mathématique", il pense ce que nous exprimons aujourd'hui par "physique et réel" et c'est ce qu'il appelle le temps relatif et l'espace relatif qui pris ensemble est l'être mathématique. Car R 4 est en effet la collection de tous les quadruples de nombres (les coordonnées) construitsà partir du choix d'un repère au repos donné. Comme l'affirme Einstein dans sa relativité générale ce choix est très arbitraire, cela peutetre le choix d'un repère en chute libre choisi pour des raisons de commodité (par exemple la Terre ou le centre du système solaire) Quanta and relativity: two failed revolutions. C Piron, in Einstein meets Magritte sous presseC. Piron; "Quanta and relativity: two failed revolutions" in Einstein meets Magritte sous presse. Concepts of Space" Second Edition. M Jammer, Harvard University Press50CambridgeM. Jammer 1969; "Concepts of Space" Second Edition. p.50. Harvard University Press, Cambridge. De docta ignorantia. Cusa Nicholas Of, Trans. G. Heron, Routledge and Kegan Paul. Nicholas of Cusa 1440; "De docta ignorantia" Trans. G. Heron, Routledge and Kegan Paul, London, 1954. . M Op, 123M. Jammer op. cit. p.123. . J C Maxwell, Allen, New YorkJ. C. Maxwell 1890; "Atom" Encyclopoedia Britannica Ninth Edition. Henry G. Allen, New York.. Traité de mécanique physique. G.-L. Le Sage, Prévost, Genève.G.-L. Le Sage 1818; "Traité de mécanique physique" Prévost, Genève.. The gravitational theory of Georges-Louis Le Sage. S Aronson, Natural Philosopher. 3S. Aronson 1964; "The gravitational theory of Georges-Louis Le Sage" Natural Philoso- pher 3 51-74. S Clarke, Oeuvres philosophiques de Leibniz" t.II, §9, p.643. Libraire Philosophique de Ladrange. ParisS. Clarke 1866 in; "Oeuvres philosophiques de Leibniz" t.II, §9, p.643. Libraire Philosoph- ique de Ladrange, Paris. Isaac Newton, Principia Mathematica" dans Opera quaeexstant omnia. Stuttgart-Bad CannstattGünther HolzboogII6Isaac Newton; "Principia Mathematica" dans Opera quaeexstant omnia Vol. II, p.6. Friedrich Frommann Verlag (Günther Holzboog),Stuttgart-Bad Cannstatt, 1964 . The Evolution of Physics. A Einstein, L Infeld, University Press224CambridgeA. Einstein and L. Infeld; "The Evolution of Physics" p. 224. University Press, Cambridge, 1947 . Time, relativity and quantum theory. C Piron, New Frontiers in Quantum Electrodynamics and Quantum Optics Plenum. A. O. BarutNew YorkC. Piron 1990; "Time, relativity and quantum theory" in A. O. Barut (ed.) New Frontiers in Quantum Electrodynamics and Quantum Optics Plenum, New York. Spacetime models from the electromagnetic field. A O Barut, D J Moore, C Piron, Helv. Phys. Acta. 67A. O. Barut, D. J. Moore and C. Piron 1994; "Spacetime models from the electromag- netic field" Helv. Phys. Acta 67 p.392-404. Space, infinity, and indivisibility: Newton on the creation of matter. J E Cité, Mcguire, Contemporary Newtonian Research D. Reidel, Dordrecht. Z. Bechler160Cité par J. E. McGuire; "Space, infinity, and indivisibility: Newton on the creation of matter" in Z. Bechler (ed.) Contemporary Newtonian Research D. Reidel, Dor- drecht, 1982, p.160. Eléments de la philosophie de Newton miseà la portée de tout le monde. Etienne Ledet. 1738De l'espace et de la durée comme propriétés de DieuPour plus de détails voir Voltaire; "Eléments de la philosophie de Newton miseà la portée de tout le monde" Chapter 2 "De l'espace et de la durée comme propriétés de Dieu". Etienne Ledet, Amsterdam, 1738. The One and the Many. D. Aerts. Vrije Universiteit BrusselD. Aerts 1981; "The One and the Many" Vrije Universiteit Brussel. C Piron, Mécanique quantique bases et applications" Presses polytechniques et universitaires romandes (Lausanne). §5.7.1. C. Piron 1998; "Mécanique quantique bases et applications" Presses polytechniques et universitaires romandes (Lausanne). §5.7.1. Mécanique quantique. Le réel rejoint le virtuel. G Fraser, Courrier Cern. 36G. Fraser réd.1996; "Mécanique quantique. Le réel rejoint le virtuel" Courrier Cern 36:2 p.27. Quantum theory without quantification. C Piron, Helv. Phys. Acta. 69C. Piron 1996; "Quantum theory without quantification" Helv. Phys. Acta 69 694-701.
sample_1154
0.8556
arxiv
Diagrama semi-cuantitativo sobre evolución temporal del aprendizaje de la física elemental: un estudio con alumnos de ingeniería (Semi-quantitative diagram about temporal evolution in basic physics learning: a study with engineering students) 27 Oct 2012 Paco Talero Grupo Física y Matemáticas Depto de Ciencias Naturales Universidad Central Carrera 5 No 21-38BogotáD.C.Colombia Facultad Centro de Investigación en Ciencia Aplicada y Tecnología Avanzada Col. Irrigación Instituto Politécnico Nacional Av. Legaria 694C. P. 11500México D. F César Mora Facultad Centro de Investigación en Ciencia Aplicada y Tecnología Avanzada Col. Irrigación Instituto Politécnico Nacional Av. Legaria 694C. P. 11500México D. F Orlando Organista Grupo Física y Matemáticas Depto de Ciencias Naturales Universidad Central Carrera 5 No 21-38BogotáD.C.Colombia Facultad Centro de Investigación en Ciencia Aplicada y Tecnología Avanzada Col. Irrigación Instituto Politécnico Nacional Av. Legaria 694C. P. 11500México D. F Luis Barbosa Grupo Física y Matemáticas Depto de Ciencias Naturales Universidad Central Carrera 5 No 21-38BogotáD.C.Colombia Facultad Centro de Investigación en Ciencia Aplicada y Tecnología Avanzada Col. Irrigación Instituto Politécnico Nacional Av. Legaria 694C. P. 11500México D. F Diagrama semi-cuantitativo sobre evolución temporal del aprendizaje de la física elemental: un estudio con alumnos de ingeniería (Semi-quantitative diagram about temporal evolution in basic physics learning: a study with engineering students) 27 Oct 2012arXiv:1210.7358v1 [physics.ed-ph]diagramevolutionphysics educationteaching methodshomogeneity 1 Introducción Se presenta una técnica novedosa de análisis semi-cuantitativo plasmada en un diagrama geométrico que permite estudiar algunas características de la evolución temporal del aprendizaje de conceptos concretos de física elemental durante periodos sucesivos de tiempo. Esta técnica cuantifica el grado de homogeneidad (H) y el rendimiento (S) de la población en periodos sucesivos de tiempo que son organizados en un diagrama (H − S) que contiene información cuantitativa y cualitativa sobre las características del aprendizaje y la instrucción impartida. Esta técnica fue aplicada al estudio de la evolución temporal de la interpretación gráfica del movimiento uniforme rectilíneo, a través de tutoriales en un curso de física introductoria con 20 alumnos de ingeniería en la Universidad Central de Bogotá Colombia durante un periodo de 6 semanas. Se encontró en el diagrama global que (Smax, Hmax) ≈ (0,75, 0,75). Palavras-chave: diagrama, evolución temporal, enseñanza de la física, métodos de enseñanza, homogeneidad.We show a new semi-quantitative technique of analysis about of temporal evolution of learning of basic physics concepts. In this technique we arrange a geometric diagram with the score and the homogeneity (H − S), in this diagram we have a quantitative and qualitative information about the learning of students and the effectiveness instruction. We applied this technique to study the temporal evolution of the graphical interpretation of motion in one dimension through tutorials in a introductory course physics with 20 students of engineering at the Universidad Central de Bogotá Colombia for a period of 6 weeks. We found in the general diagram that (Smax, Hmax) ≈ (0,75, 0,75). Introducción Durante losúltimos treinta años múltiples investigaciones en el campo de la enseñanza y aprendizaje de la física, han venido mostrando una serie de problemas fundamentales comunes a diferentes poblaciones de un mismo país e incluso comunes a diferentes países [1][2][3][4][5], entre los problemas más destacados se encuentran: primero que las ideas naturales, pre-concepciones, ideas erróneas o ideas alternativas que tienen los estudiantes no son removidos en la educación básica; segundo que los estudiantes continúan con las mismas ideas previas aún después de tomar sus asignaturas de física general en la educación superior; tercero que los estudiantes usan modelos mentales similares y erróneos a la hora de explicar un fenómeno físico y cuarto que la ensenanza, en general, no tiene en cuenta las concepciones de los estudiantes ni sus características siendo de esta manera poco efectiva a la hora de formar ciudadanos con sólidos conocimientos básicos de física [1,2]. El reconocimiento de estos problemas ha estimulado la formación de comunidades científicas, como la Physics Education Research (PER) que busca enfrentar y proponer soluciones a este tipo de problemas [3]. Así se han concebido diversas alternativas de instrucción física como los tutoriales, instrucción por pares y experimentos discrepantes [6][7][8][9], entre muchas otras técnicas de intrucción enmarcadas en el aprendizaje activo de la física [10]. Por otra parte, las dinámicas de investigación cuantitativa en la enseñanza de la física han permitido construir diversos instrumentos de investigación como el FCI, TUG-K y BEMA entre otros [11][12][13], que son test de selección múltiple cuyas preguntas tienen distractores que sintetizan las tendencias del razonamiento común y evidencian la presencia de modelos mentales intuitivos. La utilidad de estos instrumentos de indagación ha sido potenciada con la construcción de técnicas cuantitativas que permiten organizar los datos obtenidos y ayudan a obtener información. En la actualidad dos técnicas predominan en la literatura de investigación cuantitativa de la enseñanza de la física: el factor de concentración y la ganancia media normalizada [14,15]. El factor de concentración permite medir la concentración C de las respuestas en las alternativas de una pregunta de selección múltiple y relacionarlas con el rendimiento o puntaje S, esta información es usada para conocer, entre otras cosas, si los estudiantes tienen modelos incorrectos o no. La ganancia media normalizada G es comúnmente usada en metodologías que evalúan mediante pre y pos-test, mide la diferencia de puntaje entre estas pruebas, tomando como base el puntaje del pre-test S o y del pos-test S f . Así mismo, en [16] se encuentra un estudio realizado sobre física introductoria que permitió caracterizar la evolución de la comprensión de los estudiantes de manera más detallada de lo que es posible a través de un pre y post-test. Las curvas de rendimiento S − t encontradas muestran que en algunos aspectos no hay cambios significativos, en otros hay decadencia, oscilación e incluso hay tendencia a la baja en algunosítems. De otro lado, un enfoque multidisciplinar basado en los conceptos de la sociología, psicología educativa, física estadística y ciencias de la computación ha venido desarrollando descripciones teóricas de los procesos de enseñanza-aprendizaje en el aula de clase con buenos resultados [17][18][19][20]. Así se ha estudiado mediante modelos teóricos los resultados brindados por metodologías de instrucción como el aprendizaje colaborativo, aprendizaje social a través de internet e instrucción por pares [20,21], entre otras. Estas ideas teóricas han explorado tanto el aprendizaje como las metodologías de instrucción y se han realizado propuestas analíticas y desarrollos mediante simulación. Pese al gran desarrollo de la investigación en ensenanza de la física, no se ha reportado en la literatura la construcción de una técnica de análisis que dé cuenta de algunas características de la evolución temporal del aprendizaje de conceptos de física elemental durante periodos sucesivos de tiempo. En este trabajo se presenta una propuesta que implementa tal técnica de análisis, para esto en la sección 2 se presentan las definiciones fundamentales que delimitan el trabajo; en la sección 3 se exponen los criterios que permiten cuantificar el concepto de homogeneidad a partir de test de selección múltiple; en la sección 4 se definen y ejemplifican los diagramas de evolución del aprendizaje de la física (DEAF); en la sección 5 se presentan los re-sultados de una investigación realizada en la facultad de ingeniería de la Universidad Central de Bogotá con estudiantes de ingeniería donde se aplicó DEAF y finalmente en la sección 6 se presentan las conclusiones. Definición fundamentales Las características generales de los procesos de enseñanza aprendizaje de la física son en general muy complejas y abarcan dinámicas propias a las instituciones, las directivas, así como de los profesores y los estudiantes con todas sus características psicológicas y socio-culturales. En cuanto a los estudiantes se refiere se sabe que debido a su pasado académico, experiencia de vida individual, predisposición, motivación, creatividad, tiempo de trabajo y organización poseen un ritmo de trabajo que determina el desempeño a lo largo del proceso de enseñanza aprendizaje. Lo anterior implica que en general resulta muy complejo de evaluar y cuantificar este tipo de procesos. Sin embargo, múltiples estudios realizados por la PER muestran que hay algunas regularidades en este tipo de procesos que requieren atención e investigación [3]. De acuerdo con lo anterior, se define el sistema en estudio como un conjunto de N e (N e > 2) estudiantes que están dispuestos en una u otra medida a aprender física, se reúnen periódicamente durante algún tiempo para interactuar entre ellos y con el profesor quien es el responsable de asignar, orientar y dirigir las diversas actividades académicas en el marco de una metodología propia, pero dentro de un referente curricular claro, preciso y en armonía con los objetivos de una institución. Así, se entiende el sistema de estudio compuesto por estudiantes, profesor, metodología e institución y el objeto de estudio es el aprendizaje de la física del grupo de estudiantes y la efectividad de las instrucciones. Llámese observable de aprendizaje a toda propiedad o característica asociada con el aprendizaje de los estudiantes susceptible de ser medida con plena claridad y precisión. Cada sistema se caracteriza por un conjunto bien definido de observables de aprendizaje, el desempeño o puntaje S, la concentración C y la ganancia media normalizada G son algunos ejemplos. Además, para materializar los observables de aprendizaje se requiere construir un test de indagación que cumpla preferiblemente con las siguientes características: 1. surgir de las peculiaridades de la población en estudio con sus ideas erróneas y tendencias de pensamiento común, que se pueden obtener a partir de entrevistas directas o conocimientos extraídos de otras investigaciones. 2. ponerse a punto con una muestra de la misma población que no participa en el estudio, allí se analiza la conveniencia de cada pregunta en cuanto a redacción y pertinencia disciplinar se refiere. 3. tener m opciones y por tanto m − 1 distractores que inscriban las ideas alternativas y erróneas características de esta población. 4. contener N p preguntas que apuntan a indagar diferentes matices de un concepto o pensamiento físico particular, por ejemplo el MUR. Si un test como el descrito anteriormente se aplica a N e estudiantes el resultado de la prueba se puede representar mediante la tabla 1, donde el número de opciones 1, 2, 3, · · · , m se ha denotado con la siguiente asignación de correspondencias 1 → A, 2 → B, . . . etc.; los estudiantes participantes se denotan como e 1 , e 2 , e 3 . . . e i . . . e Ne y las preguntas del test se denotan como p 1 , p 2 . . . p j . . . p Np , esta configuración se llamará en adelante el estado del sistema. Tabla 1: Estado del sistema p 1 p 2 p 3 . . . p j . . . p Np e 1 A E D C E E B e 2 C . . . . . . e 3 D . . . . . . . . . C . . . . . . . . . e i E . . . . . . . . . B . . . . . . e Ne A . . . Homogeneidad Para caracterizar la evolución temporal del pensamiento de un grupo en unámbito particular de la física es preciso definir la homogeneidad respecto a una pregunta o grupo de preguntas que responda o respondan a los diferentes matices de pensamiento físico a estudiar. El análisis de concentración [14] permite cuantificar la distribución de la concentración de una pregunta en particular, pero no se conocen, en cuanto a este campo de investigación se refiere, técnicas que permitan cuantificar la homogeneidad en una pregunta o de manera global. En esta sección se muestra como construir un indicador que cuantifique el grado de homogeneidad de una pregunta y de la prueba a nivel global. Un grupo de individuos se considera homogéneo cuando sus miembros comparten características en un contexto determinado. En la investigación educativa generalmente el grupo homogéneo en estudio corresponde a un grupo de estudiantes con características similares en contextos tan diversos como el cultural, la condición socio-económica, el sexo, la experiencia de vida, los valores y el rendimiento académico, entre muchos otros. Por otra parte, uno de los resultados más importantes de la investigación en enseñanza de la física es que los estudiantes al iniciar un curso ya traen consigo diferentes ideas erróneas, por lo general difíciles de cambiar, que suelen activarse a la hora de explicar diversos aspectos de un mismo hecho físico, también se sabe que en general la gama de estas concepciones alternativas en una población particular tiende a ser pequeña [22]. Esto ha propiciado que tales ideas alternativas sean utilizadas por muchos investigadores para construir instrumentos de opción múltiple que utilicen las concepciones alternas reportadas por los estudiantes para construir distractores que tengan sentido para el instructor [22]. Se desprende de lo anterior que un grupo de estudiantes de física con un entorno socicultural bien delimitado resulta homogéneo en alguna medida ya que las investigaciones reportan en su mayoría tendencias de pensamiento común [3]. Si se toma como criterio de homogeneidad la coincidencia en las ideas físicas erróneas o no que tienen los estudiantes entonces surge la necesidad de cuantificar el concepto de homogeneidad de una estructura global de pensamiento físico, por ejemplo el pensamiento Newtonianoo más puntualmente: el pensamiento físico de los estudiantes en torno al MUR- [11]. Se define el número de coincidencias N c , como el número total de coincidencias que los estudiantes tienen al responder cada opción en cada pregunta. Así, sea n i el número de coincidencias que tiene el estudiante i-ésimo con los estudiantes e i+1 , e i+2 . . . e i+Ne , de manera que el núnero total de coincidencias está dado por la suma del número de coincidencias n 1 , n 2 , n 3 , n i . . . n Ne−1 , es decir: N c = Ne−1 i=1 n i .(1) Ahora, para construir un indicador de homogeneidad es preciso encontrar el número máximo (N cmax ) de coincidencias y el mínimo número de coincidencias (N cmin ), para ello se procede de manera siguiente. El máximo número de coincidencias ocurre cuando en la configuración de respuesta todos los estudiantes escogen la misma opción, de acuerdo con esto el número de coincidencias del i-ésimo estudiante es n i = N p (N e − i) y usando la expresión (1) se encuentra N cmax = 1 2 N p N e (N e − 1).(2) Para encontrar una configuración con el mínimo número de coincidencias es necesario considerar dos situaciones: la primera cuando el número de estudiantes es múltiplo del número de opciones de cada pregunta del test, es decir N p = mN e y la segunda cuando no lo es. En el primer caso se pueden disponer diferentes opciones en cada pregunta hasta agotar las posibilidades formando bloques en los cuales no hay coincidencia interna al bloque. El número de coincidencias se obtiene al notar que un estudiante en particular tiene una coincidencia por cada bloque, dado que se tienen N b − 1 bloques, m opciones y N p preguntas el número de coincidencias mínimo en este caso es m(N p − 1)N p . En el segundo caso es preciso sumar todas las coincidencias que tiene cada estudiante con el bloque incompleto, puesto que adicionalmente hay z = N e mód m elementos en el bloque sobrante y el número de bloques completos son N b = Ne m entonces el número adicional de coincidencias por pregunta es zN b . De acuerdo con lo anterior el número mínimo de coincidencias está dado por: N cmin = N p [m(N b − 1) + zN b ] .(3) Se define el coeficiente de homogeneidad como un número real perteneciente al intervalo [0, 1] que indica el parecido entre todos los estudiantes en cuanto aĺ ıtem elegido se refiere. H = 1 significa que son completamente iguales mientras que H = 0 significa que son completamente diferentes, es decir lo más diferente que pueden ser de acuerdo con las características del test. La relación entre el número de coincidencias y la homogeneidad permite inferir la evolución del sistema con el transcurso del tiempo, si la evolución se presenta de manera que los elementos (N c , H) de esta relación tomen valores que hagan mínima la distancia (N cmin , 0) → (N cmax , 1) se tendrá el trayecto de evolución con mejor desempeño metodológico. De acuerdo con lo anterior, si se define una función ideal idéntica entre N c y H exigiendo las condiciones H = 0 cuando N c = N cmin y H = 1 cuando N c = N cmax se encuentra H = N c − N cmin N cmax − N cmin .(4) La expresión (4) permite cuantificar la homogeneidad del estado del sistema en estudio, en particular permite estudiar la homogeneidad del estado de uná unica pregunta haciendo N p = 1. Diagrama de evolución temporal El estudio de la evolución del aprendizaje de conceptos concretos de física elemental que se propone en este trabajo consiste en la aplicación consecutiva de un test durante sucesivas secciones de clase, para indagar por la evolución de los aciertos y falencias disciplinares de los estudiantes y la metodología de instrucción. De esta manera se observa la evolución en tiempo de ejecución, desde un punto de vista cuantitativo y cualitativo. Para esto se calcula tanto el desempeño S como la homogeneidad H del estado instantáneo del sistema en cada sección y se organiza en un diagrama H − S como el mostrado en la Fig.1. Además, esta información es complementada con la extraída de un diario de campo que lleva el profesor. De acuerdo con lo anterior el profesor tiene suficiente información para ir ajustando su metodología de instrucción y observar de manera inmediata los resultados de la intervención. Para construir un diagrama semi-cuantitativo sobre evolución temporal del aprendizaje de la física elemental DEAF se asigna al eje horizontal el desempeño o puntaje S normalizado a 1 y al eje vertical se le asigna el valor de homogeneidad H. Cuando el puntaje es cercano a 1 m , siendo m el número de opciones, hay un predominio del azar en la prueba y por lo tanto no se espera puntajes por debajo de 1 m . Cuando S ≈ 1 2 se tiene máxima incertidumbre en el desempeño, de manera que puntajes mayores a 1 2 muestran una tendencia a la apropiación del concepto físico, mientras que puntajes menores a 1 2 muestran una prueba más bien gobernada por el azar. De manera similar H > 1 2 marca una tendencia hacia lo homogéneo o parecido, mientras que H < 1 2 indica una diferencia en la percepción tanto de los conceptos correctos como de ideas y alternativas erroneas. Un punto determinado (S, H) del DEAF cuantifica el estado del sistema, de manera que la distribución de cada punto en este diagrama muestra la evolución temporal del sistema en estudio. En la Fig.1 la trayectoria cerrada ABCDA indica la zona más significativa en cuanto a evolución coherente se refiere, pues zonas con 1 m serán visitadas con poca frecuencia ya que se parte de un test debidamente construido; la zona por encima de la semi-recta DC indica una alta homogeneidad la cual no se espera frecuentemente cuando hay bajo puntaje, ni se espera que la homogeneidad sea muy alta con puntaje medio; a la derecha de la semi-recta BC no se esperan visitas, pues el aumento del desempeño implica un aumento en la homogeneidad; la zona por debajo de la semi-recta AB es de alta aleatoriedad ya que tiene un puntaje bajo y es altamente heterogénea; la zona alrededor del punto A indica un puntaje de bastante azar y de baja homogeneidad lo que significa un punto de partida muy probable para el sistema, mientras que los alrededores del punto C indican un máximo tanto de desempeño como de homogeneidad y la semi-recta AC indica el trayecto más eficiente de aprendizaje, puesto que es un camino de pocos intentos para alcanzar alto puntaje, es decir alta homogeneidad y por tanto una metodología exitosa. De acuerdo con lo anterior es innecesario usar todo el armazón gráfico de la Fig.1, basta con tomar la zona delimitada con los puntos ABCDA y mantener su orientación, este diagrama se denotará en adelante como DEAF. Diversas trayectorias de evolución del sistema se pueden presentar: en la Fig.2 se ilustran algunos ejem-plos típicos: el trayecto (1) muestra un ciclo cercano al punto A y por tanto indica una metodología muy poco eficiente en la cual los estudiantes, respecto a sus conocimiento disciplinares, salen del curso prácticamente igual a como entraron; el trayecto (2) indica un escenario en el que el sistema inicia en un estado de baja homogeneidad y bajo puntaje y evoluciona hacia un estado de alta homogeneidad y bajo puntaje, tal situación eventualmente podría darse si se va creando poco a poco creencia en una o varias ideas erróneas y el trayecto (3) muestra como partiendo de una alta homogeneidad dada por existencia de errores comunes muy arraigados el sistema evoluciona hacia una zona de menor homogeneidad pero mayor puntaje, dando a entender que hay cierta efectividad en la metodología de instrucción usada. El DEAF permite estudiar el comportamiento global o particular de un sistema en cuanto al aprendizaje disciplinar de conceptos concretos de física elemental se refiere. Para estudiar un concepto determinado se puede usar el DEAF aplicado a unaúnica pregunta y si se quiere estudiar todo un pensamiento físico se usa la prueba completa. Aplicación del DEAF a estudiantes de Ingeniería en la UC La facultad de ingeniería de la Universidad Central está ubicada en la zona centro de Bogotá, esta facultad tiene inscritos alrededor de 3500 estudiantes de diversas ingenierías que toman cursos de física I, física II y física III, por lo general en grupos de 20 estudiantes durante cuatro horas semanales. En el primer curso se abordan temas de mecánica Newtoniana de la partícula desde un punto de vista teórico-experimental con uso de una metodología mayoritariamente magistral, tomando como prerrequisito el algebra lineal y como correquisito el cálculo diferencial de una variable. Durante el segundo semestre del año 2011 se realizó un estudio con 180 estudiantes que buscaba indagar la efectividad al interpretar gráficamente el movimiento rectilíneo. Para esto se aplico el test TUG-K a estudiantes de física I después de haber tomado el curso bajo acción metodológica magistral caracterizada por la exposición del profesor y la actuación de los estudiantes sólo a través de ejercicios, laboratorios y exámenes. Los resultaron mostraron una distribución prácticamente binomial con probabilidad del orden de 1 5 , lo que mostró la poca efectividad de la instrucción tradicional en esta institución. Durante el primer semestre de 2012 se investigó la evolución del pensamiento físico del MUR en estudian-tes de física I, con la hipótesis de trabajo siguiente: si un curso de 20 estudiantes se somete a una instrucción activa guiada por tutoriales se tendrá una evolución que iría desde zonas de bajo rendimiento y baja homogeneidad hasta alcanzar un alto desempeño y alta homogeneidad. Para llevar a cabo esta investigación se diseñó y puso a punto un test de 8 preguntas de selección múltiple conúnica respuesta, que indagaba por los conceptos de posición, velocidad y desplazamiento en el MUR, enmarcado dentro de la interpretación gráfica. También, se aplicó un tutorial sobre este tema diseñado para materializar esta metodología. El test se aplicó en cada sesión de clase durante 6 semanas, en total se realizaron 10 aplicaciones consecutivas. El test se puso a punto en dos pasos: primero, confrontando su pertinencia disciplinar con diferentes profesores y segundo, ensayándolo en una muestra de 48 estudiantes 1 . Se realizó un análisis clásico de test, donde los indicadores evaluados, de acuerdo con el número de preguntas, fueron elíndice de dificultad (P ), elíndice de discriminación deítem (D) y elíndice global delta de Ferguson (δ) [13]. Elíndice de dificultad promedio de la prueba fue 0,42 que está en el intervalo de valides [0, 3,0,9]; el promedio delíndice de discriminación fue 0,34 que es mayor que el mínimo aceptado 0,3 y el delta de Ferguson fue de 0,93 también mayor que el límite inferior 0,9. Los resultados deíndice de dificultad y discriminación porítem se muestran en la gráfica de la Fig.3. Lo anterior muestra que este test es fiable para usar como indagador en la investigación referida a esta población. Dado que el test de investigación debía aplicarse 10 veces consecutivas y existía la posibilidad de que los estudiantes memorizaran las respuestas y compartieran información fuera del aula se construyeron 10 formas diferentes del test con las preguntas y respuestas distribuidas al azar. Así mismo, para contrarrestar la desmotivación que produce responder la misma prueba de manera rutinaria fue necesario impartir un bono por cada vez que fuese respondido. Para esta investigación se planteó aplicar secuencias didácticas de tutoriales, que es una instrucción basada en el aprendizaje activo de la física y desarrollada desde hace casi tres décadas por Lillian McDermott y sus colaboradores en la Universidad de Washington [3,6] , este tipo de instrucción está fundamentada en las características de los estudiantes que incluyen tanto sus preconceptos como sus modelos mentales. Los tuto-1 Este test se puede encontrar en el sitio http://algodefisica.blogspot.com/2012/05/per.html, la contraseña de apertura es galileo_MUR. riales buscan desarrollar la comprensión conceptual y el razonamiento físico cualitativo, partiendo de situaciones naturales para el estudiante, vistas desde sus preconceptos, y mediante el conflicto cognitivo materializado a través del dialogo socrático el profesor va acercando al estudiante a los conceptos propios de la física. La implementación de esta instrucción requiere unos procedimientos concretos y fundamentales: primero aplicar un ejercicio corto en cada clase, que busca por un lado aclararle a los estudiantes los contenidos a estudiar y por otro mostrar a los profesores los problemas de aprendizaje que los estudiantes tienen en ese instante; segundo que los estudiantes mediante trabajo colaborativo y la dirección del profesor realicen las actividades propuestas en el tutorial; tercero que los estudiantes realicen los ejercicios extra clase, que estos sean retroalimentados y estén en el contexto del tutorial [7]. Para materializar esta metodología en la investigación se organizó en cada sección de clase grupos de trabajo de cuatro estudiantes cada uno con su propio tutorial donde se discutía las situaciones planteadas en torno a la interpretación gráfica del movimiento rectilíneo y con sus casos particulares uniforme y uniforme acelerado, en el transcurso de la clase el profesor se paseaba por cada grupo buscando un diálogo socrático entre los estudiantes del grupo y efectuando algunas explicaciones magistrales, en ciertas secciones hacia el final de la clase el profesor realizaba un análisis general que terminaba con la solución de los problemas discutidos, finalmente se dejaba como trabajo extra clase las actividades planteadas en el tutorial y se asignaba una bonificación mediante el sellado de los apuntes. También, se realizaron varias actividades de laboratorio entre las que se destacaron el estudio experimental Sin embargo, se observó que la discusión de los contenidos físicos se hizo difícil de desarrollar en el aula debido a la falta de concentración por parte de los estudiantes, pues por lo general se mantenía la discusión y confrontación de ideas en un grupo particular mientras el profesor estaba en interacción con tal grupo de lo contrario se limitaban a completar las actividades del tutorial sin mucho análisis. Así mismo, las actividades extra clase eran realizadas a medias, completadas enúltimo momento, copiadas entre estudiantes y de libros sin mayor análisis. En general se observó en los estudiantes, poco interés, inmediatez y rápido olvido, de manera que el compromiso intelectual cargado de crítica, creatividad y autonomía no se logró del todo ni dentro ni fuera del aula. Durante el transcurso de la investigación la intencionalidad de respuesta correcta no se mantuvo fija, pues la aplicación estuvo inmersa dentro de las evaluaciones tradicionales y en particular en la aplicación 9 se realizó el examen parcial. De igual modo, el número de estudiantes no se mantuvo constante debido a la inasistencia a clase y el incorrecto diligenciamiento del test, pues no se escribió el código de la prueba asignada y dado que había diez temas distintos no había manera de identificar con la hoja de respuesta que tema le correspondía. Así que la asistencia efectiva es la mostrada en la tabla 2. No obstante, es de notar que este hecho no afecta de ninguna manera la aplicación del DEAF ni las curvas de desempeño del curso. En la Fig.4 se muestran las curvas típicas de desempeño, cada curva corresponde al desempeño de la población durante las 10 aplicaciones consecutivas. Se observa que en general las curvas son muy planas, lo que significa que no hubo mayor cambio en el rendimiento, es decir el desempeño de los estudiantes sólo mejora un poco pero después decaen y en general oscilan de clase en clase. En general estas curvas de rendimiento resultan similares a las reportadas por [16]. De la gráfica en la Fig.4 se infiere la representatividad de las preguntas 1, 2 y 6 las cuales se examinan en cuanto a su evolución mediante el DEAF, ver Fig. 5. La pregunta (1) muestra una evolución pequeña con baja homogeneidad y puntaje medianamente alto que alcanza el máximo en el penúltimo intento y luego retrocede a un menor puntaje y baja homogeneidad. Da-do que esta pregunta busca conocer si el estudiante interpreta la pendiente como la velocidad en una gráfica de posición vs tiempo se puede afirmar que la población en estudio sólo alcanzó medianamente este concepto y que además es oscilante sin mucho parecido entre sus ideas alternativas. La pregunta (2) es un ejemplo típico de esos conceptos que no logran evolucionar sino que se quedan oscilando entre lo medianamente claro un día y al siguiente de nuevo confuso. Esta pregunta indaga por la interpretación gráfica de la velocidad vs tiempo desde una perspectiva narrativa, esto indica que las acciones tendientes a buscar que el estudiante pinte una gráfica a partir de un enunciado literal han fallado con esta metodología. En la pregunta (3) se indaga por el desplazamiento visto desde la gráfica de velocidad vs tiempo. Nótese que hay plena evolución hasta alcanzar el máximo, pero no se mantiene sino que retorna a puntos anteriores. En verdad no hay un aprendizaje definitivo del concepto ya que además la evolución se produce algo retirada de la semirrecta central y esto indica que se acercan escogiendo respuestas alternas al azar y no por un descarte que el conocimiento físico de este concepto debe permitir. Al aplicar el DEAF a la prueba completa se buscó indagar por el pensamiento físico de los estudiantes en cuanto a la interpretación gráfica del MUR se refiere. Este resultado se muestra en la Fig.6. Nótese que en general se encuentra una leve evolución con retrocesos y oscilaciones y lejos de la semi-recta central, el punto de máxima evolución corresponde a (Smax, Hmax) ≈ (0,75, 0,75) alcanzado en la 9 aplicación que coincide con la fecha de examen, esto significa que la metodología no fue lo suficientemente idónea para mantener un crecimiento continuo y efectivo del aprendizaje de este tema particular de la física introductoria. Figura 6: -DEAF aplicado sobre la prueba general Conclusiones Se mostró el diagrama de evolución de aprendizaje de la física, DEAF, como una técnica que permite estudiar la evolución del aprendizaje de conceptos concretos de física elemental durante algún periodo tiempo. Se explico las ventajas que esta técnica tiene, pues: cuantifica la evolución ya sea por conceptos particulares o de manera global permitiendo intervenir en tiempo de ejecución para cambiar aspectos metodológicos y mejorar la instrucción; permite observar si la conceptualización correcta de los estudiantes se mantiene en el tiempo o no; permite saber si los estudiantes responde al azar o con algún conocimiento disciplinar, da elementos para juzgar la efectividad de instrucción y muestra una manera de conocer la homogeneidad disciplinar de los estudiantes. Adicionalmente, esta técnica plantea algunos retos a la comunidad PER ya que crea la necesidad de diseñar metodologías de aplicación de test indistinguibles desde el punto de vista físico pero completamente diferentes a la percepción de los estudiantes, para ser aplicados múltiples veces sin causar cansancio ni generar recuerdos y así disponer de instrumentos que fortalezcan el estudio de la evolución del aprendizaje de la física. El estudio realizado con DEAF aplicado en estudiantes de ingeniería de la Universidad Central arrojó resultados que no muestran la metodología de tutoriales como la más efectiva para este grupo. Esto quizá se deba a la poca generación de interés de los estudiantes por este tipo de temas; así como a la imposibilidad de desarrollarúnicamente el tema de la interpretación gráfica del movimiento unidimensional durante todo el semestre; también pudo afectar la falta de un acompañamiento orientado al tema especifico en las actividades extra clase mediante monitores o profesores conocedores de la metodología y sobre todo, la poca efectividad lograda se debe a que no se han pensado ni desarrollado estrategias que contrarresten la tendencia cultural de la inmediatez y el análisis superfluo. Es decir, el trabajo logró falsear la hipótesis planteada. Dos perspectivas de investigación futura proyecta esta investigación: la primera consiste en aplicar DEAF a la metodología de intrusión entre pares y observar la relación la evolución de conceptos concretos durante una clase, segundo observar la evolución de conceptos simples durante todo un programa a lo largo de 5 años y obtener conclusiones sobre las metodologías a partir del DEAF. Agradecimientos Los autores agradecen a los estudiantes de física I que participaron en la investigación durante los periodos académicos 2011−2 y 2012−1; a los profesores que revisaron el test y prestaron sus cursos para ponerlo a prueba; al Departamento de Ciencias Naturales de la Universidad Central por el apoyo y el tiempo asignado a la investigación y al CICATA del IPN de México por su continua colaboración. Figura 1: -El diagrama DEAF. Figura 2: -Algunos posibles trayectos de evolución. Figura 3: -Índices de dificultad (P ) y discriminación (D) de cada pregunta. Figura 4 : 4-Desempeño S vs tiempo t de las gráficas de posición vs tiempo de cada estudiante en una carrera de 10m, esta práctica tomo como material un registrador simple de tiempo y una cinta de papel, la práctica permitió elaborar un poster por estudiante que produjo una discusión general de los conceptos gráficos del movimiento rectilíneo. Figura 5: -Diagrama de evolución de las preguntas 1, 2 y 3 . L Bao, E Redish, Phys. Rev. ST Phys. Educ. Res. 210103L. Bao and E. Redish, Phys. Rev. ST Phys. Educ. Res 2, 010103 (2006) . L Bao, K Hogg, D Zollman, Am. J. Phys. 70777L. Bao, K. Hogg and D. Zollman, Am. J. Phys. 70, 777 (2002). . L Mcdermott, E Redish, Am. J. Phys. 67755L. McDermott and E. Redish, Am. J. Phys. 67, 755 (1999). . L Bao, T Cai, K Koenig, K Fang, J Han, J Wang, Q Liu, L Ding, L Cui, Y Luo, Y Wang, L Li, N Wu7, SCIENCE. 323586L. Bao, T. Cai, K. Koenig, K. Fang, J. Han, J. Wang, Q. Liu, L. Ding,L. Cui, Y.Luo, Y. Wang, L. Li, N. Wu7, SCIENCE. 323, 586 (2009). E R Covián, M C Matachana, Enseñanza de las Cencias. 2623E. R. Covián y M. C. Matachana,Enseñanza de las Cencias,26, 23 (2008) . L Mcdermott, Am. J. Phys. 691127L. McDermott, Am. J. Phys. 69, 1127 (2001). . J Benegas, Lat , Am. J. Phys. Educ. 132J. Benegas, Lat. Am. J. Phys. Educ. 1, 32 (2007). . P Talero, L Barbosa, Lat , Am. J. Phys. Educ. 32P. Talero y L. Barbosa, Lat. Am. J. Phys. Educ. 3, 2 (2009). . L Barbosa, P Talero, Rev.Col.Fís. 433L. Barbosa y P. Talero, Rev.Col.Fís., 43, 3 (2011). P Talero, O Organista, L Barbosa Y, G Rojas, Física Activa: Leyes de Movimiento. Bogotá, D.C.Editorial Universidad CentralP. Talero, O. Organista, L. Barbosa y G. Ro- jas: Física Activa: Leyes de Movimiento (Editorial Universidad Central, Bogotá, D.C., 2011). The physics teacher. D Hestenes, M Wells, G Swackhamer, 30141D. Hestenes,M. Wells and G. Swackhamer, The physics teacher. 30, 141 (1992). . R Beichner, Am. J. Phys. 62750R. Beichner, Am. J. Phys. 62, 750 (1994). . L Ding, R Chabay, B Sherwood, R Beichner, Phys. Rev. ST Phys. Educ. Res. 210105L. Ding, R. Chabay, B. Sherwood and R. Beichner, Phys. Rev. ST Phys. Educ. Res 2, 010105 (2006). . L Bao, E Redish, Am. J. Phys. 6945L. Bao, E. Redish, Am. J. Phys. 69, 45 (2001). . R Hake, Am. J. Phys. 6664R. Hake, Am. J. Phys. 66, 64 (1998). . A F Heckler, E C Sayre, Am. J. Phys. 787A. F. Heckler and E. C. Sayre, Am. J. Phys. 78, 7 (2010). . C M Bordogna, E V Albano, Phys. Rev. Lett. 87118701C. M. Bordogna and E. V. Albano,Phys. Rev. Lett. 87, 118701 (2001). . E Redish, Am. J. Phys. 67E. Redish,Am. J. Phys. 67, 562 (1999). . D H Pritchard, Y J Lee, L Bao, Phys. Rev. ST Phys. Educ. Res. 410109D. H. Pritchard, Y. J. Lee, and L. Bao, Phys. Rev. ST Phys. Educ. Res. 4, 010109 (2008). . H Nitta, Phys. Rev. ST Phys. Educ. Res. 620105H. Nitta, Phys. Rev. ST Phys. Educ. Res 6, 020105 (2010). . H C Crouch, E Mazura, Am. J. Phys. 69970H. C. Crouch and E. Mazura, Am. J. Phys. 69, 970 (2001). . L Bao, E Redish, Phys. Rev. ST Phys. Educ. Res. 210103L. Bao and E. Redish, Phys. Rev. ST Phys. Educ. Res. 2, 010103 (2006).
sample_1291
0.9701
arxiv
Gestion Dynamique des Services Techniques pour Modèle à Composants 24 Nov 2004 Hérault -Sylvain Colombe LAMIH / ROI / SID UMR CNRS 8530 Université de Valenciennes -Le Mont Houy 59313Valenciennes Cedex 9France Lecomte LAMIH / ROI / SID UMR CNRS 8530 Université de Valenciennes -Le Mont Houy 59313Valenciennes Cedex 9France Gestion Dynamique des Services Techniques pour Modèle à Composants 24 Nov 2004136 DECOR'04, Déploiement et (Re)Configuration de Logiciels.technical servicesadaptabilitycomponent-based architecturemiddleware Les nouvelles applications étant destinées à des environnements de plus en plus hétérogènes, il est indispensable de proposer des solutions de développement qui répondent au mieux aux besoins d'adaptation des nouveaux services. La programmation par composants répond en partie à cela, en permettant d'interchanger les briques logiciels afin de fournir la version d'un composant la plus adaptée à son contexte d'exécution. Néanmoins, la plupart des implantation industrielles des modèles à composants ne permettent pas de fournir aux composants les services techniques (nommage, courtage, sécurité, transaction, etc.) les mieux adaptés. Dans cet article, nous proposons de définir les services techniques eux-mêmes sous forme de composants. Nous détaillerons notre proposition, en la basant sur le modèle à composants Fractal de Objectweb. Puis, nous apportons des solutions pour l'utilisation de ces nouveaux services techniques à base de composants et proposons un ensemble de composants de gestion qui permettent de gérer de façon dynamique et automatique les composants obtenus. Enfin nous présentons le prototype du système proposé. (naming, trading, security, transaction, etc.). In this paper, we suggest defining technical services themselves under the shape of components. We shall detail our proposition, by basing it on the Fractal component model of Objectweb. Then, we shall bring solutions for the use of these new component-based technical services and shall propose a set of management components which allow to administer in a dynamic and stand-alone way the obtained components. Finally we present the prototype of the proposed solution.ABSTRACT. The new applications being intended for more and more heterogeneous environments, it is necessary to propose solutions of development which answer in best the necessities of adaptation of new services. Component-based programming partially answers this aim, allowing easy replacement of software blocks in order to provide the most adapted version of a component. Nevertheless, most of the industrial component-based model implementations do not allow to provide to components the most adapted technical servicesMOTS-CLÉS : services techniques, adaptabilité, architecture à composants, intergiciel. Introduction L'émergence des intergiciels fut en grande partie motivée par le besoin d'interopérabilité dans un contexte fortement distribué entre des modules logiciels écrits à des époques différentes avec des langages hétérogènes. Ensuite on a voulu apporter une certaine qualité de service à ces modules logiciels et une plus grande facilité de développement et de réutilisabilité. L'une des solutions adoptées fut de séparer code fonctionnel et non-fonctionnel. Ainsi le développeur se focalise sur la logique applicative et délègue l'implantation des services techniques (ou non-fonctionnels) à la plate-forme d'exécution. Cependant, les terminaux participant aux applications distribuées sont de plus en plus hétérogènes : de l'ordinateur très puissant aux cartes à microprocesseur. A cause de la diversité de l'offre de terminaux, le programmeur doit assurer la portabilité de ses applications. Une solution pour gérer cette hétérogénéité au niveau de l'application est d'utiliser le modèle de programmation par composants [RIV 02]. Cependant, les modèles à composants actuels ne permettent pas d'adapter les services techniques à l'environnement d'exécution : le développeur peut uniquement décider d'utiliser ou non un service. On ne lui offre pas le choix du modèle implantant le code nonfonctionnel. Les composants qu'il écrit utilisent donc toujours les mêmes services techniques quel que soit leur environnement. Or, en fonction des spécificités de l'environnement, certaines implantations d'un service sont plus efficaces que d'autres. Nous proposons donc de réaliser également les services techniques à l'aide du modèle à composants : un service technique devient alors un assemblage de composants élémentaires, que l'on peut remplacer pour faire évoluer le service. On associe à ces nouveaux services techniques les notions de P1Ss et L2Ss qui facilitent leur description. Cela permet l'adaptabilité statique ou dynamique des services techniques. Afin d'utiliser les P1Ss et L2Ss, nous spécifions également un ensemble de composants de gestion. Un prototype a été réalisé ayant pour but de démontrer la faisabilité d'un tel système. Hétérogénéité et qualité de service Le but de notre travail est d'apporter aux nouvelles applications distribuées, sur des environnements hétérogènes, une qualité de service dans n'importe quel contexte d'exécution, tout en maintenant leur interopérabilité, leur réutilisabilité et leur simplicité d'implantation. En effet, l'émergence simultanée des outils informatiques personnels portables et des réseaux sans fil a considérablement augmenté le nombre et les types des terminaux connectés aux réseaux : serveurs puissants, ordinateurs portables (PDA, téléphones mobiles) qui, bien que connectés au réseau et offrant des capacités de stockage et de traitement, sont bien moins puissants, terminaux de télévision numérique, consoles de jeux. De plus, des réseaux pair à pair remplaçant de plus en plus souvent les architectures classiques client/serveur, les participants de l'application passent successivement du rôle de client à celui de serveur, pour fournir des donnée ou des services applicatifs, ceci quelques soient leurs caractéristiques propres en terme de connexion et de puissance de calcul. Pour développer des applications portables sur ces terminaux, il est donc nécessaire de prendre en compte plusieurs contraintes liées à leur hétérogénéité. Pour le code applicatif, des solutions d'adaptation existent, telles que CESURE [PEL 00] ou ARCAD [PRO 03] : elles reposent sur l'idée que le développeur d'application écrit plusieurs versions d'un composant, chacune adaptée à son environnement puis décrit les adaptations. Ces solutions sont tout a fait intéressantes mais augmentent fortement le travail du développeur. Nous proposons de compléter cette approche en limitant le travail du développeur en adaptant automatiquement le code technique. L'intérêt étant que le code technique, réutilisable pour de nombreuses applications, est développé par des spécialistes conscients des particularités des environnements d'exécution. Comme pour les composants applicatifs, le code non-fonctionnel doit bénéficier de tels mécanismes qui tiennent compte des spécificités de leur environnement d'exécution et du contexte applicatif. Par exemple, pour les transactions [HéR 04], il existe différents modèles théoriques de gestion des transactions (plates, imbriquées, à flot de tâches). Chaque modèle transactionnel s'utilise dans des contextes applicatifs bien précis, sur des terminaux ayant des capacités spécifiques : on ne fera pas de transactions imbriquées sur une carte à microprocesseur. Ainsi, un bon nombre de services techniques devront être adaptés aux participants de l'application afin d'apporter la meilleure qualité de service possible. Pour l'instant, avant l'exécution, le choix (d'utiliser ou non un service, le choix du modèle théorique ou encore celui de l'implantation de ce modèle théorique) est difficilement possible, car les services techniques dans les plates-formes à composants industrielles sont figés lors du développement de la plate-forme. Afin de maintenir l'interopérabilité, deux composants, même s'ils fonctionnent sur deux ORB différents, utilisent les mêmes modèles de services techniques. De plus, tout au long de l'exécution, il n'est plus possible de modifier le choix du modèle théorique des services techniques et de leur implantation. Il y est donc impossible de s'adapter aux changements éventuels de l'environnement. Afin de permettre à un composant applicatif d'utiliser n'importe quelle implantation du service transactionnel, [ROU 03] propose une plate forme de déploiement : en aval un adaptateur, spécifique à chaque implantation du service technique, fait l'interface entre le service transactionnel et sa gestion par le conteneur. Intergiciels adaptables et modèle Fractal Nous avons vu qu'une plate-forme proposant une version unique des services techniques n'est pas efficace dans les environnements hétérogènes. On se propose donc de définir des mécanismes permettant de fournir plusieurs implantations d'un même service technique grâce à la notion d'intergiciel adaptable et plus particulièrement sur la propriété de réflexivité du modèle à composants Fractal. Intergiciels adaptables Après avoir été employé dans les langages de programmation et les systèmes d'exploitation, l'utilisation de la réflexivité s'est largement répandue dans les intergiciels. Gestion des services techniques adaptables Nous avons vu dans les sections précédentes que les services techniques demandaient une plus grande flexibilité, pour être en adéquation avec les environnements hétérogènes des applications distribuées. Or, les services techniques des plate-formes industrielles ne sont pas conçus sous forme de composants. Néanmoins, il est plus facile d'adapter ces services aux besoins des applications en les définissant grâce au modèle à com- Définition des composants de gestion du système Afin de localiser, choisir, configurer et d'utiliser les personnalités P1S et L2S, nous définissons des composants de gestion du système : des contrats, un coordinateur du système, un annuaire et des moniteurs (cf. figure 1). Un contrat passé entre des personnalités et une application représente le fait que cette application bénéficie des services de ces personnalités. De plus, il met à jour cette coopération en trouvant la personnalité la plus adaptée par rapport à l'environnement d'exécution et aux besoins de l'application. Le rôle du coordinateur est tout d'abord de gérer les contrats. Il les crée, les notifie lorsqu'ils ont besoin d'une mise à jour et les détruit. Il reçoit les informations concernant l'environnement grâce aux moniteurs auxquels il a souscrit en définissant ses préférences. Un annuaire de personnalités fournit un service de nommage et courtage afin de trouver les personnalités des services techniques. Il permet au contrat de trouver une ou plusieurs personnalités en fonction de l'environnement d'exécution et des besoins de l'application. Pour cela les personnalités doivent s'enregistrer à son service. Un moniteur reçoit des informations de son capteur et fait une sélection en fonction des préférences que lui a exprimé le coordinateur. Ainsi le coordinateur n'est pas surchargé par des informations inutiles. Ensuite il envoie les informations pertinentes au coordinateur. Durant le déploiement, l'administrateur installe les différents composants. A partir de ce moment, concernant l'adaptabilité statique, il n'y a pas de différence avec une approche classique c'est-à-dire que le composant applicatif bénéficie des services des personnalités qui ont été intégrées à sa composition. Pour l'auto-adaptabilité, les composant applicatifs, l'annuaire et les moniteurs s'enregistrent auprès du coordinateur. Les personnalités s'enregistrent dans l'annuaire. Les composants applicatifs fournissent au coordinateur leurs préférences. Puis pour chaque composant applicatif, le coordinateur crée un contrat. Ce dernier va chercher les personnalités adaptées à ajouter au composant applicatif (cf. figure 2). Pour cela, il prévient le coordinateur de la liste des moniteurs qui sont intéressants vis-à-vis des préférences de l'application. Par exemple, si l'application a besoin d'un haut niveau de sécurité, il choisira un moni- Pendant l'exécution, l'environnement peut évoluer. Ainsi les contrats doivent être renégociés. Le système initie cette adaptation grâce aux informations sur l'environnement qui lui sont données par les moniteurs. Le coordinateur prévient les contrats qui sont concernés qu'ils doivent évaluer la nécessité de leur propre mise à jour et chercher à nouveau les personnalités les plus adaptées grâce à l'annuaire. Focus sur l'annuaire de services techniques Nous développons un nouvel annuaire de services techniques, qui permet à la plate-forme l'ajout et le retrait dynamique de service ainsi que la gestion de multiples versions d'un même service. Il tient compte de l'environnement d'exécution des services techniques qu'il référence afin de fournir au composant applicatif qui le sollicite le service technique le plus adapté à ses besoins. En effet, grâce aux moniteurs (pour les caractéristiques dynamiques) et aux informations données par l'administrateur (pour les caractéristiques statiques), on connaît les capacités mémoire, réseau, l'architecture logiciel (type de bus logiciel, environnement multi-processus), l'architecture matérielle (CPU, carte graphique), etc. Les services techniques s'enregistrent dans cet annuaire en fournissant des renseignements sur l'environnement idéal pour lequel ils sont adaptés (ex : l'implantation A du service transactionnel est adaptée à l'utilisation dans un réseau de type Bluetooth c'est-à-dire, entre autre, avec de nombreuses déconnexions). Ces informations, ainsi que les informations concernant les besoins des composants applicatifs constituent deux demi-contrats dans lesquels les deux types de composants, applicatifs et techniques, expriment respectivement leurs besoins et les services qu'ils offrent. Afin de fournir le service technique adéquat, l'annuaire vérifie que ces deux demi-contrats sont bien compatibles pour former un contrat. Afin d'établir ce contrat, on fournit à l'annuaire un ensemble de règles qui décrit les adaptations à effectuer. Ces règles peuvent être du type "l'implantation A du service de tolérance aux fautes offre une plus grande qualité de service que l'implantation B". Ces règles seront notamment établies par le développeur de services techniques, on laisse la possibilité à l'administrateur de la plate-forme d'en ajouter de nouvelles. Afin de développer cet annuaire, nous nous reposons sur des technologies déjà existantes telles que les annuaires de nommage et de courtage de CORBA et les annuaires LDAP. Les annuaires déjà existants ne sont pas totalement satisfaisants pour résoudre notre problématique : dans CORBA des annuaires de courtage permettent aux composants de retrouver d'autres composants. Les paramètres de leur requête étant le nom et les paramètres d'exécution de ce service. Cependant, les services techniques n'étant pas eux même considérés comme des composants, on ne peut pas les retrouver grâce à ce mécanisme. Notre démarche consiste à dire que les services techniques sont des composants, on peut donc les enregistrer dans ce type d'annuaire. Même ainsi ce type d'annuaire n'est pas spécialisé pour retrouver ces composants techniques, on ne peut donc pas tirer partie de leurs particularités, des informations connues sur ces services techniques et surtout ils ne gèrent pas d'information concernant l'environnement d'exécution. Prototype Cette partie est consacrée à notre prototype développé en Java à l'aide du modèle concret de Fractal nommé Julia v 1.0. Notre système fonctionne de la façon suivante : on instancie et lie les composants de gestion comme décrit dans la figure 3. Le coordinateur, l'annuaire et le contrat sont des composants (comme bien entendu le composant applicatif et le service technique). Le moniteur est écrit en langage C et échange les informations concernant l'environnement à travers un fichier XML. Nous en détaillons les raisons dans la partie "le moniteur". Le contrat utilise une référence sur l'objet sous-contrôleur pour l'exécuter (référence représenté par une flèche). Enfin l'annuaire référence les interfaces des services techniques (référence représenté par une flèche en pointillé). C'est cette référence qui sera donnée au contrat comme résultat d'une requête auprès de l'annuaire. les composants de gestion sont : -Le coordinateur joue le rôle d'usine de contrat. En effet, lorsqu'un nouveau composant applicatif doit être ajouté à l'application, l'administrateur contacte le coordinateur qui fournit un contrat qui est dès lors associé au composant applicatif. Il joue aussi le rôle de déclencheur de mise à jour du système lorsqu'il détecte une modification de l'environnement d'exécution. Conclusion Cet article propose d'adapter des services techniques, pour permettre le développement des architectures à composants dans de nombreux domaines tels que le Mcommerce où les applications s'exécutent dans des environnements divers (pour l'adaptabilité statique) et très changeants (pour l'auto-adaptabilité). Nous avons rappelé la proposition d'une adaptabilité à deux niveaux : au niveau d'un seul service technique, représentée par la notion de P1S. Elle permet d'offrir aux composants applicatifs le modèle du service le plus adapté à son environnement tout en maintenant l'interopérabilité au sein du système. L'adaptabilité au second niveau se traduit par le concept de L2S, qui permet de fournir un ensemble de services techniques cohérent. Cela facilite également la gestion des problèmes d'entrelacement des services techniques. Afin de gérer les P1Ss et les L2Ss, nous proposons de fournir plusieurs entités : un annuaire (pour retrouver les services techniques), un contrat (pour représenter l'utilisation par une application d'une personnalité), un coordinateur (pour créer et mettre à jour les contrats) et des moniteurs qui donnent au coordinateur des informations concernant l'environnement d'exécution. Nous avons démontré la faisabilité des versions statiques et dynamiques de l'adaptabilité grâce à un prototype basé sur l'implantation Julia du modèle Fractal. Concernant l'adaptabilité statique, nous montrons même que l'utilisation du modèle à composants pour implanter les services techniques et l'utilisation des sous-contrôleurs n'entraînent pratiquement aucun surcoût en terme de vitesse d'exécution (moins de 0,5%). Nous avons rencontré quelques problèmes techniques pour la réalisation de ce prototype (définition au préalable des sous-contrôleurs, pas d'interface interne client pour un sous-contrôleur), mais le résultat obtenu reste proche de la solution théorique envisagée et surtout il permettra une évolution facile vers la solution théorique si les prochaines versions de Julia le permettent. Les bénéfices d'une telle solution sont l'amélioration de la qualité de service et la réutilisabilité du code tout en maintenant les caractéristiques des composants telles que l'interopérabilité et la facilité d'implantation. Des problèmes subsistent, tels que la séparation des services techniques (même si cela est en partie résolue par le L2S) ou la description de la qualité de service fournie par un composant. Cet article donne une définition de l'utilisation des composants de gestion des services techniques. Des travaux sont en cours pour rendre plus performant chacun de ces composants. Pour cela, les règles de fonctionnement du coordinateur restent à formaliser. Les modifications du contrôleur dues au contrat sont également à préciser. Cela fait l'objet de travaux en cours. Concernant les moniteurs, on étudie les ressources supplémentaires à surveiller et comment le faire. Dans nos travaux futurs, on s'intéressera certainement à l'AOP. En effet, dans la mesure où certains des buts fixés par l'AOP et les nouveaux challenges auxquels la programmation par composants a à faire face sont les mêmes, on peut imaginer une certaine convergence entre les deux domaines, l'AOP pouvant tirer partie des recherches sur les composants ayant attrait à la distribution, l'interopérabilité et l'hétérogénéité et la programmation par composants pouvant s'inspirer des techniques évoluées de composition des aspects proposées par l'AOP. En effet, le besoin d'adaptation s'est fait ressentir dans de nombreux domaines de la programmation distribuée (ex : en programmation orientée objet avec le projet Molène [AND 99]). Néanmoins ces solutions ne tirent pas partie des avantages provenant de la programmation par composants.Dans le domaine des bus logiciels, il existe dynam-icTAO [KON 00], OpenORB [BLA 01], OpenCORBA [LED 99], Flexinet [HAY 97]. Ces intergiciels offrent un grand champ d'adaptations, cependant ils n'intègrent pas l'idée d'un nombre indéterminé de services techniques [DUC 02] et ne proposent pas véritablement de représentation adaptée des services techniques. Dans le domaine de la programmation par composants, on trouve le projet ARCAD [PRO 03] avec l'adaptation transparente des composants Fractal : expérimentation visant à montrer qu'un service (pas forcement technique), sous forme de composant Fractal, peut être dynamiquement adapté.Comme dans notre solution, on utilise pour l'adaptation des règles ainsi que des informations sur son environnement. A la différence de notre solution, le traitement de l'adaptation se fait dans le service lui-même, cela pourrait poser des problèmes de cohérence entre l'adaptation de différents services. On peut aussi citer l'initiative ArcticBeans dont la problématique est très proche de la nôtre.Cependant, ce projet se concentre sur deux services (sécurité et transactions) et ne propose pas de solution générale. Enfin, le domaine de l'AOP a pour but la réutilisation du code et se base sur le principe de séparation des préoccupations [KIC 97]. L'AOP propose de décomposer les préoccupations transverses de l'application sous la forme d'aspects puis de les recomposer dans une phase de tissage. L'AOP fournit des solutions statiques (ex : AspectJ [KIC 01]) et dynamiques (ex : les plates-formes de développement Prose [Pro], JAC [PAW 03], le serveur applicatif JBoss [JBo]). L'AOP, notamment JAC, offre donc une solution pour réutiliser le code des services technique et des techniques de tissage très complètes (ajout de code avant et après l'exécution d'une méthode mais aussi lors de l'utilisation d'un objet). Cependant ne faisant pas de distinction catégorique entre service technique et service réalisé par l'application, l'AOP ne propose donc pas pour l'instant de solution complète pour gérer efficacement les services techniques. 3.2. Fractal : réflexivité et assemblage de composants Le but du modèle à composants Fractal ([fra], [BRU 02]) est d'offrir un cadre architectural global pour le développement d'applications à base de composants. Contrairement à d'autres modèles tels que les EJB, Avalon et CCM qui offrent un modèle concret du composant, Fractal regroupe une hiérarchie ou une famille de modèles. On y distingue le modèle de traitement abstrait qui est la racine de la famille de modèle et définit peu de concepts (composant, contrôleur, contenu, signal, nom et valeur). Un composant y est défini comme la composition d'un contrôleur et d'un contenu, et le contrôleur d'un composant comme l'incarnation du comportement de contrôle associé à ce composant. De plus, ce modèle définit un ensemble de propriétés de base du modèle dont les propriétés d'encapsulation, d'abstraction et de récursion. Le modèle est complètement récursif et autorise l'imbrication dynamique et le partage des composants à un niveau arbitraire. La hiérarchie des modèles de Fractal étant extensible, il est possible de lui ajouter d'autres modèles (de traitements, de programmation ou d'ingénierie). Deux des autres modèles que nous utiliserons pour décrire notre solution sont le modèle de traitement concret et le modèle de programmation associé au framework Julia (i.e. l'implantation de référence de Fractal) qui peut être utilisé pour la programmation de composants Fractal en Java. Dans ce modèle, le contrôleur encapsulant le composant permet de contrôler la composition et les liaisons d'une composition de composants. En effet, ces liaisons sont explicites et accessibles. Ainsi le système a une représentation de lui-même. D'autre part, comparativement au conteneur des modèles à composants de métier (EJB, CCM), le contrôleur proposé dans le modèle concret de Fractal propose peu de services techniques (la gestion de cycle de vie). En revanche, il laisse une totale liberté quant à l'ajout de services techniques. Néanmoins, il fournit des fonctionnalités minimales permettant l'interception d'appel entrant ou sortant sur un composant, grâce aux notions d'intercepteur et de sous-contrôleur. Un intercepteur peut être placé sur une interface client ou une interface serveur, il "intercepte" les appels de méthodes et effectue des appels sur les sous-contrôleurs qui lui sont associés. Les sous-contrôleurs fournissent différentes fonctionnalités d'introspection du composant (ex : sous-contrôleur de contenu du composant ou de ses liaisons). Fractal laisse toute possibilité d'ajout de nouveaux intercepteurs et sous-contrôleurs. Figure 1 - 1Composants de gestion du système de chacun de ces composants de gestion. Puis nous décrirons leur comportement au cours de l'exécution des applications. Un dernière partie sera consacrée plus particulièrement à la définition de l'annuaire enregistrant les services techniques. Figure 2 - 2Création d'un contrat teur de réseau. Ensuite le coordinateur s'abonne auprès de chaque moniteur concerné qui est alors activé. Seuls les moniteurs pertinents sont activés dans la mesure où il ne faut pas surcharger le système. Le moniteur active les capteurs qu'il gère. Chaque capteur envoie alors des informations qui sont filtrées par le moniteur. Le contrat peut alors créer les liaisons nécessaires entre le composant applicatif, les personnalités et le contrôleur. Le composant applicatif peut maintenant s'exécuter avec les services techniques appropriés à ses préférences et à son environnement d'exécution. Figure 3 - 3Architecture du prototype.-Le contrat gère la liaison entre le composant applicatifs et les services techniques ainsi que l'interrogation de l'annuaire. Lorsqu'il repère qu'une service technique n'est plus adapté à l'environnement, il interroge l'annuaire pour en trouver un nouveau. Nous commençons par développer une solution qui implante la fonctionnalité principale du composant contrat : la création d'une composition telle que décrite dans [HéR 04]. Pour le coordinateur prend pour paramètres le composant applicatif (qui peut être une composition de composants) et un fichier décrivant l'ensemble des services techniques dont il a besoin (leur nom, ex : persistance, transaction, etc.) et pour chaque service technique, la P1S que l'on veut utiliser (une P1S étant décrite ici par le nom de l'interface correspondante).-Afin d'écrire le moniteur, nous avons évalué différentes solutions. L'ensemble du système étant écrit avec Julia, nous avons cherché s'il était possible d'écrire un moniteur en Java afin de l'encapsuler dans un composant Fractal, portable sur de nombreuses machines. Cependant, le langage Java, dans la mesure où il n'a pas été conçu dans cette optique, ne permet pas d'accéder à des données de bas niveau. Nous avons aussi évaluer des solutions tels que l'utilisation du logiciel Aida32 [aid], WMI (Windows Management Instrumentation) pour Windows [LAV 01] ou encore rechercher des informations dans les répertoires de "/proc" sur Linux mais ces solutions sont dépendantes du système d'exploitation et ne nous donnent pas tous les renseignements nécessaires. Nos recherches se sont donc tournées vers le langage C. Nous avons donc développé un moniteur en C qui est recompilé suivant l'environnement d'exécution. Pour faire l'interface entre le coordinateur et le moniteur, nous avions alors le choix entre une interface JNI (Java Native Interface) et l'échange de données à travers un fichier. La première solution étant plus complexe à mettre en oeuvre et n'ayant pas plus d'intérêt que la seconde, nous avons opté pour la seconde. Ce moniteur récupère donc un ensemble de données (réseau, CPU, logiciel, etc) puis les inscrit dans un fichier XML tel que celui de la figure 4.-L'annuaire fournit une interface regroupant des opérations de d'import et d'export. Les opérations d'import sont effectuées par l'administrateur lors de l'ajout de services techniques à la plate-forme. Les opérations d'export sont faites par l'annuaire lorsqu'il consulte l'annuaire. Pour ces deux types d'opérations, on doit répondre à deux questions : comment stocker les données dans notre annuaire et répondre à une requête. Nous avons utilisé un annuaire de composants développé au sein de notre Figure 4 - 4Exemple de description de l'environnement fournie par le moniteur. équipe pour Fractal et en Fractal puis nous l'avons spécialisé. Cet annuaire de base est une adaptation du concept d'annuaire CORBA dans le modèle Fractal. Cependant, certaines modifications du concepts ont été effectuées pour être en adéquation avec le modèle Fractal telles que le référencement des patrons et de types. En effet, Dans le modèle CORBA seules les instances de composants sont référencées dans l'annuaire, les patrons de composants étant stockés dans l'"interface repository". Cela permet à notre annuaire d'instancier un patron s'il juge que le composant ainsi instancié répondrait mieux aux attentes du système. Dans une seconde phase, nous avons spécialisé cet annuaire pour les services techniques. La structure de stockage adoptée est un arbre dans lequel une instance de service technique est le fils d'un patron et un patron le fils d'un type. Pour chaque type et chaque patron, on stocke un identifiant ainsi que l'ADL correspondant. Pour chaque instance de service technique, on stocke un identifiant, une référence. Aux patrons et aux instances, on associe un fichier XML décrivant le service fourni (ex : un service transactionnel, fournissant les transactions plates, version 1.3), ensuite on y détaille les besoins de service technique en terme de réseau, environnement d'exécution, etc. posants [HéR 04]. En effet, on peut alors définir le service technique comme étant un assemblage de plusieurs composants élémentaires. Pour proposer une version adaptée d'un service technique, le programmeur se contente de réaliser un assemblage des composants dont il a besoin. De plus, le service technique sous forme d'un composant alors généré, "hérite" des caractéristiques positives d'un composant Fractal. Dans [HéR 03], nous avions aussi montré comment la définition d'un service technique comme une composition de composants permet d'accéder au modèle le plus adapté d'un ou plusieurs services techniques, respectivement sous la forme d'une P1S ou d'un L2S. Au niveau d'un seul service (ex : transaction, persistance), la P1S ("Personnalité d'un Service") permet d'associer à un composant le modèle d'un service technique le plus adapté ; pour éviter que cette nouvelle liberté dans le choix du modèle de service technique n'entraîne une gestion trop lourde, nous représentons un ensemble de services techniques cohérent comme une entité appelée L2S ("Lot de Services"). Elle simplifie la gestion des services techniques en la résumant, du côté composant, au choix d'un L2S adapté à l'environnement d'exécution. De plus, elle garantit une cohérence sémantique entre les services techniques d'un même L2S. Dans cette partie, nous définirons un ensemble de composants pour gérer la mise en place et la mise à jour de telles compositions. Tout d'abord nous définirons l'utilité DECOR'04, Déploiement et (Re)Configuration de Logiciels. DECOR'04, Déploiement et (Re)Configuration de Logiciels. Generic Approach to Build Mobile Applications. », rapport n o 3723. André F, Segarra M.-T, JuinINRIAANDRÉ F., SEGARRA M.-T., « A Generic Approach to Build Mobile Applica- tions. », rapport n o 3723, Juin 1999, INRIA. Blair G, Coulson G, Andersen A, Blair L, Clarke M, Costa F, Duran-Limon H, Fitzpatrick T, Johnston L, Moreira R, Parla-Vantzas N, Saikoski K, The design and implementation of Open ORB 2. », IEEE Distrib. IEEE2BLAIR G., COULSON G., ANDERSEN A., BLAIR L., CLARKE M., COSTA F., DURAN-LIMON H., FITZPATRICK T., JOHNSTON L., MOREIRA R., PARLA-VANTZAS N., SAIKOSKI K., « The design and implementation of Open ORB 2. », IEEE Distrib. Syst. Online 2, IEEE, Septembre 2001. Bruneton E, T Coupaye, Stefani J.-B , « Recursive and Dynamic Software Composition with Sharing », Proceedings of the 7th ECOOP International Workshop on Component-Oriented Programming (WCOP'02). Malaga, Espagne[BRU 02] BRUNETON E., COUPAYE T., STEFANI J.-B., « Recursive and Dynamic Software Composition with Sharing », Proceedings of the 7th ECOOP International Workshop on Component-Oriented Programming (WCOP'02), Malaga, Espagne, 2002. Duclos F, Environnement de Gestion de Services Non-Fonctionnels dans les Applications à Composants. Université J. Fourier de GrenobleThèse de doctoratDUCLOS F., « Environnement de Gestion de Services Non-Fonctionnels dans les Applications à Composants », Thèse de doctorat, Université J. Fourier de Grenoble, 2002. Hayton R, 2047.01.00APM ltd. Poseidon House, Castle Park, Cambridge, UK[HAY 97] HAYTON R., « FlexiNet Open ORB Framework. », rapport n o 2047.01.00., 1997, APM ltd, Poseidon House, Castle Park, Cambridge, UK. Adaptabilité des Services Techniques dans un Modèle à Composants », 3ème Conférence Française sur les Systèmes d'Exploitation (CFSE). C Hérault, S Lecomte, La Colle sur Loup, France, OctobreHÉRAULT C., LECOMTE S., « Adaptabilité des Services Techniques dans un Modèle à Composants », 3ème Conférence Française sur les Systèmes d'Exploitation (CFSE), La Colle sur Loup, France, Octobre 2003. Component-Based Transactional Service, Including Advanced Transactional Models. C Hérault, S Nemchenko, S Lecomte, Fourth IEEE International Symposium and School on Advance Distributed Systems (ISSADS 04). Guadalajara, Jalisco, MexiqueHÉRAULT C., NEMCHENKO S., LECOMTE S., « A Component-Based Transactional Service, Including Advanced Transactional Models », Fourth IEEE International Sympo- sium and School on Advance Distributed Systems (ISSADS 04), Guadalajara, Jalisco, Mex- ique, Janvier 2004. G Kiczales, J Lamping, Mendhekar A, C Maeda, C V Lopes, Lo-Ingtier J.-M, Irwin J, Proceedings of ECOOP. ECOOPSpringer-VerlagAspect-Oriented ProgrammingKICZALES G., LAMPING J., MENDHEKAR A., MAEDA C., LOPES C. V., LO- INGTIER J.-M., IRWIN J., « Aspect-Oriented Programming », Proceedings of ECOOP, Springer-Verlag, 1997. . G Kiczales, E Hilsdale, J Hugunin, M Kersten, J Palm, Griswold W, Getting, Communications of the ACM. 4410ACM PressKICZALES G., HILSDALE E., HUGUNIN J., KERSTEN M., PALM J., GRISWOLD W., « Getting started with ASPECTJ », Communications of the ACM, vol. 44, n o 10, 2001, p. 59-65, ACM Press. « Monitoring, security, and dynamic configuration with the dynamicTAO reflective ORB. Kon F, Roman M, Liu P, J Mao, T Yamane, L Magalhaes, Camp-Bell R, Proceedings of the IFIP/ACM International Conference on Distributed Systems Platforms and Open DistributedProcessing (Middleware2000). the IFIP/ACM International Conference on Distributed Systems Platforms and Open DistributedProcessing (Middleware2000)Palisades, NY, AvrilSpringer-VerlagKON F., ROMAN M., LIU P., MAO J., YAMANE T., MAGALHAES L., CAMP- BELL R., « Monitoring, security, and dynamic configuration with the dynamicTAO reflec- tive ORB. », Proceedings of the IFIP/ACM International Conference on Distributed Sys- tems Platforms and Open DistributedProcessing (Middleware2000), Palisades, NY, Avril 2000, Springer-Verlag, p. 121-143. M Lavy, Meggitt A, « Windows Management Instrumentation (WMI) », rapport n o ISBN : 1578702607, Octobre. New Riders PublishingLAVY M., MEGGITT A., « Windows Management Instrumentation (WMI) », rap- port n o ISBN : 1578702607, Octobre 2001, New Riders Publishing. Ledoux T, Opencorba, A reflective open broker. », Proceedings of Reflection'99. Saint-Malo, France, JuilletSpringer-VerlagLEDOUX T., « OpenCORBA : A reflective open broker. », Proceedings of Reflec- tion'99, Saint-Malo, France, Juillet 1999, Springer-Verlag, p. 197-214. . Pawlak R, L Seinturier, L Duchien, Jac, Université des Sciences et Technologies de LilleLIFLPAW 03[PAW 03] PAWLAK R., SEINTURIER L., DUCHIEN L., « Jac Milestone 2003 », rapport n o 2003-4, 2003, LIFL, Université des Sciences et Technologies de Lille. une plate-forme d'applications adaptables et sécurisées pour usagers mobiles », Special Issue of the french journal Calculateurs Parallèles, entitled "Évolution des plates-formes orientées objets répartis. Pellegrini M.-C, O Potonniée, Jean S Marvie R, M Riveill, « Cesure, Hermès. PELLEGRINI M.-C., POTONNIÉE O., MARVIE R., JEAN S., RIVEILL M., « CESURE : une plate-forme d'applications adaptables et sécurisées pour usagers mo- biles », Special Issue of the french journal Calculateurs Parallèles, entitled "Évolution des plates-formes orientées objets répartis", Hermès, 2000, p. 113-120. . T L Projet Rntl Arcad C, 3 Document d'architecture », rapportPROJET RNTL ARCAD C. T. L., « D1.3 Document d'architecture », rapport, 2003. Riveill M, Programmation par composition et déploiement d'applications réparties », Coopération dans les systèmes à objets (RSTI-Série L'Objet. 8RIVEILL M., « Programmation par composition et déploiement d'applications ré- parties », Coopération dans les systèmes à objets (RSTI-Série L'Objet Vol.8 N • 3), 2002. « Abstraction of Transaction Demarcation in Component-Oriented Platforms. Merle P Rouvoy R, ACM/IFIP/USENIX International Middleware Conference (Middleware'03). Rio de Janeiro, BrésilROUVOY R., MERLE P., « Abstraction of Transaction Demarcation in Component- Oriented Platforms », ACM/IFIP/USENIX International Middleware Conference (Middle- ware'03), Rio de Janeiro, Brésil, Juin 2003.
sample_1489
0.7246
arxiv
Licenciado en Física 7 Jul 2016 Dario Alejandro Facultad de Física León Valido Facultad de Física Licenciado en Física 7 Jul 2016UNIVERSIDAD DE LA HABANA. FACULTAD DE FÍSICA. Modelando las mutaciones en bacterias y tejidos humanos Tesis de Diploma presentada en opción al grado de Tutor: Augusto González García, ICIMAF. La Habana, Cuba. 2016 AgradecimientosEn primer lugar debo agradecer al Dr. Rolando Pérez y al Lic. Jorge Fernández de Cossío, ambos pertenecientes al CIM, por acceder a formar parte del tribunal y realizar una muy buena oponencia en tiempo récord. Hicieron una exhaustiva revisión de la tesis, así como de todos los artículos citados; la cual conllevó un debate conmigo en el CIM. Gracias por invitarme a almorzar, los que me conocen bien saben cuanto significa eso para mí.En especial, debo agradecer a mi tutor: Augusto González, el cual no sólo ha sido mi modelo de físico a seguir, sino también como persona. Me ha mostrado cómo podemos interesarnos, opinar y actuar sobre diversas ramas de la sociedad, como el arte, la política y la economía a un nivel más riguroso y responsable para lograr aportar e influenciar en la toma de decisiones importantes para el desarrollo del país, sobretodo de la ciencia, renglón altamente limitado en Cuba. Sigo las ideas planteadas en su bloc (http://augustoesm.blogspot.com/) y espero alcanzar suficiente madurez para que mis opiniones sean escuchadas y respetadas tanto como las suyas.Le agradezco infinitamente a mi familia por apoyarme durante toda mi vida en cada cosa que se me ha ocurrido emprender. A mi madre, a mi hermana Daniela y a mi novia Emely por estar ahí conmigo en la realización de la tesis, perdiendo horas de sueño, tecleando si hacía falta y alimentándome (tarea sumamente difícil).A los profesores que me formaron, desde Etien en el 12 grado en la universidad con su rigurosidad extrema. Gretel, a quien le pregunté sin cesar, casi todas las dudas que me surgieron en la carrera y, después de ese constante bombardeo, por ser parte del tribunal y no devolverme todo el fuego que me merecía. A Lídice, que además de ser una excelente profesora también ha sido una muy buena amiga, sé que de haber sido falta hubiera ejercido como oponente de mi tesis. A todos los profesores de la carrera, siempre estaré dispuesto a devolver a las nuevas generaciones, todo lo que me han enseñado.Al colectivo del ICIMAF, por permitir integrarme a su entorno de trabajo, un ambiente realmente agradable, en el cual desarrollé junto a mi tutor el grueso de la investigación. Por estar pendiente de mi bienestar e invitarme a cuanto evento se desarrollase.A mis compañeros, por permanecer a mi lado durante toda la carrera. Realmente me divertí y la pasé bien y espero que podamos seguir haciéndolo en lo adelante. Fue realmente refrescante nuestro estado de cuasi-felicidad, el cual nos permitió hacer "sugerencias" durante las clases, jugar cancha después de haber salido más o menos, bien o mal en las pruebas; Ale y Omar. Formar Incertidumbre Combinada, nuestro grupo de la facultad y seguir tocando aún cuando no sepamos cómo continuar; Alfredo. De algún modo, seguiré haciendo esas cosas que tanto me gustan a la par de la Física, ya que sin alguna de ellas no pudiera continuar.ResumenEsta tesis tiene el propósito de estudiar las mutaciones, entendidas como trayectorias en el espacio de configuraciones del ADN (todas las combinaciones de bases). En ella se propone un modelo evolutivo para las mismas mediante trayectorias de Levy. Los parámetros del modelo se estiman a partir de datos provenientes de Experimentos de Evolución a Largo Plazo (EELP) con bacterias E. Coli. A partir de dicho modelo se simulan varios resultados de los experimentos como la aparición de nuevos genotipos y su competencia. La selección natural se incluye en el modelo a través del parámetro de fitness, el cual caracteriza la "salud" de cada genotipo bajo determinadas condiciones ambientales. Además, se discute cualitativamente la analogía encontrada entre los fenotipos mutantes de las bacterias y las células cancerosas. Se analiza el papel de la radiación como fuente de mutaciones, en especial la proveniente de la desintegración del radón presente en el aire que respiramos.AbstractThis thesis is aimed at studying mutations, understood as trajectories in the DNA configuration space. An evolutive model of mutations in terms of Levy flights is proposed. The parameters of the model are estimated by means of data from the Long-Term Evolution Experiment (LTEE) with E. Coli bacteria. The results of simulations on competition of clones, mean fitness, etc are compared with experimental data. We discuss the qualitative analogy found between the bacterial mutator phenotype and the cancerous cells. The role of radiation as source of mutations is analyzed. We focus on the case of Radon's decay in the lungs in breathing. Algunos no pudieron presenciar mi defensa, pero sé que estuvieron apoyándome desde la distancia. Mi padre, por ejemplo y mi buen amigo Heiner, quien desde el 12 grado me traía problemas interesantes para discutir conmigo, como los Problemas del Milenio: 7 problemas matemáticos que su resolución sería premiada con 1 millón de dólares cada uno. Dejando de lado el trofeo, su motivación ha sido impulsora de mi desarrollo intelectual. Al resto de mis amigos, como Andrés, quien no sólo me proporcionó un algoritmo de ordenamiento de listas recurrente mucho más eficiente del que yo me sabía, sino que lo he molestado en su casa recurrentemente a cualquier hora. En fin, a todo aquel que de alguna manera ha estado pendiente de mi desarrollo y/o me ha brindado su ayuda, aunque no lo haya mencionado explícitamente o crea que su aporte es insignificante, siéntase incluido cuando digo que esta tesis no hubiera sido posible sin USTEDES. Prólogo Esta tesis contiene nuestras ideas de cómo concebir las mutaciones, que son el fruto de más de 2 años de trabajo, estudio y búsqueda de información. A lo largo de este proceso, hemos tenido la necesidad de estudiar temas de biología, para entender la enorme cantidad de procesos biológicos que subyacen de trasfondo en nuestro problema. La mayoría de ellos son explicados en el primer capítulo introductorio de manera simple y enfocados en los principales aspectos que nos interesa desarrollar, por lo que pudiera servir de guía para introducirse en esta extensa e interesante rama de la ciencia, que es la Biología. Varias secciones de la tesis están pensadas con el objetivo de que sirvan de base para el desarrollo de futuras investigaciones, ya que aún hay mucho por hacer y descubrir en lo referente a las mutaciones. Como podrá apreciar el lector en el segundo capítulo, esta tesis pudiera ser ejemplo, en mi más humilde opinión, de cómo nosotros, físicos al fin, podemos investigar temas tan diversos y alejados de nuestra formación inicial. También, de nuestra necesidad de pasar de descripciones cualitativas a modelos matemáticos, para entender mejor la naturaleza de los sistemas. Mutaciones en bacterias El ciclo del desarrollo celular. Replicación del ADN Las células se reproducen duplicando su contenido y luego dividiéndose en dos. En especies unicelulares como las bacterias, cada división produce un organismo adicional. Los detalles del ciclo en cada caso pueden variar, pero los requerimientos son universales. En primer lugar, se debe replicar satisfactoriamente el ADN de la célula progenitora y luego los cromosomas replicados deben segregarse en células separadas. El ciclo de división involucra un conjunto de procesos, los cuales son agrupados por fases. La vasta mayoría de las células también duplica sus masas y sus orgánulos, para ello deben estar coordinados una serie de procesos citoplasmáticos y nucleares. Existe un sistema de control del ciclo que regula el proceso como un todo. Nuestro interés está encaminado a entender cómo se producen los errores genéticos que pasan a otras generaciones, por tanto, debemos enfocarnos en el proceso de replicación del ADN nuclear que ocurre durante una parte específica de la interfase: la fase S, y en el papel que juega el sistema de control. El sistema de control del ciclo celular es un dispositivo bioquímico que opera cíclicamente. Está construido a partir de un grupo de proteínas interactuantes que inducen y coordinan los procesos de forma jerárquica. Dichas proteínas pueden detener al ciclo en puntos de chequeo específicos, reunir información para verificar el cumplimiento de la jerarquía, retroalimentarse y actuar en consecuencia; todo mediante mecanismos bioquímicos. Las pausas también son importantes para permitir cierta regulación del sistema de control. Esta regulación se da generalmente en dos puntos: justo antes de iniciar la fase S y a la entrada de la mitosis, donde se realiza el reparto equitativo del material hereditario [1]. La replicación del ADN ocurre a ritmos de polimerización cercanos a 500 nucleótidos por segundo en bacterias y a 50 en mamíferos. Claramente las proteínas que la catalizan son rápidas y precisas. Estas propiedades se logran mediante complejas multienzimas que guían el proceso y constituyen una elaborada "máquina de replicación". Primero se desenrolla la estructura de doble hélice que forman las dos cadenas de bases del ADN. Luego se eliminan los enlaces por Figura 1.1: Algunos procesos y enzimas que participan en la replicación del ADN. puentes de hidrógeno existentes entre las bases complementarias de cada cadena. Una vez separadas, cada cadena hace de plantilla para la síntesis de una nueva (Fig (1.1)). Como cada molécula de ADN hija se queda con una cadena de la madre, el proceso de replicación se dice que es semiconservativo. Gracias a la complementación existente entre las bases que forman al ADN, las moléculas hijas serán iguales a la madre. Durante la replicación actúan moléculas que evitan que el ADN se enrede. Mecanismos de corrección y mutaciones Como todo proceso celular, la replicación se basa en el reconocimiento molecular [1], cuyo primer paso es la difusión. Los encuentros entre moléculas ocurren aleatoriamente por simple difusión térmica, es por eso que los procesos de reconocimiento no son perfectos. La estructura de doble hélice del ADN es un mecanismo efectivo para garantizar una buena copia, pero no está libre de errores: ocurren alrededor de uno por 10 4 o 10 5 bases [1]. Este valor es asombrosamente pequeño, no obstante, esta tasa de error no pudiera mantener la integridad del genoma humano que es de aproximadamente 3 × 10 9 bases [1]. Existen mecanismos de reparación del ADN encargados de mejorar la fidelidad de la copia. Por ejemplo, luego de la duplicación del ADN, bloques de re-replicación aseguran que ningún segmento sea copiado más de una vez. Estos bloques son retirados al pasar a la mitosis. Existe otro mecanismo de reparación de fallas que difiere de la mayoría de los sistemas de reparación del ADN, el cual no depende de la presencia de nucleótidos anormales que puedan ser detectados y extirpados. En cambio, detecta distorsiones en el exterior de la hélice que resultan de un apareamiento de bases no compaginado. El resultado final de la copia con los arreglos es de un error en 10 9 bases adicionadas [1]. Muy raramente la máquina de replicación se salta o adiciona nucleótidos, o pone T por C, o A por G. Cada tipo de cambio del ADN constituye una mutación que se copia en las siguientes generaciones como la secuencia correcta. A los intercambios puntuales de bases que emergen de la replicación se les llama mutaciones "espontáneas" y tienen un carácter local. Mutaciones y Selección Natural En un proceso evolutivo celular no siempre podremos notar todas las mutaciones que se han producido en instantes anteriores, ya que una mutación en un gen puede inactivar una proteína crucial y causar la muerte de la célula, entonces se pierde. Las mutaciones que disminuyen grandemente la capacidad del individuo para sobrevivir y/o reproducirse son llamadas "deletéreas". Por otro lado, puede ocurrir una mutación "silenciosa" fuera del sitio activo de la proteína y no afectar su función correspondiente, permaneciendo inactiva. Rara vez una mutación crea un gen con una mejora o función útil. En este caso los organismos mutantes tienen una ventaja y el gen mutado eventualmente reemplaza al original por selección natural. Estas mutaciones se fijan y pueden ser observadas en la gran mayoría de la descendencia [1,2,3], constituyen una nueva característica del genotipo de la especie. La influencia del ambiente es esencial en el proceso selectivo porque es quien dicta las reglas de la competencia, determina significativamente las características fenotípicas de los organismos y también, de manera indirecta a través de las mutaciones, las características genotípicas promedio de la población. Existe un parámetro llamado fitness que describe la supervivencia de cada genotipo emergente de la evolución. Un genotipo con más "salud" aumentará su frecuencia de aparición en las generaciones siguientes, por tanto, el fitness es un parámetro que caracteriza la evolución de las mutaciones. En la literatura existen numerosas definiciones de fitness, sin embargo, todas ellas concuerdan aproximadamente en la esencia de la idea [4]: el fitness involucra la habilidad de los organismos o, más raramente, poblaciones o especies para sobrevivir y reproducirse en el medio ambiente en el cual están inmersos [4]. Por tanto, podemos referirnos al fitness individual, colectivo de una población de organismos o relativo entre individuos o poblaciones. Factores externos en las mutaciones Existen mutaciones no espontáneas que no provienen de errores en el proceso de replicación. Ellas involucran mutágenos: agentes químicos, biológicos o físicos que alteran la información genética de un organismo, lo cual incrementa la frecuencia de mutaciones por encima del nivel natural [1]. Generalmente producen cambios no locales que involucran un reajuste (inserción, perdida, inversión, etc.) de un segmento de la molécula de ADN [1]. Los mutágenos biológicos son aquellos organismos vivos que pueden alterar la secuencia del material genético de su hospedador como los virus. Los mutágenos químicos son compuestos capaces de alterar las estructuras del ADN de forma brusca. Los ejemplos más cotidianos de mutágenos físicos son las distintas radiaciones que reciben los organismos y que pueden romper los enlaces de la molécula de ADN. En condiciones normales los mutágenos químicos y biológicos son mucho más controlables; mientras que los físicos, aun aislando a los organismos de la radiación externa, están presentes en la desintegración de algunas de las partículas componentes de los mismos. El experimento de evolución a largo plazo en poblaciones de E. Coli El profesor R. Lenski y su grupo, en la Universidad de Michigan han llevado a cabo un experimento de evolución a largo plazo con bacterias E. Coli por casi 30 años, con el objetivo de estudiar las dinámicas fenotípicas y genotípicas de poblaciones de bacterias. Cada día las bacterias se replican 6 o 7 generaciones de evolución binaria, alcanzando 3 400 generaciones en un año, lo que representa poblaciones crecidas por más de 60 000 generaciones hasta la fecha [5]. En el experimento, 12 cultivos de bacterias con un ancestro común evolucionan independientemente. Cada día 0.1 ml del caldo bacterial es transferido rigurosamente a 9.9 ml de solución de glucosa, mantenido a temperatura controlada hasta el día siguiente. En las primeras 8 horas el número de bacterias varía aproximadamente de acuerdo con la ley N 0 2 t /t 0 , que es consistente con la forma de reproducción: la división celular por mitosis. Luego que la glucosa se consuma, se alcanza un estado estacionario: en las restantes 16h no hay mortalidad apreciable [5]. Entre los resultados del experimento se encuentran el fitness relativo a la cepa ancestral [3], datos sobre mutaciones puntuales [6,7] y sobre reajustes grandes en los cromosomas [8]. Más adelante estos datos serán utilizados en el trabajo. Mutaciones en tejidos humanos Identidad del ADN del individuo El ADN del genoma de un organismo, que es el mismo en todas sus células, puede dividirse conceptualmente en dos: el que codifica proteínas (los genes) y el que no. En la mayoría de las especies pluricelulares, al contrario de las bacterias, sólo una pequeña fracción del genoma codifica proteínas. Por ejemplo, alrededor del 1.5% del genoma humano consiste en exones que codifican proteínas (20 000 a 25 000 genes), mientras que más del 90% consiste en ADN no codificante [1]. Existen regiones no codificantes que aparentemente no tienen función alguna: el llamado "ADN basura". Otras secuencias no codificantes tienen afinidad hacia proteínas especiales que tienen la capacidad de unirse al ADN, con un papel importante en el control de los mecanismos de trascripción y replicación. A estas secuencias se les llama frecuentemente "secuencias reguladoras", porque están encargadas de la activación o la supresión de la expresión genética. Ellas no codifican proteínas, pero sí se transcriben a ARN: ribosómico, de transferencia y de interferencia (ARNi, que son los ARN que bloquean la expresión de genes específicos) [1]. Por otro lado, algunas secuencias de ADN desempeñan un papel estructural en los cromosomas: los telómeros y centrómeros contienen pocos o ningún gen codificante de proteínas, pero son importantes para estabilizar la estructura de los cromosomas. Las estructuras de intrones y exones de algunos genes, son importantes por permitir los cortes y empalmes alternativos del pre-ARN mensajero que hacen posible la síntesis de diferentes proteínas a partir de un mismo gen (sin esta capacidad no existiría el sistema inmune, por ejemplo) [1]. Algunas secuencias de ADN no codificante representan pseudogenes que tienen valor evolutivo, ya que permiten la creación de nuevos genes con nuevas funciones. Otros ADN no codificantes proceden de la duplicación de pequeñas regiones del ADN [1,5], lo que pudiera ser otro mecanismo contra la aparición de mutaciones, ya que los daños quedarían repartidos entre más bases y las regiones afectadas pueden ser reparadas a partir de sus duplicados. El rastreo de secuencias repetidas en el ADN permite estudios de relaciones de parentesco (filogenética) [1]. División celular en organismos pluricelulares. Especialización Los organismos pluricelulares pueden ser vistos como una sociedad o ecosistema donde cada miembro individual es una célula, los cuales se reproducen por división celular y se organizan en ensambles de colaboración o tejidos [1]. Dado la gran cantidad de células que poseen estos organismos, hacen falta muchas rondas de divisiones para que, a partir de una, surja un nuevo individuo. Muchos organismos como aves y mamíferos dejan de crecer cuando alcanzan un tamaño determinado, pero, incluso cuando el crecimiento se detiene, siguen proliferando células [1]. En la adultez, la división celular también es necesaria para reemplazar células desgastadas por su constante uso, perdidas por heridas o que sufrieron una muerte programada (apoptosis), de modo que el organismo como un todo permanece invariante [1]. La apoptosis puede darse como mecanismo de eliminación de células inservibles para el tejido porque están dañadas y no cumplen con su función, para autorregular su crecimiento y desarrollo o, simplemente, para controlar la cantidad de células en el tejido [1]. Un humano adulto puede producir millones de células nuevas en un segundo para mantener su estado de equilibrio y, si se detuvieran todas sus divisiones celulares, moriría en unos días [1]. En un instante dado la mayoría de las células en la adultez no están creciendo o dividiéndose, en cambio están en un estado de descanso: perfeccionando su función especializada mientras se retiran del ciclo celular. [1] La mayoría de las poblaciones de células diferenciadas en vertebrados están muriendo y siendo reemplazadas continuamente. La regeneración requiere de un crecimiento coordinado de los componentes del tejido. Las nuevas células pueden ser producidas de dos maneras: por replicación simple de células del mismo tipo (sin cambios de especialización) o, por células madres relativamente no diferenciadas en procesos que involucran cambios del fenotipo de las células [1]. La diferenciación se va dando de manera gradual en la descendencia a partir de cambios epigenéticos: que no modifican al ADN; no por mutaciones, que también están presentes [1]. Este proceso es posible gracias a que los sectores no codificantes del ADN regulan la activación de los genes y, estos pueden ser silenciados a conveniencia para que la célula cumpla una función determinada [1]. El principal mecanismo de la epigenética es la transferencia de grupos metilos a algunas de las bases (metilación) para alterar la transcripción genética [1]. Se requieren células madres dondequiera que exista una necesidad recurrente de reemplazar células diferenciadas que no puedan dividirse por sí mismas. Este es el caso de la incompatibilidad del estado final de la diferenciación con la división celular en muchos tejidos. La poca diferenciabilidad de las células madres radica en que no se encuentran al final de una cadena de especialización [1]. Las células madres también pueden dividirse sin límites hasta el final de la vida del organismo. Cada una de sus hijas puede permanecer como célula madre o embarcarse en un curso irreversible hacia el final de la diferenciación [1]. Las tasas de renovación varían de un tejido a otro: pueden ser de días, como las paredes epiteliales del intestino delgado (renovadas por células madres), o de un año y más, como en el páncreas (renovadas por simple duplicación) [1,9]. Muchos tejidos con bajas tasas de renovación pueden ser estimulados para producir nuevas células en grandes cantidades cuando haga falta, por ejemplo en casos de infección [1]. No todas las poblaciones de células especializadas en el cuerpo están sujetas a renovación. Algunas son generadas en el embrión en números apropiados y se retienen hasta la adultez [1]. Al parecer, estas poblaciones nunca se dividen y no pueden ser reemplazadas si se pierden. En mamíferos son de este tipo casi todas las células nerviosas, las células musculares del corazón, las células de los pelos auditivos del oído y las células de la lente del ojo. Todas estas células tienen largos períodos de vida y necesariamente viven en ambientes protegidos. Son diferentes en otros sentidos y no se sabe una razón en general de por qué deberían ser irremplazables. Hay muy pocas tan inmutables como las fibras de las lentes, las demás son capaces de renovar sus partes componentes a pesar de no replicarse [1]. Mecanismos de corrección a nivel celular y el sistema inmunológico El daño en el ADN inicia una respuesta que activa diferentes mecanismos de reparación que reconocen lesiones específicas en la molécula y son reparadas en el momento [1]. Alternativamente, si el daño genómico es demasiado grande, la célula puede caer en un estado irreversible de inactividad llamado senescencia [1]. En casos extremos de daños no reparables, los mecanismos de control a nivel celular inducirán la activación de una serie de rutas celulares que culminarán en la muerte celular [1]. Según el tipo de daños que ha sufrido la estructura de doble hélice del ADN, han evolucionado una variedad de estrategias de reparación que restauran la información perdida [1]. Si es posible, las células utilizan la cadena de ADN complementaria como "plantilla" para restaurar la información original de manera fidedigna [1]. Las roturas de cadena doble son especialmente peligrosas para la célula, ya que pueden provocar mutaciones en el genoma y son más difíciles de corregir. Existen dos mecanismos que reparan estas roturas: la unión de extremos no homólogos y la reparación recombinativa (también conocida como reparación asistida por plantilla o reparación de recombinación homóloga) [1]. El primer mecanismo busca secuencias homólogas cortas presentes en las colas de los extremos de ADN que deben ser unidos. Si estas secuencias son compatibles, la reparación suele ser correcta, pero también puede causar mutaciones durante la misma. La reparación recombinante requiere la presencia de una secuencia idéntica o casi idéntica que sea utilizada como plantilla para reparar la rotura. La maquinaria enzimática responsable de este proceso es muy parecida a la del cruce cromosómico durante la meiosis en la reproducción sexual [1]. Esta ruta permite que un cromosoma dañado sea reparado utilizando una cromátida hermana o un cromosoma homólogo como plantilla. Algunas roturas de cadena doble pueden ser causadas por intentos de replicación en una molécula de ADN con una rotura de cadena única o una lesión no reparada. Estos casos son reparados generalmente por recombinación [1]. Otro posible destino de células con un elevado daño genómico es convertirse en cancerosas. Estas células tienen un grado de mutabilidad que le permite hacer cambios en su metabolismo y su proliferación de manera autónoma, burlando los controles de regulación del metabolismo y de la división celular del tejido [1]. Existen genes en el ADN que se utilizan para eliminarlas, los llamados genes supresores de tumores [1]. A este nivel, las células cancerosas son tratadas como cualquier otro agente patógeno introducido en el organismo, que produce daños y enfermedades. Para combatir estos males los vertebrados tienen una maquinaria de defensa muy bien desarrollada llamada sistema inmunitario [1]. El sistema inmune está compuesto por muchos tipos de proteínas, células, órganos y tejidos, los cuales se relacionan en una red elaborada y dinámica. Dicho sistema protege a los organismos de las infecciones con varias líneas de defensa [1]. Las más simples son las barreras físicas, que evitan que patógenos como bacterias y virus entren en el organismo. Si un patógeno penetra estas barreras, el sistema inmunitario innato ofrece una respuesta inmediata, pero no específica. Si los agentes patógenos evaden la respuesta innata, existe una tercera capa de protección: el sistema inmunitario adaptativo [1]. En él, se adapta la respuesta durante la infección para mejorar el reconocimiento del agente patógeno. Esta información se conserva aún después de que el agente sea eliminado, bajo la forma de memoria inmunitaria [1]. La capacidad de memorizar le permite al sistema inmune desencadenar ataques más rápidos y más fuertes en el futuro si se detectan los mismos tipos de patógenos. La inmunidad de un organismo depende de la habilidad de su sistema inmunitario para distinguir entre las moléculas propias y las que no lo son. Para ello se utiliza un tipo de células llamadas linfocitos, las cuales contienen moléculas receptoras que reconocen objetivos o blancos específicos [1]. En la respuesta inmediata se libera una clase de linfocitos llamados células B, las cuales producen anticuerpos estándares para la mayoría de las infecciones. En la inmunidad adaptativa se utilizan los linfocitos llamados células T, las cuales reconocen un objetivo no propio, sólo después de procesar pequeños fragmentos del patógeno (antígenos). La respuesta se elabora combinando el antígeno con receptores propios que se obtienen de la transcripción de fragmentos de ADN seleccionados, en principio, aleatoriamente [1]. la competencia y la selección natural [1]. Se clasifican de acuerdo al tejido u órgano del cual nacen. El desarrollo del cáncer como un proceso micro evolucionario ocurre en escalas temporales de meses o años [1]. Sus características difieren en dependencia del tipo de célula a partir de la cual se derivó. También tienen la propiedad hereditable de poder invadir y colonizar territorios normalmente reservados para otras células (metástasis) [1]. Incluso cuando un cáncer ha metastizado, se puede seguir un rastro genético hasta su origen: generalmente un tumor singular primario que surgió en cierto tejido [1]. En la mayoría de estas pruebas se presume que el tumor primario se derivó de la división celular de una única célula, la cual sufrió algún cambio hereditario en su ADN que le permitió sobrepasar a sus vecinos. Evidentemente, una mutación puntual no es suficiente para convertir una célula típicamente saludable en cancerosa. Muchas líneas de evidencias indican que la génesis del cáncer requiere que ocurran varios accidentes raros en una misma célula [1]. Mucha evidencia proviene de estudios epidemiológicos de la incidencia de cáncer como función de la edad. Si una sola mutación fuera responsable, ocurriendo con una probabilidad fija por año, la oportunidad de desarrollar cáncer en cualquier año debería ser independiente de la edad. Para la mayoría de los cánceres es un hecho que la probabilidad crece estrepitosamente con la edad, típicamente como una potencia cuadrada, cúbica, cuarta o quinta [1]. Para esas estadísticas se estima que deben haber ocurrido entre 3 y 7 eventos aleatoriamente independientes, cada uno de baja probabilidad, que son típicamente requeridos para convertir una célula en cancerosa. Los números más pequeños se aplican a casos de leucemia (cáncer en la sangre, no se forma tumor), mientras que los mayores se aplican a carcinomas (cáncer en células epiteliales o glandulares) [1]. es el envejecimiento, no solo porque al pasar más tiempo se da chance a que aparezcan más mutaciones, sino también porque nuestra salud empeora y nuestras defensas decaen. Por estas razones son más frecuentes los canceres en edades avanzadas. Datos sobre riesgo de cáncer en tejidos Es bien conocido que existen grandes diferencias de incidencia de cáncer en los distintos tejidos del cuerpo. De los casi 100 tipos de cáncer detectados en humanos, los más comunes en hombres son los de pulmón, próstata, colorrectal y del estómago; mientras que en mujeres son los de mama, colorrectal, de pulmón y de cervical. Si se incluyera el cáncer de piel, en total representarían cerca del 40% de los casos [1]. Algunas de las diferencias están asociadas a factores de riesgo ya estudiados, como fumar, el uso abusivo del alcohol, radiación ultravioleta, o virus como el de papiloma humano. Pero esto se aplica solo a poblaciones expuestas a potentes mutágenos. Si comparamos datos de riesgo de padecer cáncer en la vida tomados de [9], esas exposiciones no pudieran explicar las diferencias entre, por ejemplo, los valores correspondientes a los tejidos del tracto alimenticio. Existe un factor de 24 entre el intestino grueso y el delgado, cuando supuestamente están expuestos a condiciones similares. En dicho trabajo se propone que la razón de estas diferencias es la presencia de otro factor: el efecto estocástico asociado al número de replicaciones que hacen las células madres de cada tejido en la vida de un individuo. Como existen órdenes de diferencia entre las frecuencias de replicación de las células madres de cada tejido, el riesgo de cáncer variará a consecuencia. Para demostrar que los efectos estocásticos constituyen un factor de riesgo de cáncer importante y pueden ser separados de la herencia y los factores ambientales, ellos calculan la correlación entre el riesgo (medido estadísticamente en una población) y estimados numéricos de dichos efectos. Los datos son mostrados en la Fig (1.2). Si denotamos por r al riesgo y por N div al número de divisiones en un tejido, podemos estimar N div de la siguiente manera: N div = N cel f d τ v (1.1) donde N cel es la cantidad de células madres presentes en el tejido (permanece constante debido al proceso de regulación de la mitosis), f d es la frecuencia de división celular de cada tejido (cantidad de divisiones por año) y τ v es el tiempo de vida medio de una persona (80 años). Los datos de la Fig (1.2) fueron incluidos en el Anexo 1 junto a otros datos de interés de los tejidos, que también fueron tomados de [9]. Radiaciones ionizantes y mutaciones Dosis de radiación La magnitud que caracteriza la incidencia de radiación sobre un cuerpo es la dosis de radiación. Existen tres tipos [10]: la dosis absorbida D, la cual se define como la energía absorbida por unidad de masa y en el Sistema Internacional se da en Gray (J/Kg); la dosis equivalente, es la suma de las contribuciones a la dosis de todos los tipos de radiación absorbida teniendo en cuenta que algunas son más dañinas que otras: H = R w R D R , (1.2) w R es un factor adimensional que caracteriza a cada radiación (alfa, beta, ...) y en el S.I. H se da en Sievert (Sv). La otra dosis es la dosis efectiva que está referida a un tejido en específico: E T = w T H T ,(1.3) donde H T es la dosis equivalente que recibe el tejido y w T es un factor adimensional de peso que refleja la sensibilidad del tejido a la radiación. Está definido de tal forma que si H se distribuye homogéneamente por los tejidos, la suma de las dosis efectivas de los tejidos será igual a la dosis equivalente: T w T = 1. (1.4) dosis que recibimos de fuentes no naturales prácticamente ha hecho duplicar la dosis total que recibimos anualmente. Datos sobre la concentración de Radón y cáncer De los datos anteriores podemos llegar a la conclusión que el pulmón es el órgano que se lleva la mayor parte de la dosis de radiación que recibe el cuerpo humano. Prácticamente todo el radón y torio y una buena parte de la que viene de procedimientos médicos. Con las radiaciones ionizantes que más lidiamos en la cotidianidad, teniendo en cuenta su grado de malignidad, resultan de la desintegración del radón o sus hijos, también radiactivos. Su isótopo más abundante es el 222 Rn, con una abundancia natural del 100%. Este se origina a partir de reacciones nucleares en las capas más altas de la atmósfera, contaminando el aire que respiramos. Además, es un gas noble, por lo que es poco reactivo y no se pierde en ninguna reacción atmosférica. Otros afluentes de su radiactividad provienen de cadenas de desintegración de elementos más pesados presentes en la tierra, como el isótopo de uranio: 238 U . En el reporte de Ref [12] también se informa la presencia de este isótopo en materiales constructivos, explicando así, la gran diferencia de actividad medida dentro y fuera de las viviendas (entiéndase cualquier construcción). Este elemento es gaseoso, pero la larga lista de sus productos radiactivos son metales (sólidos), por lo que la célula impactada por la primera desintegración recibe un daño adicional considerable. Dada la gran influencia que ejerce el radón en nuestro cuerpo y bajo sospechas de posible causa de cáncer, los autores de la Ref [12] realizaron un minucioso estudio en pos de relacionar las altas concentraciones de radón en la atmósfera con la ocurrencia de cáncer. Ellos midieron su concentración en distintas ciudades de los E.E.U.U. con la intención de correlacionarla con el índice de casos de cáncer de pulmón (riesgo de padecer la enfermedad en la vida) en dichas localidades. Sus resultados son mostrados en la Fig (1.3). Resulta curioso el alto grado de Figura 1.3: Aumento del riesgo de cáncer en función de la concentración de radón a la que estamos expuestos relativo al riesgo cuando no hay exposición. La línea continua representa un ajuste de los datos. similitud que presentan con los datos de riesgo de cáncer en tejidos en función del número de divisiones de células madres de cada uno, presentados en Fig (1.2). Esto indica que la radiación en general es otro factor de riesgo, aunque aparentemente de menor peso, que debería tenerse en cuenta para mejorar la correlación de los datos de la Fig (1.2). En la Fig (1.3) también se muestra un ajuste de los datos a partir de una dependencia potencial, que se obtiene de un modelo desarrollado para las mutaciones en el Capítulo 2. También, pudieran ser ajustados a una recta para calcular la probabilidad de ocurrencia de cáncer debido al radón. Algo parecido se hace con los datos de la Fig (1.2) en la sección 2.10. El carácter acumulativo de las mutaciones En el Capítulo 1 nos referimos a la baja frecuencia (10 −9 ) con que se producen mutaciones puntuales en el ADN, como resultado de fallas en la etapa de replicación. Algunos cambios en el ADN pueden ser producidos en otras etapas del ciclo celular debido a procesos intrínsecos; como radicales libres dentro de la célula, o agentes externos, como radiaciones y sustancias tóxicas. Si estos cambios pasan la replicación del ADN y se heredan, también dan lugar a mutaciones. En bacterias y otros organismos simples, las mutaciones son "filtradas" por el mecanismo de selección natural. Sólo los fenotipos más aptos persisten. En el hombre, por el contrario, la mayoría de las células tienen una vida muy corta y solamente los linajes de células madres pueden acumular cambios en el ADN, a lo largo de la vida del individuo. En el proceso acumulativo, las mutaciones que involucran reajustes a gran escala pudieran ser fundamentales. Los tipos de reajustes más comunes son perdidas de fragmentos (delecciones), inserciones, desplazamientos (translocaciones) e inversiones. Estas últimas consisten en intercambiar las hebras de la doble cadena de ADN del fragmento y, aunque es un cambio de varias bases, no se pierde información, pero produce problemas en la codificación. Podemos analizar, por ejemplo, la ocurrencia de grandes mutaciones en las 12 poblaciones de bacterias del EELP [8] como se muestra en la Fig (2.1). Los autores definen un reajuste en paralelo en poblaciones, como aquellos que involucran regiones cromosómicas que fueron afectadas por el mismo tipo de evento de reajuste: delecciones, inversiones, duplicaciones, etc. en al menos dos poblaciones distintas. El análisis de reajustes en paralelo en clones de poblaciones donde aparecen fenotipos mutantes, pudiera resolver qué mutaciones especificas le hacen falta al mutante. Sin embargo, los reajustes que se encuentran en común están presentes en casi todas las poblaciones, por lo que no lo caracterizan. La mayoría son delecciones de fragmentos duplicados, pedazos previamente introducidos por algún virus, otros sin ninguna función conocida ("basura") o alguna mutación ligeramente beneficiosa [8]. La presencia de reajustes en paralelo en las poblaciones del EELP que evolucionan indepen-Figura 2.1: [8] Reajustes de gran escala en cromosomas de clones de muestras de cada una de las 12 poblaciones de E. Coli (Ara-1-Ara-6, Ara+1-Ara+6) del EELP, que evolucionaron por 40 000 generaciones. El asterisco marca los clones que evolucionaron con tasas de mutación superiores a las vistas en su antepasado. El valor de porciento mostrado representa el cambio relativo del tamaño del clon respecto a su ancestro. El mapa óptico de la cadena ancestral es mostrado en la parte superior, en donde se señalan las localizaciones del origen y el final de la replicación, junto con una zona que fue afectada por delecciones en 10 de los clones. Los dominios cromosomales se indican debajo del mapa. Todos los reajustes se muestran de manera relativa al genoma ancestral usando el código de colores mostrado debajo de la figura. Las líneas verticales nombradas ∆1-∆9 indican regiones afectadas repetitivamente (en dos o más poblaciones) por delecciones, mientras que la línea D1 indica una región afectada repetitivamente por eventos de duplicación. Tres intervalos cromosómicos, mostrados como I1-I3, y la subregión (1.1) sin I1 fueron afectados repetidamente por inversiones. dientemente, constituye una evidencia muy fuerte del carácter acumulativo de las mutaciones y, de cierta manera, sugiere tener en cuenta el número total de mutaciones en cada generación. Las mutaciones como trayectorias en el espacio de las configuraciones del ADN Considerando una variable x que caracterice todas las posibles modificaciones del ADN y teniendo en cuenta la acumulabilidad de las mutaciones, podemos analizar su evolución temporal en las células. En el proceso de replicación, representando el parentesco de las células por líneas genealógicas, se determinan trayectorias desde la o las, células iniciales hasta las que sobreviven al final. Estas trayectorias son análogas a las definidas en [13] y [14]. La idea de trayectorias en un proceso evolutivo celular significa que existen cadenas de Markov de mutaciones [15], donde los cambios en el ADN de una célula, medidos por x, en el paso i + 1 están dados por los cambios en el paso anterior i más una modificación adicional δ: x i+1 = x i + δ (2.1) El parámetro δ representa las mutaciones en el paso i + 1 y no es el cambio producido por factores endógenos o externos, sino el cambio resultante después de actuar los mecanismos de reparación. Midiendo los cambios en el ADN Es difícil englobar con una variable todos los tipos de variaciones que ocurren en el ADN de manera efectiva. Si pensamos en las mutaciones puntuales, una forma muy conveniente de medir dichos cambios es definiendo una caminata sobre el ADN, la cual se emplea en [16] para describir el propio paisaje fractal de la molécula. Este método también pudiera ser usado para el resto de las mutaciones. Podemos utilizar una variante similar a la de ellos. Primero, definimos una variable auxiliar en el sitio α de la molécula: u α (A) = 1/8, u α (G) = 3/8, u α (C) = −3/8 y u α (T ) = −1/8. Luego, una caminata a lo largo del ADN queda definida de la siguiente manera: y(l) = l α=1 u α (2.2) Como función de l, la variable y describe un perfil de la molécula de ADN. En [17] caracterizan este perfil a través de las fluctuaciones medias, descritas cuantitativamente por la desviación cuadrática media: F (l) = ∆y 2 (l) − ∆y(l) 2 , la cual está dada en función de la cantidad ∆y(l), definida como ∆y(l) = y(l + l 0 ) − y(l 0 ). La media se calcula por todas las posibles longitudes l 0 . Ellos encontraron una diferencia sustancial de comportamiento entre la región del ADN que codifica y la que no, en genes de células eucariotas. En la zona codificante encontraron que los nucleótidos están poco correlacionados entre sí. Este resultado es típico de procesos no correlacionados o de correlación de corto alcance, donde se puede definir una longitud característica de correlación, como se espera de la distribución normal del movimiento browniano. La función F (l), la cual define el radio browniano, sigue una ley l 1/2 en estos casos [17]. A veces, la zona no codificante, en contraste, exhibe correlaciones de largo alcance (libre de escala) cuya ley, l a , presenta coeficientes distintos: a = 0.5. A diferencia de [17], donde sólo se estudiaba la forma del ADN mediante la variable y(l), nosotros también estamos interesados en su evolución temporal, acorde con lo expuesto en la sección anterior. Sus modificaciones pueden ser medidas como: y(l)−y 0 (l), donde y corresponde al ADN mutado y y 0 a la configuración inicial. Para caracterizar al gran número de componentes de y (5 × 10 9 bases) la estrategia puede ser utilizar variables que midan los cambios globales o distancias a la función original: x(L) = L α=1 (u α − u α ),(2. 3) x (1) (L) = L α=1 (u α − u α ),(2. 4) x (2) (el segundo momento), la entropía de Shannon [18], etc. L es la longitud de la molécula. Tomando la primera variante por ejemplo, una sustitución de citosina (C) por guanina (G) en algún punto se corresponderá con un valor x(L) = 3/4, mientras que todos los reemplazamientos puntuales producen cambios en promedio de 5/12. En casos de intercambios de varias bases, existen reconfiguraciones que producen los mismos valores de x(L), pero podemos diferenciarlos llevando el número de bases cambiadas como variable adicional. Aún así, son evidentes los grandes problemas que presentan estas propuestas para describir todos los fenómenos de las mutaciones. La razón de que exista una diferencia de comportamiento entre las dos zonas del ADN, está dada por el hecho de que mutaciones más dañinas en la zona de codificación afectan la transcripción de proteínas vitales, por tanto, o destruyen la célula o se corrige el error, en cualquier caso no se observan con la misma frecuencia. La caminata aleatoria tiene serios problemas para medir los cambios de más de una base en el ADN, por ejemplo; si se eliminan, se insertan o se trasladan segmentos con bases al azar, el simple hecho de introducir cambios no modifica la correlación. Sólo en caso de inserciones de segmentos con bases correlacionadas la cambiaría, las delecciones y las translocaciones nunca lo harían. Sin embargo, de los resultados de [17] se pueden inferir varias cosas. Primero, que las mutaciones no se manifiestan de la misma forma en las zonas codificantes y no codificantes, si no tendrían perfiles semejantes. Segundo, dado que la caminata aleatoria resuelve bien las mutaciones puntuales, entonces el movimiento browniano debe ser una buena descripción de las mismas, porque reproduce su carácter local. Tercero, debe existir otra componente δ SL , que caracterice a las mutaciones de mayor tamaño, que no se rigen por el movimiento browniano, y debe ser libre de escala. La combinación del movimiento browniano y los saltos de largo alcance es característica de los vuelos de Levy. Por lo que, a pesar de los inconvenientes que aparecen al intentar medir los cambios en el ADN, pensamos que la evolución de las mutaciones debe regirse por un proceso de Levy. De ellos hablaremos más adelante. Los resultados de [17] también motivaron al desarrollado de un modelo de vuelos de Levy generalizados para la secuencia de bases del ADN propuesto en [19]. Trayectorias de Levy Un vuelo de Levy es un tipo de paseo aleatorio en el cual los incrementos son distribuidos de acuerdo a una distribución de probabilidad de cola pesada. Específicamente, la distribución usada es una ley potencial de la forma y = x −a donde 1 < a < 3 [20]. El escalamiento en forma de ley de potencias de las longitudes de pasos, da a los vuelos de Levy una propiedad de escala invariante, es decir, tienen una varianza infinita. Esta característica es propia de un fractal [20]. Luego de discutir temas referentes a la medición de los cambios en el ADN en la sección anterior, podemos considerar, por cuestión de simplicidad, una única variable unidimensional x L (t), donde L es el tamaño de la cadena de ADN. El tiempo, por otro lado, se representa mejor por el número de generaciones a lo largo de un linaje celular, medido desde el ancestro común. En una población en evolución, el patrón dibujado por el conjunto de variables {x L (t)}, una para cada célula, resulta la distribución de probabilidad. Para generar la distribución en nuestro modelo, partimos de una cadena de Markov con el siguiente incremento: δ = δ B + δ SL ,(2.5) donde δ B es la componente browniana. La otra componente no local se caracteriza por eventos raros de probabilidad total p << 1 y densidad de probabilidad proporcional a 1/δ ν SL , con Datos sobre mutaciones puntuales en el EELP Un día de evolución en el EELP se representa esquemáticamente en la Fig (2.2) por trayectorias de filogenia. Usualmente los linajes con mutaciones neutras o deletéreas son truncados, mientras que las mutaciones beneficiosas les confieren ventajas evolutivas a los clones y por tanto, tienen mayor probabilidad de continuar. Una vez que aparecen, las mutaciones beneficiosas se fijan en más del 50% de la población después de un tiempo de dominancia. Hablando sin mucho rigor, si P b es la tasa de mutaciones beneficiosas en la población y τ f el tiempo necesario para que se fije una, entonces la cantidad de mutaciones fijadas en un tiempo t será aproximadamente t/(τ b +τ f ), donde τ b = 1/P b . En la Fig (2.3) aparecen datos de mutaciones puntuales que fueron Figura 2.3: Cantidad de mutaciones puntuales como función del tiempo (número de generaciones) en la población Ara-1 del EELP [6]. Están incluidos en la figura los datos desde la generación 0 (cadena ancestral, tomada como referencia) hasta la 20 000. tomados de [6]. En ella se muestran los valores medidos en las generaciones 2 000, 5 000, 10 000, 15 000, 20 000, 30 000, y 40 000. Los otros dos puntos restantes no se incluyeron porque la aparición del fenotipo mutante en la generación 27 000 hace que la frecuencia de mutaciones aumente en 100 veces. El experimento permite determinar frecuencias de mutaciones puntuales superiores al 4% en la población. Los autores reportan mutaciones "fijas", lo que significa que sus frecuencias f , son mayores que el 96%, como también las mutaciones con: 4% < f < 96%. Los datos llamados "fijas" en la figura muestran un incremento lineal para tiempos pequeños con pendiente 1.0×10 −3 mutaciones/generación, lo cual brinda una estimación de P b . Por otro lado, los datos llamados "total" son nuestras estimaciones para el número de mutaciones que se pueden detectar en un clon en total, no importa cuál sea. La pendiente en el incremento lineal inicial es un poco mayor: cerca de 1.8 × 10 −3 mutaciones/generación. Debemos indicar, una vez más, que estos números son para la población completa. La tasa de mutaciones beneficiosas en un solo linaje es p b = P b /N cel ≈ 0.8 × 10 −3 /(5 × 10 6 ) ≈ 3 × 10 −10 mutaciones/generación. Notemos que en el experimento el número de linajes de células y el tamaño del genoma son aproximadamente el mismo (5 × 10 6 ), lo que a veces puede traer confusión. Notemos también que el número total de mutaciones muestra una dependencia sublinear para largos tiempos. Esto es una consecuencia del hecho de que τ f usualmente se incrementa cuando se añade una nueva mutación beneficiosa sobre las existentes, fenómeno conocido como epistasis. Para ajustar los datos en la figura usamos la dependencia del modelo propuesto en [3]: 2s( 1 + aN gen − 1)/a, donde s es la pendiente en N gen = 0 y a es un parámetro. Datos sobre mutaciones no locales en el EELP En la Ref. [8] se proveen datos de reajustes cromosómicos grandes. De acuerdo a las limitaciones del experimento, los autores no pueden detectar reajustes menores que 5 kilo pares de bases (Kpb). Por otro lado, ellos solo pueden hacer mediciones en clones, que son representativos de una población, los cuales pueden exhibir grandes desviaciones de los valores medios. El primer grupo de resultados involucran una secuencia temporal de clones de la población Ara-1, como en la sección anterior. Esto es, muestras en las generaciones 2 000, 5 000, 10 000, 15 000, 20 000, 30 000, 40 000 y 50 000. Recordemos la parte espacial π(l) de nuestro ansatz para la probabilidad de saltos largos. Nosotros no distinguimos entre los diferentes tipos de reajustes: delecciones, inserciones, translocaciones e inversiones. La Fig (2.4) de arriba muestra los números de eventos detectados como función del tiempo (número de generaciones). La mayoría de los reajustes parece que se fijan, en el sentido de son detectados también en tiempos posteriores. Para ajustar los datos usamos la misma función que para las mutaciones puntuales: 2s( 1 + aN gen − 1)/a. A partir de la pendiente obtuvimos una estimación aproximada para la tasa de cambios beneficiosos en la población: P bSL ≈ 5 × 10 −4 cambios/generación. Para un solo linaje de células, p bSL ≈ 10 −10 cambios/generación. La Fig (2.4) de abajo, por otro lado, refleja la estadística del tamaño. Usamos una gráfica log-log con el tamaño l en el eje de las abscisas y el número de reajustes con tamaños mayores o iguales a l en el de las ordenadas. De acuerdo con nuestro ansatz, este número es igual a: C(ν − 1) ∞ l dx x ν = C l ν−1 (2.6) donde C es una constante de normalización. Notemos que cuando un cambio aparece en un tiempo dado y se fija, nosotros no lo contamos como un evento diferente en un tiempo posterior. Los datos de la Fig (2.4) se ajustan bastante bien por la función C/l ν−1 , con ν = 1.42. Más abajo consideraremos más datos con una mejor estadística. El segundo grupo de datos proviene de clones cosechados de las 12 poblaciones que evolucionan independientemente en el experimento, muestreados en la generación 40 000. Existen 110 reajustes grandes en dichos clones. Los resultados, mostrados en la Fig (2.5), son muy bien fiteados por la dependencia C/l ν−1 , con ν = 1.49, sugiriendo un valor límite del exponente ν = 3/2. La pendiente cambia para l < 5 Kpb porque el experimento no puede detectar todos los cambios que ocurren con esos valores de l, como se mencionó anteriormente. En resumen, en las secciones 2.5 y 2.6 hemos mostrado que las mutaciones en el EELP pueden describirse como trayectorias de Levy. También hemos determinado las frecuencias de mutaciones puntuales y no locales, así como el exponente de Levy, ν. Descripción del fitness en el EELP Para definir el parámetro de fitness, seguiremos un esquema parecido al de la Ref [22]. En el caso del EELP, una población inicial consiste en individuos con genotipos z 0 (cepa ancestral de E. Coli) y las réplicas siempre tienen el mismo genotipo que sus padres (reproducción por Figura 2.4: Arriba: Número de reajustes cromosómicos grandes (mayores que 5 Kpb) en clones de la población Ara-1 como función del tiempo (número de generaciones). Abajo: Log-log plot de la distribución del tamaño de los eventos (ver explicación detallada en el texto). Figura 2.5: Log-log plot de la distribución del tamaño de grandes reajustes en clones obtenidos de las 12 poblaciones que evolucionan independientemente en el EELP, muestreados en la generación 40 000. La línea es un ajuste con ν = 1.49. mitosis), salvo en caso de mutaciones, donde se producen genotipos z i con algunas variaciones. Asumamos que luego de cierta cantidad de replicaciones existe una distribución de genotipos en la población. Si del tipo z i , existen N (z i ) individuos, los cuales sobreviven con probabilidad l(z i ) y dan lugar a m(z i ) réplicas, entonces la cantidad de individuos nuevos que se obtienen a partir de cada tipo en la siguiente generación será: N (z i ) = l(z i )m(z i )N (z i ) ≡ W (z i )N (z i ) (2.7) Notemos que el factor W determina las frecuencias relativas de los genotipos y por tanto, constituye una completa descripción del fitness. Visto de esa forma, la competencia entre los genotipos estará determinada por la razón entre sus fitness, por tanto, podemos normalizar el fitness al de uno de los genotipos, digamos z 0 : N (z i ) = w(z i )N (z i ), (2.8) donde w(z i ) = W (z i )/W (z 0 ) y w(z 0 ) = 1 El número total de individuos de la siguiente generación será exactamente: 9) donde N es la cantidad de individuos en la generación anterior y f (z i ) la frecuencia relativa de cada genotipo en la generación anterior (f (z i ) = N (z i )/N ). Como las mutaciones son eventos poco probables, sólo una pequeña fracción del total de los nuevos individuos tendrán genotipos diferentes. Notemos que la aparición de nuevos genotipos en un linaje estará determinada por la supervivencia del individuo de la generación anterior a partir del cual se genera, o sea, se rige por el fitness de su antepasado. Si realizamos replicaciones sucesivas de la población a partir de la ecuación (2.8), obtendremos una aproximación de la cantidad de individuos en la generación t: N = N i w(z i )f (z i ),(2.N t (z i ) = w(z i ) t N 0 (z i ) (2.10) En una situación hipotética donde existe un genotipo mayoritario en la población, como al inicio del EELP, la frecuencia del mismo será prácticamente la unidad y la cantidad de individuos con ese genotipo en la siguiente generación no tendrá cambios apreciables (N (z 0 ) ≈ N (z 0 )). Analicemos ahora un genotipo singular z x de la población, pobremente representado por un pequeño número de individuos. En el caso extremo de sólo existir un individuo con ese genotipo, el número de individuos con dicho genotipo en las generaciones siguientes estará determinado únicamente por su fitness (ecuación (2.10) con N 0 = 1). Así, un individuo con una mutación beneficiosa que elevó su fitness de 1 a 1.1 se reproducirá 1.1 veces más rápido y en algún momento se hará mayoritario. En el EELP se controla la cantidad de individuos de una población, manteniéndose un valor de 5×10 6 linajes celulares constante en el tiempo. Si tenemos esto en cuenta en nuestro ejemplo anterior, un estimado sencillo de la cantidad de generaciones o el tiempo de dominancia, t d , necesario para que un cierto genotipo con fitness w 1 se haga mayoritario frente a otro de fitness w 2 < w 1 es: 11) donde N f es una fracción de la población, por ejemplo la mitad. Cuando existen varios genotipos compitiendo entre sí, la dominancia del de mayor fitness no es tan trivial: se alcanza cuando la cantidad de individuos con ese genotipo supere a la del resto. La fracción de la población que representa dicha condición depende de los valores de fitness de cada genotipo en la competencia, este fenómeno es conocido como interferencia clonal. (w 1 /w 2 ) t d = N f ,(2. Simulando las mutaciones + la selección natural en el EELP Con el objetivo de comprobar nuestras hipótesis sobre las mutaciones, simularemos la dinámica del EELP, representada en la Fig (2.2). Como explicamos en el Capítulo 1, en el experimento se parte de un cultivo de 5×10 6 bacterias, cada bacteria se reproduce durante 6 o 7 generaciones en promedio alcanzándose 100 veces la cantidad inicial. De las 500 millones de bacterias resultantes en un día de expansión clonal, se escoge entonces el 1%, obteniéndose la cantidad inicial. Como a lo largo del experimento el número de linajes celulares permanece constante e igual al tamaño inicial del cultivo, por una cuestión de costo computacional, en la simulación nos restringimos a describir una duplicación de las 5 millones de trayectorias seguidas en el EELP. Estamos interesados en la descripción temporal de las mutaciones, por lo que encontramos conveniente seguir la evolución del fitness de cada una de las trayectorias. Los primeros parámetros a tener en cuenta son las probabilidades por célula de que aparezca una mutación y de que esta sea beneficiosa. Sus valores numéricos para la población Ara-1 fueron estimados previamente en las secciones anteriores a partir de los datos del experimento. p mut indica cuándo hay mutación y p b indica cuáles de ellas son beneficiosas. Cuando una célula experimenta una mutación beneficiosa se produce un incremento de su fitness. Otros casos de mutaciones son las neutrales, las cuales a pesar de modificar al ADN, no producen ningún efecto sobre el fitness. La última posibilidad de mutaciones es que sean perjudiciales, que simulamos con la misma probabilidad de las neutrales y disminuye el fitness hasta en un 70%, este parámetro es arbitrario en principio, pero constituye un valor de corte a partir del cual consideramos despreciable la probabilidad de que una célula con un fitness tan reducido sobreviva durante 7 generaciones (un día) y logre ser detectada en el EELP. Para incrementar el fitness en caso de mutación beneficiosa utilizamos el modelo descrito en [3], donde la ventaja s de la mutación se distribuye exponencialmente con densidad de probabilidad αe −αs . La ventaja se define a partir de los valores de fitness antes y después de la mutación como: w = w(1 + s). El parámetro α de la distribución también cambia en el tiempo: α = α(1 + gs) (sólo en caso de mutación beneficiosa), donde g se ajusta para cada población y vale g = 4.035 para la población Ara-1 [3]. Mencionamos que para simular la selección natural no podemos hacer una expansión clonal de 5 a 500 millones de células, como en el experimento, y después escoger aleatoreamente 5 millones. Como debemos mantener arreglos de fitness, número de mutaciones, etc. las dimensiones se hacen muy grandes. En vez de eso, hacemos una sola duplicación y escogemos la mitad de las células. El algoritmo en cuestión es así: • El mayor fitness se toma como referencia, w max . • De cada clon se hacen dos copias y se determina si existen mutaciones con probabilidad condicional p mut = 10 −3 y, de ellas, si son beneficiosas, con probabilidad p b = 10 −6 . Estos valores son dictados por el experimento. • La permanencia, o no de las copias que provienen de w max se hace aleatoreamente con probabilidad 1/2. Para el resto de los clones la probabilidad es w/(2w max ). A veces, después de este procedimiento no se han completado los 5 millones de células, faltan unos miles. Ellas se escogen aleatoreamente ya que, como son tan pocas, las frecuencias relativas no tienen un gran peso. En la Fig (2.6) se muestra la evolución temporal del fitness promedio de la población a lo largo de 20 000 generaciones, obtenida de la simulación. El comportamiento es similar al de la Ref. [3]. También se reproduce el comportamiento de la evolución temporal de la cantidad de mutaciones, análogo a la Fig (2.3) y mostrado en la Fig (2.7). En las gráficas, las generaciones donde aparecen mutaciones beneficiosas están marcadas. Los escalones de ambas gráficas indican que cierta mutación beneficiosa se fijó en la población y elevó el fitness medio abruptamente. Otras de ellas fracasan en la competencia por sobrevivir, sin embargo, constituyen fuentes de variabilidad genotípica. También podemos analizar el tiempo que necesita una mutación beneficiosa para fijarse en la población. Resulta que mientras más beneficiosas sean, es decir, mayor fitness tenga la célula mutada, más rápido ésta se propagará. En la Fig (2.8) se muestran datos recogidos en distintas generaciones de la cantidad de mutaciones producidas. Las curvas que se obtienen son consistentes con una distribución poissónica truncada: es decir, de la forma N e −λ λ k /k!; donde k es variable discreta inicializada en cierto valor positivo, λ es un parámetro que resulta el valor medio de la distribución y N es una constante de normalización. A partir de la generación 10 000 ya todas las trayectorias tiene al menos 4 mutaciones, mientras que en la generación 20 000 tienen al menos 9. Contando la cantidad de escalones en la gráfica del fitness medio sabemos que al menos 5 de esas mutaciones son beneficiosas. Otro resultado interesante es referente a la variabilidad genotípica. Resulta que, en los primeros instantes de la simulación, la mayoría de las células tienen fitness unitario y existe poca variabilidad debido a que no le han dado tiempo de propagarse las mutaciones. A medida que avanza la simulación el abanico de posibilidades aumenta, lo que se traduce en un aumento del ancho de la distribución de las mutaciones (generaciones 1 000, 2 000 y 5 000). A veces el abanico se cierra instantes posteriores a la aparición de una mutación beneficiosa en un genotipo, que se vuelve dominante y extingue a la mayoría de los demás competidores (generación 10 000). Esto constituye una manifestación de la interferencia clonal. En la generación 20 000 se vuelve a ensanchar la distribución después de un período de evolución sin que se fije alguna mutación beneficiosa. Por otro lado, el perfil de frecuencias de todos los genotipos obtenidos en varios instantes de la simulación son mostrados en la Fig (2.9). Se escogieron tres situaciones diferentes que se pueden dar y que ocurrieron en el perfil de las generaciones 2 000, 10 000 y 20 000. En la primera tenemos que la mayoría de las células tienen un fitness de 1, que se corresponde con el máximo valor fijado en la población. En la segunda se observan dos picos de frecuencia correspondientes a mutaciones beneficiosas en clones que compiten entre sí, la de mayor fitness es mayoritaria y posteriormente puede imponerse (interferencia clonal). En el tercer caso tenemos otra interferencia clonal donde el mayor fitness no se ha hecho mayoritario. Algunas diferencias de nuestra simulación con respecto al experimento, son que subestimamos los máximos de fitness y la cantidad de mutaciones en promedio. La razón de este resultado podría ser, que la probabilidad de ocurrencia de mutaciones se estima suponiendo que, en el EELP, la mayoría de la mutaciones beneficiosas producidas se fijaban en toda la población, contrario a lo que se observa en nuestra simulación. Posiblemente, las probabilidades reales de mutaciones sean más altas y la fracción de mutaciones beneficiosas que se pierden sea también tan alta, como en la simulación. Figura 2.6: Historia del fitness medio en la simulación hasta 20 000 generaciones y detalles en distintas etapas. Las líneas verticales representan la aparición de mutaciones beneficiosas, la mayoría de las cuales no logra imponerse. Figura 2.7: Historia de la cantidad media de mutaciones en la simulación hasta 20 000 generaciones. Aparición del genotipo mutante en el EELP En varias poblaciones del EELP aparece un "mutante", es decir, un genotipo donde la frecuencia de mutaciones aumenta aproximadamente 100 veces respecto a la cepa ancestral [2]. En la Fig (2.10),tomada de la Ref [2], se muestra la frecuencia de mutaciones ante un antibiótico de las diferentes poblaciones del EELP, cuando se alcanza un número de generaciones N gen = 10000. Se observan 3 poblaciones donde el mutante se ha impuesto como genotipo dominante. Esto significa que su fitness es superior al promedio de la población, es decir, constituye un tipo especial de mutación beneficiosa que da lugar a su vez a un aumento de la tasa de mutaciones. Estudios en pacientes con fibrosis quística en los pulmones, infectados por P. aeruginosa [23], indican que también un genotipo mutante puede estar relacionado con la resistencia de capas bacteriales a los antibióticos. En la Fig (2.11) mostramos los datos del EELP sobre cuando aparece el genotipo mutante [3]. Los resultados son, de alguna forma, similares a la Fig (2.3) con el número de mutaciones beneficiosas como función del tiempo. La pendiente cerca del cero nos permite apreciar una frecuencia aproximada de 5 × 10 −4 para la aparición del mutante en una población. Para convertirse en mayoritario, el mutante debe sobrepasar la selección aleatoria y competir con otros clones, cuyos fitness aumentan con el tiempo, aumentando el tiempo de dominancia. Dividiendo la frecuencia por el número de líneas de evolución celular (5 × 10 6 ) en el experimento, obtenemos la probabilidad de aparición del mutante por célula: p mut = 10 −10 /cel, aproximadamente la mitad de la probabilidad de aparición de una mutación beneficiosa. Veamos que también pudiera existir alguna similitud con el cáncer. Figura 2.9: Tres tipos de situaciones que se pueden dar con el fitness en el EELP y la simulación, referentes a la interferencia clonal. En la figura de arriba predomina un sólo genotipo. En la figura del medio compiten dos genotipos, pero el de mayor fitness es el dominante. En la figura de abajo también compiten dos genotipos, pero el de mayor fitness no se ha interpuesto. Figura 2.10: Tres de las 12 poblaciones de E. Coli del EELP evolucionaron a fenotipos hipermutantes después de 10 000 generaciones. Los datos muestran las tasas de mutación de las 12 poblaciones (Ara-1-Ara-6, Ara+1-Ara+6) y sus respectivos ancestros (606 y 607) al resistirse a un antibiótico. La poblaciones hipermutantes tienen cerca de 100 veces la tasa de mutación de sus ancestros, así como de las otras líneas de evolución. Cantidad de mutaciones Figura 2.11: Aparición del genotipo mutante en las poblaciones del EELP. La gráfica muestra la cantidad de poblaciones en las que aparece como función del número de generaciones. La línea continua es un ajuste de los datos con el modelo dado en la Ref [3]. La pendiente cerca del cero, representada con líneas discontinuas, nos da un aproximado de su frecuencia de aparición: 5 × 10 −4 mutantes/generación. EELP y cáncer Existe una gran diferencia entre la filogenesis de evolución en el EELP y en los tejidos humanos [24], que se muestra en la Fig (2.12): La figura contiene sólo las líneas de evolución de las células madres en la fase de homeostasis. Las líneas de división celular, representadas discontinuamente, dan lugar a células especializadas de corta vida. Las líneas de células madres son las únicas que perduran durante la vida del organismo y acumulan mutaciones, por eso se piensa que son ellas las pueden dar lugar al cáncer. La diferencia fundamental de esta figura con la Fig (2.2) es que no existe interferencia clonal (excepto en la fase de crecimiento del tejido), es decir, las líneas evolucionan independientemente. Esto pudiera ser una estrategia evolutiva para reducir la propagación de cáncer en el tejido, al igual que la división asimétrica del ADN [24], o sea que las células madres retienen el hilo ancestral del ADN al replicarse el mismo. La independencia de las líneas se refuerza a veces con la compartimentación en el tejido: una célula madre puede estar relacionada con una zona específica en el tejido, como sucede con las criptas intestinales. Como similitud con el EELP podemos resaltar que el cáncer, en un gran porciento de los casos, es un genotipo mutante [24], lo que le confiere la habilidad para evadir la respuesta inmune. En la Fig (2.13) reploteamos los datos de Tomasetti y Vogelstein [9], para un conjunto de tejidos que hemos denominado "normales". La diferencia es que el eje de las ordenadas ahora tiene el riesgo por célula y el eje de las abcisas, mide el número de generaciones a partir de la célula madre originaria que da lugar al tejido. La dependencia lineal es asombrosa a pesar de que los puntos representan órganos tan diversos como el cerebelo, la sangre y el colon, entre otros. Muestra lo que querían los autores: que en algunos tejidos el riesgo de cáncer se conforma 1. × 10 -10 N gen Riesgo por célula Figura 2.13: Log-Log plot de los datos de riesgo de cáncer [9] por célula en tejidos que pensamos que están poco afectados por otros factores carcinogénicos, en función del número de generaciones de células madres de cada tejido. con la frecuencia de replicación. La dependencia del riesgo por célula con N gen es lineal, con una pendiente 4 × 10 −14 , cuatro órdenes menor que la probabilidad de mutación p mut estimada en el EELP. Asumiendo, sin ninguna base desde luego, que células potencialmente cancerosas son generadas con frecuencia p mut , resultaría que solo una de 10 000 continuaría su ruta hacia la formación del tumor. El resto sería eliminado por el sistema inmunológico. Probabilidades de impacto de las radiaciones sobre las células madres del pulmón A partir de los datos de la actividad del radón en la atmósfera tomados de la referencia [12], podemos ofrecer un estimado simple de la probabilidad de impacto de las partículas α con las células madres del pulmón, provenientes de la desintegración del radón que respiramos. El tiempo de vida medio del isótopo 222 Rn es de 3.8 días, el cual es 100% abundante naturalmente, como se dijo con anterioridad. El ritmo de flujo de aire en los pulmones, por otro lado, es de 4 litros por minuto. Teniendo en cuenta que la capacidad pulmonar es de aproximadamente de 3.5 a 4 litros, prácticamente todo el aire de los pulmones es renovado en cada minuto. Comparando el ritmo de respiración con el tiempo de vida medio del radón, en buena aproximación, la actividad de este isótopo en los pulmones es semejante a la encontrada en el aire circundante: 40Bq/m 3 al aire libre y 150Bq/m 3 dentro de las casas. Por otro lado, en el pulmón existen estructuras bronquiales llamadas alveolos, donde se almacena el aire inspirado y se realiza el intercambio gaseoso con la sangre, mediante la difusión (Fig (2.14)). La pared celular de los alveolos es una capa unicelular, típicamente de menos de Figura 2.14: Alveolo pulmonar y microcapilar sanguíneo. La membrana del alveolo es unicelular, de ancho menor que una micra, para permitir el intercambio gaseoso. El diámetro del microcapilar es de 100µm aproximadamente. 1µm, para que se de la difusión. Los capilares que rodean a los alveolos tienen diámetros de 100µm aproximadamente. Una pregunta interesante es cuán profundo logran penetrar las partículas α procedentes de la desintegración del radón en nuestro organismo. Un estimado simple consiste en tomar datos de la potencia de frenado (p f ) de partículas α en el agua presentes en [25], para calcular su longitud de penetración en el agua. Esta longitud no debe variar mucho en el caso de la sangre u otros tejidos, ya que su densidad es muy parecida a la del agua. La potencia de frenado depende de la energía inicial que tengan las partículas, 5.6M eV en la desintegración del 222 Rn. La potencia de frenado en este caso es de p f = 4.32 × 10 −3 g/cm 2 . El cálculo queda de la siguiente manera: l = p f ρ ≈ 43.2µm (2.12) donde la densidad del agua se tomó de ρ = 1g/cm 3 . Comparando el valor de la longitud de penetración con las dimensiones de la pared celular que encuentran las partículas α al introducirse en los alveolos, podemos concluir que o bien se queda en el alveolo, o pasa a la sangre, en cualquier caso permanece en el pulmón. Estableciendo que cada partícula α resultante de la desintegración del radón impacta en alguna de sus células y, teniendo en cuenta que la proporción de células madres que hay en los pulmones es del 0.4% (tomadas de la [9]), podemos calcular la frecuencia con que se impacta alguna célula madre, denotada F imp : F imp = 0.004AV p ∼ 10 −3 impactos/s (2.13) donde A y V son respectivamente la actividad del radón en los pulmones (tomada de 100Bq) y su volumen(4lt). También podemos calcular la frecuencia por célula en función de la cantidad de generaciones de las células madres, para ello necesitamos la cantidad total de células madres (N celM = 1.2 × 10 9 ) y el tiempo que tarda en dividirse cada una: τ = 14.3 años. f imp = F imp τ /N celM ≈ 4 × 10 −4 impactos/gen (2.14) Anteriormente habíamos estimado que la probabilidad de ocurrencia de una mutación en una base del ADN de una célula era de 10 −9 − 10 −10 por generación, por lo que la probabilidad de que ocurra en un segmento de longitud l será: P rob ∼ 10 −9 l. Nos interesan las mutaciones en los sectores codificantes del ADN, específicamente de los genes p53 y Rb, que son los que se sospecha que juegan un papel importante en la génesis del cáncer. En la Ref [26] aparecen datos de la longitud de estos genes, l = 10Kpb y l = 100Kpb serían estimados de los tamaños de la zona codificante. La frecuencia de ocurrencia de mutaciones en estos genes sería de: f mut = 10 −9 × 100Kpb ∼ 10 −4 − 10 −5 mutaciones/gen (2.15) A pesar de la simplicidad del cálculo, las frecuencias de (2.14) y (2.15) son parecidas, lo que pudiera indicar que una de las causas fundamentales de la ocurrencia de mutaciones en las células madres pulmonares sea la desintegración del radón presente en el aire que respiramos. Capítulo 3 Conclusiones y Recomendaciones Conclusiones A lo largo de este trabajo se han expuesto varias ideas relacionadas con las mutaciones en linajes celulares de bacterias y tejidos humanos. Se ha hecho una extensa revisión de literatura sobre diversos tópicos, pero no en todos hemos llegado a resultados propios. Los principales resultados de la tesis son los siguientes: 1. Mostramos, a partir de datos del EELP, que las mutaciones en bacterias se pueden describir por trayectorias de Levy, que se componen por mutaciones puntuales y reordenamientos no locales del ADN. La tasa de ambos eventos se estimó en p mut ≈ 10 −10 mutaciones/generación, mientras que el parámetro de Levy se estimó como ν ≈ 3/2. Pensamos que el resultado anterior tiene un carácter general, es decir, el modelo pudiera ser válido para las mutaciones celulares, aunque los parámetros variarán en dependencia del sistema en cuestión y de las condiciones a las que se encuentra expuesto. Con estos resultados se ha elaborado un artículo [27]. 2. Se diseñó y puso a punto un algoritmo para mezclar las mutaciones con la selección natural en condiciones muy similares a las del EELP. Para ello se introdujo el fitness de los clones. La simulación mostró que la tasa de mutaciones beneficiosas que no se fijan es muy alta (94.6%), por lo que el estimado p mut ≈ 10 −10 mutaciones/generación constituye una cuota inferior y el valor real en el experimento pudiera ser varias veces mayor. Tabla A.1: Datos de riesgo de incidencia de cáncer en la vida y parámetros relacionados con las células madres normales que son precursoras de esos cánceres [9]. * "Células" y "células madres" se refiere solamente a aquellas células normales del mismo tipo que las células cancerosas de ese tejido. Por ejemplo, para el cáncer colorrectal, las células y las células madres se refieren a células epiteliales, no a los estromas u otros tipos de células de colon anómalo. Una función continua de la energía del neutrón: w R (E n ) Tabla B.1: Factores de ponderación recomendados para la radiación. El factor de ponderación de la radiación para los neutrones refleja su eficacia biológica relativa debida a la exposición externa. La eficacia biológica de neutrones incidentes en el cuerpo humano depende fuertemente de la energía del neutrón (Fig (B.1)). B.2 Sensibilidad del tejido en bacterias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 1.1.1 El ciclo del desarrollo celular. Replicación del ADN . . . . . . . . . . . . 2 1.1.2 Mecanismos de corrección y mutaciones . . . . . . . . . . . . . . . . . . . 3 1.1.3 Mutaciones y Selección Natural . . . . . . . . . . . . . . . . . . . . . . . 4 1.1.4 Factores externos en las mutaciones . . . . . . . . . . . . . . . . . . . . . 4 1.1.5 El experimento de evolución a largo plazo en poblaciones de E. Coli . . 5 1.2 Mutaciones en tejidos humanos . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 1.2.1 Identidad del ADN del individuo . . . . . . . . . . . . . . . . . . . . . . 5 1.2.2 División celular en organismos pluricelulares. Especialización . . . . . . . 6 1.2.3 Mecanismos de corrección a nivel celular y el sistema inmunológico . . . 7 1.2.4 Cáncer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 1.2.5 Envejecimiento y cáncer . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 1.2.6 Datos sobre riesgo de cáncer en tejidos . . . . . . . . . . . . . . . . . . . 10 1.3 Radiaciones ionizantes y mutaciones . . . . . . . . . . . . . . . . . . . . . . . . . 10 1.3.1 Dosis de radiación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 1.3.2 Dosis en los diferentes tejidos . . . . . . . . . . . . . . . . . . . . . . . . 12 1.3.3 Datos sobre la concentración de Radón y cáncer . . . . . . . . . . . . . . 13 2 Mutaciones y trayectorias de Levy 15 2.1 El carácter acumulativo de las mutaciones . . . . . . . . . . . . . . . . . . . . . 15 2.2 Las mutaciones como trayectorias en el espacio de las configuraciones del ADN . 17 2.3 Midiendo los cambios en el ADN . . . . . . . . . . . . . . . . . . . . . . . . . . 17 2.4 Trayectorias de Levy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 2.5 Datos sobre mutaciones puntuales en el EELP . . . . . . . . . . . . . . . . . . . 20 2.6 Datos sobre mutaciones no locales en el EELP . . . . . . . . . . . . . . . . . . . 22 2.7 Descripción del fitness en el EELP . . . . . . . . . . . . . . . . . . . . . . . . . 22 2.8 Simulando las mutaciones + la selección natural en el EELP . . . . . . . . . . . 25 2.9 Aparición del genotipo mutante en el EELP . . . . . . . . . . . . . . . . . . . . 30 2.10 EELP y cáncer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 3.2 Recomendaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . de la radiación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 B.2 Sensibilidad del tejido . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 Bibliografía. 45 Figura 2 . 8 : 28Perfiles de la cantidad media de mutaciones en distintos momentos la simulación: en las generaciones 1 000, 2 000, 5 000, 10 000 y 20 000. Figura B. 1 : 1Factor de ponderación de los neutrones como función de su energía. Figura 1.2:Relación etre el número de divisiones de las células madres en la vida de un tejido dado y su correspondiente riesgo de cáncer. 1: leucemia mieloide aguda, 2: carcinoma basocelular, 3: leucemia linfática crónica, 4a: cáncer colorrectal, 4b: cáncer colorrectal con PAF, 4c: cáncer colorrectal con síndrome de Lynch, 5a: cáncer de duodeno, 5b: cáncer de duodeno con PAF, 6: cáncer de células escamosas del esófago, 7: cáncer de vesícula no papilario, 8: glioblastoma, 9a: carcinoma de células escamosas de la cabeza y el cuello, 9b: carcinoma de células escamosas de la cabeza y el cuello con VPH-16, 10a: hepatocarcinoma, 10b: hepatocarcinoma con hepatitis C, 11a: adenocarcinoma de pulmón (no fumadores), 11b: adenocarcinoma de pulmón (fumadores), 12: meduloblastoma, 13: melanoma, 14: osteosarcoma, 15: osteosarcoma de los brazos, 16: osteosarcoma de la cabeza, 17: osteosarcoma de las piernas, 18: osteosarcoma de la pelvis, 19: células germinales del ovario, 20: adenocarcinoma de células de los conductos pancreáticos, 21: carcinoma neuroendocrino pancreático, 22: adenocarcinoma del intestino delgado, 23: células germinales de los testículos, 24: carcinoma folicular/papilar de tiroides y 25: carcinoma de tiroides medular.0.1 1 r Reporte No.160 del NCRP, datos de E.E.U.U. Tabla 1.1: Reporte No.160 del NCRP, datos de E.E.U.U de la dosis de radiación anual recibida por persona.Dosis 1984 2004 Natural 3.0 2.0 Radón y Torio 3.11 2.28 Radón y Torio 1.0 Otros 0.83 Otros 0.39 Diagnósticos 1.47 Tomografías Médica 0.53 3.0 0.77 Med. Nuclear 0.14 Med. Nuclear 0.76 Otros Consumida 0.05-0.13 0.13 Industrial 0.001 0.001 Ocupacional 0.009 0.005 Total 3.6 mSv/año 6.2 mSv/año Tiempo Tiempo TiempoFigura 2.12: Filogenia de las células madres de los tejidos en la fase de homeostasis, las únicas capaces de acumular mutaciones. Las líneas de división celular, representadas discontinuamente, dan lugar a células especializadas de corta vida. Anexo A AnexoDatos de riesgo de cáncer en tejidosTipo de cáncer Riesgo Cantidad de Cantidad de Cantidad de por vida células * del células madres * divisiones de tejido donde en el tejido células madres se origina por año leucemia mieloide aguda 0.0041 3 × 10 12 1.35 × 10 8 12 carcinoma basocelular 0.3 1.8 × 10 11 5.82 × 10 9 7.6 leucemia linfática crónica 0.0052 3 × 10 12 1.35 × 10 8 12 cáncer colorrectal 0.048 3 × 10 10 2 × 10 8 73 cáncer colorrectal con PAF 1 3 × 10 10 2 × 10 8 73 cáncer colorrectal con 0.5 3 × 10 10 2 × 10 8 73 síndrome de Lynch cáncer de duodeno 0.0003 6.8 × 10 8 4 × 10 6 24 cáncer de duodeno con PAF 0.035 6.8 × 10 8 4 × 10 6 24 cáncer de células escamosas 0.001938 3.24 × 10 9 8.64 × 10 5 17.4 del esófago cáncer de vesícula 0.0028 1.6 × 10 8 1.6 × 10 6 0.584 no papilario glioblastoma 0.00219 8.46 × 10 10 1.35 × 10 8 0 carcinoma neuroendocrino pancreático 0.000194 2.95 × 10 9 (islote) 7.4 × 10 7 Tabla A.2: Continuación de la Tabla A.1 Para la descripción ... Protones y piones cargados 2 Partículas alfa ,Fragmentos de fisión, Iones pesados 20 Neutronescarcinoma de células 0.0138 1.67 × 10 10 1.85 × 10 7 21.5 escamosas de la cabeza y el cuello carcinoma de células 0.07935 1.67 × 10 10 1.85 × 10 7 21.5 escamosas de la cabeza y el cuello con VPH-16 hepatocarcinoma 0.0071 2.41 × 10 11 3.01 × 10 9 0.9125 hepatocarcinoma 0.071 2.41 × 10 11 3.01 × 10 9 0.9125 con hepatitis C adenocarcinoma de pulmón 0.0045 4.34 × 10 11 1.22 × 10 9 0.07 (no fumadores) adenocarcinoma de pulmón 0.081 4.34 × 10 11 1.22 × 10 9 0.07 (fumadores) meduloblastoma 0.00011 8.5 × 10 10 1.36 × 10 8 0 melanoma 0.0203 3.8 × 10 9 3.8 × 10 9 2.48 osteosarcoma 0.00035 1.9 × 10 9 4.18 × 10 6 0.067 osteosarcoma de los brazos 0.00004 3 × 10 8 6.5 × 10 5 0.067 osteosarcoma de la cabeza 0.0000302 3.9 × 10 8 8.6 × 10 5 0.067 osteosarcoma de las piernas 0.00022 7.2 × 10 8 1.59 × 10 6 0.067 osteosarcoma de la pelvis 0.00003 2 × 10 8 4.5 × 10 5 0.067 células germinales del ovario 0.000411 1.1 × 10 7 1.1 × 10 7 0 adenocarcinoma de células de 0.013589 1.672 × 10 11 4.18 × 10 9 1 los conductos pancreáticos (ácinos) 1 adenocarcinoma del intestino delgado 0.0007 1.7 × 10 10 1 × 10 8 36 células germinales de los testículos 0.0037 2.16 × 10 10 7.2 × 10 6 5.8 carcinoma folicular/papilar de tiroides 0.01026 10 10 6.5 × 10 7 0.087 carcinoma de tiroides medular 0.000324 10 9 6.5 × 10 6 0.087 Anexo B Coeficientes de la dosis B.1 Peso de la radiación Tipo de radiación factor w R Fotones 1 Electrones y muones 1 Tejidow T w T Medula ósea, colon, pulmón, estómago, mama, resto de los tejidos * 0.12 Tabla B.2: Factores de ponderación recomendados para los tejidos. * Resto de los Tejidos: Adrenales, región extra torácica, vesícula, corazón, riñones, nódulos linfáticos, músculo, mucosa oral, páncreas, próstata, intestino delgado, bazo, timo, útero/cérvix.0.72 Gónadas 0.08 0.08 Vejiga, esófago, hígado, tiroides 0.04 0.16 Superficie del hueso, cerebro, glándulas salivales, piel 0.01 0.04 Total 1.00 .2.4 CáncerAnteriormente hemos descrito la aparición de células cancerosas a partir de mutaciones, pero, en nuestra visión social de las células de un organismo, hemos omitido un factor fundamental en su evolución: la selección natural. No mencionamos ninguna competencia entre las células resultantes del proceso de división. La razón es que, en este sentido, un cuerpo saludable es una sociedad muy particular en la que el auto-sacrificio es una regla mucho más fuerte que la competencia[1]. Todos los linajes de células somáticas están destinados a morir sin dejar descendencia; dedicando su existencia, solo a sostener la de las células germinales, las cuales por sí mismas no podrían sobrevivir. Por tanto, a diferencia de células como las bacterias, las células de un organismo están obligadas a colaborar. Cualquier mutación que de riesgos de comportamientos egoístas en los miembros de la cooperativa celular pondrá en peligro el futuro de toda la empresa.El cáncer es una enfermedad en la cual células mutantes individuales (cancerosas) comienzan a prosperar a costa de sus vecinos, se reproducen descontroladamente y al final terminan destruyendo toda la sociedad celular; por tanto, sus ingredientes básicos son las mutaciones, .2.5 Envejecimiento y cáncerTeniendo en cuenta la influencia de factores externos en las mutaciones, podemos encontrar muchos cánceres cuyas ocurrencias correlacionan con una alta exposición de los individuos a alguno de estos factores. Para cánceres que poseen una causa externa apreciablemente discernible, casi siempre existe un tiempo de retraso grande entre los eventos causales y el comienzo de la enfermedad[1]. Por ejemplo, el cáncer de pulmón no comienza a crecer vertiginosamente hasta dentro de 10 o 20 años después de que la persona comenzara a fumar en gran medida, exponiéndose a sustancias carcinogénicas producidas en la combustión de los cigarrillos. También, la incidencia de leucemia en Hiroshima y Nagasaki no muestran un aumento considerable de casos hasta 5 años después de la explosión de las bombas atómicas, el máximo índice de enfermos se da transcurridos 8 años[1]. Pudiéramos citar más ejemplos. Durante este largo período de incubación las eventuales células cancerosas sufren una sucesión de cambios. La mayoría de las personas mueren de algún otro achaque antes de que el cáncer tenga tiempo de desarrollarse, pero no significa que no hayan cultivado células cancerosas durante su vida. Por el contrario, la frecuencia de grandes mutaciones y la tasa de eliminación de células dañadas en el organismo son bastante altas, lo que indica que constantemente se producen y eliminan un gran número de células cancerosas en el cuerpo[1]. Es una guerra sin fin entre el tumor queriendo crecer y el sistema inmune debilitándolo. Por eso, es necesario comprender cómo los distintos factores intervienen en la lucha, posibilitando o no, la aparición de la enfermedad. Un factor elemental De las tres dosis existentes la única medible es la absorbida, porque los factores w R y w T son cualitativos y son estimados a partir de datos experimentales, sobre todo a partir de datos provenientes de desastres nucleares de gran escala, por lo que pueden sufrir modificaciones según el aumento de los datos experimentales, en especial w T . En el Anexo 2 aparecen datos de estos coeficientes para algunos tejidos, así como de los de la radiación, que fueron tomados de la Ref[10].1.3.2 Dosis en los diferentes tejidosUna vez conocidas las diferentes magnitudes que intervienen en la medición de los daños producidos por las diferentes radiaciones ionizantes sobre el cuerpo, debemos hacer un estudio detallado de su incidencia sobre los distintos tejidos humanos. De esta forma pudiéramos determinar cuáles son los más afectados, así como las fuentes más importantes. En la referencia[11] se hizo un minucioso estudio sobre este aspecto, al calcular estimados de dosis anuales que reciben todos los tejidos del cuerpo y analizar las fuentes más importantes de radiaciones. Los autores describen detalladamente todos sus procedimientos. En la tabla 1.1 se muestran datos de dosis anuales en dos años diferentes, que recibe nuestro organismo en nuestra vida cotidiana (tomados de la Ref.[11]). Las fuentes son clasificadas en naturales, donde se incluyen las principales radiaciones que nos llegan del medio ambiente; médicas, donde se toman en cuenta las distintas radiaciones que recibimos de dispositivos tecnológicos de la medicina que se utilizan para hacer diagnósticos o determinados tratamientos y el resto (consumo, industrial y de ocupación), son radiaciones provenientes de nuestra propia alimentación, del uso de algunas sustancias, de nuestro entorno de trabajo o de procesos industriales.Como es de esperar, en los dos años hemos recibido aproximadamente la misma dosis de radiación natural. Sin embargo, en los veinte años de diferencia entre las dos mediciones, la dosis médica ha aumentado vertiginosamente producto del gran desarrollo tecnológico alcanzado. La < ν < 3. Más adelante estimaremos el exponente. Notemos que para la descripción de los saltos largos se requieren variables adicionales, por ejemplo el largo L de la cadena, el cual cambia después de una inserción o una delección de un fragmento de ADN. Para la probabilidad de saltos largos usamos el ansatz p = p SL π(l), donde p SL es el ritmo con que se producen (eventos/generaciones) y π(l) es la probabilidad normalidada de un evento que involucra un segmento de longitud l ≥ 1. Al separar la parte temporal de la probabilidad de saltos largos, asumimos que los eventos se encuentran uniformemente distribuidos en el tiempo. De acuerdo a los vuelos de Levy: π(l) = (ν − 1)/l ν , donde 1 < ν < 3.Pudiéramos preguntarnos por qué los vuelos de Levy deberían describir las mutaciones. Puede haber un argumento general en favor de este modelo. En el EELP, donde el tamaño de la población es controlado, la evolución biológica puede verse como un problema de optimización. El fitness medio de la población es la función a maximizar. Las mutaciones proveen un mecanismo para buscar extremos en el espacio de las configuraciones, mientras que la selección natural escoge las mejores representaciones de la población. Una búsqueda local, como las mutaciones puntuales, pudieran atrapar las trayectorias de mutaciones alrededor de un máximo local, visto en el paisaje del fitness como función de la configuración. Un algoritmo de búsqueda más optimizado deberá incluir saltos largos de cualquier tamaño, como una distribución libre de . Se determinó la distribución del número de mutaciones y del fitness dentro de la población de bacterias, como función del número de generaciones. A partir de ellas se observan resultados interesantes que describen fenómenos del EELP, como la interferencia clonal y la epistasis. Estos resultados están pendientes de elaborarse para publicación. 4. A partir de la distribución del fitness obtenemos una descripción de la variedad genotípica resultante de la competitividad de los clones. Dicha variedad pudiera ser comprobada analizando las secuencias de ADN de las poblaciones de bacterias en el EELP. . Otra línea de interés es seguir investigando formas de medir los cambios que se producen en el ADN, para lograr así, una comprensión más profunda de las mutaciones. En particular, sería interesante incorporar en esta descripción, el control de la expresión genética; ya que, como hemos dicho antes, juega un papel fundamental en la génesis del cáncer.4. Hicimos una amplia revisión del riesgo de cáncer y la dosis de radiación recibida por los distintos tejidos del cuerpo humano. Los datos más elaborados que hallamos, se refieren a la población de los Estados Unidos[11] e indican al pulmón como el tejido sobre el cual la radiación tiene mayor impacto. Incluso existe un reporte detallado correlacionando especialmente el riesgo de cáncer de pulmón, en diferentes estados, con las concentraciones naturales de radón[12]. Los efectos, sin embargo, son pequeños comparados con otros agentes carcinogénicos. La radiación puede, por ejemplo, duplicar el riesgo de cáncer de pulmón, pero el hábito de fumar lo incrementa en 20 veces. De todas formas, el problema tiene gran importancia para la salud y se debería continuar.5. Finalmente, hicimos también una revisión de la exposición de la población a distintas sustancias químicas, hallando datos muy meticulosos del Departamento de Salud de los Estados Unidos[29]. A diferencia de las radiaciones, no existe aquí un concepto análogo al de dosis equivalente, donde el efecto de las distintas sustancias pudiera compararse en una misma magnitud o parámetro. Debido al importantísimo efecto tóxico y carcinogénico que tienen muchas sustancias, se debería hacer un esfuerzo en sistematizar y caracterizar 39 sus efectos. Es un terreno relativamente nuevo para la investigación y con gran impacto para la salud. En la referencia [23], los autores señalan a una mutación puntual en el gen Mut de E. Coli como la responsable de la aparición del genotipo mutante en algunas de las poblaciones. Lo indiscutible es que es un mutación beneficiosa que, al dar lugar a su vez a un incremento en la tasa de mutaciones, aumenta las posibilidades de hallar variantes con mayor fitness. Las recomendaciones son, básicamente, continuar las líneas que han quedado pendientes: 1. En el trabajo [13], por ejemplo, se relacionó el genotipo mutante en el EELP con los reordenamientos no locales del ADN bacterial. Esto no necesariamente es así. Una posible línea de trabajo consiste en correr el algoritmo de competencia clonal en presencia de un mutanteLas recomendaciones son, básicamente, continuar las líneas que han quedado pendientes: 1. En el trabajo [13], por ejemplo, se relacionó el genotipo mutante en el EELP con los reordenamientos no locales del ADN bacterial. Esto no necesariamente es así. En la referencia [23], los autores señalan a una mutación puntual en el gen Mut de E. Coli como la responsable de la aparición del genotipo mutante en algunas de las poblaciones. Lo indiscutible es que es un mutación beneficiosa que, al dar lugar a su vez a un incremento en la tasa de mutaciones, aumenta las posibilidades de hallar variantes con mayor fitness. Una posible línea de trabajo consiste en correr el algoritmo de competencia clonal en presencia de un mutante. Esto tampoco es así necesariamente. La idea más aceptada es que su génesis es múltiple [24], diversos cambios genéticos o epigenéticos pueden originarlo. Incluso existen opiniones de que un cambio, puntual o no, en uno de los genes p53 y Rb [28] son capaces de desencadenar el tumor. Estos cambios pudieran ser debido a factores externos o intrínsecos, pero, continuando el símil con el genotipo mutante de E. Coli, su evolución depende de que la mutación le de cierta ventaja a la célula en condiciones de homeostasis y vigilancia inmunológica del tejido. El problema es interesante. Similar De Forma, relacionó la aparición de cáncer con reordenamientos no locales del ADN. en el trabajo [14] se. pero en estos momentos no sabemos cómo modelarloDe forma similar, en el trabajo [14] se relacionó la aparición de cáncer con reordenamientos no locales del ADN. Esto tampoco es así necesariamente. La idea más aceptada es que su génesis es múltiple [24], diversos cambios genéticos o epigenéticos pueden originarlo. Incluso existen opiniones de que un cambio, puntual o no, en uno de los genes p53 y Rb [28] son capaces de desencadenar el tumor. Estos cambios pudieran ser debido a factores externos o intrínsecos, pero, continuando el símil con el genotipo mutante de E. Coli, su evolución depende de que la mutación le de cierta ventaja a la célula en condiciones de homeostasis y vigilancia inmunológica del tejido. El problema es interesante, pero en estos momentos no sabemos cómo modelarlo. . B Alberts, A Johnson, J Lewis, M Raff, K Roberts, P Walter, Molecular Biology of the Cell. Garland ScienceB. Alberts, A. Johnson, J. Lewis, M. Raff, K. Roberts, P. Walter, Molecular Biology of the Cell, (New York: Garland Science, 2002). Phenotypic and genomic evolution during a 20000 generation experiment with the bacterium E. Coli. R E Lenski, Plant Breeding Reviews. J. Janick24225R.E. Lenski, Phenotypic and genomic evolution during a 20000 generation experiment with the bacterium E. Coli, in J. Janick, Ed., Plant Breeding Reviews, Vol. 24, Part 2 (2004), p. 225. Long-Term Dynamics of Adaptation in Asexual Populations. Michael J Wiser, Noah Ribeck, Richard E Lenski, Science. 3421364Michael J. Wiser, Noah Ribeck, Richard E. Lenski, Long-Term Dynamics of Adaptation in Asexual Populations, Science 342 1364 (2013). Fitness and its role in evolutionary genetics. H , Allen Orr, Nat Rev Genet. 108H. Allen Orr, Fitness and its role in evolutionary genetics, Nat Rev Genet (2009) 10(8): 531-539. Sumary data from the long-term evolution experiment. Richard E Lenski, Richard E. Lenski, Sumary data from the long-term evolution experiment, http://myxo.css.msu.edu/ecoli/summdata.html (2016). . J E Barrick, R E Lenski, Cold Spring Harbor Symposia on Quantitative Biology. 541J.E. Barrick, R.E. Lenski, Cold Spring Harbor Symposia on Quantitative Biology, Vol. 54, 1 (2009). Genome evolution and adaptation in a long-term experiment with Escherichia coli. J E Barrick, D Su Yu, S Ho Yoon, H Jeong, T Oh, D Schneider, R E Lenski, J F Kim, Nature. 461J.E. Barrick, D. Su Yu, S. Ho Yoon, H. Jeong, T. Kwang Oh, D. Schneider, R.E. Lenski, J.F. Kim, Genome evolution and adaptation in a long-term experiment with Escherichia coli, Nature Vol. 461 (2009). Large chromosomal rearrangements during a long-term evolution experiment with Escherichia coli. C Raeside, J Gaffé, D E Deatherage, O Tenaillon, A M Briska, R N Ptashkin, S Cruveiller, C Médigue, R E Lenski, J E Barrick, D Schneider, mBio. 55C. Raeside, J. Gaffé, D.E. Deatherage, O. Tenaillon, A.M. Briska, R.N. Ptashkin, S. Cru- veiller, C. Médigue, R.E. Lenski, J.E. Barrick, D. Schneider, Large chromosomal rearrange- ments during a long-term evolution experiment with Escherichia coli, mBio (2014) 5(5): e01377-14. Variation in cancer risk among tissues can be explained by the number of stem cell divisions. C Tomasetti, B Vogelstein, Science. 347C. Tomasetti, B. Vogelstein, Variation in cancer risk among tissues can be explained by the number of stem cell divisions, Science 347 (2015), pp. 78-81. Recomendaciones de la Comisión Internacional de Protección Radiológica, editada por la Sociedad Española de Protección Radiológica con la autorización de la International Commission on Radiological Protection (ICRP). ICRP número. 103Recomendaciones de la Comisión Internacional de Protección Radiológica, editada por la Sociedad Española de Protección Radiológica con la autorización de la International Commission on Radiological Protection (ICRP), ICRP número 103 (2007). Ionizing Radiation Exposure of the Population of the United States, Recommendations of the National Council on Radiation Protection and Measurements. NCRP report. 160Ionizing Radiation Exposure of the Population of the United States, Recommendations of the National Council on Radiation Protection and Measurements, NCRP report no. 160, http://NCRPpublications.org (2009). Health Effects of Exposure to Radon, Committee on Health Risks of Exposure to Radon (BEIR VI). National Research CouncilHealth Effects of Exposure to Radon, Committee on Health Risks of Exposure to Radon (BEIR VI), National Research Council, http://www.nap.edu/catalog/5499.html (1999). The long-tail distribution function of mutation in bacteria. A González, Revista Cubana de Física. 3286A. González, The long-tail distribution function of mutation in bacteria, Revista Cubana de Física, Vol. 32, 86 (2015). A González, arXiv:1507.08232Levy model of cancer. A. González, Levy model of cancer, arXiv:1507.08232. V S Koroliuk, N I Portenko, A V Skorojod, A F Turbin, Handbook on probability theory and mathematical statistics. MoscowNaukaV. S. Koroliuk, N. I. Portenko, A. V. Skorojod, A. F. Turbin, Handbook on probability theory and mathematical statistics, (Nauka, Moscow, 1978). Long-range correlation properties of coding and noncoding DNA sequences: GenBank analysis. A L Goldberger, S Havlin, R N Mantegna, M E Matsa, C K Peng, M Simons, H E Stanley, Physical Review E. 515A. L. Goldberger, S. Havlin, R.N. Mantegna, M. E. Matsa, C. K. Peng, M. Simons, H. E. Stanley, Long-range correlation properties of coding and noncoding DNA sequences: GenBank analysis, Physical Review E, Vol. 51, número. 5, (1995). Fractal landscape analysis of DNA walks. C K Peng, S V Buldyrev, A L Goldberger, F Sciortino, M Simons, H E Stanley, Physica A. 191C. K. Peng, S. V. Buldyrev, A. L. Goldberger, F. Sciortino, M. Simons, H. E. Stanley, Fractal landscape analysis of DNA walks, Physica A 191 (1992) pp. 25-29. Information and entropy of patterns in genetic switches. T D Schneider, Maximum-Entropy. G. J. Erickson and C. R. SmithDordrecht, Kluwer Academic2T. D. Schneider, Information and entropy of patterns in genetic switches, In G. J. Erickson and C. R. Smith, Eds., Maximum-Entropy, Bayesian Methods in Science and Engineering, Vol. 2, (Dordrecht, Kluwer Academic, 1988), pp. 147-154. Generalized Levy-walk model for DNA nucleotide sequences. V Sergey, Buldyrev, Physical Review E. 476Sergey V. Buldyrev, Generalized Levy-walk model for DNA nucleotide sequences, Physical Review E, Vol. 47, número. 6, (1996). . M F Eds, G Shlesinger, U Zaslavsky, Frish, Lecture Notes in Physics. 450SpringerPhysicsEds. M. F. Shlesinger, G. Zaslavsky, U. Frish, Levy flights and related phenomena in Physics, Lecture Notes in Physics, Springer, Vol. 450, (Berlin, 1995). . Chang-Yong Lee, Xin Yao, IEEE Trans. Evol. Comp. 81Chang-Yong Lee, Xin Yao, IEEE Trans. Evol. Comp., Vol. 8, No. 1, pp 1, (2004). S Nuismer, Lecture #2: Fitness, Selection, and Adaptation. University of Idaho548S. Nuismer, Lecture Notes for Evolutionary Ecology 548. Lecture #2: Fitness, Selection, and Adaptation, (University of Idaho 2011). High frequency of hypermutable Pseudomonas aeruginosa in cystic fibrosis lung infection. A Oliver, R Canton, P Campo, F Baquero, J Blazquez, Science. 288Oliver A., Canton R., Campo P., Baquero F., Blazquez J., High frequency of hypermutable Pseudomonas aeruginosa in cystic fibrosis lung infection. Science 288 (2000) p1251 -1254. Dynamics of Cancer: Incidence, Inheritance, and Evolution, Princeton series in evolutionary biology. Steven A Frank, U.KSteven A. Frank, Dynamics of Cancer: Incidence, Inheritance, and Evolution, Princeton se- ries in evolutionary biology (U.K. 2007), http://creativecommons.org/licenses/by-nc/2.5/ ASTAR: Stopping power and range tables for alpha particules. ASTAR: Stopping power and range tables for alpha particules, http://physics.nist.gov/cgi- bin/star/ap-table.pl Dario León, Augusto González, arXiv:1605.09697Mutations as Levy flights. Dario León, Augusto González, Mutations as Levy flights, arXiv: 1605.09697 Aging and cell division. L L Mays Hoopes, Nature Education. 355L.L. Mays Hoopes, Aging and cell division, Nature Education 3 (2010) p55. Department of Health and Human Services Centers of Disease Control and Prevention. Fourth National Report on Human Exposure to Environmental ChemicalsFourth National Report on Human Exposure to Environmental Chemicals, Depart- ment of Health and Human Services Centers of Disease Control and Prevention, http://www.cdc.gov/exposurereport (2009).
sample_2148
0.9728
arxiv
DISCUSSION OF: A STATISTICAL ANALYSIS OF MULTIPLE TEMPERATURE PROXIES: ARE RECONSTRUCTIONS OF SURFACE TEMPERATURES OVER THE LAST 1000 YEARS RELIABLE? 2011 Gavin A Schmidt NASA Goddard Institute for Space Studies Pennsylvania State University and Roger Williams University Michael E Mann NASA Goddard Institute for Space Studies Pennsylvania State University and Roger Williams University Scott D Rutherford NASA Goddard Institute for Space Studies Pennsylvania State University and Roger Williams University DISCUSSION OF: A STATISTICAL ANALYSIS OF MULTIPLE TEMPERATURE PROXIES: ARE RECONSTRUCTIONS OF SURFACE TEMPERATURES OVER THE LAST 1000 YEARS RELIABLE? The Annals of Applied Statistics 512011Received September 2010.Main article McShane and Wyner (2011) (henceforth MW) analyze a dataset of "proxy" climate records previously used byMann et al. (2008)(henceforth M08) to attempt to assess their utility in reconstructing past temperatures. MW introduce new methods in their analysis, which is welcome. However, the absence of both proper data quality control and appropriate "pseudoproxy" tests to assess the performance of their methods invalidate their main conclusions.We deal first with the issue of data quality. In the frozen 1000 AD network of 95 proxy records used by MW, 36 tree-ring records were not used by M08 due to their failure to meet objective standards of reliability. These records did not meet the minimal replication requirement of at least eight independent contributing tree cores (as described in the Supplemental Information of M08). That requirement yields a smaller dataset of 59 proxy records back to AD 1000 as clearly indicated in M08. MW's inclusion of the additional poor-quality proxies has a material affect on the reconstructions, inflating the level of peak apparent Medieval warmth, particularly in their featured "OLS PC10" (K = 10 PCs of the proxy data used as predictors of instrumental mean NH land temperature) reconstruction. The further elimination of four potentially contaminated "Tiljander" proxies [as tested in M08; M08 also tested the impact of removing tree-ring data, including controversial long "Bristlecone pine" tree-ring records. Recent work [cf. Salzer et al. (2009)], however, demonstrates those data to contain a reliable longterm temperature signal], which yields a set of 55 proxies, further reduces the level of peak Medieval warmth(Figure 1(a); cf. Figure 14 in MW; see McShane and Wyner (2011) (henceforth MW) analyze a dataset of "proxy" climate records previously used by Mann et al. (2008) (henceforth M08) to attempt to assess their utility in reconstructing past temperatures. MW introduce new methods in their analysis, which is welcome. However, the absence of both proper data quality control and appropriate "pseudoproxy" tests to assess the performance of their methods invalidate their main conclusions. We deal first with the issue of data quality. In the frozen 1000 AD network of 95 proxy records used by MW, 36 tree-ring records were not used by M08 due to their failure to meet objective standards of reliability. These records did not meet the minimal replication requirement of at least eight independent contributing tree cores (as described in the Supplemental Information of M08). That requirement yields a smaller dataset of 59 proxy records back to AD 1000 as clearly indicated in M08. MW's inclusion of the additional poor-quality proxies has a material affect on the reconstructions, inflating the level of peak apparent Medieval warmth, particularly in their featured "OLS PC10" (K = 10 PCs of the proxy data used as predictors of instrumental mean NH land temperature) reconstruction. The further elimination of four potentially contaminated "Tiljander" proxies [as tested in M08; M08 also tested the impact of removing tree-ring data, including controversial long "Bristlecone pine" tree-ring records. Recent work [cf. Salzer et al. (2009)], however, demonstrates those data to contain a reliable longterm temperature signal], which yields a set of 55 proxies, further reduces the level of peak Medieval warmth (Figure 1 The MW "OLS PC10" reconstruction has greater peak apparent Medieval warmth in comparison with M08 or any of a dozen similar hemispheric temperature reconstructions [Jansen et al. (2007)]. That additional warmth, as shown above, largely disappears with the use of the more appropriate dataset. Using their reconstruction, MW nonetheless still found recent warmth to be unusual in a long-term context: they estimate an 80% probability that the decade 1997-2006 is warmer than any other for at least the past 1000 years. Using the more appropriate 55-proxy dataset with the same (K = 10) estimation procedure, we calculate a higher probability of 86% that recent decadal warmth is unprecedented for the past millennium [ Figure 1 (b)]. However K = 10 principal components is almost certainly too large, and the resulting reconstruction likely suffers from statistical over-fitting. Objective selection criteria applied to the M08 AD 1000 proxy network (see Supplementary Figure S4), as well as independent "pseudoproxy" analyses discussed below, favor retaining only K = 4 ("OLS PC4" in the terminology of MW). Using this reconstruction, we observe a very close match [e.g., Figure 1(a)] with the relevant M08 reconstruction and we calculate considerably higher probabilities up to 99% that recent decadal warmth is unprecedented for at least the past millennium [ Figure 1(c)]. These posterior probabilities imply substantially higher confidence than the "likely" assessment by M08 and IPCC (2007) (a 67% level of confidence). Indeed, a probability of 99% not only exceeds the IPCC "very likely" threshold (90%), but reaches the "virtually certain" (99%) threshold. However, since these posterior probabilities do not take into account potential systematic issues in the source data, are sensitive to methodological choices, and vary by a few percent depending on the MCMC realization, we maintain that a "likely" conclusion is most consistent with the balance of evidence [IPCC (2007)]. There are additional methodological weaknesses in the techniques employed by MW that require discussion. MW mix incommensurate (decadal vs. annual resolution) proxy data in their procedure, a problem that is avoided by the "hybrid" frequency band calibration method used by M08. Using a version of the proxy data that was consistently low-pass filtered to retain only decadal features shows even better agreement with the M08 reconstruction (supplementary Figure S3). Furthermore, methods using simple Ordinary Least Squares (OLS) regressions of principal components of the proxy network and instrumental data suffer from known biases, including the underestimation of variance [see, e.g., Hegerl et al. (2006)]. The spectrally "red" nature of the noise present in proxy records poses a particular challenge [e.g., Jones et al. (2009)]. A standard benchmark in the field is the use of synthetic proxy data known as "pseudoproxies" derived from long-term climate model simulations where (We note that the term "pseudoproxy" was misused in MW to instead denote various noise models.) In contrast to the MW claim that their methods perform "fairly similarly," these tests show dramatic differences in model performance ( Figure 2). Indeed, the various flavors of OLS and, particularly, the "Lasso" method (used only in the first half of MW), suffer from serious underestimation biases in comparison with, for example, the hybrid RegEM approach of M08 (see also Table S1). Taken together, these points demonstrate that any conclusions regarding the utility of proxies in reconstructing past climate drawn by MW were, at best, overstated. Assessing the skill of methods that do not work well (such as Lasso) and concluding that no method can therefore work well, is logically flawed. Additional problems exist in their assessment procedurereducing the size of the hold out periods to 30 years from 46 years in M08, for instance, makes it more difficult to meaningfully diagnose statistical skill. Problems in climate research, such as statistical climate reconstruction, require sophisticated statistical approaches and a thorough understanding of the data used. Moreover, investigations of the underlying spatial patterns of past climate changes, rather than simply hemispheric mean temperature estimates, are most likely to provide insights into climate dynamics [e.g., Mann et al. (2009), Schmidt (2010]. Further progress in this area will most likely arise from continuing collaboration between the statistics and climate science communities, such as fostered since 1996 by the joint NSF/NCAR Geophysical Statistics Project. (a); cf. Figure 14 in MW; see also Supplementary Figures S1-S2 [Schmidt, Mann and Rutherford (2011a, 2011b)]). Fig. 1 . 1Reconstructions of mean Northern Hemisphere land temperatures over the past millennium for various methodological choices (cf. MW Figure 14). (a) Results using the M08 frozen AD 1000 network of 59 minus 4 "Tiljander" proxy records (corresponding results based on all 59 records are shown in Supplementary Figure S1). Shown for comparison are the original MW results and the Mann et al. (2008) "EIV" decadal "CRU" NH land temperature reconstruction based on the identical proxy data. The OLS reconstructions have been filtered with a loess smoother (span = 0.05) to emphasize low-frequency (greater than 50 year) variations. Associated annual reconstructions are shown in Supplementary Figure S2. (b) Comparison of Monte Carlo ensemble (and mean) reconstructions using "OLS PC10" as in MW Figure 16. Labeled reconstructions are in color, grey lines are the total set of MW reconstructions after allowing for uncertainties in the coefficients. Fig. 1 . 1(c) As in (b) above but instead using "OLS PC4." the true climate history is known, and the skill of the particular method can be evaluated [see, e.g.,Mann et al. (2007);Jones et al. (2009) and numerous references therein]. Fig. 2 . 2Pseudoproxy tests of reconstruction methodologies used by MW and comparison with the hybrid and nonhybrid RegEM EIV methods used by M08. The pseudoproxy networks are defined by a randomly selected set of gridboxes using two different coupled ocean-atmosphere general circulation model (OAGCM) simulations subjected to estimated natural and anthropogenic forcing over the past millennium. Pseudoproxies are constructed assuming "red" proxy noise [AR(1)with ρ = 0.32] yielding mean signal-to-noise amplitude ratio of SNR = 0.4, characteristics which are consistent with estimates from actual proxy data networks [see Mann et al. (2007)]. All reconstructions use a calibration interval of 1856-1980. Figure shows results for a 59-location network including (a) NCAR CSM and (b) GKSS simulations and a network with 104 locations for (c) CSM and (d) GKSS.Labeled reconstructions are in color, grey lines are the total set of MW reconstruction techniques. Note that uncertainties are reduced for the larger network, where the underestimation bias becomes negligible for the hybrid RegEM EIV method. Acknowledgments. We thank Sonya Miller for substantial technical assistance. The JAGS/rjags code used in the Bayesian modeling was adapted from http://probabilitynotes.wordpress.com/.Supplementary figures and tables, data used, and scripts for performing all analyses are all available at: http://www.meteo.psu.edu/~mann/ supplements/AOAS/DISCUSSION7Schmidt, G. A.,Mann, M. E. and Rutherford, S. D. (2011b). Supplement to "Discussion on A statistical analysis of multiple temperature proxies: Are reconstructions of surface temperatures over the last 1000 years reliable?" DOI: 10.1214/10-AOAS398DSUPPB. Climate sensitivity constrained by temperature reconstructions over the past seven centuries. G C Hegerl, T J Crowley, W T Hyde, D J Frame, Nature. 440Hegerl, G. C., Crowley, T. J., Hyde, W. T. and Frame, D. J. (2006). Climate sensitivity constrained by temperature reconstructions over the past seven centuries. Nature 440 1029-1032. Climate Change 2007: The Physical Science Basis. Contribution of Working Group I to the Fourth Assessment Report of the Intergovernmental Panel on Climate Change. Ipcc, S. Solomon, D. Qin, M. Manning, Z. Chen, M. Marquis, K. B. Averyt, M. Tignor and H. L. MillerCambridge Univ. PressCambridgeIPCC (2007). Climate Change 2007: The Physical Science Basis. Contribution of Working Group I to the Fourth Assessment Report of the Intergovernmental Panel on Climate Change (S. Solomon, D. Qin, M. Manning, Z. Chen, M. Marquis, K. B. Averyt, M. Tignor and H. L. Miller, eds.). Cambridge Univ. Press, Cambridge. Palaeoclimate. In Climate Change 2007: The Physical Science Basis. Contribution of Working Group I to the Fourth Assessment Report of the Intergovernmental Panel on Climate Change. E Jansen, J Overpeck, K R Briffa, J.-C Duplessy, F Joos, V Masson-Delmotte, D Olago, B Otto-Bliesner, W R Peltier, S Rahmstorf, R Ramesh, D Raynaud, D Rind, O Solomina, R Villalba, D Zhang, S. Solomon, D. Qin, M. Manning, Z. Chen, M. Marquis, K. B. Averyt, M. Tignor and H. L. MillerCambridge Univ. PressCambridgeJansen, E., Overpeck, J., Briffa, K. R., Duplessy, J.-C., Joos, F., Masson- Delmotte, V., Olago, D., Otto-Bliesner, B., Peltier, W. R., Rahmstorf, S., Ramesh, R., Raynaud, D., Rind, D., Solomina, O., Villalba, R. and Zhang, D. (2007). Palaeoclimate. In Climate Change 2007: The Physical Science Basis. Contri- bution of Working Group I to the Fourth Assessment Report of the Intergovernmental Panel on Climate Change (S. Solomon, D. Qin, M. Manning, Z. Chen, M. Marquis, K. B. Averyt, M. Tignor and H. L. Miller, eds.). Cambridge Univ. Press, Cambridge. High-resolution paleoclimatology of the last millennium: A review of current status and future prospects. P D Jones, K R Briffa, T J Osborn, J M Lough, T D Van Ommen, B M Vinther, J Luterbacher, E R Wahl, F W Zwiers, M E Mann, G A Schmidt, C M Ammann, B M Buckley, K M Cobb, J Esper, H Goosse, N Graham, E Jansen, T Kiefer, C Kull, M Küttel, E Mosley-Thompson, J T Overpeck, N Riedwyl, M Schulz, A W Tudhope, R Villalba, H Wanner, E Wolff, E Xoplaki, Holocene. 19Jones, P. D., Briffa, K. R., Osborn, T. J., Lough, J. M., van Ommen, T. D., Vinther, B. M., Luterbacher, J., Wahl, E. R., Zwiers, F. W., Mann, M. E., Schmidt, G. A., Ammann, C. M., Buckley, B. M., Cobb, K. M., Esper, J., Goosse, H., Graham, N., Jansen, E., Kiefer, T., Kull, C., Küttel, M., Mosley- Thompson, E., Overpeck, J. T., Riedwyl, N., Schulz, M., Tudhope, A. W., Villalba, R., Wanner, H., Wolff, E. and Xoplaki, E. (2009). High-resolution paleoclimatology of the last millennium: A review of current status and future prospects. Holocene 19 3-49. Proxy-based reconstructions of hemispheric and global surface temperature variations over the past two millenia. M E Mann, Z Zhang, M K Hughes, R S Bradley, S K Miller, S Rutherford, F Ni, Proc. Natl. Acad. Sci. USA. 105Mann, M. E., Zhang, Z., Hughes, M. K., Bradley, R. S., Miller, S. K., Ruther- ford, S. and Ni, F. (2008). Proxy-based reconstructions of hemispheric and global surface temperature variations over the past two millenia. Proc. Natl. Acad. Sci. USA 105 13252-13257. Robustness of proxy-based climate field reconstruction methods. M E Mann, S Rutherford, E Wahl, C Ammann, J. Geophys. Res. 11212109Mann, M. E., Rutherford, S., Wahl, E. and Ammann, C. (2007). Robustness of proxy-based climate field reconstruction methods. J. Geophys. Res. 112 D12109. Global signatures and dynamical origins of the "Little Ice Age" and "Medieval Climate Anomaly. M E Mann, Z Zhang, S Rutherford, R S Bradley, M K Hughes, D Shindell, C Ammann, G Falugevi, F Ni, Science. 326Mann, M. E., Zhang, Z., Rutherford, S., Bradley, R. S., Hughes, M. K., Shin- dell, D., Ammann, C., Falugevi, G. and Ni, F. (2009). Global signatures and dy- namical origins of the "Little Ice Age" and "Medieval Climate Anomaly." Science 326 1256-1260. A statistical analysis of multiple temperature proxies: Are reconstructions of surface temperatures over the last 1000 years reliable?. B B Mcshane, A J Wyner, Ann. Appl. Statist. 5McShane, B. B. and Wyner, A. J. (2011). A statistical analysis of multiple temperature proxies: Are reconstructions of surface temperatures over the last 1000 years reliable? Ann. Appl. Statist. 5 5-44. Recent unprecedented tree-ring growth in bristlecone pine at the highest elevations and possible causes. M W Salzer, M K Hughes, A G Bunn, K F Kipfmueller, Proc. Natl. Acad. Sci. USA. 106Salzer, M. W., Hughes, M. K., Bunn, A. G. and Kipfmueller, K. F. (2009). Recent unprecedented tree-ring growth in bristlecone pine at the highest elevations and possible causes. Proc. Natl. Acad. Sci. USA 106 20348-20353. Enhancing the relevance of palaeoclimate model/data comparisons for assessments of future climate change. G A Schmidt, J. Quaternary Sci. 25Schmidt, G. A. (2010). Enhancing the relevance of palaeoclimate model/data compar- isons for assessments of future climate change. J. Quaternary Sci. 25 79-87. Discussion on A statistical analysis of multiple temperature proxies: Are reconstructions of surface temperatures over the last 1000 years reliable. G A Schmidt, M E Mann, S D Rutherford, 10.1214/10-AOAS398DSUPPASupplement toSchmidt, G. A., Mann, M. E. and Rutherford, S. D. (2011a). Supplement to "Discussion on A statistical analysis of multiple temperature proxies: Are re- constructions of surface temperatures over the last 1000 years reliable?" DOI: 10.1214/10-AOAS398DSUPPA.
sample_2545
0.95
arxiv
Modélisation biomécanique tri-dimensionnelle de l'articulateur lingual pour étudier le contrôle de la parole Jean-Michel Gérard Institut de la Communication Parlée UMR CNRS 5009 INPG Université Stendhal 46 avenue Felix Viallet, 38031 Cedex 1GrenobleFrance Pascal Perrier Institut de la Communication Parlée UMR CNRS 5009 INPG Université Stendhal 46 avenue Felix Viallet, 38031 Cedex 1GrenobleFrance Yohan Payan Laboratoire TIMC CNRS Université Joseph Fourier Modélisation biomécanique tri-dimensionnelle de l'articulateur lingual pour étudier le contrôle de la parole A 3D biomechanical dynamical model of human tongue is presented, which is elaborated to test in the future hypotheses about speech motor control. Tissue elastic properties are accounted for in Finite Element Modelling (FEM). The FEM mesh was designed in order to facilitate implementation of muscle arrangement in the tongue. Therefore, its structure was determined on the basis of accurate anatomical data. Mechanically, the hypothesis of hyperelasticity was adopted. Muscles are modelled as general force generators that act on anatomically specified sets of nodes of the FEM structure. Simulations, using ANSYS software, of the influence of muscle activations onto the tongue shape are presented. INTRODUCTION L'étude du contrôle moteur humain requiert la collecte et l'analyse d'un grand nombre de données cinématiques mesurées sur les articulateurs tels que la main, le bras ou les jambes. Ces données permettent alors de caractériser le comportement du système moteur périphérique, dans des conditions variables, et leur interprétation a déjà permis l'élaboration de théories majeures en contrôle moteur. Cependant, les signaux mesurés sont le résultat d'interactions complexes entre les commandes motrices et l'environnement des articulateurs. Il est alors nécessaire de différencier ce qui provient exclusivement du contrôle de la contribution de l'articulateur et de son environnement. Dans ce cadre, une approche intéressante et complémentaire à l'expérimentation consiste à construire des modèles physiques de ces articulateurs, de les contrôler selon des stratégies spécifiques et de comparer les simulations aux données expérimentales. C'est pourquoi un certain nombre de modèles biomécaniques des articulateurs de la parole ont été développés ces dix dernières années (Wilhelms-Tricarico, 1995 [12]; Payan & Perrier, 1997 [7]; Sanguineti et al., 1998 [9]; Perrier et al., 2003 [8]). Le modèle que nous présentons ici se situe dans la ignée des travaux commencés par Wilhelms-Tricarico (1995) [12] et visant à obtenir une description tridimensionnelle réaliste de l'anatomie et de la géométrie de la langue. En ce sens, il se démarque de la démarche que nous avions privilégiée ces dernières années, et qui s'appuyait sur l'exploitation d'un modèle strictement bidimensionnel (Payan & Perrier, 1977 [7] ; Perrier et al., 2003 [8]). Cette évolution ne remet aucunement en question les résultats que nous avions ainsi obtenus, mais vise plutôt à les approfondir en dépassant certaines des limitations imposées par la description purement bi-dimensionnelle. Deux aspects nous semblent aujourd'hui particulièrement importants. Tout d'abord un modèle tri-dimensionnel permet la prise en compte les contacts, nombreux et quasi permanents, qui existent, au cours de production de la parole, entre la langue d'un côté et les dents, le palais ou les parois pharyngales de l'autre. Ces contacts peuvent influencer significativement la cinématique des mouvements linguaux, et il est utile d'en évaluer l'impact potentiel afin d'analyser comment le système de contrôle moteur de la parole est susceptible d'en tenir compte. Ensuite, ne plus limiter la description de la forme de la langue au strict plan sagittal devient nécessaire, pour rendre compte plus finement de la géométrie du conduit vocal, particulièrement lors de la production de consonnes où la section transversale du conduit est faible. Modéliser l'action des différents muscles de la langue dans le plan coronal permet de surcroît d'envisager diverses hypothèses sur le contrôle fin de cette géométrie. Une autre innovation par rapport à nos précédentes modélisation vient est le fait que le nouveau modèle prend en compte le fait que les déformations subies par la langue sont grandes et ne peuvent pas être rigoureusement vues comme la combinaison linéaire de petites déformations. Il s'agit donc d'un modèle fondé sur les lois de l'élasticité non-linéaire. On sait enfin que le contrôle du temps est un élément fondamental en production de parole. Ceci permet de jouer sur les caractéristiques prosodiques et, pour certaines langues, de produire la distinction phonémique de longueur. Or le timing des gestes articulatoires résulte de la combinaison d'influences extrinsèques (commandes envoyées par le Système Nerveux Central) et intrinsèques (dynamique des articulateurs). Le modèle proposé est donc un modèle dynamique: la forme de la langue est calculée à chaque instant par la résolution des équations de Lagrange. Dans cet article, sont présentés la structure du modèle et l'influence des principaux muscles impliqués dans les gestes de parole sur la forme de la langue. CONSTRUCTION DU MAILLAGE Le maillage a été défini afin de reproduire le plus fidèlement possible la morphologie et la structure musculaire interne de la langue, tout en répondant aux exigences de la modélisation par la méthode des éléments finis (Wilhelms-Tricarico 1995) [12]. Bien que la structure musculaire de la langue soit extrêmement imbriquée, avec des chevauchements fréquents entre fibres de muscles différents, une localisation schématique de chaque muscle, exploitable dans le cadre d'un modèle biomécanique réaliste, est possible. Le maillage initial a été conçu dans ce but à partir des données du Visible Human Project pour le sujet féminin. Un logiciel a été développé pour repérer les structures musculaires dans les images, et organiser le maillage en respectant la géométrie de l'anatomie musculaire ainsi révélée (Wilhelms-Tricarico, 2000) [13]. Afin de repérer chaque muscle dans cette structure nous nous sommes appuyés sur les travaux de Miyawaki (1973) [4] et Takemoto (2001) [11] et sur des livres d'anatomie ( Netter (1989) [6]). Nous modélisons 8 muscles connus pour leur rôle dans la production des gestes de la parole. Quatre de ces muscles, dits "extrinsèques" ont leur origine sur les structures externes telles que les os, puis s'insèrent à l'intérieur de la langue. Il s'agit du génioglosse, du styloglosse, du hyoglosse et du géniohyoide. Le génioglosse a trois actions principales: la contraction de ses fibres postérieures provoque un mouvement vers l'avant et vers le haut de la langue ; ses fibres les plus antérieures abaissent la partie apicale ; entre ces deux groupes de fibres, les fibres intermédiaires aplatissent la langue dans la région vélaire. Le styloglosse élève et tire la langue vers l'arrière, l'hyoglosse (cf. Figure 1) l'abaisse et la rétracte, alors que le géniohyoide contrôle les déplacements de la racine de la langue. Le modèle comporte également 4 muscles "intrinsèques" intégralement inclus à l'intérieur de la structure : le superior longitudinalis raccourcit la langue en élevant l'apex, l'inferior longitudinalis abaisse l'apex, les fibres du verticalis aplatissent la surface de la langue, tandis que le transversalis, dont les fibres sont orthogonales au plan medio-sagittal, rétrécit la langue dans le plan coronal en tout en l'allongeant dans le plan medio-sagittal. Une fois la structure musculoanatomique définie, la géométrie du modèle a été déformée afin de correspondre avec les données IRM d'un locuteur, ceci afin de permettre la comparaison quantitative des simulations avec des données expérimentales recueillies sur le même sujet (cf. fig. 2). MODÉLISATION MÉCANIQUE Modélisation élastique Modélisation des conditions limites La langue est fortement contrainte à l'intérieur de la bouche. Elle est attachée à la mandibule, à l'os hyoïde et ses parois supérieures et latérales sont souvent en contact avec le palais et les dents. Bien que le conduit vocal complet et les contacts ne soient pas encore pris en compte dans le modèle, nous simulons les attaches osseuses en imposant des déplacements nuls aux noeuds correspondant à ces zones. L'os hyoïde n'est pas encore modélisé, mais les noeuds correspondant aux attaches de la langue sur l'os hyoïde sont couplés de telles sorte qu'ils se déplacent tout de manière identique et uniquement d'avant en arrière. Les forces musculaires sont générées fonctionnellement le long de macrofibres définies par une suite de noeuds dans le maillage. Elles sont principalement concentrées aux extrémités de ces fibres et leur action réduit la longueur de la fibre quand le muscle est activé. Au repos ces fibres sont incurvées ; pour prendre en compte le fait que l'activation musculaire à tendance à rendre les macrofibres rectilignes, des forces musculaires sont distribuées le long de ces fibres en fonction de leur rayon de courbure ( cf. 1997 [7] RESULTATS ET DISCUSSION Quelques exemples de déformations obtenues par activation spécifique d'un muscle seront montrés dans la suite de cet article. La durée de chaque simulation est de 120ms et les forces ont été appliquées sous forme d'une fonction échelon durant toute la durée de la simulation. Nous montrerons à chaque fois la position atteinte en fin de simulation. L'impact de chaque activation musculaire sur notre modèle sera évalué par la comparaison de nos simulations avec des mesures de la forme du conduit vocal dans le plan sagittal (Bothorel et al. (1986) [1] pour le français). La figure 4 montre les déformations obtenues par activation du styloglosse avec une force de 3N. On observe une élévation du dos de la langue dans la région vélaire accompagné d'un déplacement vers l'arrière avec un abaissement de l'apex. Ces déformations sont typiquement observées dans le cas des sons vélaires tels que la voyelle [u] ou bien la consonne [k], connues pour être produites par activation du styloglosse. La figure 5 montre les déformations associées à une force de 1N produite par le superior longitudinalis. On voit l'apex s'élever et se rétracter. Ce mouvement est comparable à ceux qu'on peut observer lors de la production de la consonne [t]. Cependant, les données sur ce son montrent également un net aplanissement du dos de la langue, ce qui n'est pas encore réalisé dans le modèle lors de l'activation du superior longitudinalis. Les exemples présentés ci-dessus montrent que les déformations classiquement associées à l'activation de muscles spécifiques sont correctement reproduites. Cependant, on remarque que les déformations dans les zones non directement activées sont parfois insuffisantes. Deux hypothèses sont actuellement testées afin d'expliquer ces résultats. La première concerne les propriétés mécaniques : la structure semble être trop rigide dans certaines parties du modèle, ce qui conduit à des déplacements trop faibles par rapport aux mesures expérimentales. Des mesures d'indentations sur une langue fraîche de cadavre ont été réalisées et l'analyse de ces données, actuellement en cours, permettra d'obtenir une information sur les propriétés mécaniques qui nous manquent aujourd'hui. La seconde hypothèse concerne le contrôle moteur. Les déformations linguales sont probablement obtenues par activation de plusieurs muscles simultanément, l'un d'entre eux générant la déformation principale, et les autres, tels que par exemple le genioglosse medium pour les consonnes alvéolaires ou bien le styloglosse dans le cas des voyelles hautes, permettant d'affiner les détails de la forme de la langue. Ces hypothèses seront testées dans le cadre de futures études associées à des mesures electromyographiques spécifiques. CONCLUSION Un modèle biomécanique 3D a été développé dans le but de tester des hypothèses de contrôle dans le cadre de la production de parole. Le travail présenté n'inclut aujourd'hui pas encore la langue dans le conduit vocal. Mais ce travail est actuellement en cours et la langue est en train d'être intégrée à l'intérieur d'un modèle complet comprenant une mâchoire, un palais et un conduit vocal. Les contacts sont également en cours d'intégration dans le modèle. Les principales directions de déformations obtenues par activation de muscles spécifiques semblent être correctes en regard aux données expérimentales. Cependant, certaines amplitudes de déformations apparaissent encore trop faibles. Une évaluation plus précise du modèle, par comparaison aux données IRM du locuteur sur lequel nous avons adapté le modèle, sera effectuée afin de comprendre les différences obtenues entre les simulations et les données expérimentales. Figure 1 : 1Localisation Figure 2 : 2Modèle de langue du nouveau locuteur et Gérard et al., 2003 [3] pour les détails de la méthode). Pour les équations de Lagrange (équations de la dynamique) le modèle d'amortissement de Rayleigh a été adopté. Il est basé sur la définition d'une matrice d'amortissement [C], combinaison linéaire de la matrice d'élasticité [K] (déduite des valeurs du module d'Young évoquées ci-dessus) et de la matrice de masse [M]. Pour la calculer nous avons choisi une densité 1000kg/m 3 , ce qui aboutit à une masse globale de 140g. Dans ces conditions [C] vaut :K M C et sont choisis pour atteindre l'amortissement critique et valent respectivement 0 et 0,028. L'équation du mouvement devant être résolue à chaque noeud du maillage est alors définie par le système suivant : est le vecteur déplacement, F int les forces intérieures et F ext les forces extérieures. Ces équations sont résolues par le logiciel ANSYS TM qui calcule les contraintes, les déformations et les déplacements en chaque noeud ainsi que les matrices définissant l'équation du mouvement. Figure 4 : 4Déformations obtenues par activation du styloglosse à 3N La figure 4 montre les déformations associées à une force de 4N produite par le génioglosse postérieur. Une forte compression des éléments associés à ce muscle est observée, produisant ainsi un déplacement du corps de la langue vers l'avant. On observe également une élévation de la partie la plus élevée de la langue. Les déformations observées sont caractéristiques de la voyelle [i], connue pour être principalement produite par activation du génioglosse. Figure 4 : 4Déformations obtenues par activation du genioglosse à 4N Figure 5 : 5Déformations obtenues par activation du superior longitudinalis à 1N A Bothorel, P Simon, F Wioland, J-P Zerling, Cinéradiographie des voyelles et des consonnes du français. Strasbourg, FranceUniversité Marc BlochInstitut de PhonétiqueA. Bothorel, P. Simon, F. Wioland et J-P Zerling. Cinéradiographie des voyelles et des consonnes du français. Institut de Phonétique, Université Marc Bloch, Strasbourg, France, 1986. Biomechanics: Mechanical properties of living tissues. Y C Fung, Springer-VerlagNew-YorkY.C. Fung. Biomechanics: Mechanical properties of living tissues. New-York, Springer-Verlag, 1993. A 3D dynamical biomechanical tongue model to study speech motor control. J-M Gerard, R Wilhelms-Tricarico, P Perrier, Y Payan, recent Research and Developments in Biomechanics. 1J-M Gerard, R. Wilhelms-Tricarico, P. Perrier et Y. Payan. A 3D dynamical biomechanical tongue model to study speech motor control. In recent Research and Developments in Biomechanics, volume 1, pages 49-64, 2003. A study on musculature of human tongue. K Miyawaki, Annual bulletin of the research institute of logopedics and phoniatrics. 8K. Miyawaki. A study on musculature of human tongue. In Annual bulletin of the research institute of logopedics and phoniatrics, vol. 8, pp 23-50, 1974. Intramural mechanics of the human tongue in association with physiological deformations. V J Napadow, Q Chen, V J Wedeen, R J Gilgert, In Journal of Biomechanics. 32V.J. Napadow, Q. Chen , V.J. Wedeen et R.J. Gilgert. Intramural mechanics of the human tongue in association with physiological deformations. In Journal of Biomechanics, volume 32, pages 1-12, 1999. Atlas of human anatomy. CIBA-GEIGY Corporation editor. F Netter, F.H Netter. Atlas of human anatomy. CIBA- GEIGY Corporation editor, 1989. Synthesis of V-V sequences with a 2D biomechanical togue model controlled by the equilibrium point hypothesis. Y Payan, P Perrier, Speech communication. 22Y. Payan, P. Perrier. Synthesis of V-V sequences with a 2D biomechanical togue model controlled by the equilibrium point hypothesis. In Speech communication, 22, (2/3), 185-205, 1997. Influences of tongue biomechanics on speech movements during the production of velar stop consonants: A modeling study. P Perrier, Y Payan, M Zandipour, J Perkell, In JASA. 1143P.Perrier, Y. Payan, M. Zandipour et J. Perkell. Influences of tongue biomechanics on speech movements during the production of velar stop consonants: A modeling study. In JASA, Volume 114, Issue 3, pages 1582-1599, 2003. A dynamic biomechanical model for the neural control of speech production. V Sanguinetti, R Laboissière, D J Ostry, JASA. 103V. Sanguinetti, R. Laboissière et D.J. Ostry. A dynamic biomechanical model for the neural control of speech production. In JASA, volume 103, pages 1615-1627, 1998. Modeling heart development. Perruchio Taber, In Journal of elasticity. 61Taber et Perruchio, Modeling heart development. In Journal of elasticity, vol. 61, pp 165-197, 2000 Morphological analysis of the human tongue musculature for three dimensional modelling. H Takemoto, JSLHR. 44H. Takemoto. Morphological analysis of the human tongue musculature for three dimensional modelling.In JSLHR, vol. 44, pp 95-107, 2001. Physiological modelling of speech production: methods for modelling soft tissues articulators. R Wilhelms-Tricarico, In JASA. 975R. Wilhelms-Tricarico. Physiological modelling of speech production: methods for modelling soft tissues articulators. In JASA, vol. 97(5), pp 3085- 3098, 1995. Development on a tongue and mouth floor model for normalization and biomechanical modelling. R Wilhelms-Tricarico, Proceedings the 5 th Speech Production Seminar. the 5 th Speech Production SeminarKloster Seon, BavariaR. Wilhelms-Tricarico. Development on a tongue and mouth floor model for normalization and biomechanical modelling. In Proceedings the 5 th Speech Production Seminar, pp.141-148, Kloster Seon, Bavaria, 2000.
sample_2843
0.9393
arxiv
Analyzing 50 years of major fog events across the central coastal plain of Israel Noam David AtmosCell Israel (www.atmoscell.com) 2. The Israeli Meteorological ServiceTel Aviv, Beit-DaganIsrael Asaf Rayitsfeld H Oliver Gao The School of Civil and Environmental Engineering Cornell University IthacaNY*Correspondence Analyzing 50 years of major fog events across the central coastal plain of Israel This report presents an analysis of 152 major fog events that have been occurring for five decades across the central coastal plain of Israel. Analysis of the meteorological data shows that fog events in the experimental area predominantly occur under two sets of synoptic conditions -Red Sea Trough (44%) and Ridge (41%), while the incidence of fog events peaks between March and June. In particular, the results obtained indicate a decreasing trend in the number of fog events and their duration over time where the frequency of radiation fog has decreased over time when compared to the incidence of advection fog. This note provides a long-term analysis of data in a region that lacks reliable time series of this length, and highlight important insights for future research. Introduction According to the American Meteorological Society, fog is defined as a state where water droplets suspended in the air near the Earth's surface reduce visibility below 1 km (AMS, 2020). The economic damages caused due to fog can be vast, and on a scale comparable to the damages from winter storms, as a result of the disruption to flight schedules, for example, or even the shutting down of airports in severe cases (Gultepe et al., 2009). By way of demonstration, research has found that accurate timing of the onset and ending of capacity limiting situations such as fog could save busy air terminals around New York City approximately $480,000 per event (Allan et al., 2001). Additional negative effects related to the phenomenon include acid fog that can cause damage to vegetation and structures, and smog, which presents a health risk, particularly for people suffering from respiratory illnesses (e.g. Tanaka et al., 1996;Wichmann et al., 1989). However, the phenomenon also has positive contributions. Thus, for instance, in areas with low water availability, fresh water for afforestation, gardening, and even potable water can be harvested from fog (Klemm et al., 2012). Additionally, fog plays an important role in scrubbing the atmosphere through particle scavenging and drop deposition processes (Herckes et al., 2007). Tools for monitoring fog include a variety of ground level sensors, human observers and satellite systems (David et al., 2013). Human observers estimate the visibility during fog based on the appearance or obscuring of objects located at predetermined distances from the observers location. The observations derived by this method, though, are not objective, since one observer's visibility estimate might be different from another observer's estimate. Satellites provide wide spatial coverage and map areas where fog exists (e.g. Lensky, and Rosenfeld, 2008), but, at times, do not provide sufficient response, for example, due to obscuring of the fog from the satellite's viewpoint as a result of high altitude cloud cover. Additionally, satellite systems cannot, at times, differentiate, for example, between a low stratus cloud, at an elevation of several tens of meters above ground level, that does not endanger drivers, and fog that lies in immediate proximity to the ground (e.g. Gultepe et al., 2007;David, 2018). On the other hand, specialized sensors such as visibility meters, Runway Visual Range (RVR) sensors and particle monitors can provide precise and reliable fog observations near ground level, however these instruments can only provide a local measurement, that does not reliably represent the entire space. Hence, reliable monitoring of the phenomenon, over a wide geographic area, is still currently a challenge, and efforts are being made to develop tools for mapping fog in high temporal and spatial resolution using alternative and complimentary solutions (e.g. David et al., 2015;2019). Categorizing broadly, fog can be classified as either radiation fog or advection fog, based on the physical processes that cause it to develop (Ziv and Yair, 1994). The first is caused as the result of radiative cooling of the surface, and the optimal conditions for its creation including a clear night, allowing for efficient radiative cooling, light wind (less than 5 knots), stability, and humid air. Advection fog is caused by relatively warm air being cooled to saturation as a result of it being carried by a light wind over a cold surface. The optimal conditions for its creation include a 5-10 knot wind and atmospheric stability. At times, a combination of both of these processes can cause the creation of fog, for example in cases where the surface is not cold enough to cause the condensing of droplets in the air traveling over it alone, but where the addition of radiative cooling can lead to the completion of the process. As has been extensively reviewed by Klemm and Lin (2015), the frequency and intensity of fog events vary greatly over time. Broadly, the majority of research reports, from different locations across the world, indicate a major decrease in the frequency of fog formation, and its intensity. In most of the measuring stations where observations were carried out (e.g. Chen et al., (2006); Vautard et al. (2009); LaDochy and Witiw (2012); Williams et al. (2015)). In some cases an increase was observed (e.g. Syed et al., (2012)). Trends in fog frequency and intensity can be a result of changes in regional climactic conditions. Urban Heat Island (UHI) effect, or changes in predominant circulation patterns, can lead to increasing air temperatures and a resulting decrease in Relative Humidity (RH), and as long as there are no feedback mechanisms overriding the temperature effect, may alter fog trends. Changes in the number of cloud condensation nuclei (CCN) has been discussed as a potential cause for fog trends, though there has yet to be a discussion of the relevant physical processes behind this reasoning (Klemm and Lin, 2015). In this study, we present an analysis of fog measurements taken over 5 decades (1967 -2017) in Israel's central coastal region. Based on analysis of this data, we report a meaningful decrease in the frequency of fog creation and their duration. Additionally, we point out the key synoptic conditions that comprise the mechanism for the creation of fog in the area and analyze some of the characteristics of the phenomenon. Classification for advection and radiation fog In order to distinguish between the two types of fog we examined the vertical structure of the temperature and the dew point in the lower tropospheric levels up to 850 mb. The classification process was performed on the basis of the radiosonde measurements, launched from Bet Dagan station every night between 23:00 to 00:00 UTC ( Figure 1). Depending on the two different profile types, two types of fog were observed. Radiation fog was typically characterized by a deep temperature inversion which extended from the surface level up to a pressure level of about 950 mb (~500 m above sea level). Simultaneously, the dew point was increasing with the increasing temperature, conditions that created a stable moist layer. While under the above conditions winds on the lower two levels were measured to be less than 4 knots (i.e. at ground level and at a height of 1000 millibars), the fog was classified as an radiation fog type. The fog was classified as advection fog when measured wind speed was higher than 4 knots (an up to 10 knots) during a low marine inversion and / or a weak ground inversion. Results We studied 152 fog major events which took place between March 1967 to March 2017 across the test site located in the central coastal plain of Israel. Figure 1 shows the experiment site where meteorological measurements and visibility estimates, acquired by professional human observers, were taken from Beit Dagan surface station. Additional visibility estimates were taken by observers located at Ben Gurion airport. database -based on visibility data, relative humidity, wind velocity, radiosonde records and synoptic conditions. The measurements that were available for the entire period were stored in SYNOP code, and accordingly, are available at a sampling frequency of once every three hours. The set of radiosonde measurements analyzed was gathered from nightly releases from the Beit Dagan station. We also note that events documented in the database at only one specific hour were considered as events of 1 hour duration in the calculations. The analysis of the results focused on fog events that we defined as significant, that is, events that were observed by both stations in the same time frame. Thus, an event was defined as a fog event when visibility was estimated by the professional observers at Beit Dagan and Ben Gurion Airport to be less than 1 km simultaneously, or, at times where visibility was estimated to be less than 1 km at one station, under the condition that fog was also detected at the other station within a 6 hour time interval from when it was detected at the first station. Figure 2 presents general details regarding the fog events that took place across the experiment site between 1967 and 2017, and particularly, the frequency of fog creation given a certain synoptic condition (Fig. 2a), the total number of fog events occurring per month (Fig. 2b) and the distribution of average visibility estimates at each station (Fig. 2c). It can be seen, then, that most of the fog evets in the experiment area occur under conditions of Red Sea Trough (44%) and Ridge (41%), where the incidence of events in the area peaking between March and June. In the major percentage of fog events (observed by both stations, as defined here) average visibility is lower than 600 meters. Figure 3 shows the total number of radiation fog events (Fig. 3a), advection fog ( Fig. 3b) and the distribution of the total number of events combined divided into three equal periods. (Fig. 3a), number of advection fog events (Fig. 3b), and total number of fog events (Fig. 3c) divided into 3 equal periods. From analysis of the data we found that 64% of fog events analyzed had radiation fog characteristics, while 36% had characteristics of advection fog. We note, in the overall view, that while the incidence of radiation fog has decreased over time, the incidence of advection fog has increased when compared to the first third of the experiment period. We note that the total number of fog events decreased measurably over time. We focus, then, on this aspect. Figure 4 shows the trend of fog creation frequency and duration. The linear fit approximations of the fog event records are listed at the top right of each panel. It can be seen that the total number of events per year has generally decreased over time (Fig. 4a) and that the total number of hours where fog existed per year has decreased as well. Fig. 4c, which was constructed from Figures 4b and 4a shows the average duration of a single fog event. The linear fit calculated, indicates a more or less constant (an overall very small decreasing trend) in the average duration of each single event. Discussion It has been shown that a temperature increase of a few tenths of a degree can strongly affect the visual range (Klemm and Lin, 2015). In particular, the temperature increase (and a decrease of the aerosol concentrations) can lead to increased visual range, i.e. a decrease of fog. Previous climate change observations have already shown temperature increases of a few tenths of a degree over vast parts of the terrestrial surface (Stocker et al., 2013). Zhang et al. (2005) analyzed data from 75 stations across 15 countries in the Middle East region for the period 1950-2003. Their data analysis showed statistically significant, and spatially coherent, trends in temperature indices pointing to a warming trend in that area. They also reported a significant increase in the frequency of warm days which has been observed towards the 1990s, while, since the 1970s, the frequency of cold days has gradually decreased significantly. More specifically to the experimental area discussed here, recent research conducted on extreme temperature (and precipitation) indices in Israel between 1950 and 2017a period that covers the entire period of research of this workfound that temperatures (specifically, the daily minimum / maximum temperatures) are trending upwards (Yosef et al., 2019). Due to the relationship between the increase in temperature and the increase in visibility range, it is reasonable to assume that the decrease in fog is driven by climate change (Klemm and Lin, 2015). That being said, we note that this is a general statement, and downscaling it to the specific case reviewed here is non-trivial, and requires future research. Moreover, the observation stations of this study are located in Israel's central coastal plain, a region with temperate weather, at an elevation of between 30-40 meters above sea level. These days, the area where the stations are located is urban, but includes agricultural fields spread within it. We note that over the years since the experiments beginning and until the writing of this paper, major changes have occurred in the land surface due to intensive construction in the area, and the region has transformed from one with a more rural character, where building, vehicle and population densities were relatively low, to an area where a major transportation intersection is located, one where population and building densities have, accordingly, dramatically increased over time. We note that the specific location where the measuring station is situated (a sand lot) has not changed meaningfully over the years, however the changes in area land surfaces are clearly apparent. Importantly, vegetation gave way to concrete and asphalt roads, buildings, and other structuresall surfaces that absorb, rather than reflect, solar energy. As a result, surface temperatures, as well as overall ambient temperatures have risen. Thus, the urbanization process in the area, i.e. the UHI effect is also a probable cause for the temperature increase (Rotem-Mindali et al., 2015), and the meaningful reduction in the creation of fog, as a result. When mentioning UHI, it is important to note that urbanization influences fog in different ways (Klemm and Lin, 2015). An increase in the UHI effect is associated with air temperature increases especially at night, thus resulting in a decreased tendency for formation of radiation fog, as we also observe in the current research ( Figure 3a). Further, UHI is often associated with decreased water vapor content in the air, which results in the same effect. In rural, or agricultural areas, though, the issue is more complex -Increased temperatures may lead to a decrease in fog creation due to the reduction in RH. On the other hand, enhanced evapotranspiration caused by those higher temperatures may lead to an increase in fog. Regardless, the verification of the process based on meteorological data is extremely challenging, as the temperature changes involved are quite small, and the associated variations of RH unmeasurably so (within the 99% < RH < 100% range). Moreover, prior research has shown that under the assumption of equilibrium conditions, both increase in air temperature, and decrease in concentration of aerosol particles lead to a reduction in development of fog and its intensity. Klemm and Lin (2015) have shown that in their case study, an increase of 0.1 percent in temperature had an equivalent effect to a decrease of 10% in aerosol concentration, where reductions of fog were concerned. If urbanization, as was observed in the experimental area (Fig. 5), is associated with increased air pollution, then fog formation can be enhanced. As comprehensive air pollution measurements for the entire experiment period were not available to us, as part of this research, this aspect was not investigated. A recent research has shown, though, that when urbanization and aerosol-pollution act together, the inhibiting effect of urbanization on fog dominants the much weaker aerosol-promoting effect (Yan et al., 2020). We note that the literature data as reviewed (e.g. Klemm and Lin, 2015) indicates that, overall, as urbanization increases, decreases in fog occur more frequently than increases, as was also the case here. Summary In this paper 5 decades of fog data from Israel's central coastal plain was analyzed. The measurements indicate a decrease in the incidence of fog creation and a decrease in the frequency of radiation fog when compared to advection fog events. The decreasing fog trends detected here are in line with fog trends that have been widely observed across different parts of the world (Chen et al., (2006); Vautard et al., (2009); Van Schalkwyk (2012)). An in-depth investigation of the possible reasons for the decreasing fog trends in the experimental area is beyond the scope of this work, and is left for future research. However, we have indicated several factors that may have a role in creating the trends we report here. Naturally, there are uncertainty factors in carrying out the observations. Thus, for example, we note that for the database we used, the measurements were stored every 3 hour interval. It is possible, then, that relatively shorter fog events might have occurred in between these sample times, and therefore were not tallied in this research. Additionally, it is important to note that the instruments measuring the different parameters were updated over time. It is possible that the location of the instruments was changed slightly, that different human observers carried out visibility observations, etc. The results of this work can form the basis for future research that could be conducted on fog life cycles in the area, and indicate, for the first time, the trend of reductions of fog in this region. Over the last decade numerous studies point to the potential that lies in the use of data from prevalent technologies and the 'Internet of Things' (IoT) to enhance the ability to measure various environmental phenomena (Overeem et al., 2013;Mass et al., 2014;Harel et al., 2015;Alpert et al., 2016;Price et al., 2018;David, 2019;Kumah et al., 2020), improve weather prediction capabilities (e.g. Kawamura et al., 2017) including fog in particular (e.g. David and Gao, 2016;2018). However, the precise forecasting of this phenomenon remains an unsolved challenge (Koračin, 2017). Achieving better insight into the different mechanisms of fog formation, maintenance, and dissipation may lead to better forecasting capabilities, and, as a result, better capacity to contend with the dangers associated with this phenomenon. Figure 1 : 1The experiment site situated in the central costal plain of Israel. The asterisks mark the locations of the surface stations, in the vicinity of the city of Tel Aviv. Fog events were determined according to the Israeli Meteorological Service (IMS) Figure 2 : 2Analysis of fog events between 1967 and 2017. (a) Frequency during different synoptic conditions. (b) Total major fog events per month. (c) Distribution of average visibility estimates for the Beit Dagan station (red) and Ben Gurion (black).To produce graph (c), the average visibility was calculated for each station separately, from the visibility observations taken during each fog event. Figure 3 : 3Radiation and Advection fog. Number of radiation fog events Figure 4 : 4Incidence and duration of fog per year for the experimental area. Number of meaningful fog events per year (a), total number of fog event hours in every year (b), average duration of fog event per year. Figure 5 ( 5a) shows a photograph of the experiment area from the early 1960s vs Figure 5 (b) -a photograph of the area from the year 2017. Figure 5 . 5The experiment area, early 60's (a) vs 2017 (b) (Credit: IMS). Delay causality and reduction at the New York City airports using terminal weather information systems. S S Allan, S G Gaddy, J E Evans, ATC-291Allan, S. S., S. G. Gaddy, and J. E. Evans. Delay causality and reduction at the New York City airports using terminal weather information systems. No. ATC-291. Mobile networks aid weather monitoring. P Alpert, H Messer, N David, Nature. 5377622Alpert, P., Messer, H. and David, N., 2016. Mobile networks aid weather monitoring. Nature, 537(7622), pp.617-617. Impact of climate variation on fog in China. S Chen, Y Shi, L Wang, A Dong, Journal of Geographical Sciences. 164Chen, S., Shi, Y., Wang, L. and Dong, A., 2006. Impact of climate variation on fog in China. Journal of Geographical Sciences, 16(4), pp.430-438. Glossary of meteorology. AMSAvailable atAmerican Meteorological Society (AMS) (2020), Glossary of meteorology, Available at (http://glossary.ametsoc.org). Utilizing microwave communication data for detecting fog where satellite retrievals are challenged. N David, Natural Hazards. 942David, N., 2018. Utilizing microwave communication data for detecting fog where satellite retrievals are challenged. Natural Hazards, 94(2), pp.867-882. Harnessing Crowdsourced Data and Prevalent Technologies for Atmospheric Research. N David, Advances in Atmospheric Sciences. 367David, N., 2019. Harnessing Crowdsourced Data and Prevalent Technologies for Atmospheric Research. Advances in Atmospheric Sciences, 36(7), pp.766-769. The potential of commercial microwave networks to monitor dense fog-feasibility study. N David, P Alpert, H Messer, Journal of geophysical research: atmospheres. 11820David, N., Alpert, P. and Messer, H., 2013. The potential of commercial microwave networks to monitor dense fog-feasibility study. Journal of geophysical research: atmospheres, 118(20), pp.11-750. Cellular network infrastructure: The future of fog monitoring. N David, O Sendik, H Messer, P Alpert, Bulletin of the. American Meteorological Society96David, N., Sendik, O., Messer, H. and Alpert, P., 2015. Cellular network infrastructure: The future of fog monitoring?. Bulletin of the American Meteorological Society, 96(10), pp.1687-1698. Using cellular communication networks to detect air pollution. Environmental science & technology. N David, H O Gao, 50David, N. and Gao, H.O., 2016. Using cellular communication networks to detect air pollution. Environmental science & technology, 50(17), pp.9442-9451. Using Cell-Phone Tower Signals for Detecting the Precursors of Fog. N David, H O Gao, Journal of Geophysical Research: Atmospheres. 1232David, N. and Gao, H.O., 2018. Using Cell-Phone Tower Signals for Detecting the Precursors of Fog. Journal of Geophysical Research: Atmospheres, 123(2), pp.1325- 1338. Methods, system and computer program product for generating a two dimensional fog map from cellular communication network information. N David, O Cohen, P Alpert, H Messer-Yaron, U.SRamot at Tel Aviv University LtdPatent Application 15/925,798David, N., Cohen, O., Alpert, P. and Messer-Yaron, H., Ramot at Tel Aviv University Ltd, 2019. Methods, system and computer program product for generating a two dimensional fog map from cellular communication network information. U.S. Patent Application 15/925,798. Decline of fog, mist and haze in Europe over the past 30 years. R Vautard, P Yiou, G J Van Oldenborgh, Nature Geoscience. 22Vautard, R., Yiou, P. and Van Oldenborgh, G.J., 2009. Decline of fog, mist and haze in Europe over the past 30 years. Nature Geoscience, 2(2), pp.115-119. Health effects during a smog episode in West Germany in 1985. H E Wichmann, W Mueller, P Allhoff, M Beckmann, N Bocter, M J Csicsaky, M Jung, B Molik, G Schoeneberg, Environmental health perspectives. 79Wichmann, H. E., W. Mueller, P. Allhoff, M. Beckmann, N. Bocter, M. J. Csicsaky, M. Jung, B. Molik, and G. Schoeneberg. Health effects during a smog episode in West Germany in 1985. Environmental health perspectives 79 (1989): 89-99. A satellite-based fog detection scheme using screen air temperature. I Gultepe, M Pagowski, J Reid, Weather and forecasting. 223Gultepe, I., Pagowski, M. and Reid, J., 2007. A satellite-based fog detection scheme using screen air temperature. Weather and forecasting, 22(3), pp.444-456. . I Gultepe, G Pearson, J A Milbrandt, B Hansen, S Platnick, P Taylor, M , Gultepe, I., G. Pearson, J. A. Milbrandt, B. Hansen, S. Platnick, P. Taylor, M. The fog remote sensing and modeling field project. J P Gordon, S G Oakley, Cober, Bulletin of the American Meteorological Society. 903Gordon, J. P. Oakley, and S. G. Cober. The fog remote sensing and modeling field project. Bulletin of the American Meteorological Society 90, no. 3 (2009): 341-360. The potential of microwave communication networks to detect dew-Experimental study. O Harel, N David, P Alpert, H Messer, IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing. 89Harel, O., David, N., Alpert, P. and Messer, H., 2015. The potential of microwave communication networks to detect dew-Experimental study. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 8(9), pp.4396- 4404. Air pollution processing by radiation fogs. Water, air, and soil Pollution. P Herckes, H Chang, T Lee, J L Collett, 181Herckes, P., Chang, H., Lee, T. and Collett, J.L., 2007. Air pollution processing by radiation fogs. Water, air, and soil Pollution, 181(1-4), pp.65-75. Water vapor estimation using digital terrestrial broadcasting waves. S Kawamura, H Ohta, H Hanado, M K Yamamoto, N Shiga, K Kido, S Yasuda, T Goto, R Ichikawa, J Amagai, K Imamura, Radio Science. 523Kawamura, S., Ohta, H., Hanado, H., Yamamoto, M.K., Shiga, N., Kido, K., Yasuda, S., Goto, T., Ichikawa, R., Amagai, J. and Imamura, K., 2017. Water vapor estimation using digital terrestrial broadcasting waves. Radio Science, 52(3), pp.367-377. Fog as a fresh-water resource: overview and perspectives. O Klemm, R S Schemenauer, A Lummerich, P Cereceda, V Marzol, D Corell, J Van Heerden, D Reinhard, T Gherezghiher, J Olivier, P Osses, Ambio. 413Klemm, O., Schemenauer, R.S., Lummerich, A., Cereceda, P., Marzol, V., Corell, D., Van Heerden, J., Reinhard, D., Gherezghiher, T., Olivier, J. and Osses, P., 2012. Fog as a fresh-water resource: overview and perspectives. Ambio, 41(3), pp.221-234. What causes observed fog trends: Air quality or climate change. O Klemm, N Lin, Aerosol and Air Quality Research. 16Klemm, O. and Lin, N., 2015. What causes observed fog trends: Air quality or climate change?. Aerosol and Air Quality Research, 16(5), pp.1131-1142. Modeling and forecasting marine fog. D Koračin, Marine fog: Challenges and advancements in observations, modeling, and forecasting. Koračin, D., 2017. Modeling and forecasting marine fog. In Marine fog: Challenges and advancements in observations, modeling, and forecasting (pp. 425-475). . Cham Springer, Springer, Cham. Combining MWL and MSG SEVIRI Satellite Signals for Rainfall Detection and Estimation. K K Kumah, J C Hoedjes, N David, B H Maathuis, H O Gao, B Z Su, Atmosphere. 119884Kumah, K.K., Hoedjes, J.C., David, N., Maathuis, B.H., Gao, H.O. and Su, B.Z., 2020. Combining MWL and MSG SEVIRI Satellite Signals for Rainfall Detection and Estimation. Atmosphere, 11(9), p.884. The continued reduction in dense fog in the southern California region: possible causes. S Ladochy, M Witiw, Pure and Applied Geophysics. 169LaDochy, S. and Witiw, M., 2012. The continued reduction in dense fog in the southern California region: possible causes. Pure and Applied Geophysics, 169(5-6), pp.1157-1163. Clouds-Aerosols-Precipitation Satellite Analysis Tool (CAPSAT). I M Lensky, D Rosenfeld, Atmos. Chem. Phys. 8Lensky, I.M. and Rosenfeld, D., 2008. Clouds-Aerosols-Precipitation Satellite Analysis Tool (CAPSAT). Atmos. Chem. Phys, 8, pp.6739-6753. Surface pressure observations from smartphones: A potential revolution for high-resolution weather prediction. C F Mass, L E Madaus, Bulletin of the. American Meteorological Society95Mass, C.F. and Madaus, L.E., 2014. Surface pressure observations from smartphones: A potential revolution for high-resolution weather prediction?. Bulletin of the American Meteorological Society, 95(9), pp.1343-1349. Crowdsourcing urban air temperatures from smartphone battery temperatures. A Overeem, R Robinson, J C Leijnse, H Steeneveld, G J , P Horn, B K Uijlenhoet, R , Geophysical Research Letters. 4015Overeem, A., R. Robinson, J.C., Leijnse, H., Steeneveld, G.J., P. Horn, B.K. and Uijlenhoet, R., 2013. Crowdsourcing urban air temperatures from smartphone battery temperatures. Geophysical Research Letters, 40(15), pp.4081-4085. Using smartphones for monitoring atmospheric tides. C Price, R Maor, H Shachaf, Journal of Atmospheric and Solar-Terrestrial Physics. 174Price, C., Maor, R. and Shachaf, H., 2018. Using smartphones for monitoring atmospheric tides. Journal of Atmospheric and Solar-Terrestrial Physics, 174, pp.1-4. The role of local land-use on the urban heat island effect of Tel Aviv as assessed from satellite remote sensing. O Rotem-Mindali, Y Michael, D Helman, I M Lensky, Applied Geography. 56Rotem-Mindali, O., Michael, Y., Helman, D. and Lensky, I.M., 2015. The role of local land-use on the urban heat island effect of Tel Aviv as assessed from satellite remote sensing. Applied Geography, 56, pp.145-153. Climate change 2013: The physical science basis. Contribution of working group I to the fifth assessment. T F Stocker, D Qin, G K Plattner, M Tignor, S K Allen, J Boschung, A Nauels, Y Xia, V Bex, P M Midgley, 1535report of the intergovernmental panel on climate changeStocker, T.F., Qin, D., Plattner, G.K., Tignor, M., Allen, S.K., Boschung, J., Nauels, A., Xia, Y., Bex, V. and Midgley, P.M., 2013. Climate change 2013: The physical science basis. Contribution of working group I to the fifth assessment report of the intergovernmental panel on climate change, 1535. On the fog variability over south Asia. F S Syed, H Körnich, M Tjernström, Climate dynamics. 3912Syed, F.S., Körnich, H. and Tjernström, M., 2012. On the fog variability over south Asia. Climate dynamics, 39(12), pp.2993-3005. Twoyear follow-up study of the effect of acid fog on adult asthma patients. H Tanaka, S I Honma, M Nishi, T Igarashi, F Nismo, S Abe, Internal medicine. 352Tanaka, H., Honma, S. I., Nishi, M., Igarashi, T., Nismo, F., & Abe, S. (1996). Two- year follow-up study of the effect of acid fog on adult asthma patients. Internal medicine, 35(2), 100-104. Fog forecasting at Cape Town International Airport: a climatological approach (Doctoral dissertation. L Van Schalkwyk, University of PretoriaVan Schalkwyk, L., 2012. Fog forecasting at Cape Town International Airport: a climatological approach (Doctoral dissertation, University of Pretoria). . A P Williams, R E Schwartz, S Iacobellis, R Seager, B I Cook, C J Still, Williams, A.P., Schwartz, R.E., Iacobellis, S., Seager, R., Cook, B.I., Still, C.J., Urbanization causes increased cloud base height and decreased fog in coastal Southern California. G Husak, J Michaelsen, Geophysical Research Letters. 425Husak, G. and Michaelsen, J., 2015. Urbanization causes increased cloud base height and decreased fog in coastal Southern California. Geophysical Research Letters, 42(5), pp.1527-1536. To what extents do urbanization and air pollution affect fog. S Yan, B Zhu, Y Huang, J Zhu, H Kang, C Lu, T Zhu, Atmospheric Chemistry and Physics. 20Yan, S., Zhu, B., Huang, Y., Zhu, J., Kang, H., Lu, C. and Zhu, T., 2020. To what extents do urbanization and air pollution affect fog?. Atmospheric Chemistry and Physics, 20(9), pp.5559-5572. Changes in extreme temperature and precipitation indices: Using an innovative daily homogenized database in Israel. Y Yosef, E Aguilar, P Alpert, International Journal of Climatology. 3913Yosef, Y., Aguilar, E. and Alpert, P., 2019. Changes in extreme temperature and precipitation indices: Using an innovative daily homogenized database in Israel. International Journal of Climatology, 39(13), pp.5022-5045. . X Zhang, E Aguilar, S Sensoy, H Melkonyan, U Tagiyeva, N Ahmed, Zhang, X., Aguilar, E., Sensoy, S., Melkonyan, H., Tagiyeva, U., Ahmed, N., Trends in Middle East climate extreme indices from 1950 to. N Kutaladze, F Rahimzadeh, A Taghipour, T H Hantosh, P Albert, Journal of Geophysical Research. D22110AtmospheresKutaladze, N., Rahimzadeh, F., Taghipour, A., Hantosh, T.H. and Albert, P., 2005. Trends in Middle East climate extreme indices from 1950 to 2003. Journal of Geophysical Research: Atmospheres, 110(D22). Introduction to Meteorology. The Open University of Israel. B Ziv, Y Yair, Tel Aviv, Israelin HebrewZiv, B. and Yair, Y. (1994) Introduction to Meteorology. The Open University of Israel, Tel Aviv, Israel (in Hebrew)
sample_3361
0.6612
arxiv
12 Feb 2007 Boyer Pascal 12 Feb 2007SUR L'IRRÉDUCTIBILITÉ DE QUELQUES VARIÉTÉS D'IGUSA par On prouve que les variétés d'Igusa de seconde espèce définies par Harris et Taylor dans leur livre [2], sont aussi connexes que possible, i.e. que les composantes connexes sont naturellement en bijection avec les caractères du groupe des inversibles de l'ordre maximal de l'algèbreà division centrale qui lui est attachée.Abstract (On irreductibility of somme Igusa varieties). -We describe the connected components of Igusa's varieties of second species defined par Harris and Taylor in their book[2]. There are in bijection with the characters of the inversible group of the maximal order of the division algebra attached to them. Introduction A l'origine de cette note est une question posée par J. Tilouineà L. Fargues sur l'irréductibilité des variétés d'Igusa de seconde espèce, qui lui répond que cela découle de mon travail [1]. Malheureusement l'énoncé ne se trouve pas tel quel dans loc. cit. d'où cette note qui ne contient strictement rien de nouveau mais qui rassemble les résultats nécessairesà la preuve. [2]. On reprend les notations de [1]. Soit F = F + E un corps CM, E/Q quadratique imaginaire pure, dont on fixe un plongement réel τ : F + ֒→ R. Le groupe unitaire G τ est alors tel que -G τ (R) ≃ U (1, d − 1) × U (0, d) r−1 ; -G τ (Q p ) ≃ (Q p ) × × r i=1 (B op vi ) × où v = v 1 , v 2 , · · · , v r sont les places de F au dessus de la place u de E telle que p = u c u et où B est une algèbreà division centrale sur F de dimension d 2 vérifiant certaines propriétés, cf. [2], dont en particulier d'etre soit décomposée soit une algèbreà division en toute place et décomposéeà la pace v. 1.1.1 -Pour tout sous-groupe compact U p de G τ (A ∞,p ) et m = (m 1 , · · · , m r ) ∈ Z r 0 . On pose U p (m) = U p × Z × p × r i=1 Ker(O × Bv i −→ (O Bv i /v mi i ) × ) Pour U p assez petit on dispose d'un schéma projectif sur Spec O v tel que quand U varie, les X U p (m) forment un système projectif dont les morphismes de transition sont finis et plats : quand m 1 = m ′ 1 ils sont en plusétales. Le système projectif (X U p (m) ) U p ,m est naturellement muni d'une action de G τ (A ∞ ). Etant donné une représentation irréductible ξ de G sur Q l , on notera L ξ le système local sur X U p (m) . 1.1.2 -On note X U p ,m la fibre spéciale de X U p (m) . Pour tout 0 h d − 1, on dispose d'une strate fermée (resp. ouverte) notée X d−h U p ,m = X [h] U p ,m (resp. X =d−h U p ,m = X (h)U p ,m,0 tel que X (h) U p ,m ≃ X (h) U p ,m,0 × PM (Ov/v m 1 ) GL d (O v /v m1 ) On notera X [h] U p ,m,0 l'adhérence de X (h) U p ,m,0 dans X [h] U p ,U p ,m −→ X (h) U p ,m , où m = (0, m 2 , · · · , m r ), qui est l'espace des modules des isomorphismes [2], le foncteur en S-schémas quià T /S associe l'ensemble des T -isomorphismes α et 1 : (̟ −m1 O v /O v ) h × X (h) U p ,m ≃ G et [̟ m1 ]U p ,m sont munies d'une action de G + h (A ∞ ) = G τ (A ∞,p × Q × p × P d−h,d (F v ) × i=2 (B op vi ) × qui agit via le quotient G + h (A ∞ ) −→ G τ (A ∞,p ) × Q × p × (Z × GL h (F v )) + × r i=2 (B op vi ) × où (Z × GL h (F v )) + désigne le sous-semi-groupe de Z × GL h (F v ) formé deséléments (c, g) tels que ̟ ⌊−c/(n−h)⌋ o g ∈ GL h (O v ) qui est induit par la surjection P d−h,d (F v ) −→ Z × GL h (F v ) quià g v = g M (g c v , g et v )g −1 M associe (v(det g c v ), g et v ).Σ h [̟ m ] × Spec Fp T −→ H[̟ m ] × S T où Σ h est "le" O v -J (h) U p ,m,s := J (s) (G 0 /I (h) U p ,m ) Le revêtement J (h) U p ,m,s −→ I (h) U p ,m × Spec F p est galoisien de groupe de Galois (D v,d−h /̟ s ) × où D v,d−h est l'ordre maximal de l'algèbreà division D v,d−h de centre F v et d'invariant 1/(d − h). Par ailleurs, on a, sur la tour des J (h) U p ,m,s une action par correspondances du groupe G τ (A ∞,p )× Q × p × (Z × GL h (F v )) + × r i=2 (B op vi ) × × (D × v,d−h /D × v,d−h ). 1.3.1. Définition. -Soit D 1 v,d−h le noyau de la norme réduite de D × v,d−h . Pour tout m 0, on note alors D 1 v,d−h,m := D 1 v,d−h /(1 + ̟ s ) et soit J (h),1 U p ,m,s := (J (h) U p ,m ) D 1 v,d−h,m .U p ,m et donc sur X (d−h) U p ,m,0 . Toutélément (g p , g p,0 , c, g et o , g oi , δ) de G τ (A ∞,p )×Q × p ×(Z×GL d−h (F v )) + × r i=2 (B op vi ) × × (D × v,d−h /D × v,d−h ) définit naturellement un morphisme (g p , g p,0 , c, g et v , g vi , δ) : (g p , g p,0 , c, g et v , g vi , δ) * (F ρ,M ⊗ L ξ ) −→ F ρ,M ⊗ L ξ 2.1.1. Définition. -Pour τ v une Q l -représentation irréductible admissible de D × v,h , on note F τv := F τv,0 × P h,d (Ov /v m 1 ) GL d (O v /v m1 ) le faisceau induit sur toute la strate X Faisceaux pervers d' Harris-Taylor. -On introduit suivant [1], les faisceaux pervers dits de Harris-Taylor P(g, t, π v ) = j tg ! * HT (g, t, π v , [ ←−− t − 1] πv )[d − tg] ⊗ rec ∨ Fv (π v ) où HT (g, t, π v , Π) = F JL −1 ([ ← − − t−1]π v ) ⊗ Π. On rappelle le résultat suivant de [1]. U p ,m ) de pure dimension h et munie d'une action de G(A ∞ ). Dans le cas de bonne réduction, i.e. m 1 = 0, elles sont en outre lisses. Pour tout 0 < h < d, les strates X (h) U p ,m sont géométriquement induites sous l'action du parabolique P h,d (O v ), au sens où il existe un sous-schéma fermé X (h) module de Barsotti-Tate formel de hauteur h sur F p . Ce foncteur est représenté par un S-schéma X m (H/S) de type fini sur S et on note Y m (H/S) l'intersection des images schématiques de X m ′ (H/S) −→ X m (H/S) pour m ′ m et on pose J (m) (H/S) = Y m (H/S) red . Soit G 0 /I (h) U p ,m le O v -module de Barsotti-Tate formel universel : il est de dimension 1 et de hauteur constante h. On définit alors U p ,m est un D 1 v,d−h,m -torseur géométriquement irréductible au dessus de toute composante géométriquement connexe et J (h),1U p ,m (F p ) ≃ I (h) U p ,m (F p ) × D v,d−h,m /D 1 v,d−h,m où l'action est induite par l'action du groupe de Galois D v,d−h,m du revêtement J locaux d'Harris-Taylor : groupes de cohomologie 2.1. Définition. -Les variété d'Igusa de seconde espèce définissent pour toute représentation irréductible admissible ρ v des inversibles D × v,d−h , un système local F ρv ,U p (m),0 sur I (h) ∈ P h,d (F v ) est donnée par celle de (val(det g c v ), g et v ) ∈ Z × GL d−h (F v ). Classification mathématique par sujets (2000). -14G22, 14G35, 11G09, 11G35, 11R39, 14L05, 11G45, 11Fxx. Mots clefs. -Variétés de Shimura, modules formels, correspondances de Langlands, correspondances de Jacquet-Langlands, faisceaux pervers, cyclesévanescents, filtration de monodromie, conjecture de monodromie-poids. 1. Rappels sur les variétés de Shimura associésà certains groupes unitaires et sur les variétés d'Igusa associées 1.1. Variétés de Shimura simples. -On considère les variétés de Shimura simples associées a des groupes unitaires telles qu'elles sont définies dans m . 1.2. Variétés d'Igusa de première espèce. -Dans [2], les auteurs définissent les variétés d'Igusa de première espèce I(h) On obtient ainsi un revêtement galoisien de X U p ,m de groupe de Galois GL h (O v /̟ m1 ). Ils définissent en outre un morphisme radiciel de I(h) (h) U p ,m sur X (h) U p ,m,M pour tout M . Ces variétés I (h) Variétés d'Igusa de seconde espèce. -Soit S un schéma et H un O v -module de Barsotti-Tate compatible de dimension 1 et de hauteur constante h. On considère comme dans1.2.1. Théorème. -Pour tout 0 < h < d, I (h) U p ,m est géométriquement connexe. 1.3. 2.2.1. Proposition. -Pour tout 1 t s, la filtration par les poids de j tg ! HT (g, t, π v , Π t )[d− tg] est telle que ses gradués gr !t,k sont nuls pour k < 0 et pour 0 k s − t,égauxà j (t+k)g ! *Démonstration. -On rappelle qu'une représentation automorphe Π de G τ (A) est dite cohomologique, s'il existe une certaine représentation algébrique ξ sur C de la restriction des scalaires de Fà Q de GL g , et un entier i tels queoù U τ est un sous-groupe compact modulo le centre de G τ (R), maximal, cf.χ∈A(πv ) χ −1 ) i = s − t -pour Π cohomologique telle que Π v n'est pas d'une des deux formes précédentes, d'après loc.cit., Π v est alors de la forme(1) On a alors prouvé dans loc. cit. queU p ,m , P(g, t, π v ))[Π ∞,v ] = 0.En utilisant la suite spectrale associéeà la filtration par les poids de j tg Monodromie du faisceau pervers des cyclesévanescents de quelques variétés de shimura simples et applications. Pascal Boyer, PreprintPascal Boyer. Monodromie du faisceau pervers des cyclesévanescents de quelques variétés de shimura simples et applications. Preprint, 2005. The geometry and cohomology of some simple Shimura varieties. M Harris, R Taylor, Annals of Mathematics Studies. 151Princeton University PressM. Harris, R. Taylor. The geometry and cohomology of some simple Shimura varieties, volume 151 of Annals of Mathematics Studies. Princeton University Press, Princeton, NJ, 2001. • Boyer Pascal, UMR 7586boyer@math.jussieu.fr, Institut de mathématiques de Jussieu. université Paris 6, 175 rue du Chevaleret Paris 13Boyer Pascal • E-mail : boyer@math.jussieu.fr, Institut de mathématiques de Jussieu, UMR 7586, université Paris 6, 175 rue du Chevaleret Paris 13
sample_3730
0.5216
arxiv
La Technologie Java : une Solution Stratégique pour les Applications Distribuées Interactives La Technologie Java : une Solution Stratégique pour les Applications Distribuées Interactives Java Technology : a Strategic Solution for Interactive Distributed Applications 27 Apr 2009 Alustwani -Jacques Bahi -Ahmed Mostefaoui -Michel Husam Salomon Husam Alustwani Jacques Bahi Ahmed Mostefaoui Michel Salomon Thème Algorithmique Numérique Distribuée LABORATOIRE D'INFORMATIQUE DE L'UNIVERSITE DE FRANCHE-COMTE Laboratoire d'Informatique de l'Université de Franche-Comté, Antenne de Belfort -IUT Belfort-Montbéliard, rue Engel Gros BP 52790016Belfort Cedex (France Laboratoire d'Informatique de l'Université de Franche-Comté, Antenne de Belfort -IUT Belfort-Montbéliard, rue Engel Gros BP 52790016Belfort Cedex (France La Technologie Java : une Solution Stratégique pour les Applications Distribuées Interactives La Technologie Java : une Solution Stratégique pour les Applications Distribuées Interactives Java Technology : a Strategic Solution for Interactive Distributed Applications 27 Apr 2009Rapport de Recherche n°RR 2008-11 THÈME 3 -Octobre 2008 Rapport de Recherche Octobre 2008Java : une solution stratégique pour les applications distribuées 1Mots-clés : JavaMiddlewareRMIApplications distribuéesModes de communications Key-words: JavaMiddlewareRMIDistributed applicationsCommunication Modes Dans un monde exigeant le meilleur retour sur performances possible d'un investissement financier, les applications distribuées occupent la première place parmi les solutions proposées. Cela s'explique notamment par les performances potentielles qu'elles offrent de par leur architecture. Actuellement, de nombreux travaux de recherche visentà concevoir des outils pour faciliter la mise en oeuvre de ces applications distribuées. Le besoin urgent de telles applications dans tous les domaines pousse les chercheursà accélérer cette procédure. Cependant, le manque de standardisation se traduit par l'absence de prises de décisions stratégiques par la communauté informatique. Dans cet article, nous argumentons que la technologie Java représente le compromis recherché et préside ainsi la liste des solutions disponibles actuellement. En favorisant l'indépendance du matériel et du logiciel, la technologie Java permet, en effet, de surmonter lesécueils inhérentsà la création des applications distribuées.Abstract: In a world demanding the best performance from financial investments, distributed applications occupy the first place among the proposed solutions. This particularity is due to their distributed architecture which is able to acheives high performance. Currently, many research works aim to develop tools that facilitate the implementation of such applications. The urgent need for such applications in all areas pushes researchers to accelerate this process. However, the lack of standardization results in the absence of strategic decisions taken by computer science community. In this article, we argue that Java technology represents an elegant compromise ahead of the list of the currently available solutions. In fact, by promoting the independence of hardware and software, Java technology makes it possible to overcome pitfalls that are inherent to the creation of distributed applications. Introduction Aujourd'hui, de nombreuses organisations (entreprises, administrations, etc.) ont besoin d'applications à grande échelle pour supporter leurs activités complexes. À travers ces applications, les utilisateurs coopèrent à la réalisation des différentes activités de leur organisation. Ces activités évoluant fortement avec le temps, toute application distribuée, et par voie de conséquence sa conception, se doit de répondre rapidement à ces changements. La mise en oeuvre distribuée des applications s'avère fort utile dans ce cadre car elle bénéficie de l'évolution des interconnexions réseaux reliant des ressources virtuellement illimitées. En effet, cela permet d'élargir le champ d'utilisation des applications distribuées, permettant de toucher toutes sortes d'activités. L'emploi d'applications distribuées repose sur la mise en place d'un grand nombre de machines interconnectées par des réseaux généraux. Ces applications peuvent être classifiées selon l'infrastructure matérielle utilisée en deux catégories : les systèmes basés sur des grappes de machines (également appelées clusters), où les machines sont interconnectées via un réseau local caractérisé par une faible latence et une bande passante élevée ; et les systèmes basés sur les grilles où les machines (et/ou des grappes), souvent très hétérogènes, sont fortement réparties géographiquement en étant interconnectées par des réseaux longue distance (de type Internet). Le développement intense d'applications, dans un contexte distribué, reste encore délicat de par la pauvreté des modèles de programmation pour les systèmes distribués et suite au lourd héritage des applications développées dans un contexte centralisé. Ceci amplifie le besoin d'une solution pratique pour la mise en oeuvre de ces applications. Les processus d'une application distribuée ne sont pas nécessairement identiques, mais ils coopèrent pour atteindre les buts de l'application. Cette collaboration se réalise suivant plusieurs modèles de répartition. En raison de l'hétérogénéité des environnements distribués, deux problématiques majeures sont rencontrées lors du développement d'applications distribuées : l'intégration et l'interopérabilité de celles-ci. Le langage Java et son environnement d'exécution JVM (Java Virtual Machine) s'imposent dans ce cadre comme une voie déterminante dans le déploiement d'applications distribuées, en particulier sur l'Internet. Sans perte de généralité, les applications peuvent être classées en trois catégories : Utilisation intensive du processeur (CPU-intensive) Ces programmes demandent beaucoup de cycles CPU pour accomplir leurs tâches. Ils effectuent des calculs mathématiques ou symboliques (manipulation de chaînes ou d'images, par exemple) demandant beaucoup de temps. Ces programmes ont besoin de peu (ou pas de tout) d'entrées de la part de l'utilisateur ou de sources externes. Utilisation intensive des entrées/sorties (I/O-intensive) Ces applications passent la majorité de leur temps en attente de la fin d'opérations d'entrées/sorties : lecture ou écriture sur disque, ou sur un socket réseau, communication avec une autre application. 3. Interactivité avec l'utilisateur Ces programmes interagissent avec les entrées utilisateur. Le déroulement d'une application interactive donnée peut comporter différentes phases. En réponse à une action particulière de l'utilisateur, l'application entre dans une phase « CPU-intensive » ou bien « I/O-intensive », puis se remet en attente d'une autre commande. Dans cet article, nous sommes plutôt intéressé par les applications de cette catégorie. La suite de l'article s'organise de la manière suivante. Tout d'abord, nous survolons les caractéristiques des applications distribuées. Dans un second temps, nous présentons une taxonomie des modèles de communication utilisés pour développer des applications distribuées. Finalement, nous essayons de démontrer que la technologie Java constitue une voie stratégique pour remédier à la fois aux problématiques des applications distribuées et à l'exigence des développeurs en termes de simplicité et d'interopérabilité. Caractéristiques des applications distribuées Aujourd'hui, un des défis les plus importants de l'informatique est de maîtriser la conception, la réalisation et le déploiement 1 des applications distribuées, afin d'offrir un large éventail de services évolutifs accessibles, aussi bien par le grand public que par des utilisateurs «experts». Pour ce faire, de nombreuses caractéristiques orthogonales doivent être prise en compte : la communication entre les applications, l'hétérogénéité de celles-ci, l'intégration de l'existant et l'interopérabilité. Ces caractéristiques doivent être traitées de front par les concepteurs d'applications distribuées. • Communication Un service distribué est composé de différents éléments logiciels et matériels mis en oeuvre dans sa réalisation : des interfaces d'interactions pour les utilisateurs, des logiciels de service (ou serveurs), des machines, des espaces de stockage, des réseaux, des protocoles de communication/dialogue entre les machines mais aussi entre les logiciels. Tous les logiciels dialoguent selon un protocole client/serveur : les clients sont les applications destinées à l'utilisateur final, les serveurs sont les applications gérant les informations et les ressources partagées au sein des organisations. Comme ces applications sont distribuées sur différents sites, il est nécessaire de les faire communiquer afin qu'elles coopèrent pour réaliser un travail commun. La communication s'effectue par l'intermédiaire d'une infrastructure entre machines distribuées, en l'occurrence le réseau. Cette infrastructure doit permettre l'interconnexion des machines à travers différents types de réseaux physiques et offrir des mécanismes de communication entre les applications distribuées. • Hétérogénéité L'hétérogénéité logicielle des environnements est due à la grande diversité des technologies proposées par l'industrie de l'informatique. À tous les niveaux d'un système informatique, de nombreuses solutions technologiques peuvent être envisagées. Les réseaux Internet et Intranet sont des exemples concrets de tels systèmes hétérogènes (divers types d'ordinateurs, fonctionnant sous différents systèmes d'exploitations ; variété des protocoles associés au réseaux). Hétérogénéité des équipements. Les équipements utilisés par les applications réparties, qu'ils soient des terminaux d'accès aux applications ou des infrastructures de communication utilisées par ces terminaux, se sont diversifiés, traduisant clairement une hétérogénéité matérielle. Les terminaux peuvent être aussi bien des stations de travail que des ordinateurs portables, ou encore des PDA. De même, les réseaux utilisés peuvent être des réseaux sans fil de proximité (du type technologie Bluetooth, par exemple), des réseaux téléphoniques sans fil (UMTS) ou des réseaux filaires locaux ou à grande échelle. • Intégration L'hétérogénéité permet donc d'utiliser la meilleure combinaison de technologies (matérielles et logicielles) pour chaque composant de l'infrastructure informatique d'une organisation. Cependant, il faut aplanir les différences issues de l'hétérogénéité et donc intégrer ces différentes technologies afin d'offrir un système cohérent et opérationnel. Parallèlement à l'intégration de nouvelles technologies, les entreprises ont aussi besoin de préserver leurs applications « patrimoines » (ou legacy applications). Ces applications sont souvent indispensables au fonctionnement de ces entreprises et il serait très coûteux, voire inutile, de les remplacer. L'intégration de l'existant avec les nouvelles technologies doit alors préserver les investissements passés et offrir de nouveaux services aux entreprises. Cependant, l'intégration de technologies hétérogènes s'avère généralement complexe et nécessite des plates-formes d'exécution réparties et souples. • Interopérabilité Lorsqu'une organisation développe ses propres applications en interne, elle peut toujours trouver des solutions propriétaires pour résoudre les trois points évoqués précédemment. Néanmoins, la mise en oeuvre de solutions propriétaires différentes au sein d'organisations est un frein à leur coopération. Ainsi, la seule manière d'atteindre l'interopérabilité entre les systèmes informatiques est de définir des normes acceptées et suivies par tous les acteurs impliqués dans la coopération. Afin d'être universellement acceptées, ces normes doivent être définies au sein d'organismes de standardisation ou de consortiums internationaux regroupant le maximum d'acteurs (des industries, des administrations, des organismes public de recherche, etc.). Les contraintes évoquées précédemment rendent complexe le développement d'applications distribuées. D'autre part, les applications distribuées nécessitent souvent la mise en oeuvre de mécanismes généraux permettant de trouver sur le réseau des ressources partagées, d'assurer la sécurité des communications, de réaliser des traitements transactionnels et de fournir la persistance des informations partagées. Il est alors évident que nous ne pouvons pas implanter ces mécanismes lors du développement de chaque nouvelle application. Il est donc nécessaire de factoriser les parties communes à toutes les applications et de ne développer que les parties nouvelles de celles-ci. Pour atteindre cette factorisation et masquer les quatre contraintes précédentes, comme nous allons le voir, plusieurs modèles de répartition des logiciels ont été développés avec le temps. Ces modèles peuvent répondre « plus ou moins » aux besoins des applications distribuées. Modèles de répartition des applications distribuées D'un point de vue opératoire, une application distribuée peut se définir comme un ensemble de processus s'exécutant sur différents sites communiquant entre eux par envois de messages. Pour faciliter la programmation de telles applications, et notamment la mise en oeuvre des communications entre processus, différents modèles de programmation ont été développés. Naturellement, ces modèles doivent prendre en compte l'hétérogénéité, l'intégration et l'interopérabilité des applications distribuées. On peut classer ces modèles en quatre catégories suivant le paradigme de communication utilisé par les processus. Nous allons maintenant présenter ces quatre paradigmes. LIFC Communication par messages Les processus communiquent par échange explicite de messages à travers le réseau de communication. La synchronisation est également réalisée par des primitives d'envois de messages. Selon la forme des messages échangés, on distingue trois types de communication dans ce modèle de répartition : ou PM2 [3], en sont des exemples significatifs, qui sont d'ailleurs très utilisés pour implémenter des d'applications distribuées. Il est à noter que PVM, tout comme la majorité des implémentations de MPI n'ont pas de mécanisme de tolérance aux pannes. MPICH-V [4] est l'une des implémentations tolérantes aux pannes, elle est basée sur MPICH [5]. Enfin, il faut remarquer que ces environnements ne fournissent pas de fonctionnalités telles que l'équilibrage de charge ou la migration de tâches. Le modèle de répartition fondé sur la communication par messages a souvent constitué une réponse efficace aux problèmes de performances des applications de calcul scientifique. Il est accessible à travers des bibliothèques de programmation qui sont difficiles à mettre en oeuvre. Aussi, dans de petites applications il n'est pas difficile de mettre en place un ensemble de messages à échanger entre les processus de l'application. En revanche, dans de grandes applications cet ensemble devient compliqué et difficile à maintenir. De plus, étendre cet ensemble afin d'y intégrer de nouvelles fonctionnalités est une tâche encore plus fastidieuse. D'autre part, n'étant pas directement intégré dans les langages de programmation, ce modèle n'est pas naturel pour la plupart des développeurs. Par exemple, une décomposition explicite des données est nécessaire pour les distribuer. Cela a abouti au développement d'un modèle de répartition différent, plus simple et plus robuste notamment pour les applications réparties à grande échelle. Suivant ce modèle, les processus d'une application distribuée partagent les « objets » plutôt que de les échanger. Objets partagés Par objets partagés, nous entendons des données localisées dans une mémoire partagée distribuée, notée DSM [6] (pour Distributed Shared Memory). Ainsi, les processus « partagent » virtuellement de la mémoire, même s'ils s'exécutent sur des machines qui ne la partagent pas physiquement. Grâce à ce mécanisme les processus peuvent accéder de manière uniforme à n'importe quel objet partagé, que celui-ci soit local ou non. Autrement dit, avec une DSM, une même opération peut induire des accès à distance ou non. De plus, l'accès se fait de manière transparente pour le programmeur (il n'a, par exemple, pas besoin de savoir où sont réellement stockées les données). À l'inverse, dans un modèle de communication par passage de messages, l'accès aux données non locales est explicite. Cela signifie que dans ce cas le programmeur doit décider quand un processus doit communiquer, avec qui et quelles données seront envoyées. La difficulté du contrôle assuré par le programmeur augmente avec le degré de complexité de la structuration des données et des stratégies de parallélisation. On constate donc qu'avec une DSM, le programmeur peut se concentrer pleinement sur le développement algorithmique, plutôt que sur la gestion des objets partagés. LIFC Les DSM peuvent être différenciées suivant trois critères : 1. L'implémentation Une mémoire partagée distribuée peut être implémentée soit au niveau du système d'exploitation, soit à travers une bibliothèque dédiée. Lorsque la DSM est mise en oeuvre par une modification du système d'exploitation, elle peut être vue comme une extension de la mémoire virtuelle. L'avantage étant que cela rend la DSM complètement transparente au développeur. On peut citer Kerrighed [7] comme un exemple d'un tel système. L'implémentation par une bibliothèque dédiée ne permet pas d'atteindre le même degré de transparence, par contre cette approche est plus portable. Le fait qu'elles soient structurées ou non Dans le cas d'une DSM non structurée, celle-ci apparaît comme un tableau linéaire d'octets. En revanche, l'utilisation d'une DSM structurée permet aux processus d'accéder la mémoire au niveau objets (au sens programmation orientée objets) ou des tuples (composés de suites d'au moins un élément typé), comme Linda [8] par exemple. Ce sont les langages de programmation utilisés qui structurent ou non une DSM. En pratique, une DSM est généralement organisée en mémoire sous forme de pages. Cela engendre le problème du faux partage, problème qui peut être utilisé en utilisant des protocoles à écriture multiple. Les protocoles de cohérence Un objet partagé consiste en une succession de versions 2 traduisant l'évolution de ses valeurs associées durant l'exécution de l'application distribuée. Afin d'assurer une vision cohérente des successions de versions des objets partagés aux différents processus, le système DSM utilise des protocoles de cohérence (consistency protocol). Ces protocoles assurent la cohérence des objets partagés en adoptant une stratégie de mise à jour des objets incohérents ou d'invalidation. Une stratégie basée sur l'invalidation donne généralement de meilleures performances, car une stratégie de mise à jour souffre plus des effets de faux partage [9]. La cohérence des objets partagés signifie que lors d'une lecture de la valeur d'un objet, c'est la dernière valeur écrite qui doit être lue. Malheureusement, la notion de dernière valeur écrite n'est pas toujours bien définie. C'est pourquoi, la valeur lue d'un objet n'est pas toujours la dernière valeur écrite. Les DSM diffèrent suivant le modèle de cohérence implémenté dans les protocoles. On distingue plusieurs modèles, selon la précision de la notion de dernière valeur écrite (chacun de ces modèles peut être plus ou moins bien adapté à une application donnée). Il est noté que comme le coût de l'envoi de messages est relativement élevé, moins le modèle de cohérence est strict plus la performance est améliorée. Les différents modèles peuvent être regroupés en deux catégories selon le mode d'accès aux objets partagés. En effet, un objet partagé peut être accédé avec un accès synchronisé ou non. Les outils de synchronisation classiques sont : verrous, barrières et sémaphores. Lors d'un accès synchronisé, l'objet est acquis par un processus, empêchant tout autre processus d'y accéder jusqu'au relâchement de l'objet. • Cohérence sans synchronisation -Cohérence séquentielle (sequential consistency) Ce modèle de cohérence est sans doute le plus fort. En effet, il garantit que la dernière valeur écrite sera propagée vers tous les processus dès que possible, suivant un ordre séquentiel particulier [10]. Ce modèle réduit la performance globale du système, car des messages sont envoyés, approximativement, pour chaque assignation à un objet partagé pour lequel il y a des copies valables en suspens. Ivy [11] et Mirage [12] ont adoptés ce modèle. -Cohérence causale (causal consistency) Par rapport au modèle précédent, il s'agit un modèle alternatif [13]. Il garantit la cohérence séquentielle des objets en relation causale, i.e. que le fait d'accéder à un objet peut avoir des conséquences sur l'accès à un autre. Remarquons que les objets qui ne sont pas en relation causale peuvent être vus dans des ordres différents dans les divers processus. -Cohérence de processeur (processeur consistency ou PRAM consistency) Il s'agit d'un modèle moins fort. La séquence des opérations d'écriture effectuées par un processus est vue par chaque processus dans l'ordre où ces opérations ont été effectuées. Cependant l'ensemble des opérations d'écriture effectuées par les différents processus peut être vu par chaque processus dans des ordres différents [14]. • Cohérence avec synchronisation -Cohérence faible (weak consistency) Ce modèle induit une cohérence séquentielle lors d'un accès synchronisé aux objets partagés [15]. Il garantit également la propagation des modifications effectuées par un processus lorsque celui-ci accède des objets partagés en mode synchronisé. Le processus est lui aussi informé des modifications intervenues auparavant dans les autres processus. -Cohérence à la sortie (release consistency) LIFC Ce modèle est encore moins fort, puisqu'il assure seulement que la mémoire est mise à jour au niveau de points de synchronisation bien précis. Suivant la position des points de synchronisation, on peut identifier deux modèles de cohérence à la sortie : • mise à jour précoce (eager release consistency) Assure la cohérence d'un objet partagé lorsqu'il est libéré, cela pour tous les processus. Le système multiprocesseur DASH [16] est une implémentation typique de ce modèle. • mise à jour paresseuse (lazy release consistency) Garantit également la cohérence d'un objet partagé lors de sa libération, mais uniquement pour le processus cherchant à l'« acquérir » [17]. Ce modèle est plus performant que le modèle précédent, car il requiert moins de communications entre processus. TreadMarks [18] adopte, par exemple, ce modèle. -Cohérence à l'entrée (entry consistency) À l'instar de la cohérence à la sortie, ce modèle assure que la mémoire est mise à jour lors de l'accès à l'objet [19]. Ainsi, dans ce cas un objet devient cohérent pour un processus seulement lorsqu'il acquiert cet objet. De plus, les seuls objets pour lesquels on a une garantie sont ceux acquis par le processus. Ce modèle de cohérence est plus faible que les autres, mais permet d'obtenir une meilleure performance. -Cohérence de portée (scope consistency) Modèle représentant un compromis entre une cohérence à l'entrée et une cohérence à la sortie « paresseuse ». Plus précisémment, il est similaire à la lazy release consistency, mais avec les avantages de la cohérence à l'entrée. Cela se fait grâce à la notion de portée cohérente [20] consistant en un regroupement des objets acquis par un noeud. Ce modèle est adopté dans JIAJIA [21]. Il existe également des systèmes qui supportent plusieurs modèles de cohérence simultanément. Par exemple, Midway [22] permet d'activer plusieurs modèles dans une même application : cohérence de processeur, à la sortie, à l'entrée. Munim [23] Appel de procédure à distance L'appel de procédure à distance [26] ou Remote Procedure Call (RPC) est un mode de communication de haut niveau, utilisé notamment sur Internet. Il offre une solution plus transparente et plus structurante du point de vue génie logiciel, permettant d'appeler des fonctions situées sur une machine distante, tout en s'efforçant de maintenir le plus possible la sémantique habituelle des appels. Le résultat est double : une intégration plus naturelle dans les langages de programmation procéduraux ; un paradigme facile et bien connu des programmeurs pour implémenter des applications distribuées de type client/serveur. Ce mode de communication permet de concevoir une application comme un ensemble de procédures distribuées dans les divers processus serveurs. L'objectif du mécanisme RPC est de masquer au processus client la couche de communication et la localisation distante de la procédure appelée. Ainsi, comme le montre la figure 1, l'appel de procédure à distance est identique à un appel local pour le processus client. La transparence de cette approche est facilitée par les procédures stubs ou souches qui sont générées automatiquement par un pré-compilateur à partir d'une description de la signature des procédures. Les problèmes liés à l'hétérogénéité des machines sont pris en charge dans les souches par une conversion des données vers un format unique, tel que XDR (eXternal Data Representation). Bien que l'implémentation des RPC soit aisée, ce mode de communication n'est pas très usité dans le domaine du calcul scientifique distribué. La principale raison vient de la nature bloquante des appels. En effet, lorsqu'un processus client RPC appelle une méthode distante, il reste bloqué (attente active) en attendant la réponse du processus serveur. Néanmoins, Logiciels médiateurs (ou middlewares) Les différents mécanismes décrits jusqu'à présent sont souvent soit de trop bas niveau, soit trop spécialisé pour construire des applications distribuées fortement hétérogènes. Ainsi, ils résolvent uniquement les problèmes de communication et d'hétérogénéité, laissant les développeurs faire face aux besoins d'intégration et d'interopérabilité des applications. Problèmes qui peuvent être résolus par l'utilisation de logiciels médiateurs, également appelés middlewares ou intergiciels [30]. Les logiciels médiateurs se situent au-dessous de l'applicatif, au-dessus du système d'exploitation, entre deux logiciels ayant besoin de communiquer entre eux (ce point est illustré par la figure 3). Ils offrent des services évolués et directement intégrables dans les applications, avec les avantages suivants : • Indépendance entre applications et système d'exploitation Chaque système d'exploitation offre des interfaces de programmation spécifiques pour contrôler les couches de communication réseau et les périphériques matériels. Un logiciel médiateur fournit aux applications des interfaces standardisées, masquant les spécificités de chaque système. • Portabilité des applications Les interfaces standardisées permettent de concevoir des applications portables et indépendantes des environnements d'exécution. Les sources des applications peuvent alors être recompilées sur différents environnements sans la moindre modification. • Services partagés Les applications distribuées requièrent des fonctionnalités systèmes telles que la communication, la sécurités, les transactions, la localisation, la désignation, l'administration, etc. Les intergiciels fournissent ces fonctionnalités sous la forme de services partagés sur l'ensemble des sites. Les logiciels médiateurs proposent des interfaces objets spécifiées dans un langage indépendant des différentes implémentations de ces interfaces. Il existe de nombreux logiciels médiateurs. Ainsi, ODBC (Open DataBase Connectivity) définit une API permettant à des applications clientes de communiquer avec des bases de données, ceci par l'intermédiaire du langage SQL. La norme CORBA [31] (Common Oriented Request Broker Architecture) ou l'architecture EAI (Enterprise Application Integration) sont des intergiciels qui s'inscrivent dans la famille des logiciels médiateurs orientés objets. Une autre famille est celle regroupant les middlewares orientés messages (MOM -Messages Oriented Middlewares) [32] tels que WebSphere MQ d'IBM ou MSMQ (Microsoft Message Queuing). Les intergiciels se doivent d'être de facto standardisés, afin d'être portable et de garantir l'interopérabilité. À l'heure actuelle, l'interopérabilité offerte n'est pas complète, l'interopérabilité entre logiciels médiateurs n'est en particulier pas assurée alors que des passerelles entre middlewares peuvent s'avérer nécessaires. En effet, l'hétérogénéité ne concerne pas uniquement les architectures matérielles et les langages de programmation, mais également les logiciels médiateurs. Cette problèmatique, à laquelle répond le concept de M2M (Middleware to Middleware [33]), émerge du fait de l'utilisation de composants pré-existants. CORBA doit, par exemple, pouvoir interopérer avec WebSphere MQ. Une nouvelle couche de logiciels ? La définition d'un nouveau modèle de répartition peut consister à spécialiser un modèle existant. C'est par exemple le cas de Dream [34], qui est un modèle hybride communication par messages-objets partagés. Autre exemple, Minimum CORBA qui spécialise CORBA pour les systèmes embarqués. À l'inverse, le modèle de répartition d'Ada 95 regroupe dans une même annexe, dédiée aux systèmes distribués (DSA), les objets partagés, l'appel de procédure à distance, les logiciels médiateurs, fonctionnalités souvent mise en oeuvre dans des plates-formes distinctes. Toutefois, l'émergence, l'extension ou la spécialisation des modèles de répartition est rendu difficile par la contradiction entre les objectifs de l'interopérabilité et la nouvelle forme d'hétérogénéité engendrée par la multiplicité des modèles. Assurer l'interopérabilité entre les modèles de répartition devient alors un nouvel enjeu technologique. L'interopérabilité peut être abordée de manière statique par l'élaboration d'un schéma de traduction d'une entité d'un modèle de répartition en une entité d'un autre modèle. Cependant, cette correspondance s'avère souvent délicate et les solutions se limitent à deux modèles sans permettre de passage à l'échelle. Par exemple, CIAO [35] fournit des passerelles statiques de DSA vers CORBA. Une approche consiste à améliorer les logiciels médiateurs de manière à ce qu'ils soient configurables, permettant d'ajouter ou de retirer, statiquement ou dynamiquement, des mécanismes au modèle de répartition initial. Dans ce contexte, la configurabilité autorise l'utilisateur à choisir les composants à mettre en oeuvre, comme dans TAO [36] qui constitue une plate-forme configurable pionnière, ou encore GLADE [37], la première implémentation de DSA se caractérisant par une forte configurabilité. Néanmoins, les logiciels médiateurs classiques n'offrent souvent qu'une configurabilité statique, limitée à certains composants, n'autorisant pas en général la sélection d'un comportement particulier pour un composant. De plus, passer d'une configuration à une autre requiert généralement une refonte de la conception d'une partie de son application. Obtenir une meilleure flexibilité passe donc par la définition d'une architecture dont les composants faiblement couplés soient reconfigurables indépendamment. Aussi, une approche plus générique consiste à étendre le concept de configurabilité par la production d'un logiciel médiateur générique ou personnalisable en fonction d'un modèle de répartition. Ainsi, une instanciation pour un modèle de répartition donné constitue une personnalité de l'intergiciel médiateur générique. Certains composants de l'architecture générique sont réutilisés, d'autres surchargés en fonction du modèle de répartition. C'est le cas de QuarterWare [38] qui s'illustre par une conception s'appuyant sur des gabarits de conception, ou encore de Jonathan [39] qui adopte une approche originale fondée sur les liaisons inspirées par le modèle ODP (Open Distributed Processing). Toutefois, l'architecture des logiciels médiateurs génériques LIFC et les éléments qui les composent reste mal établis, donnant encore lieu à de nombreux travaux de recherche. Une solution plus globale, unifiant les concepts d'interopérabilité, de configurabilité et de généricité, est la définition d'un logiciel médiateur schizophrène. Dans ce cadre, la schizophrènie caractérise la capacité d'un intergiciel à disposer, simultanément, de plusieurs personnalités afin de les faire interagir efficacement (cf. figure 4). Cela se traduit par l'aptitude de produire des passerelles dynamiques entre logiciels médiateurs. Un logiciel médiateur schizophrène permet de partager le code entre différents logiciels médiateurs sous forme d'une couche neutre du point de vue personnalité. Cette couche neutre propose d'une part des services qui sont indépendants de tout modèle de répartition et une, d'autre part une représentation commune des données. Elle se caractérise également par des composants qui contribuent à la factorisation du code entre personnalités, masquant donc l'incompatibilité entre personnalités. D'autres solutions que la proposition de logiciels médiateurs schizophrènes étant envisageables, il n'est irréaliste de voir apparaître un nouvelle couche de logiciels. Le tout est de savoir si la proposition de solutions induisant de nouvelles formes d'hétérogénéité et les problèmes de leurs intégration et interopérabilité sous-jacents s'avèrera encore pertinent dans le futur. Une couche supplémentaire unique : une machine virtuelle L'interopérabilité entre modèles de répartition représente une problématique pour laquelle les solutions présentées précédemment ne sont guère satisfaisantes. D'un autre côté, le développement d'applications distribuées reste un besoin incontournable. Aussi, pour satisfaire ce besoin, et en attendant la standardisation des couches logicielles ou l'adoption de nouvelles solutions, pourquoi ne pas profiter de technologies disponibles et satisfaisant les contraintes posées par les applications distribuées ? Autrement dit, utiliser une seule couche permettant de masquer au niveau applicatif les spécificités de l'ordinateur, et plus précisément son architecture ou son système d'exploitation. Cette couche d'abstraction permet ainsi d'exécuter l'application sans aucune modification, quelles que soient les caractéristiques de la plate-forme sous-jacente. Elle est plus communément appelée une machine virtuelle applicative ou plus simplement machine virtuelle. Une machine virtuelle est un programme qui imite les opérations d'un ordinateur, exécutant un langage assembleur virtuel qui lui est propre (le byte code) associé à un processeur générique tout aussi virtuel. C'est donc un ordinateur abstrait qui comme une vraie machine possède un ensemble d'instructions, manipule des régions mémoire différentes, offrant l'abstraction d'un environnement homogène. Le résultat est une transparence de l'hétérogénéité des plates-formes pour les développeurs. De fait, toutes les implémentations d'une machine virtuelle donnée ont un comportement externe identique grâce aux spécifications qui décrivent son architecture interne abstraite. Pour exécuter une application sur une machine virtuelle donnée, l'application (développée sur une plate-forme quelconque) doit être compilée dans un format intermédiaire, indépendant de toute plate-forme d'exécution. Comme noté plus haut, ce format est appelé byte code. Le résultat est qu'au lieu de compiler l'application dans un code natif pour chaque plate-forme (toute modification ultérieure de l'application nécessitera une recompilation pour chaque plate-forme), elle est compilée une fois dans un byte code pour une machine virtuelle donnée. Cela confère donc la caractéristique de portabilité à l'application, puisque celle-ci peut fonctionner sur toute plate-forme supportant cette machine virtuelle. De plus, il est d'une part plus aisé de faire évoluer une application compilée dans un byte code, et d'autre part sa mise en place est plus rapide. Le byte code n'est pas directement exécutable tel quel par le processeur réel d'un ordinateur. À chaque lancement d'une application il est interprété au fur et à mesure par la machine virtuelle et traduit en code natif pour la plate-forme. Malheureusement, cette interprétation à la volée affaiblit les performances de l'application exécutée. Toutefois, bien que moindre, les performances obtenues en interprétant du byte code sont en général meilleures comparées à celles résultant d'un langages interprété tel que Perl, Python, PHP ou bien encore Tcl. Afin de minimiser le ralentissement induit par l'interprétation du byte code par les machines virtuelles, plusieurs solutions ont été proposées. Un compilateur JIT (Just In Time), par exemple, interprète le byte code en code natif avant exécution, place les résultats dans un cache, les utilisant au cas par cas suivant les besoins. Ceci permet, dans bien des situations, à l'application de n'avoir des performances que légèrement inférieures à celles des codes natifs (compilé pour un seul type de plate-forme). Les compi-LIFC lateurs JIT sont presque toujours plus rapide qu'un interpréteur, les plus récents sont même capables d'identifier le code qui est fréquemment exécuté et d'optimiser exclusivement la vitesse de celui-ci. Les améliorations constantes permettront sans doute d'obtenir à terme des performances similaires à celles des compilateurs « classiques ». La machine virtuelle Java L'utilisation de machines virtuelles remonte à l'époque des P-machines (ou pseudo-code machine) dans les années soixante-dix. Elles exécutaient du P-code (une sorte de byte-code), le résultat de la compilation des premiers compilateurs Pascal. D'autres exemples de machines virtuelles sont la machine virtuelle Parrot pour le langage Perl et celles du langage Smalltalk (Smalltalk-80, Digitalk, etc.). À l'heure actuelle, la machine virtuelle la plus connue et la plus usité est sans aucun doute la machine virtuelle Java, ou JVM 3 (Java Virtual Machine) [40]. La machine virtuelle Java s'est imposée grâce à sa large diffusion. En effet, elle a été adaptée à toute sorte de matériels, allant des superordinateurs à des systèmes de navigation pour voiture ou des bornes de paiement dans les parkings, en passant par les ordinateurs et téléphones portables. Cette multiplicité de plates-formes fait que la JVM est considérée comme la référence pour les applications distribuées, en particulier pour les applications sur Internet. La JVM présente plusieurs caractéristiques qui sont très intéressantes : • Ramasse-miettes automatique Ce service facilite le travail du programmeur en le déchargeant de la gestion de la mémoire. Toutefois, c'est d'une part moins rapide qu'une gestion manuelle, d'autre part le programme est plus gourmand en mémoire et plus lent au démarrage (dans le cas d'applications importantes). • Sécurité Comme la JVM a été conçue initialement pour exécuter le byte code de programmes transmis via le réseau Internet (Applet), elle comporte des mécanismes de sécurité. Le premier est la vérification, si besoin, du byte code avec un algorithme d'authenfication à clé publique avant interprétation. Ceci permet de bloquer l'accès au disque local ou au réseau sans autorisation, garantit la validité du byte code et assure que ce dernier ne viole pas les restrictions de sécurité de la JVM. En second lieu, la machine virtuelle Java rend impossible certains types d'attaque, comme la surcharge de la pile d'exécution, l'endommagement de la mémoire extérieure à son propre espace de traitement, la lecture ou l'écriture de fichiers sans permission. Enfin, la JVM contrôle également l'exécution de l'application en temps réel à l'aide de la notion de classe signée numériquement. Ainsi, il est possible de savoir qui est l'auteur d'une classe donnée et ainsi de déterminer l'ampleur des privilèges accordés à cette classe en fonction de la confiance envers son auteur. • Monitoring Par ailleurs, les serveurs d'applications peuvent utiliser les capacités de surveillance de la machine virtuelle Java pour accomplir diverses tâches : -répartition automatique de la charge ; -regroupement des connexions aux bases de données ; -synchronisation d'objets ; -arrêt et redémarrage des mécanismes de sécurité ; -etc. Les programmeurs ont intérêt à utiliser ces fonctionnalités sophistiquées, plutôt que de les développer. Ainsi, ils peuvent se concentrer sur la logique de traitement de son application. • Interpréteurs JIT Toutes les JVM disponibles pour les différentes plates-formes, à l'exception de celles du type téléphone portable, fournissent des interpréteurs JIT, permettant d'obtenir de bonnes performances. Ces bonnes performances s'expliquent en partie par le fait que le résultat de la translation de byte code en code natif est mémorisé à l'issue du premier appel lors d'une exécution. En outre, à partir de la version 1. Il faut noter que les machines virtuelles, en particulier les JVM, souffrent d'une réputation de lenteur : les applications gourmandes en puissance de calcul sont incontestablement plus lente que leurs équivalents C ou C++, y compris en utilisant un interpréteur JIT. Naturellement, dans le cas d'applications recourant intensément à des entrées-sorties ou interactives, limitées par la bande passante, ce problème est mineur. Aussi, dans ce cadre les avantages de Java, comme sa nature mi-compilé/mi-interprété, le chargement dynamique des classes, le ramasse-miettes, etc., prennent le dessus. Enfin, la réputation de lenteur conférée à Java date de ses origines, l'amélioration constante des machines virtuelles permet à l'heure actuelle d'obtenir des performances très proches de celles d'une application native. Enfin, bien que les JVM soient les machines virtuelles les plus connues, il faut savoir que la plate-forme .NET de Microsoft reprend le concept de machine virtuelle. Ainsi, la machine virtuelle CLR (Common Language Runtime) exécute un byte code noté CIL (Common Intermediate Language). Microsoft fournit actuellement des compilateurs produisant du byte code CIL pour plusieurs langages : Visual Basic, C#, C++ et même Java. Des compilateurs pour d'autres langages comme Cobol, Fortran et Perl sont en cours de développement. Cependant, du point de vue des applications distribuées, la machine virtuelle CLR n'est pas pertinente du fait de la limitation de la plate-forme .NET aux systèmes d'exploitation Windows (pour Linux, projet Mono en cours). Cela limite donc considérablement la portabilité et l'interopérabilité de ce type d'applications. Caractéristiques • Langage spécifiquement orienté objet Si le langage Java est connu pour sa simplicité relative (par rapport à d'autres langages), une de ses caractéristiques les plus marquantes est qu'il est strictement orienté objet. C'est-à-dire qu'il respecte l'approche orientée objet de la programmation objet sans qu'il soit possible de programmer autrement. En clair, contrairement à C++, par exemple, on ne peut faire que de la programmation orientée objet avec Java. Cette spécificité permet une meilleure lisibilité des programmes, avec une organisation plus structurée et un traitement des erreurs plus aisé. Le langage Java ne dispose pas l'héritage multiple, néanmoins il offre plein de ses avantages sans les problèmes associés par le biais des interfaces. • Fiabilité Une autre caractéristique non négligeable de Java est sa fiabilité. Cette fiabilité est notable en particulier dans sa gestion des pointeurs qui écarte tout problème d'écrasement ou endommagement des données. • Intégration Le langage Java permet l'intégration de code natif (ce qui présente parfois certains risques de sécurité, car ce dernier peut manipuler directement la mémoire) via l'interface native JNI (Java Native Interface). Ceci implique que des codes existants, en C ou C++ par exemple, peuvent être intégrés dans un code Java. Même si cette approche semble mener à un code fragile et difficile à maintenir, elle représente une solution judicieuse au problème d'intégration. • Programmation multithreadée Créer des threads et les manipuler est très facile dans le langage Java. Cette simplicité est l'une des raisons principales du succès de Java dans le développement côté serveur. Le langage possède une collection sophistiquée de primitives de synchronisation entre plusieurs threads. En outre, dans les API de Java on trouve des classes qui facilitent davantage la programmation multithreadée. Le langage Java rend donc possible l'utilisation de threads de façon indépendante des plates-formes sous-jacentes, bien que de manière imparfaite. En effet, la portabilité des programmes n'est pas complète, car les threads ne sont implémentés (à travers les différentes implémentations de JVM) de façon identique sur les plates-formes (les appels multithreads sont en revanche identiques). Ainsi, la technologie Java n'est pas complètement indépendante de la plate-forme d'exécution à cet égard [42]. Malgré cela, nous pensons que dans l'avenir la communauté Java adoptera une seule politique d'ordonnancement des threads, probablement Green Thread, dans toutes les implémenta-LIFC tions de JVM. Cet article est d'ailleurs un encouragement aux efforts de standardisation de l'implémentation de l'ordonnanceur de threads dans les JVM. La migration de threads requiert un service de capture/restauration de l'état des flots de contrôle. Ce service, seul ou complété par d'autres, facilite la mise en place d'outils comme l'équilibrage de charge dynamique entre machines, la diminution du trafic réseau par migration des clients vers le serveur, l'utilisation de plates-formes à agents mobiles ou encore l'administration des machines. La tolérance aux pannes et le débogage des applications dépendent également en partie de la mise à disposition d'un service de capture/restauration de l'état des flots de contrôle. Modèles de répartition supportés Comme nous l'avons noté plus haut, de nombreuses bibliothèques et API sont disponibles pour le langage Java. En standard, Java est livré avec une API évoluée comportant plus de 3000 classes appelées JFC (Java Fondation Classes). Ces classes sont très perfectionnées, elles ont été minutieusement étendues, testées et éprouvées. Enfin, elles couvrent un spectre très étendu de besoins, comme la construction des interfaces utilisateur (AWT -Abstract Window Toolkit, Swing), la gestion de bases de données (JDBC -Java Data Base Connectivity), l'internationalisation, etc. Par le biais de cette bibliothèque, Java supporte tous les modèles de répartition, tout en conservant les avantages recherchés pour les applications distribuées. Communication par messages D'une part, Java dispose des fonctions permettant de gérer les sockets. D'autre part, le fonctionnement dans un environnement réseau de type Internet/Intranet est intrinsèquement prévu, via la création d'applets exécutées dans un navigateur Web. En effet, une bibliothèque de routines permettant de gérer des protocoles basés sur TCP/IP ou UDP/IP tels que HTTP et FTP est disponible, on dispose ainsi de fonctionnalités réseaux à la fois fiables et d'utilisation aisée. Les applications Java peuvent charger et accéder à des objets sur Internet avec la même facilité que si l'objet était local. Java va au-delà du transfert de messages structurés, puisqu'il est possible de transférer des objets « proprement dit ». Pour réaliser ce transfert, Java utilise le mécanisme de sérialisation, celui-ci consiste à convertir des objets Java en un flux d'octets, afin de les réutiliser en effectuant l'opération duale (désérialisation). Cette réutilisation peut être immédiate en les transférant sur un réseau ou ultérieure en les stockant dans un fichier. Il s'agit d'une caractéristique très intéressante, en particulier pour les applications nécessitant un certaine persistance des objets ou de les envoyer. Ce méca-nisme de sérialisation/désérialisation est quasi-transparent pour l'utilisateur. D'ailleurs, JPVM (Java Parallel Virtual Machine), une implémentation de PVM entièrement écrite en Java, permet aux fans de PVM de continuer à l'utiliser tout en profitant des nombreux avantages de la technologie Java. Objets partagés Comme nous l'avons noté précédemment, la mémoire distribuée partagée correspond à une fédération de la mémoire physique de plusieurs machines distribuées en une mémoire virtuelle unique. La mémoire virtuelle résultante de cette fédération est rendue accessible aux programmeurs à travers des bibliothèques dédiées (cf. section 3.2). Cette bibliothèque étant écrite suivant le modèle de passage de message, rien n'empêche la technologie Java d'en fournir une. JavaParty [43] et Hive [44] sont des exemples concrets d'une telle possibilité. Il est également à noter que Hive offre la possibilité d'employer un des deux modèles de cohérence suivants : cohérence séquentielle ou à la sortie. Appel de procédure à distance Le mécanisme de Remote Method Invocation (RMI) est une implémentation dite « tout Java » du RPC. C'est une API permettant de manipuler des objets Java distants, c'est-à-dire des objets instanciés sur une autre JVM que celle de la machine locale. Ainsi, RMI permet d'atteindre un certain degré de portabilité. L'ensemble des communications se fait en Java, en utilisant le mécanisme de sérialisation/désérialisation d'objets pour passer et récupérer les paramètres des méthodes distantes. De plus, ARMI [45](Asynchronous RMI), une version asynchrone de RMI, permet d'effectuer des appels non bloquants à distance. Logiciels médiateurs Finalement, la technologie Java renforce sa présence dans le monde des application distribuées avec son logiciel médiateur : JMS (Java Messaging Service) de la famille MOM. En outre, la technologie Java devant être une solution stratégique, l'intégration et l'interopérabilité avec les différents logiciels médiateurs doit être possible. De fait, Java permet l'intégration de toute application possédant une interface ORB (Object Request Broker) comme C++, C#, Smalltalk, etc. D'ailleurs, cette intégration est simplifiée en Java à travers le package RMI-IIOP (Internet Inter-Orb Protocol) qui génère le code nécessaire pour communiquer avec de telles applications. Parmi les autres solutions pionnières d'interopérabilité, nous pouvons citer JNBridge qui assure l'interopérabilité entre Java et .NET. LIFC Conclusion Dans un contexte distribué où les machines et les réseaux sont hétérogènes, la technologie Java est la plus adéquate pour la programmation des applications distribuées. Elle se traduit par une seule couche supplémentaire, en l'occurrence la machine virtuelle JVM, qui bien que ralentissant légèrement l'exécution, permet de garantir la portabilité, la sécurité, l'intégration et l'interopérabilité des applications. En outre, la technologie Java offre ces garanties tout en donnant la possibilité de coder des applications distribuées suivant n'importe quel modèle de répartition. C'est pourquoi nous pensons que la technologie Java est une solution stratégique, indispensable et incontournable pour la mise en oeuvre des applications distribuées. En particulier les applications tolérant une faible perte de performance. Fig. 1 -Fig. 2 - 12Les différentes étapes d'un appel de procédure distante. ce modèle est parfaitement adapté aux applications dont l'architecture est de type client/serveur. Les plates-formes les plus fréquemment utilisées sont DCE[27] (Distributed Computing Environment) de l'Open Software Fondation et les RPC de Sun[28].L'approche RPC introduit une méthode de gestion des formats de données hétérogènes, néanmoins cette méthode a une granularité trop importante pour faire communiquer des objets distants. De fait, elle permet d'invoquer une procédure d'un processus plutôt qu'une méthode d'un objet d'un processus. Dans le contexte orienté objets, ce problème est résolus par une extension de RPC, à savoir l'invocation d'objets distants. Ce mécanisme d'appel de méthode à distance (voir la figure 2) a été introduit dans une version distribuée du langage SmallTalk (distributed SmallTalk) et dans le langage Modula-3 sous le nom de Network objects). Ces environnements génèrent automatiquement les souches de communication à partir de l'interface des objets.Le principal défaut de cette approche est sa limitation à certains langages de programmation. Cette spécificité s'oppose aux besoins d'interopérabilité, de réutilisation de composants issus de langages différents et d'intégration d'applications patrimoines. Le protocole SOAP [29] (Simple Object Access Protocol), bâti sur XML, semble un bon remède à ce problème d'Invocation d'une méthode distante. Fig. 3 - 3Mise en oeuvre d'un logiciel médiateur. Fig. 4 - 4Mise en oeuvre d'un logiciel médiateur schizophrène. , lui également, utilise plusieurs modèles de cohérence selon les différents types des objets partagés (write once, write many, result, migratory, producer/consumer, general read/write and synchronization). Les systèmes récents gérant une DSM, comme Millipede[24], intègrent l'usage des environnements multithreadés. On constate donc que l'utilisation d'une DSM est plutôt souhaitable du point de vue programmation, puisqu'elle rend transparente la gestion des objets partagés. Cependant, cette approche est moins performante (elle est également moins populaire). En effet, l'implémentation de la DSM repose sur un mécanisme « convertissant » la mémoire partagéeen échanges de messages, aboutissant à des communications supplé- mentaires par rapport au modèle précédent. De fait, bien que dans le modèle de communication par passage de messages le programmeur soit en charge de la gestion de toutes les communications (plus de travail), cela présente deux avantages. D'une part d'avoir une gestion plus efficace des communications, d'autre part une vue complète de l'organisation des données de l'application (ce qui n'est pas le cas d'un système gérant une DSM). Notons qu'en pratique le surcoût en communications induit par l'utilisation d'une DSM est limité pour des configurations mettant en jeu peu de noeuds, ainsi que pour certains algorithmes. À titre d'exemple, TreadMarks permet d'atteindre de 76% à 99% des performances obtenues avec PVM dans certaines applications, notamment dans le domaine du calcul scienti- fique [25]. Le point essentiel d'un système utilisant une DSM est de veiller à ce que les communications implicites des données évitent les problèmes de cohérence des objets partagés. RR 2008-11 Le déploiement d'une application distribuée consiste en la diffusion de programmes exécutables, leur installation et leur configuration sur les sites de leur future exploitation.LIFC Une version est dite en attente si une tâche peut encore écrire cette version ; prête si aucune tâche ne peut plus écrire cette version ; terminée si aucune tâche ne pourra jamais plus ni la lire, ni l'écrire.RR 2008-11 Elle a été créée par Sun Microsystems en 1995, résultat du projet « Green ». D'autres implémentations de la JVM existent, comme la JVM d'IBM ou JRockit de BEA Systems. RR 2008-11 La solution de la technologie JavaLa technologie Java est composée d'un langage de programmation orienté objet (le langage Java)[41] et d'un environnement d'exécution (JVM). De nombreux frameworks et API (Application Programming Interface) permettent d'utiliser Java dans des contextes variés : systèmes mobiles, Smart-Cards, etc. La maturité, la robustesse et la flexibilité du langage Java, ainsi que la richesse des bibliothèques et API de programmation l'accompagnant contribuent à faire de la technologie Java la plate-forme de référence pour les applications distribuées. Dans la suite, nous allons présenter brièvement quelques caractéristiques du langage Java et de certaines bibliothèques, en mettant l'accent sur celles qui sont intéressantes pour les applications distribuées.RR 2008-11 Using MPI : Portable Parallel Programming With the Message-Passing Interface. A W Skjellum, E Gropp, Lusk, MIT Pressset editionA. Skjellum. W. Gropp, E. Lusk. Using MPI : Portable Parallel Pro- gramming With the Message-Passing Interface. MIT Press, October 1994. Volume One ONLY of Two-Volume set edition. PVM : Parallel Virtual Machine : A Users' Guide and Tutorial for Network Parallel Computing. A Geist, A Beguelin, J Dongarra, W Jiang, R Manchek, V Sunderam, MIT Pressset editionA. Geist, A. Beguelin, J. Dongarra, W. Jiang, R. Manchek, and V. Sun- deram. PVM : Parallel Virtual Machine : A Users' Guide and Tutorial for Network Parallel Computing. MIT Press, November 1994. Volume One ONLY of Two-Volume set edition. PM2 : Parallel multithreaded machine. a computing environment for distributed architectures. J.-F R Méhaut, Namyst, Parallel Computing : State-of-the-Art and Perspectives. J.-F. Méhaut. R. Namyst. PM2 : Parallel multithreaded machine. a computing environment for distributed architectures. In Parallel Com- puting : State-of-the-Art and Perspectives, 1996. MPICHV : Toward a scalable fault tolerant MPI for volatile nodes. G Bosilca, A Bouteiller, F Cappello, S Djilali, G Fedak, C Germain, T Herault, P Lemarinier, O Lodygensky, F Magniette, V Neri, A Selikhov, G. Bosilca, A. Bouteiller, F. Cappello, S. Djilali, G. Fedak, C. Germain, T. Herault, P. Lemarinier, O. Lodygensky, F. Magniette, V. Neri, and A. Selikhov. MPICHV : Toward a scalable fault tolerant MPI for volatile nodes, 2002. Sowing MPICH : A case study in the dissemination of a portable environment for parallel scientific computing. W Gropp, E Lusk, The International Journal of Supercomputer Applications and High Performance Computing. Summer11W. Gropp and E. Lusk. Sowing MPICH : A case study in the dissemi- nation of a portable environment for parallel scientific computing. The International Journal of Supercomputer Applications and High Perfor- mance Computing, 11(2) :103-114, Summer 1997. A comprehensive distributed shared memory system that is easy to use and program. Andrzej M Goscinski, Jackie Silcock, Distributed Systems Engineering. 64Andrzej M. Goscinski Jackie Silcock. A comprehensive distributed sha- red memory system that is easy to use and program. Distributed Sys- tems Engineering, 6(4) :121-128, 1999. Kerrighed and data parallelism : Cluster computing on single system image operating systems. Christine Morin, Renaud Lottiaux, Geoffroy Vallée, Pascal Gallard, David Margery, Jean-Yves Berthou, Isaac Scherson, Proc. of Cluster. of ClusterIEEEChristine Morin, Renaud Lottiaux, Geoffroy Vallée, Pascal Gallard, Da- vid Margery, Jean-Yves Berthou, and Isaac Scherson. Kerrighed and data parallelism : Cluster computing on single system image operating systems. In Proc. of Cluster 2004. IEEE, September 2004. The s/net's linda kernel. David Gelernter, Nicholas Carriero, ACM Trans. Comput. Syst. 42David Gelernter Nicholas Carriero. The s/net's linda kernel. ACM Trans. Comput. Syst., 4(2) :110-129, 1986. Memory consistency and event ordering in scalable shared-memory multiprocessors. Kourosh Gharachorloo, Daniel Lenoski, James Laudon, Phillip B Gibbons, Anoop Gupta, John L Hennessy, 25 Years ISCA : Retrospectives and Reprints. Kourosh Gharachorloo, Daniel Lenoski, James Laudon, Phillip B. Gib- bons, Anoop Gupta, and John L. Hennessy. Memory consistency and event ordering in scalable shared-memory multiprocessors. In 25 Years ISCA : Retrospectives and Reprints, pages "376-387, 1998. Linearizability : a correctness condition for concurrent objects. M Wing Jeannette, P Herlihy Maurice, ACM Trans. Program. Lang. Syst. 123M. Wing Jeannette P. Herlihy Maurice. Linearizability : a correctness condition for concurrent objects. ACM Trans. Program. Lang. Syst., 12(3) :463-492, 1990. Memory coherence in shared virtual memory systems. Paul Hudak, Kai Li, ACM Trans. Comput. Syst. 74Paul Hudak Kai Li. Memory coherence in shared virtual memory sys- tems. ACM Trans. Comput. Syst., 7(4) :321-359, 1989. Mirage : a coherent distributed shared memory design. G , Popek B Fleisch, SOSP '89 : Proceedings of the twelfth ACM symposium on Operating systems principles. New York, NY, USAACM PressG. Popek B. Fleisch. Mirage : a coherent distributed shared memory de- sign. In SOSP '89 : Proceedings of the twelfth ACM symposium on Ope- rating systems principles, pages 211-223, New York, NY, USA, 1989. ACM Press. Causal memory : Definitions, implementation, and programming. Distributed Computing. Ahamad Mustaque, E Gil, Burns, Kohli James, W. Hutto Prince, Phillip, 9Ahamad Mustaque, Neiger Gil, E. Burns James, Kohli Prince, and W. Hutto Phillip. Causal memory : Definitions, implementation, and programming. Distributed Computing, 9(1) :37-49, 1995. Memory consistency models. David Mosberger, Operating Systems Review. 271David Mosberger. Memory consistency models. Operating Systems Review, 27(1) :18-26, 1993. A weak-consistency architecture for distributed information services. Richard A Golding, UCSC-CRL-92-31Usenix AssociationTechnical ReportRichard A. Golding. A weak-consistency architecture for distributed information services. Technical Report UCSC-CRL-92-31, Usenix As- sociation, 1992. . Daniel Lenoski, James Laudon, Kourosh Gharachorloo, Wolf-Dietrich Weber, Anoop Gupta, John Hennessy, Mark Horowitz, Monica S , Daniel Lenoski, James Laudon, Kourosh Gharachorloo, Wolf-Dietrich Weber, Anoop Gupta, John Hennessy, Mark Horowitz, and Monica S. The stanford dash multiprocessor. Lam, Computer. 253Lam. The stanford dash multiprocessor. Computer, 25(3) :63-79, 1992. Lazy release consistency for hardware-coherent multiprocessors. Leonidas I Kontothanassis, Michael L Scott, Ricardo Bianchini, Supercomputing '95 : Proceedings of the 1995 ACM/IEEE conference on Supercomputing (CDROM). New York, NY, USAACM Press61Leonidas I. Kontothanassis, Michael L. Scott, and Ricardo Bianchini. Lazy release consistency for hardware-coherent multiprocessors. In Su- percomputing '95 : Proceedings of the 1995 ACM/IEEE conference on Supercomputing (CDROM), page 61, New York, NY, USA, 1995. ACM Press. Treadmarks : Shared memory computing on networks of workstations. C Amza, A L Cox, S Dwarkadas, P Keleher, H Lu, R Rajamony, W Zwaenepoel, W Yu, IEEE Computer. 292C. Amza, A. L. Cox, S. Dwarkadas, P. Keleher, H. Lu, R. Rajamony, and W. Zwaenepoel W. Yu. Treadmarks : Shared memory computing on networks of workstations. IEEE Computer, 29(2) :18-28, 1996. A comparison of entry consistency and lazy release consistency implementations. S V Adve, A L Cox, S Dwarkadas, R Rajamony, W Zwaenepoel, Proc. of the 2nd IEEE Symp. on High-Performance Computer Architecture (HPCA-2). of the 2nd IEEE Symp. on High-Performance Computer Architecture (HPCA-2)S. V. Adve, A. L. Cox, S. Dwarkadas, R. Rajamony, and W. Zwaene- poel. A comparison of entry consistency and lazy release consistency implementations. In Proc. of the 2nd IEEE Symp. on High-Performance Computer Architecture (HPCA-2), pages 26-37, 1996. Jaswinder Pal Singh. Scope consistency : A bridge between release consistency and entry consistency. Kai Li Liviu Iftode, Theory Comput. Syst. 314Kai Li Liviu Iftode, Jaswinder Pal Singh. Scope consistency : A bridge between release consistency and entry consistency. Theory Comput. Syst., 31(4) :451-473, 1998. JIAJIA : A software DSM system based on a new cache coherence protocol. Weiwu Hu, Weisong Shi, Zhimin Tang, HPCN Europe. Weiwu Hu, Weisong Shi, and Zhimin Tang. JIAJIA : A software DSM system based on a new cache coherence protocol. In HPCN Europe, pages 463-472, 1999. The midway distributed shared memory system. A Wayne, N Sawdon Brian, Matthew J Bershad, Zekauskas, Pittsburgh, PA, USACarnegie Mellon UniversityTechnical reportWayne A. Sawdon Brian N. Bershad, Matthew J. Zekauskas. The mid- way distributed shared memory system. Technical report, Carnegie Mellon University, Pittsburgh, PA, USA, 1993. Munin : Distributed shared memory based on type-specific memory coherence. W Zwaenepoel, J K Bennett, J B Carter, Proc. of the Second ACM SIGPLAN Symp. on Principles and Practice of Parallel Programming (PPOPP'90). of the Second ACM SIGPLAN Symp. on Principles and Practice of Parallel Programming (PPOPP'90)W. Zwaenepoel J. K. Bennett, J. B. Carter. Munin : Distributed sha- red memory based on type-specific memory coherence. In Proc. of the Second ACM SIGPLAN Symp. on Principles and Practice of Parallel Programming (PPOPP'90), pages 168-177, 1990. A programming environment for a transputer-based multiprocessor system. M Aspnäs, Ralph-Johan Back, Acta Cybern. 93M. Aspnäs and Ralph-Johan Back. A programming environment for a transputer-based multiprocessor system. Acta Cybern., 9(3) :291-301, 1990. Message passing versus distributed shared memory on networks of workstations. Honghui Lu, Sandhya Dwarkadas, Alan L Cox, Willy Zwaenepoel, Supercomputing '95 : Proceedings of the. Honghui Lu, Sandhya Dwarkadas, Alan L. Cox, and Willy Zwaene- poel. Message passing versus distributed shared memory on networks of workstations. In Supercomputing '95 : Proceedings of the 1995 ACM/IEEE conference on Supercomputing (CDROM). New York, NY, USAACM Press37ACM/IEEE conference on Supercomputing (CDROM), page 37, New York, NY, USA, 1995. ACM Press. Implementing remote procedure calls. Bruce Jay Nelson Andrew, D Birrell, ACM Transactions on Computer Systems. 21Bruce Jay Nelson Andrew D. Birrell. Implementing remote procedure calls. ACM Transactions on Computer Systems, 2(1) :39-59, February 1984. . The Open Group. DCE TODAY. Ward Rosenberry. 2e éditionThe Open Group. DCE TODAY. Ward Rosenberry, July 1998. 2e édition. Rpc : Remote procedure call protocol specification version 2. R Srinivasan, RFC EditorTechnical reportR. Srinivasan. Rpc : Remote procedure call protocol specification ver- sion 2. Technical report, RFC Editor, 1995. . Recommendation. SOAP specification. Recommendation. SOAP specification, 2003. http ://www.w3.org/TR/soap12-part1/. Intergiciels schizophrènes : une solution pour l'interopérabilité entre modèles de répartition. Pautet Laurent, Intergiciels, Développement récents dans Corba, Java RMI et les agents mobiles. LavoisierLaurent PAUTET. Intergiciels schizophrènes : une solution pour l'inter- opérabilité entre modèles de répartition. In Intergiciels, Développement récents dans Corba, Java RMI et les agents mobiles. Lavoisier, May 2004. CORBA : Des concepts à la pratique. Dunod. Philippe Merle , Christophe Gransart, Jean-Marc Geib, 2e éditionPhilippe Merle Christophe Gransart, Jean-Marc Geib. CORBA : Des concepts à la pratique. Dunod, 1999. 2e édition. A case for message oriented middleware. Guruduth Banavar, Deepak Tushar, Robert E Chandra, Daniel C Strom, Sturman, Proceedings of the 13th International Symposium on Distributed Computing. the 13th International Symposium on Distributed ComputingLondon, UKSpringer-VerlagGuruduth Banavar, Tushar Deepak Chandra, Robert E. Strom, and Daniel C. Sturman. A case for message oriented middleware. In Procee- dings of the 13th International Symposium on Distributed Computing, pages 1-18, London, UK, 1999. Springer-Verlag. A2A, B2B-Now we need M2M (middleware to middleware) technology. Seán Baker, DOA '01 : Proceedings of the Third International Symposium on Distributed Objects and Applications. Washington, DC, USAIEEE Computer SocietySeán Baker. A2A, B2B-Now we need M2M (middleware to middleware) technology. In DOA '01 : Proceedings of the Third International Sym- posium on Distributed Objects and Applications, page 5, Washington, DC, USA, 2001. IEEE Computer Society. DREAM : A Distributed Shared Memory model using PVM. Cedric Dumoulin, Hermes, editor, EuroPVM'95. 5Cedric Dumoulin. DREAM : A Distributed Shared Memory model using PVM. In Hermes, editor, EuroPVM'95, volume 5, pages 155- 160, September 1995. Ciao : Opening the ada 95 distributed systems annex to CORBA clients. T Quinot, T. Quinot. Ciao : Opening the ada 95 distributed systems annex to CORBA clients, 1999. Applying patterns to develop extensible and maintainable ORB middleware. Douglas Schmidt, Chris Cleeland, Communications of the ACM Special Issue on Software Maintenance. 4012Douglas Schmidt and Chris Cleeland. Applying patterns to develop extensible and maintainable ORB middleware. Communications of the ACM Special Issue on Software Maintenance, 40(12), December 1997. GLADE : a Framework for Building Large Object-Oriented Real-Time Distributed Systems. Laurent Pautet, Samuel Tardieu, Proceedings of the 3rd IEEE International Symposium on Object-Oriented Real-Time Distributed Computing (ISORC'00). the 3rd IEEE International Symposium on Object-Oriented Real-Time Distributed Computing (ISORC'00)Newport Beach, California, USAIEEE Computer Society PressLaurent Pautet and Samuel Tardieu. GLADE : a Framework for Buil- ding Large Object-Oriented Real-Time Distributed Systems. In Pro- ceedings of the 3rd IEEE International Symposium on Object-Oriented Real-Time Distributed Computing (ISORC'00), Newport Beach, Cali- fornia, USA, June 2000. IEEE Computer Society Press. Quarterware for middleware. A Singhai, A Sane, R H Campbell, ICDCS '98 : Proceedings of the The 18th International Conference on Distributed Computing Systems. Washington, DC, USAIEEE Computer Society192A. Singhai, A. Sane, and R. H. Campbell. Quarterware for middleware. In ICDCS '98 : Proceedings of the The 18th International Conference on Distributed Computing Systems, page 192, Washington, DC, USA, 1998. IEEE Computer Society. Jonathan : an open distributed processing environment in java. Bruno Dumant, François Horn, Frédéric Dang Tran, Jean-Bernard Stefani, Distributed Systems Engineering. 61Bruno Dumant, François Horn, Frédéric Dang Tran, and Jean-Bernard Stefani. Jonathan : an open distributed processing environment in java. Distributed Systems Engineering, 6(1) :3-12, 1999. The Java(TM) Virtual Machine Specification, Seconed Edition. Tim Lindholm, Frank Yellin, Prentice Hall PTRTim Lindholm and Frank Yellin. The Java(TM) Virtual Machine Spe- cification, Seconed Edition. Prentice Hall PTR, April 1999. The Java Language Specification, Third Edition. James Gosling, Bill Joy, Guy Steele, Gilad Bracha, Prentice Hall PTRJames Gosling, Bill Joy, Guy Steele, and Gilad Bracha. The Java Lan- guage Specification, Third Edition. Prentice Hall PTR, June 2005. S Oaks, H Wong, Java Threads, Third Edition. O'Reilly Media. S. Oaks and H. Wong. Java Threads, Third Edition. O'Reilly Media, September 2004. JavaParty -transparent remote objects in Java. Matthias Zenger Michael Philippsen, Concurrency : Practice and Experience. 911Matthias Zenger Michael Philippsen. JavaParty -transparent remote objects in Java. Concurrency : Practice and Experience, 9(11) :1225- 1242, nov 1997. Hive : implementing a virtual distributed shared memory in java. Distributed and parallel systems : from instruction parallelism to cluster computing. Fabrizio Baiardi, Gianmarco Dobloni, Paolo Mori, Laura Ricci, Fabrizio Baiardi, Gianmarco Dobloni, Paolo Mori, and Laura Ricci. Hive : implementing a virtual distributed shared memory in java. Dis- tributed and parallel systems : from instruction parallelism to cluster computing, pages 169-172, 2000. Asynchronous remote method invocation (ARMI) mechanism for java. Concurrency -Practice and Experience. Rajeev R Michael Boyles, Joseph I Raje, Williams, France9LIFC Laboratoire d'Informatique de l'université de Franche-Comté UFR Sciences et Techniquesroute de Gray -25030 Besançon CedexMichael Boyles Rajeev R. Raje, Joseph I. Williams. Asynchronous remote method invocation (ARMI) mechanism for java. Concurrency - Practice and Experience, 9(11) :1207-1211, 1997. LIFC Laboratoire d'Informatique de l'université de Franche-Comté UFR Sciences et Techniques, 16, route de Gray -25030 Besançon Cedex (France) . Lifc -Antenne De Belfort, IUT Belfort-Montbéliard, rue Engel Gros, BP 527 -90016 Belfort Cedex (France) LIFC -Antenne de Montbéliard : UFR STGI, Pôle universitaire du Pays de Montbéliard -25200 Montbéliard CedexLIFC -Antenne de Belfort : IUT Belfort-Montbéliard, rue Engel Gros, BP 527 -90016 Belfort Cedex (France) LIFC -Antenne de Montbéliard : UFR STGI, Pôle universitaire du Pays de Montbéliard -25200 Montbéliard Cedex (France) http://lifc.univ-fcomte.fr
sample_3851
0.6689
arxiv
Relações Matemáticas: uma ferramenta no combate ao desinteresse dos alunos Mathematical Relationships: a toll in the fight against students' disinterest Maurício Paulino Pós Graduando em Matemática pela Universidade Estadual de Campinas -Unicamp Campinas -SPBrasil Marques Fernandes Pós Graduando em Matemática pela Universidade Estadual de Campinas -Unicamp Campinas -SPBrasil Relações Matemáticas: uma ferramenta no combate ao desinteresse dos alunos Mathematical Relationships: a toll in the fight against students' disinterest Applied Mathematics Mathematics Education Problem Situations RESUMONeste artigo, sugerimos o uso de Relações Matemáticas como um possível caminho para diminuir o desinteresse dos alunos pelas exatas. Primeiramente fizemos uma consideração a respeito do ambiente da sala de aula na perspectiva de professores e alunos e comparamos com o que é proposto nos PCN´s, procuramos mostrar que a aplicação dos conceitos matemáticos já faz parte da dia a dia dos alunos, embora eles não os relacionem aos conteúdos ministrados nas escolas, também trouxemos alguns exemplos de exploração de ambientes, situações e filmes que auxiliam na elaboração de temas geradores para as aulas de matemática, por fim, convidamos os professores a refletirem sobre seu papel como mediadores em sala de aula.Palavras Chaves: Matemática Aplicada. Educação Matemática. Situações Problemas.AbstractIn this article, we suggest the use of Mathematical Relationships as a possible way to decrease the students' disinterest in Mathematics. First we made a consideration of the environment of the classroom from the perspective of teachers and students and compare it with what is proposed in PCN's, sought to show that the application of mathematical concepts is already part of the daily lives of students, although they not relate to the material taught in schools, also brought some examples of operating environments, situations and movies that help in the preparation of generating themes for math classes, finally, we invite teachers to reflect on their roles as mediators in classroom. Introdução Os recentes resultados, amplamente divulgados pela mídia em relação ao aprendizado matemático revelam a preocupante situação dos estudantes brasileiros; apesar de vermos grandes conquistas em competições nacionais e internacionais nas áreas das exatas, a realidade nos mostra que a maior parcela da sociedade não domina a matemática a contento do previsto nos PCN's, principalmente no que diz respeito ao conhecimento tecnológico esperado ao final do ensino médio. "No nível médio, esses objetivos envolvem, de um lado, o aprofundamento dos saberes disciplinares em Biologia, Física, Química e Matemática, com procedimentos científicos pertinentes aos seus objetos de estudo, com metas formativas particulares, até mesmo com tratamentos didáticos específicos. De outro lado, envolvem a articulação interdisciplinar desses saberes, propiciada por várias circunstâncias, dentre as quais se destacam os conteúdos tecnológicos e práticos, já presentes junto a cada disciplina, mas particularmente apropriados para serem tratados desde uma perspectiva integradora." (Parâmetros Curriculares Nacionais) Dentre as várias causas apontadas para tal situação, uma das mais difundidas entre a sociedade e principalmente entre os professores é a que diz respeito ao desinteresse geral dos alunos, que por sua vez não concebem a escola como o espaço de formação já que ela, de fato, não cumpre seu papel de ligação entre currículo e realidade. Em matemática não é diferente, a dificuldade de relacioná-la com objetos e situações do cotidiano colabora para o desinteresse, dando a impressão de que o que se ensina não possui aplicação prática. Para Skovsmose o aprendizado matemático deve contemplar três tipos de conhecimentos: Matemático, Tecnológico e Reflexivo. O conhecimento matemático envolve a teoria em si, as técnicas de cálculos e desenvolvimentos dedutivos em teoremas e suas demonstrações, o conhecimento tecnológico refere-se à aplicação do conhecimento matemático, é a construção de modelos matemáticos e deve ser aprendido na escola por meio de atividade de aplicação matemática em situações problemas. O conhecimento reflexivo é a habilidade de avaliar o uso da matemática, de refletir sobre tal uso, de fazer inferências nos métodos e resultados. Relações Matemáticas como Alternativa Negligenciar os conhecimentos tecnológico e reflexivo, e contemplar apenas o conhecimento matemático teórico, tem sido, na maioria das vezes, prática comum nas escolas brasileiras. Em contra partida vivemos em um mundo globalizado, de informações rápidas e precisas, aprender matemática ou qualquer outra ciência sem que ela seja precisamente útil, não faz sentido para os alunos dessa geração, é preciso levar os alunos à contextualizarem conceitos, pensar soluções e refletir sobre elas, esse é de fato o papel do professor nos dias atuais, não cabe mais a figura do professor que transmite informações e conteúdos, pois eles estão ao alcance das mãos e dos olhos, basta uma simples pesquisa na internet e pronto, toda a informação que buscamos surge como num passe de mágicas. É preciso, portanto repensar o papel do professor, e esse repensar, não se restringe aos órgãos responsáveis pela educação ou às universidades, responsável pela formação de professores, cabe antes e principalmente ao professor, pois é ele quem estará a frente dos estudantes. Faz-se necessário considerar a tecnologia, os meios de comunicação e as redes sociais que nos cercam, aprender a lidar com essas ferramentas e utilizá-las de forma a construir caminhos que nos levem a uma relação mais próxima de cada aluno de forma que possam compreender o papel da escola e seus ensinos. Quando falamos em aprendizado tecnológico, não nos referimos a um caminho árduo a percorrer, preferimos a palavra trabalhosa, pois o caminho não é sofrível, antes exige dedicação, treino e principalmente observação. O professor que pretende realmente diversificar suas aulas, contextualizá-la e ainda diminuir o desinteresse necessita estar de olhos bem abertos, pois oportunidades de contextualização aparecem em todos os lugares, quanto mais atento estiver, mais relações conseguirá formular para suas aulas. Sugerimos portanto a Matemática Aplicada como uma ferramenta no combate ao desinteresse dos alunos e como estímulo ao raciocínio lógico matemático. Entendemos por Relações Matemáticas todo e qualquer conjunto de ações ou situações problemas que levem à flexão matemática, sejam estas ações e/ou reflexões simples ou não. Toda a reflexão é por si só um avanço no processo de aprendizagem e a medida em que se torna prática constante nas salas de aula, tornar-se-á uma atividade comum e simples tanto para alunos quanto professores, criando hábitos de observações no mundo atual, propiciando a ambos habilidades matemáticas que permitam a mediação desses indivíduos em problemas reais da sociedade atual. Por isso, embora apresente definições próprias e diferentes, incluímos aqui a modelagem matemática e a matemática aplicada como atividades de Relações Matemáticas. Modelos de Observações Quando dizemos modelos de observações, nos referimos às oportunidades mais simples que nos rodeiam, a atividades de Modelagem Matemática e/ou Matemática Aplicada, as situações geradoras de debates e reflexões sobre o uso da matemática no dia a dia da sociedade moderna e tecnológica. Ao entrar em um supermercado, por exemplo, nota-se que a estrutura que sustenta o telhado tem forma piramidal, isso pode parecer sem importância aos olhos dos clientes, mas o professor atento pode explorar esse fato em uma aula de geometria lançando a seguinte questão: "Por que foi escolhida a forma de pirâmides para sustentação do telhado do supermercado?" Depois de ouvir as opiniões dos alunos podem-se trabalhar diversos conceitos, como a estrutura triangular das pirâmides e suas funções comparando-as com paralelepípedos, estabelecendo as relações de estabilidade existente nas formas triangulares o que não ocorre nos retângulos, isso é facilmente demonstrado com palitos de sorvetes presos por percevejos de metal. (figura1) (Figura 1) Esse simples exemplo ainda pode ser utilizado para explicar, por exemplo, postulados de geometria, explicando que a forma do triângulo é estável por satisfazer o postulado de determinação de plano: "Três pontos não colineares determinam um único plano." A observação atenta dos ambientes que nos cercam revela grandes possibilidades de relações matemáticas uteis em sala de aula, cabe ao professor treinar sua capacidade de observação e relação para que perceba inúmeras possibilidades diferentes. Além disso, é imprescindível que o professor de matemática leia, assista filmes, participe de congressos, pois tais hábitos são fontes inesgotáveis de conhecimento das mais diversas áreas. Os filmes e seriados atuais além de divertir estão recheados de informações matemáticas e cálculos que os alunos vêem na escola. O que difere a escola das telas de TV é a roupagem que são apresentados os conceitos, por exemplo, o seriado SCI: Investigação Criminal, da TV americana e exibida no Brasil pela Rede Record é assunto diário nos intervalos e nas trocas de professores, até mesmo durante as aulas os comentários sobre situações matemáticas ou científicas são trazidas pelos alunos. O programa está repleto de raciocínio lógico dedutivo, que os alunos se encantam além de trazerem diversos cálculos em seus episódios, outro exemplo de filme é "O Núcleo: Missão ao Centro da Terra" da Paramount Pictures, uma aventura interessante e cheia de ciência, geografia e matemática. Em determinado momento da trama, por exemplo, as vidas das personagens dependem do cálculo de uma progressão geométrica, eis uma bela oportunidade de interagir com a sala de aula despertando o interesse perdido há algum tempo. O professor atento não precisa de muito esforço para perceber imagens, textos, locais e situações que podem facilmente serem levadas para dentro da sala de aula como tema gerador de suas aulas. Considerações Finais Boa parte do desinteresse certamente é reflexo de aulas desconexas com a realidade, de conteúdos sem ligações práticas ao dia a dia. As demonstrações mais simples, não carecem de estudos avançados nem de cursos específicos, embora eles sejam extremamente importantes e são de muita valia no aperfeiçoamento do professor de matemática. Oportunidades de aplicações matemáticas surgem naturalmente de observações de situações e ambientes que envolvem o cotidiano de todas as pessoas. O professor atento reúne em si condições suficientes e básicas de estabelecer relações e desenvolver aplicações; é função do professor apresentar a matemática como ferramenta útil à sociedade. Talvez num primeiro momento, essas aplicações pareçam difíceis de serem percebidas, mas a prática contínua levará ao aperfeiçoamento do professor e das atividades propostas, levando à diminuição do desinteresse, uma vez que estabelecida as relações currículo/realidade, através dos assuntos presentes nas rodas de alunos, estes tendem a compreender a importância da matemática aceitando-a mais facilmente, mesmo que continuem não gostando da disciplina. I at AL .I; Aplicações da Matemática Escolar, tradução de Hygino H. Domingues. -São Paulo: Atual, 1997. Donald . Bushaw, Trabalho Conjunto da Mathematical Association of America e do National Concil of Teachers of MathematicsBUSHAW, Donald... I at AL .I; Aplicações da Matemática Escolar, tradução de Hygino H. Domingues. -São Paulo: Atual, 1997. "Trabalho Conjunto da Mathematical Association of America e do National Concil of Teachers of Mathematics. . Parâmetros Curriculares Nacionais Para O Ensino Médio, Sítio Do Ministério Da Educação, Parâmetros Curriculares Nacionais para o Ensino Médio, Sítio do Ministério da Educação,disponível em: <http://portal.mec.gov.br/seb/arquivos/pdf/ciencian.pdf>, acessado em 03/12/2011 Educação Matemática Crítica -a questão da democracia. O Skovsmose, PapirusCampinasSKOVSMOSE, O. Educação Matemática Crítica -a questão da democracia, Campinas: Papirus, 2001. . Cenários _, De Investigação, Bolema -Boletim De Educação Matemática, 14Rio Claro_, Cenários de investigação. Bolema -Boletim de Educação Matemática, Rio Claro, n. 14, p. 66-91, 2000.
sample_3989
0.9657
arxiv
Around the Cusp singularity and the Breaking of Water Waves May 2, 2014 Javiera Tejerina-Risso IMéRA 2 place Le Verrier13004MarseilleFrance IRPHE Aix Marseille Université -CNRS 46 rue F. Joliot-Curie13384MarseilleFrance Patrice Le Gal IRPHE Aix Marseille Université -CNRS 46 rue F. Joliot-Curie13384MarseilleFrance Around the Cusp singularity and the Breaking of Water Waves May 2, 2014 Even if we extensively use them to communicate, the amplitude of the waves is increased by focusing and this leads to their breaking which is a typical property of water surface waves. We record these breakings using a fast video camera at a rate of 2000 images per second. The movie shows the very early time of the water tongue plunging ahead of the wave crest. Soon after, some capillarity wavelets are clearly visible. The image analysis of these space time data permits the measurement of the expected 3/2 power of time law as dictated by the cusp singular geometry given by the Catastrophe Theory [R. Thom, Stabilité structurelle et morphogénèse (Benjamin, Reading (Mass), 1972)]. To our knowledge this is the first time that this scaling law is measured from fluid dynamics videos.
sample_4298
0.8253
arxiv
Regularized Fingerprinting in Detection and Attribution of Climate Change with Weight Matrix Optimizing the Efficiency in Scaling Factor Estimation Yan Li Department of Statistics University of Connecticut CTU.S.A Kun Chen Department of Statistics University of Connecticut CTU.S.A Jun Yan Xuebin Zhang Department of Statistics University of Connecticut CTU.S.A Environment and Climate Change Canada QC, CA Regularized Fingerprinting in Detection and Attribution of Climate Change with Weight Matrix Optimizing the Efficiency in Scaling Factor Estimation Measurement errorNonlinear shrinkage estimatorTotal least squares * The optimal fingerprinting method for detection and attribution of climate change is based on a multiple regression where each covariate has measurement error whose covariance matrix is the same as that of the regression error up to a known scale. Inferences about the regression coefficients are critical not only for making statements about detection and attribution but also for quantifying the uncertainty in important outcomes derived from detection and attribution analyses. When there is no errorsin-variables (EIV), the optimal weight matrix in estimating the regression coefficients is the precision matrix of the regression error which, in practice, is never known and has to be estimated from climate model simulations. We construct a weight matrix by inverting a nonlinear shrinkage estimate of the error covariance matrix that minimizes loss functions directly targeting the uncertainty of the resulting regression coefficient estimator. The resulting estimator of the regression coefficients is asymptotically optimal as the sample size of the climate model simulations and the matrix dimension go to infinity together with a limiting ratio. When EIVs are present, the estimator of the regression coefficients based on the proposed weight matrix is asymptotically more efficient than that based on the inverse of the existing linear shrinkage estimator of the error covariance matrix. The performance of the method is confirmed in finite sample simulation studies mimicking realistic situations in terms of the length of the confidence intervals and empirical coverage rates for the regression coefficients. An application to detection and attribution analyses of the mean temperature at different spatial scales illustrates the utility of the method. Introduction Detection and attribution analyses of climate change are critical components in establishing a causal relationship from the human emission of greenhouse gases to the warming of planet Earth (e.g., Bindoff et al., 2013). In climate science, detection is the process of demonstrating that a climate variable has changed in some defined statistical sense without providing a reason for that change; attribution is the process of evaluating the relative contributions of multiple causal factors to a change or event with an assignment of statistical confidence (e.g., Hegerl and Zwiers, 2011). Casual factors usually refer to external forcings, which may be anthropogenic (e.g., greenhouse gases, aerosols, ozone precursors, land use) and/or natural (e.g., volcanic eruptions, solar cycle modulations). By comparing simulated results of climate models with observed climate variables, a detection and attribution analysis evaluates the consistency of observed changes with the expected response, also known as fingerprint, of the climate system under each external forcing. Optimal fingerprinting is the most widely used method for detection and attribution analyses (e.g., Hasselmann, 1997;Allen and Stott, 2003;Hegerl et al., 2010). Fingerprinting is a procedure that regresses the observed climate variable of interest on the fingerprints of external forcings, and checks whether the fingerprints are found in and consistent with the observed data. The central target of statistical inferences here is the regression coefficients, also known as scaling factors, which scale the fingerprints of external forcings to best match the observed climate change. Historically, the method was "optimal" in the context of generalized least squares (GLS) when the precision matrix of the regression error is used as weight, such that the resulting estimator of the scaling factors have the smallest variances. It was later recognized that the fingerprint covariates are not observed but estimated from climate model simulations. This leads to an errors-in-variables (EIV) issue, which has been approached by the total least squares (TLS) (Allen and Stott, 2003) with both the response and the covariates "prewhittened" by the covariance matrix of the error. The covariance matrix represents the internal climate variation. In practice, it is unknown and has to be estimated from climate model simulations (Allen and Tett, 1999;Ribes et al., 2013), which is generally handled preliminarily and independently from the regression inference (e.g., Hannart et al., 2014). Estimating the error covariance matrix in fingerprinting is challenging because the available runs from climate model simulations are small relative to the dimension of the covariance matrix. The dimension of the covariate matrix is often reduced by considering averages over 5-year or 10-year blocks in time and/or over aggregated grid-boxes in space. For example, decadal average over a 110-year period in 25 grid-boxes would lead to a dimension of 275 × 275. The sample size from climate model simulations that can be used is, however, at most a few hundreds. The sample covariance matrix is not invertible when the sample size of climate model simulations is less than its dimension. Earlier methods project data onto the leading empirical orthogonal functions (EOF) of the internal climate variability (Hegerl et al., 1996;Allen and Tett, 1999). More recently, the regularized optimal fingerprinting (ROF) method avoids the projection step by a regularized covariance matrix estimation (Ribes et al., 2009), which is based on the linear shrinkage covariance matrix estimator of Ledoit and Wolf (2004). The ROF method has been shown to provide a more accurate implementation of optimal fingerprinting than the EOF projection method (Ribes et al., 2013). The uncertainty in estimating the error covariance matrix has important implications in optimal fingerprinting. The optimality in inferences about the scaling factor in optimal fingerprinting was historically based on the assumption that the error covariance matrix is known. The properties of the scaling factor estimator obtained by substituting the error covariance matrix with an estimate have not been thoroughly investigated in the literature. For example, it is not until recently that the confidence intervals for the scaling factors constructed from asymptotic normal approximation (Fuller, 1980;Gleser, 1981) or bootstrap (Pesta, 2013) were reported to be overly narrow when the matrix is only known up to a scale (DelSole et al., 2019) or completely unknown (Li et al., 2019). A natural, fundamental question is: when the error covariance matrix is estimated, are the confidence intervals constructed using the optimal approach under the assumption of known error covariance matrix still optimal? Since optimality under unknown error covariance matrix is practically infeasible, to be precise, we term fingerprinting for optimal fingerprinting and regularized fingerprinting (RF) for ROF in the sequel. The contributions of this paper are two-fold. First, we develop a new method to construct the weight matrix in RF by minimizing directly the uncertainty of the resulting scaling factor estimators. The weight matrix is the inverse of a nonlinear shrinkage estimator of the error covariance matrix inspired by Ledoit and Wolf (2017a). We first extend the validity of their nonlinear shrinkage estimator to the context of RF via GLS regression with no EIV. We show that the proposed method is asymptotically optimal as the sample size of climate model simulations and the matrix dimension go to infinity together with a fixed ratio. When there is EIV, as is the case in practice, we show that the proposed weight is more efficient than the existing weight in RF (Ribes et al., 2013) in terms of the asymptotic variance of the scaling factor estimator when RF is conducted with generalized TLS (GTLS). This is why we refer to the current practice by RF instead of ROF. The second contribution is practical recommendations for assumptions about the structure of the error covariance matrix under which the sample covariance is estimated before any shrinkage in RF based on findings of a comparison study under various realistic settings. An implementation of both linear shrinkage and nonlinear shrinkage estimators is publicly available in an R package dacc (Li et al., 2020) for detection and attribution of climate change. The rest of this article is organized as follows. After a review of RF in Section 2, we develop the proposed weight matrix and the theoretical results to support the asymptotic performance of proposed method in Section 3. A large scale numerical study assessing the performance of the proposed method is reported in Section 4. In Section 5, we demonstrate the proposed method with detection and attribution analysis on global and regional scales. A discussion concludes in Section 6. The technical proofs of the theoretical results are relegated in the Supplementary Materials. Regularized Fingerprinting Fingerprinting takes the form of a linear regression with EIV Y = p i=1 X i β i + ,(1)X i = X i + ν i , i = 1, . . . , p,(2) where Y is a N × 1 vector of the observed climate variable of interest, X i is the true but unobserved N ×1 fingerprint vector the ith external forcing with scaling factor β i , is a N ×1 vector of normally distributed regression error with mean zero and covariance matrix Σ,X i is an estimate of X i based on n i climate model simulations under the ith external forcing, and ν i is a normally distributed measurement error vector with mean zero and covariance matrix Σ/n i , and ν i 's are mutually independent and independent of , i = 1, . . . , p. The covariance matrices of ν i 's and only differ in scales under the assumption that the climate models reflect the real climate variation. No intercept is present in the regression because the response and the covariates are centered by the same reference level. The primary target of inference is the scaling factors β = (β 1 , . . . , β p ) . The "optimal" in optimal fingerprinting originated from earlier practices under two assumptions: 1) the error covariance matrix Σ is known; and 2) X i 's are observed. The GLS estimator of β with weight matrix W iŝ β(W ) = (X W X) −1 X W Y, where X = (X 1 , . . . , X p ). The covariance matrix of the estimatorβ(W ) is V(β(W )) = (X W X) −1 X W ΣW X(X W X) −1(3) The optimal weight matrix is W = Σ −1 , in which case,β(Σ −1 ) is the best linear unbiased estimator of β with covariance matrix X Σ −1 X. Since Σ is unknown, a feasible version of GLS uses W =Σ −1 , whereΣ is an estimator of Σ obtained separately from controlled runs of climate model simulations. Later on it was recognized that, instead of X i 's, only their estimatesX i 's are observed and that usingX i 's in place of X i 's leads to bias in estimating β (Allen and Stott, 2003). If Σ is given, the same structure (up to a scale 1/n i ) of the covariance matrices of ν i 's and allows precise pre-whitening of both Y andX i 's . Then the TLS can be applied to the pre-whitened variables. Inferences about β can be based on the asymptotic normal distribution of the TLS estimator of β (Gleser, 1981) or nonparametric bootstrap (Pesta, 2013), as recently studied by DelSole et al. (2019). Similar to the GLS setting, a feasible version of the GTLS procedure relies on an estimator of Σ. The current practice of fingerprinting consists of two separate steps. First, estimate Σ from controlled runs of climate model simulations under the assumption that the climate models capture the internal variability of the real climate system. Second, use this estimated matrix to pre-whiten both the outcome and covariates in the regression model (1)-(2), and obtain the GTLS estimator of β on the pre-whitened data. Nonetheless, estimation of Σ in the first step is not an easy task. The dimension of Σ is N × N , with N (N + 1)/2 parameters if no structure is imposed, which is too large for the sample size n of available climate model simulations (usually in a few hundreds at most). The sample covariance matrix based on the n runs is a start, but it is of too much variation; when N > n it is not even invertible. The linear shrinkage method of Ledoit and Wolf (2004) regularizes the sample covariance matrixΣ n to in the form of λΣ n + ρI, where λ and ρ are scalar tuning parameters and I is the identity matrix. This class of shrinkage estimators has the effect of shrinking the set of sample eigenvalues by reducing its dispersion around the mean, pushing up the smaller ones and pulling down the larger ones. This estimator has been used in the current RF practice (Ribes et al., 2009(Ribes et al., , 2013. Substituting Σ with an estimator introduces an additional uncertainty. The impact of this uncertainty on the properties of resulting ROF estimator has not been investigated when the whole structure of Σ is unknown (Li et al., 2019). The optimality of the optimal fingerprinting in its original sense is unlikely to still hold. Now that the properties of the resulting estimator of β depends on an estimated weight matrix, can we choose this weight matrix estimator to minimize the variance of the estimator of β? The recently proposed nonlinear shrinkage estimator Wolf, 2017a, 2018) has high potential to outperform the linear shrinkage estimators. Weight Matrix Construction We consider constructing the weight matrix by inverting a nonlinear shrinkage estimator of Σ (Ledoit and Wolf, 2017b) in the fingerprinting context. New theoretical results are developed to justify the adaptation of this nonlinear shrinkage estimator of Σ to minimize the uncertainty of the resulting estimatorβ of β. Assume that there are n replicates from climate model simulations (usually pre-industrial control runs) that are independent of Y andX i 's. Let Z i , Z 2 , . . . , Z n ∈ R N be the centered replicates so that the sample covariance matrix is computed asΣ n = n −1 n i=1 Z i Z i . Our strategy is to revisit the GLS setting with no EIV first and then apply the result of the GTLS setting to the case under EIV, the same order as the historical development. GLS Since the target of inference is β, we propose to minimize the "total variation" of the covariance matrix V(β) of the estimated scale factorsβ(W ) in (3) with respect to W =Σ −1 . Two loss functions are considered that measure the variation ofβ, namely, the summation of the variances ofβ (trace of V(β)) and the general variance ofβ (determinant of V(β)), denoted respectively as L 1 (Σ, Σ, X) and L 2 (Σ, Σ, X). In particular, we have L 1 (Σ, Σ, X) = Tr (X Σ −1 X) −1 X Σ −1 ΣΣ −1 X(X Σ −1 X) −1 , L 2 (Σ, Σ, X) = Tr(X X) pN p det X Σ −1 ΣΣ −1 X N det −2 X Σ −1 X N , where the first loss function directly targets on the trace of V(β(W )) and the second loss function is proportional to the determinant of V(β(W )) (up to a constant scale {Tr(X X)/p} p ). The theoretical development is built on minimizing the limiting forms of the loss functions as n → ∞ and N → ∞. The special case of p = 1 has been approached by Ledoit and Wolf (2017b). We extend their result to multiple linear regressions with p > 1. Lemma 1. The loss functions L 1 (Σ, Σ, X) and L 2 (Σ, Σ, X) remain unchanged after orthogonalization of design matrix X via the singular value decomposition. The proof of Lemma 1 is in Appendix A. Lemma 1 implies that, without loss of generality, we only need to consider orthogonal designs in the regression model (1). In other words, we may assume that the columns of the design matrix X are such that X i X j = 0 for any i = j. Consider the minimum variance loss function L mv (Σ, Σ) = Tr(Σ −1 ΣΣ −1 )/N (Tr(Σ −1 )/N ) 2(4) derived in Engle et al. (2019). We have the following result. Theorem 1. As dimension N → ∞ and sample size n → ∞ with N/n → c for a constant c, minimizing lim n,N →∞ L 1 (Σ, Σ, X) or lim n,N →∞ L 2 (Σ, Σ, X) is equivalent to minimizing lim n,N →∞ L mv (Σ, Σ). The proof for Theorem 1 is presented in Appendix B. LetΣ n = Γ n D n Γ n be the spectral decomposition of the sample covariance matrixΣ n , where D n = diag(λ 1 , . . . , λ N ) is the diagonal matrix of the eigenvalues and Γ n contains the corresponding eigenvectors. Consider the rotation invariant class of the estimatorsΣ = Γ nDn Γ n , whereD n = diag δ(λ 1 ), . . . , δ(λ N ) for a smooth function δ(·). Then, under some regularity assumptions on the data genration mechanism (Ledoit and Wolf, 2017a, Assumptions 1-4), we can get the asymptotically optimal estimatorΣ which minimizes the limiting form of proposed two loss functions as n → ∞ and N → ∞. Let with the shrinkage form of the eigenvalues given by δ oracle (λ i ) = λ i [πcλ i f (λ i )] 2 + [1 − c − πcλ i H f (λ i )] 2 .(5) A feasible nonlinear shrinkage estimator (bona fide counterpart of the oracle estimator) can be based on a kernel estimator of f , which is proposed and shown by Ledoit and Wolf (2017a) to perform as well as the oracle estimator asymptotically. Let c n = N/n, which is a estimator for the limiting concentration ratio c. The feasible nonlinear shrinkage δ(λ i ), i = 1, . . . , N , of the sample eigenvalues is defined as following results for both cases of c n ≤ 1 and c n > 1. Case 1 If c n ≤ 1, that is, the sample covariance matrix is nonsingular, then δ(λ i ) = λ i [π N n λ if (λ i )] 2 + [1 − N n − π N n λ i Hf (λ i )] 2 , wheref (·) is a kernel estimator of the limiting sample spectral density f , and Hf is the Hilbert transform off . Various authors adopt different conventions to define the Hilbert transform. We follow Ledoit and Wolf (2017a) and apply the same semicircle kernel func-tion and Hilbert transform because of the consistency of the resulting feasible estimator. Specifically, we havẽ f (λ i ) = 1 N N j=1 [4λ 2 j h 2 n − (λ i − λ j ) 2 ] + 2πλ 2 j h 2 n , Hf (λ i ) = 1 N N j=1 sgn(λ i − λ j ) [(λ i − λ j ) 2 − 4λ 2 j h 2 n ] + − λ i + λ j 2πλ 2 j h 2 n , where h n = n −γ is the bandwidth of the semicircle kernel with tuning parameter γ, and a + = max(0, a). For details on the Hilbert transform and the mathematical formulation of Hilbert transform for commonly used kernel functions, see Bateman (1954). Case 2 In optimal fingerprinting applications, the case of c n > 1 is more relevant because the number n of controlled runs that can be used to estimate the internal climate variation is often limited, much less than the dimension N of the problem. If c n > 1, we have N − n null eigenvalues. Assume that (λ 1 , . . . , λ N −n ) = 0. In this case, we only consider the empirical cumulative distribution function F N of the nonzero n eigenvalues. From Silverstein (1995), there existing a limiting function F such that lim N,n→∞ F N = F , and it admits a continuous derivative f . The oracle estimator in Equation (5) can be written as δ oracle (λ i ) = λ i π 2 λ 2 i [f (λ i ) 2 + H f (λ i ) 2 ] . Then the kernel approach can be adapted in this case. Letf and Hf be, respectively, the kernel estimator for f and its Hilbert transform H f . The our feasible shrinkage estimator is δ(0) = 1 π N −n n Hf (0) , i = 1, . . . , N − n, δ(λ i ) = λ i π 2 λ 2 i [f (λ i ) 2 + Hf (λ i ) 2 ] , i = N − n + 1, . . . , N, where Hf (0) = 1 − 1 − 4h 2 n 2πnh 2 n N j=N −n+1 1 λ j , f (λ i ) = 1 n N j=N −n+1 [4λ 2 j h 2 n − (λ i − λ j ) 2 ] + 2πλ 2 j h 2 n , Hf (λ i ) = 1 n N j=N −n+1 sgn(λ i − λ j ) [(λ i − λ j ) 2 − 4λ 2 j h 2 n ] + − λ i + λ j 2πλ 2 j h 2 n , and h n = n −γ is the bandwidth with tuning parameter γ. In both cases, the pool-adjacent-violators-algorithm (PAVA) in isotonic regression can be used to ensure the shrunken eigenvalues to be in ascending order. The bandwidth parameter γ can be selected via crossvalidation on the estimated standard deviation of the scaling factors or other information criteria. The feasible optimal nonlinear shrinkage estimator is the resultingΣ MV = Γ nDn Γ n . GTLS For the GTLS setting, which is more realistic with EIV, we propose to pre-whiten Y and X i 's byΣ MV and then apply the standard TLS procedure (Gleser, 1981) to estimate β. The resulting estimator of the β will be shown to be more efficient than that based on pre-whitening with the linear shrinkage estimatorΣ LS (Ribes et al., 2013). Consider the GTLS estimator of β obtained from prewhitening with a class of regularized covariance matrix estimatorΣ from independent control runs. In the general framework of GTLS, the measurement error vectors usually have the same covariance matrix as the model error vector for the ease of theoretical derivations. This assumption can be easily achived in the OF setting (1)-(2) by multiplying each observed fingerprint vectorX i by √ n i . Therefore, without loss of generality, in the following we assume n i = 1 to simplify the notations. LetX = (X 1 , . . . ,X p ). The GTLS estimator based onΣ iŝ β(Σ) = arg β min Σ − 1 2 (Y −Xβ) 2 2 1 + β β ,(6) where a 2 is the 2 norm of vector a. The asymptotic properties ofβ(Σ) are established for a class of covariance matrix estimatorsΣ including bothΣ MV andΣ LS . Assumption 1. lim N,n→∞ X Σ −1 X/N = ∆ 1 exists, where ∆ 1 is a non-singular matrix. Assumption 2. lim N,n→∞ Tr(Σ −1 Σ)/N exists and is a positive constant. Assumption 3. lim N,n→∞ Tr{(Σ −1/2 ΣΣ −1/2 ) 2 }/N = K exists with K > 0. Remark 1. Assumptions 1 originates from Gleser (1981), which is needed for the consistency ofβ(Σ). Assumptions 2-3 are from Wolf (2018, 2017a). The proof for Lemma 2 is in Appendix C. The asymptotic normality ofβ(Σ) is established with additional assumptions. Assumption 4. lim N,n→∞ X Σ −1 ΣΣ −1 X/N = ∆ 2 exists for a non-singular matrix ∆ 2 . Assumption 5. The regression error and measurement errors ν i 's, i = 1, . . . , p, are mutually independent normally distributed random vectors. Remark 2. Assumption 4 originates from Gleser (1981) for the asymptotic noramlity of the GTLS estimator. Assumption 5 is commonly used in the context of climate change detection and attribution for mean state climate variables. Theorem 2. Under Assumptions 1-5, as N, n → ∞ with N/n → c for some c > 0, √ N (β − β 0 ) D → N (0, Ξ), where Ξ = ∆ −1 1 ∆ 2 + K(I p + β 0 β 0 ) −1 (1 + β 0 β 0 )∆ −1 1 .(7) The proof of Theorem 2 is in Section C.2 of Appendix C. The higher efficiency of the resulting estimator for β from the proposed weight matrix in comparison with that from the existing weight is summarized by the following result with proof in Section C.3 of Appendix C. Theorem 3. Let Ξ(Σ) be the asymptotic covariance matrix in Equation (7) for a rotation invariant estimatorΣ under Assumptions 1-5. Then Tr Ξ(Σ MV ) ≤ Tr Ξ(Σ LS ) . In our implementation, a 5-fold cross validation is used to select the optimal bandwidth parameter γ ∈ (0.2, 0.5). Simulation Studies The finite sample performance of the proposed method in comparison with the existing practice in RF needs to be assessed to make realistic recommendations for detection and attribution of climate change. We conducted a simulation study similar to the setting of a study in Ribes et al. (2013). The observed climate variable of interest is 11 decadal mean temperatures over 25 grid-boxes, a vector of dimension N = 275. Two N ×1 fingerprints were considered, corresponding to the anthropogenic (ANT) and natural forcings (NAT), denoted by X 1 and X 2 , respectively. They were set to the average of all runs from the CNRM-CM5 model as in Ribes et al. (2013). To vary the strength of the signals, we also considered halving X 1 and X 2 . That is, there were two levels of signal-to-noise ratio corresponding to the cases of multiplying each X i , i ∈ {1, 2}, controlled by a scale λ ∈ {1, 0.5}. The true scaling factors were β 1 = β 2 = 1. The distribution of the error vector was multivariate normal MVN(0, Σ). The distribution of the measurement error vector ν i , i ∈ {1, 2}, was MVN(0, Σ/n i ), with (n 1 , n 2 ) = (35, 46) which are the values in the detection and attribution analysis of annual mean temperature conducted in Section 5. Two settings of true Σ were considered. In the first setting, Σ was an unstructured matrix Σ UN , which was obtained by manipulating the eigenvalues but keeping the eigenvectors of the proposed minimum variance estimate from the same set of climate model simulations as in Ribes et al. (2013). Specifically, we first obtained the eigen decomposition of the minimum variance estimate, and then restricted the eigenvalues to be equal over each of the 25 gridboxes (i.e., only 25 unique values for the N = 25×11 eigenvalues) by taking averages over the decades at each grid-box. The pattern of the resulting eigenvalues is similar to the pattern of the eigenvalues of a spatial-temporal covariance matrix with variance stationarity and weak dependence over the time dimension. Finally, the eigenvalues were scaled independently by a uniformly distributed variable on [0.5, 1.5], which results in a more unstructured covariance matrix setting similar to the simulation settings in Hannart (2016). In the second setting, Σ was set to be Σ ST whose diagonals were set to be the sample variances from the climate model simulations without imposing temporal stationarity; the corresponding correlation matrix was set to be the Kronecker product of a spatial correlation matrix and a temporal correlation matrix, both with autoregressive of order 1 and coefficient 0.1. The observed mean temperature vector Y and the estimated fingerprints (X 1 ,X 2 ) were generated from Models (1) Number of control runs n in estimating Σ Scaling factor estim Figure 1: Boxplots of the estimates of the scaling factors in the simulation study based on 1000 replicates. accurate estimation Σ; a higher λ means stronger signal; a more structured Σ means an easier task to estimate Σ. In the case of Σ = Σ UN , the M2 estimates have smaller variations than the M1 estimate, since the eigenvalues were less smooth and, hence, favored the nonlinear shrinkage function. For the case of Σ = Σ ST where the covariance matrix is more structured, both methods estimate the true covariance matrix much more accurately, and the differences between methods are less obvious. More detailed results are summarized in Table D.1 and Table D.2, the latter of which had smaller ensembles in estimating the fingerprints with (n 1 , n 2 ) = (10, 6). The standard deviations of the M2 estimates are over 10% smaller than those of the M1 estimates for both cases. Confidence intervals are an important tool for detection and attribution analyses. It would be desirable if the asymptotic variance in Theorem 2 can be used to construct confidence intervals for the scaling factors. Unfortunately, it has been reported that the confidence intervals for the scaling factors based onΣ LS have coverage rates lower than, sometimes much lower than, their nominal levels (Li et al., 2019). The under-coverage issue remains for the estimator based onΣ MV . To give confidence intervals with correct coverage rates, Li et al. (2019) proposed a calibration procedure which enlarges the confidence intervals based on the asymptotic normality of the estimators by an appropriate scale tuned by a parametric bootstrap to achieve the desired coverage rate. We applied this calibration to both M1 and M2 estimators. Figure 2 shows the empirical coverage rates of the 95% confidence intervals after the calibration. The coverage rate of a naive confidence interval could be as low as 70% (not Europe (SEU), where the spatio-temporal correlation structure is more likely to hold. In each regional analysis, we first constructed observation vector Y from the HadCRUT4 dataset (Morice et al., 2012). The raw data were monthly anomalies of near-surface air temperature on 5 • × 5 • grid-boxes. At each grid-box, each annual mean temperature was computed from monthly temperatures if at least 9 months were available in that year; otherwise, it was considered missing. Then, 5-year averages were computed if no more than 2 annual averages were missing. To reduce the spatial dimension in the analyses, the 5 • × 5 • grid-boxes were aggregated into larger grid-boxes. In particular, the grid-box sizes were 40 • × 30 • for GL and NH, 40 • × 10 • for NH 30-70, 10 • × 20 • for EA, and 10 • × 5 • for NA. For the subcontinent regions, no aggregation was done except for SCA, in which case 10 • × 10 • grid-boxes were used. Details on the longitude, latitude and spatio-temporal steps of each regions after processing can be found in Table 1. Two external forcings, ANT and NAT, were considered. Their fingerprints X 1 and X 2 were not observed, but their estimatesX 1 andX 2 were averages over n 1 = 35 and n 2 = 46 runs from CIMP5 climate model simulations. The missing pattern in Y was used to mask the simulated runs. The same procedure used to aggregate the grid-boxes and obtain the 5-year averages in preparing Y was applied to each masked run of each climate model under each forcing. The final estimatesX 1 andX 2 at each grid-box were averages over all available runs under the ANT and the NAT forcings, respectively, centered by the average of the observed annual temperatures over 1961-1990, the same center used by the HadCRUT4 data to obtain the observed anomalies. Estimation of Σ was based on n = 223 runs of 60 years constructed from 47 pre-industrial control simulations of various length. The long-term linear trend was removed separately from the control simulations at each grid-box. As the internal climate variation is assumed to be stationary over time, each control run was first split into non-overlapping blocks of 60 years, and then each 60-year block was masked by the same missing pattern as the Had-CRUT4 data to create up to 12 5-year averages at each grid-box. The temporal stationarity of variance at each grid implies equal variance over time steps at each observing grid-box, which is commonly incorporated in detection and attribution analyses of climate change (e.g., Hannart, 2016). Both M1 and M2 estimates based on linear and nonlinear shrinkage, respectively, were obtained for comparison. Pooled estimation of the variance at each gridbox was considered in each of the shrinkage estimation to enforce the stationary, grid-box specific variance. Discussion Optimal fingerprinting as the most commonly used method for detection and attribution analyses of climate change has great impact in climate research. Such analyses are the basis for projecting observationally constrained future climate (e.g., Jones et al., 2016) and esti-q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q Figure 3: Estimated signal scaling factors for ANT and NAT required to best match observed 1950 -2010 annual mean temperature for different spatial domains, and the corresponding 95% confidence intervals from different methods. For weight matrix construction, "M1" denotes the linear shrinkage approach and "M2" denotes the minimum variance approach. For confidence interval, the calibration method is used. mating important properties of the climate system such as climate sensitivity (e.g., Schurer et al., 2018). The original optimality of optimal fingerprinting, which minimizes the uncertainty in the resulting scaling factor estimator, is no longer valid under realistic settings where Σ is not known but estimated. Our method constructs a weight matrix by inverting a nonlinear shrinkage estimator of Σ, which directly minimizes the variation of the resulting scaling factor estimator. This method is more efficient than the current RF practice (Ribes et al., 2013) as evident from the simulation study. Therefore, the lost optimality in fingerprinting is restored to a good extent for practical purposes, which helps to reduce the uncertainty in important quantities such as attributable warming and climate sensitivity. There are open questions that we have not addressed. It is of interest to further investigate how the asymptotic results under N, n → ∞ and N/n → c can guide the RF practice. The temporal and spatial resolution that controls N can be tuned in RF practice, which may lead to different efficiencies in inferences and, hence, different results in detection and attribution. Is there an optimal temporal/spatial resolution to obtain the most reliable result? Goodness-of-fit check is an important element in detection and attribution analyses. The classic approach to check the weighted sum of squared residuals against a chi-squared distribution under the assumption of known Σ is not valid when Σ has to be estimated. Can a test be designed, possibly based on parametric bootstrap, to take into account of the uncertainty in regularized estimation of Σ? These questions merit future research. Supplementary Materials A Sufficiency to Assume Orthogonal Covariates Consider the singular value decomposition of N × p design matrix X: X = U DV , where U is a N × N orthogonal matrix, D is a N × p matrix with p non-negative singular values on the diagonal, and V is a p × p orthogonal matrix. Let X * = U D = XV = (X * 1 , . . . , X * p ) and β * = V β = (β * 1 , . . . , β * p ). The columns of X * are orthogonal. The linear regression can be expressed as Y = p i=1 X * i β * i + . The estimator of β * isβ * = (X * Σ −1 X * ) −1 X * Σ −1 Y = (V X Σ −1 XV ) −1 V X Σ −1 Y = V (X Σ −1 X) −1 X Σ −1 Y and the corresponding covariance matrix is V(β * ) = V (X Σ −1 X) −1Σ−1 ΣΣ −1 X(X Σ −1 X) −1 V. The orthogonality of V ensures that Tr(V(β)) = Tr(V(β * ) and det(V(β)) = det(V(β * ). Therefore, we only need to consider the orthogonal design in the regression model. In other words, we may assume that the columns of the design matrix have columns such that X i X j = 0 for any i = j. B Justification of Method M2 in the GLS Case It is critically important to estimate the covariance matrix precisely as the covariance matrix ofβ depends onΣ. In the estimation of the covariance matrix, an important question is how to quantify the quality of the covariance matrix estimator. We use loss functions to measure the quality of the covariance matrix estimator. For example, one loss function is the Frobenius norm of the bias of the estimator L(Σ, Σ) = Σ − Σ F , and another loss function is Stein's loss L(Σ, Σ) = Tr(ΣΣ −1 ) − log det(ΣΣ −1 ) − N, which is the Kullback-Leibler divergence under the normal assumption. B.1 Minimum Variance Loss Function Considering the purpose of the fingerprinting, we construct a loss function directly related to the variance of the scaling factor estimator. In other words, we minimize the summation of the variances of the estimated scaling factors L 1 (Σ, Σ, X) = Tr((X Σ −1 X) −1 X Σ −1 ΣΣ −1 X(X Σ −1 X) −1 ). From the random matrix theory (Marcenko and Pastur, 1967), we have the following results under the assumption that all limiting forms exist. Consider an N × 1 random vector x = (x 1 , . . . , x N ) whose entries are independent and identically distributed with mean zero, positive variance, and finite 12th moment. Let A be a given N ×N matrix. Then there exists a constant K > 0 independent of N and x such that (Ledoit and Péché, 2011;Silverstein and Bai, 1995) E|x Ax − Tr(A)| 6 ≤ K A 6 N 3 , or E|x Ax/N − Tr(A)/N | 6 ≤ K A 6 N −3 , where A is the spectral norm of A. In other words, if A < C for some constant C, then as N → ∞, x Ax/N − Tr(A)/N a.s. → 0. Similarly, for two independent random vector x and y, x Ay N = (x + y) A(x + y) 2N − x Ax 2N − y Ay 2N a.s. → 0. Now let X = (x 1 , x 2 , . . . x p ) be an N × p matrix with independent columns. Then, for any N × N matrix A with A < C, the p × p matrix X AX N − Tr(A) N I p a.s. → 0, where the righthand side is a p×p matrix of zeroes. In other words, X AX/N and Tr(A)I p /N have the same limit. In optimal fingerprinting, letΣ n be the sample covariance matrix estimated from ensemble runs representing the internal climate variation. Suppose that the eigendecomposition ofΣ n isΣ n = Γ n D n Γ n , where D n = diag(λ 1 , . . . , λ N ) is the diagonal matrix of the eigenvalues and Γ n contains the corresponding eigenvectors. Consider the rotation invariant class of the estimatorsΣ = Γ nDn Γ n , whereD n = diag(δ(λ i )), i = 1, 2, . . . , N for a smooth function δ(·). Under the same Assumptions 1-3 of the main text, we have both Σ −1 and Σ −1 ΣΣ −1 bounded. Then the assumptions of almost sure convergence are satisfied. Consider the loss functioñ L 1 (Σ, Σ, X) = Tr(X X) p 2 L 1 (Σ, Σ, X) = Tr(X X) p 2 Tr((X Σ −1 X) −1 X Σ −1 ΣΣ −1 X(X Σ −1 X) −1 ) = Tr(X X) p 2 N Tr   X Σ −1 X N −1 X Σ −1 ΣΣ −1 X N X Σ −1 X N −1   . Under the orthogonality assumption of X, Tr(X X)/(pN ) a.s. → 1. Therefore, we can consider a loss function with the same limit, L(Σ, Σ) = 1 p Tr   Tr(Σ −1 ) N I p −1 Tr(Σ −1 ΣΣ −1 ) N I p Tr(Σ −1 ) N I p −1   = Tr(Σ −1 ΣΣ −1 )/N (Tr(Σ −1 )/N ) 2 , which has the same form as what Ledoit and Wolf (2017b) got. We have, as N → ∞, L(Σ, Σ) −L 1 (Σ, Σ, X) a.s. → 0. B.2 Minimum General Variance Loss Function Instead of considering the trace, we can use the determinant of V(β) as the objective loss function. Then the loss function is L 2 (Σ, Σ, X) = det((X Σ −1 X) −1 X Σ −1 ΣΣ −1 X(X Σ −1 X) −1 ) = det(X Σ −1 ΣΣ −1 X) det(X Σ−1 X) 2 . It is asymptotically equivalent to loss functioñ L 2 (Σ, Σ, X) = Tr(X X) p p L 2 (Σ, Σ, X) = Tr(X X) pN p det X Σ−1 ΣΣ −1 X N det X Σ−1 X N 2 . Similar to the minimum variance loss function, we can consider the loss function with the same limiting form: L(Σ, Σ) = det   Tr(Σ −1 ) N I p −1 Tr(Σ −1 ΣΣ −1 ) N I p Tr(Σ −1 ) N I p −1   = Tr(Σ −1 ΣΣ −1 )/N (Tr(Σ −1 )/N ) 2 p . In other words, as N → ∞, L(Σ, Σ) −L 2 (Σ, Σ, X) a.s. → 0. That is, minimizing the limiting forms of two loss functions are asymptotically equivalent to minimize the limiting form of L mv (Σ, Σ) = Tr(Σ −1 ΣΣ −1 )/N (Tr(Σ −1 )/N ) 2 . This concludes the proof of Theorem 1 of the main text. N −1 W = δI p+1 + (I p , β 0 ) ∆ 1 (I p , β 0 ), (C.8) which is in the same form of Lemma 3.1 in Gleser (1981). Consider the eigen decomposition of the matrix W = GDG , where D = diag(d 1 , . . . , d p , d p+1 ), and the (p + 1) 2 matrix G is partitioned as G =    G 11 G 12 G 21 G 22    with p×p matrix G 11 . Then following the results of Lemma 3.3 by Gleser (1981), (G 11 , G 21 ) converges to the eigenvectors corresponding to the p largest eigenvalues of the limiting matrix of δI p+1 + (I p , β 0 ) ∆ 1 (I p , β 0 ), denoted by (H 11 , H 21    =    I p β 0    ψ, H 21 H −1 11 = β 0 . The estimator from Equation (6) C.2 Proof of Theorem 2 of the Main Text Proof. In the context of general asymptotics, i.e., N, n → ∞ with fixed ratio, consider the eigendecomposition of matrixΣ −1/2 ΣΣ −1/2 = U ΛU , where Λ = diag(λ i ) is the diagonal matrix of eigenvalues, and U is the corresponding matrix of eigenvectors. Let Y * = U Σ − 1 2 Y, X * = U Σ − 1 2 X, * = U Σ − 1 2 , X * = U Σ − 1 2X , V * = U Σ − 1 2 V. (C.9) Then from Equation (6) of the main text, the generalized total least squares estimatorβ solves equation S(β) =X * (y * −X * β) N + β y * −X * β 2 F N (1 + β β) = 0, where S(β) = (S 1 (β), . . . , S p (β)) is a p dimensional vector. By Taylor's theorem there exists a series of β * j on the line segment betweenβ and β 0 for j = 1, . . . , p such that S j (β) = S j (β 0 ) + [∇S j (β * j )] (β − β 0 ) = 0, j = 1, 2, ..., p S(β) = S(β 0 ) + H(β − β 0 ) = 0, H = (∇S 1 (β * 1 ), . . . , ∇S p (β * p )). It follows that H √ N (β − β 0 ) = − √ N S(β 0 ) = − 1 √ N N i=1 ( * i − v * i β 0 )(x * i + v * i ) + β 0 ( * i − v * i β 0 ) 2 (1 + β 0 β 0 ) := − 1 √ N N i=1 f i (β 0 ), where for i = 1, . . . , N , * i is the ith element of vector , v * i is the ith row vector of V * and x * i is the ith row vector of X * . From Assumption 5 in the main text and Equation (C.9), * i ∼ N (0, λ i ), v * i ∼ N (0, λ i I p ), and f i (β 0 ) are mutually independent vectors with finite covariance matrices V(f i (β 0 )) = λ i x * i x * i (1 + β 0 β 0 ) + λ 2 i (I p + I p β 0 β 0 + 2β 0 β 0 ) − 3λ 2 i β 0 β 0 = [λ i x * i x * i + λ 2 i (I p + β 0 β 0 ) −1 ](1 + β 0 β 0 ), such that lim N →∞ 1 N N i=1 V(f i (β 0 )) = ∆ 2 + K(I p + β 0 β 0 ) −1 (1 + β 0 β 0 ). Then from Lemma 4.1 of Gleser (1981) and Assumption 3 and 4 of the main text, √ N S(β 0 ) D → M V N (0, Ξ 1 ), where Ξ 1 = ∆ 2 + K(I p + β 0 β 0 ) −1 (1 + β 0 β 0 ). It remains to show that as N → ∞, H = (∇S 1 (β * 1 ), . . . , ∇S p (β * p )) P → ∆ 1 . (C.10) Consider the derivative of the score function S(β) at any value of β ∇S(β) = −X * X * N + y * −X * β 2 F N (1 + β β) I p + β ∂ y * −X * β 2 F /{N (1 + β β)} ∂β = −X * X * N + y * −X * β 2 F N (1 + β β) I p + β{S(β)} 1 + β β . Since S(β) → 0 as N → ∞ and β P → β 0 , we have lim N →∞,β→β 0 ∇S(β) = lim N →∞,β→β 0 −X * X * N + y * −X * β 2 F N (1 + β β) I p = −∆ 1 − lim N →∞ Tr(Σ −1 Σ) N I p + lim N →∞ Tr(Σ −1 Σ) N I p + lim N →∞,β→β 0 (β − β 0 ) ∆ 1 (β − β 0 ) (1 + β β) I p = −∆ 1 . Thus from the Lemma 2 of the main text and the fact that {β * j } is a sequence on the line segment betweenβ and β 0 for j = 1, . . . , p, Equation (C.10) holds. With this, we complete the proof of Theorem 2. C.3 Proof of Theorem 3 of the Main Text Proof. Here we sketch the proof in the context of optimal fingerprinting. More rigorous derivations are to be established for the more general setting. As mentioned in Section 3.2 of the main text, without loss of generality, we adjust the Model (2) to make the covariance matrix of the errors in the covariartes and in the response the same. Consider model Y = p i=1 X * i β * i + , X * i = X * i + ν * i , i = 1, . . . , p, where ν * i is a normally distributed measurement error vector with mean zero and covariance matrix Σ/n i . Here for the ease of illustration, we consider n 1 = . . . = n p = n 0 . Usually in the above model, the magnitudes of fingerprints are comparable to the noise in the sense that the values of Tr{(X * ) X * } and Tr(Σ) are comparable, i.e., Tr{(X * ) X * }/p Tr(Σ) = O(1) as N → ∞. LetX i = √ n 0X * i , X i = √ n 0 X * i , ν i = √ n 0 ν * i and β i = β * i / √ n 0 . Then the model can be rewritten as Y = p i=1 X i β i + , (C.11) X i = X i + ν i , i = 1, . . . , p, (C.12) which is exactly in the form of Models (1)-(2) of the main text with n i = 1. Then the theoretical results in Section 3.2 of the main text are directly applied to the adjusted model. The coefficient estimations and corresponding variance estimations of the original model can be easily obtained from the results of above adjusted model. That is, in the context of optimal fingerprinting, the original model is equivalent to fit models with relative large magnitudes of fingerprints X i and small values of true coefficients β 0 . Consider the trace of asymptotic covariance matrix for the estimated coefficient vector in Model (C.11) given by Tr(Ξ) = Tr(∆ −1 1 ∆ 2 + K(I p + β 0 β 0 ) −1 (1 + β 0 β 0 )∆ −1 1 ) (C.13) = Tr(∆ −1 1 ∆ 2 ∆ −1 1 ) + (1 + β 0 β 0 ) Tr(∆ −1 1 K(I p + β 0 β 0 ) −1 ∆ −1 1 ) (C.14) from the Theorem 2 of the main text. The first term Tr(∆ −1 1 ∆ 2 ∆ −1 1 ) on the right hand side of (C.13) is the same as the loss function proposed in Appendix B.1. In the context of general asymptotics, i.e., N, n → ∞ with fixed ratio, the first term is equivalent to N p 2 Tr(X X) Tr(Σ −1 ΣΣ −1 )/N (Tr(Σ −1 )/N ) 2 , as X AX/N is asymptotically equivalent to {Tr(A)I p /N }{Tr(X X)/N p} for properly defined matrices X and A (See Appendix B.1). As for the second term (1 + β 0 β 0 ) Tr(∆ −1 1 K(I p + β 0 β 0 ) −1 ∆ −1 1 ), we need to show that it is dominated by the first term. Given the information on the magnitudes of fingerprints X and coefficients β 0 from the above illustrations, with appropriate large choice for the value of n 0 (which is fairly reasonable in real fingerprinting studies), the small values of β 0 can be omitted in the second term. Then the second term can be approximated by Tr(∆ −1 1 K∆ −1 1 ). We further note that K = lim N,n→∞ Tr{(Σ −1/2 ΣΣ −1/2 ) 2 }/N and Tr{(Σ −1/2 ΣΣ −1/2 ) 2 }/N ≤ {Tr(Σ −1 ΣΣ −1 ) Tr(Σ)}/N . Then we have in the general asymptotics Tr(∆ −1 1 K∆ −1 1 ) ≤ N 2 p 3 Tr(X X) 2 {Tr(Σ −1 ΣΣ −1 ) Tr(Σ)}/N (Tr(Σ −1 )/N ) 2 = N p 2 Tr(X X) {Tr(Σ −1 ΣΣ −1 )}/N (Tr(Σ −1 )/N ) 2 Tr(Σ) Tr(X X)/p , where Tr(Σ)/(Tr(X X)/p) = O(1/n 0 ) as N → ∞ based on the adjustment in Model (C.11). That is, with fairly large value of the number of climate simulations to obtain the estimated fingerprintsX i , the second term on the right hand side of (C.13) can be dominated by the first term, i.e., as N → ∞ we have (1 + β 0 β 0 ) Tr(∆ −1 1 K(I p + β 0 β 0 ) −1 ∆ −1 1 ) ≤ δ Tr(∆ −1 1 ∆ 2 ∆ −1 1 ), for an arbitrary small value δ with large enough magnitude of X i in Model (C.11), i.e., large enough number of climate simulations for computing the fingerprints in the original model. Thus the proposed covariance matrixΣ MV which is the optimal choice regarding the first term in general asymptotics is expected to outperform the linear shrinkage estimatorΣ LS in the sense that Tr Ξ(Σ MV ) ≤ Tr Ξ(Σ LS ) , which is consistent with the fact that as the number of climate simulations to estimate the fingerprints becomes larger, the effects of measurement error diminish. This completes the proof. D Detailed Results on Simulation Studies The results of simulation studies in Section 4 of the main text are detailed in Table D Table D.2: Scaling factor estimates and 95% confidence interval. Two structures of covariance matrix is considered: Σ UN for proposed shrinkage estimator from ensemble simulations and Σ ST for separable spatio-temporal covariance matrix. λ is the scale to control the signalto-noise ratio. Error terms are generated from multivariate normal distribution. Number of ensembles for two forcings are n 1 = 10 and n 2 = 6. Two constructions of weight matrix are compared. "M1" denote for linear shrinkage estimator and "M2" denote for proposed approach. Existing formula-based method (N) and calibration method (CB) are used to construct 95% confidence intervals. Bias and standard deviation (SD × 100) of scaling factors and average length of confidence intervals (CIL) and corresponding empirical rate (CR) from 1000 replicates are recorded. Figure D.1: Calibrated 95% confidence intervals for the scaling factors in the simulation study based on 1000 replicates. The numbers of runs for two forcings are n 1 = 10 and n 2 = 6 respectively. F N be the empirical cumulative distribution function of sample eigenvalues. Silverstein (1995) showed that the limiting form F = lim N,n→∞ F N exists under the same assumptions. The oracle optimal nonlinear shrinkage estimator minimizing the limiting form of proposed loss function under general asymptotics depends only on the derivative f = F of F and its Hilbert transform H f , and the limiting ratio c of N/n (Ledoit and Wolf, 2017a), the average of the variances of the components of the pre-whitened error vectors converge to positive constant. For the class of rotation invariant estimators defined in Ledoit and Wolf (2017b,a), which includes bothΣ MV andΣ LS , Assumptions 2 and 3 are satisfied. Lemma 2. Under Assumptions 1-3,β(Σ) P → β 0 , as N, n → ∞ with a N/n → c for some c > 0. -(2). The control runs used to estimate Σ were generated from MVN(0, Σ) with sample size n ∈ {50, 100, 200, 400}. For each replicate, the two GTLS estimators of β in Theorem 3 were obtained. For each configuration, 1000 replicates were run. Figure 1 1displays the boxplots of the estimates of the ANT scaling factor β 1 from the two TGLS approaches based on pre-whitening withΣ LS (denoted as M1) andΣ MV (denoted as M2) and, respectively. Both estimators appear to recover the true parameter values well on average. The variations of both estimators are lower for larger n, higher λ, and more structured Σ (the case of Σ ST ). These observations are expected. A larger n means more Σ 5 ΣΣFigure 2 : 52Setting 1: Σ UN , λ=0.Setting 1: Σ UN , λ=1 Σ Setting 2: Σ ST , λ=0.5 Σ Setting 2: Σ ST , Setting 1: Σ UN , λ=0.5 Σ Setting 1: Σ UN , λ=1 Σ Setting 2: Σ ST , λ=0.5 Σ Setting 2: Σ ST , Calibrated 95% confidence intervals for the scaling factors in the simulation study based on 1000 replicates.shown). After the calibration, the coverage rates are much closer to the nominal levels. The agreement is better for larger n and more structured Σ. The calibrated confidence intervals from M2 are about 10% shorter to those from M1 overall in both settings of true Σ, except for the case of Σ = Σ UN and sample size n = 50 where the confidence intervals suffer from under-coverage issue..5 Fingerprinting Mean Temperature ChangesWe apply the proposed approach to the detection and attribution analyses of annual meantemperature of 1951-2010 at the global (GL), continental, and subcontinental scales. The continental scale regions are Northern Hemisphere (NH), NH midlatitude between 30 • and 70 • (NHM), Eurasia (EA), and North America (NA), which were studied in (Zhang et al., 2006). The subcontinental scale regions are Western North American (WNA), Central North American (CNA), Eastern North American (ENA), southern Canada (SCA), and southern Figure 3 3summarizes the GTLS estimates of the scaling factorsβ 1 andβ 2 for the ANT and NAT forcings, respectively. The estimates from pre-whitening weight matrix Σ LS and Σ MV are denoted again as M1 and M2, respectively. The 95% confidence intervals were obtained with the calibration approach ofLi et al. (2019). The point estimates from M1 and M2 are similar in all the analysis. The confidence intervals from the M2 method are generally shorter than those from the M1 method in the analyses both at continental and subcontinental scale. More obvious reduction in the confidence interval lengths is observed at the subcontinental scales, e.g., the ANT scaling factor in EA/NA/SCA and the NAT scaling factor in NA/WNA/SCA. This may be explained by that signals at subcontinental scale are weaker and that the error covariance matrix has non-smooth eigenvalues that form some clustering patterns due to weak temporal dependence, as suggested by the simulation study. Although the detection and attribution conclusions based on the confidence intervals remain the same in most cases, the shortened confidence intervals means reduced uncertainty in the estimate of the attributable warming(Jones et al., 2013) and other quantities based on detection and attribution analysis, such as future climate projection and transient climate sensitivity(Li et al., 2019). The results are direct extensions of those in Gleser (1981), we only briefly sketch the proof. Consider the observed data matrixà =Σ − 1 2 [X, Y ] which is obtained by binding the columns ofX and Y . Under the Assumption 1, 2 and 3, let W =à à and δ = lim N →∞ Tr(Σ −1 Σ)/N , we have lim N →∞ is given byβ = {G 21 G −1 11 } = −G 12 /G 22 . With the above results, we haveβ P → β 0 , as N, n → ∞ with N/n → c > 0. . 1 , 1Table D.2 and Figure D.1. Table 1 : 1Summaries of the names, coordinate ranges, ideal spatio-temporal dimensions (S and T '), and dimension of observation after removing missing values of the 5 regions analyzed in the study.Acronym Regions Longitude Latitude Grid size S T n ( • E) ( • N) (1 • × 1 • ) Global and Continental Regions GL Global −180 / 180 −90 / 90 40 × 30 54 11 572 NH Northern Hemisphere −180 / 180 0 / 90 40 × 30 27 11 297 NHM Northern Hemisphere 30 • N to 70 • N −180 / 180 30 / 70 40 × 10 36 11 396 EA Eurasia −10 / 180 30 / 70 10 × 20 38 11 418 NA North America −130 / −50 30 / 60 10 × 5 48 11 512 Subcontinental Regions WNA Western North America −130 / −105 30 / 60 5 × 5 30 11 329 CNA Central North America −105 / −85 30 / 50 5 × 5 16 11 176 ENA Eastern North America −85 / −50 15 / 30 5 × 5 21 11 231 SCA Southern Canada −110 / −10 50 / 70 10 × 10 20 11 220 SEU South Eupore −10 / 40 35 / 50 5 × 5 30 11 330 Table D . D1: Scaling factor estimates and 95% confidence interval. Two structures of covariance matrix is considered: Σ UN for proposed shrinkage estimator from ensemble simulations and Σ ST for separable spatio-temporal covariance matrix. λ is the scale to control the signalto-noise ratio. Error terms are generated from multivariate normal distribution. Number of ensembles for two forcings are n 1 = 35 and n 2 = 46. Two constructions of weight matrix are compared. "M1" denote for linear shrinkage method and "M2" denote for proposed approaches. Existing formula-based method (N) and calibration method (CB) are used to construct 95% confidence intervals. Bias and standard deviation (SD × 100) of scaling factors and average length of confidence intervals (CIL) and corresponding empirical rate (CR) from 1000 replicates are recorded.ANT NAT N CB N CB size method Bias SD CIL CR CIL CR Bias SD CIL CR CIL CR Σ Setting 1: Σ UN ; SNR λ = 0.5 50 M1 0.02 19.0 0.41 69.8 0.53 82.0 0.01 57.0 1.47 78.5 1.89 89.9 M2 0.02 17.3 0.38 69.2 0.55 84.7 0.01 49.7 1.23 76.3 1.79 92.6 100 M1 0.01 13.6 0.36 76.8 0.47 89.9 -0.02 36.9 1.12 85.8 1.46 94.0 M2 -0.00 9.7 0.29 83.4 0.40 97.0 -0.02 26.8 0.81 86.1 1.13 95.6 200 M1 0.00 9.0 0.30 89.4 0.39 96.2 -0.01 24.4 0.87 92.4 1.08 97.5 M2 -0.00 6.7 0.23 91.3 0.26 95.4 -0.01 18.7 0.64 89.1 0.76 94.8 400 M1 0.00 6.1 0.26 93.7 0.30 96.7 -0.01 18.9 0.72 93.2 0.83 97.0 M2 -0.00 5.6 0.20 93.2 0.22 94.0 -0.00 16.1 0.57 92.1 0.64 94.3 Σ Setting 1: Σ UN ; SNR λ = 1 50 M1 0.00 9.0 0.20 71.9 0.25 80.7 -0.01 20.4 0.63 87.2 0.73 92.4 M2 0.00 8.5 0.18 72.5 0.26 83.9 -0.00 19.2 0.55 80.9 0.68 89.6 100 M1 0.00 6.6 0.18 79.8 0.23 90.7 -0.01 14.8 0.51 91.0 0.59 96.2 M2 0.00 4.5 0.14 85.6 0.19 96.5 -0.01 12.0 0.38 86.9 0.46 94.6 200 M1 0.00 4.5 0.15 88.6 0.19 95.9 -0.00 10.2 0.41 95.4 0.46 97.5 M2 0.00 3.3 0.12 92.1 0.13 95.6 0.00 8.7 0.31 93.2 0.35 95.9 400 M1 0.00 3.2 0.13 94.0 0.14 96.5 -0.00 8.3 0.34 95.6 0.37 96.7 M2 0.00 2.8 0.10 92.4 0.11 94.0 -0.00 7.8 0.28 91.3 0.30 95.4 Σ Setting 2: Σ ST ; SNR λ = 0.5 50 M1 -0.00 3.2 0.10 87.7 0.11 91.8 0.00 8.7 0.33 91.8 0.39 96.7 M2 0.00 3.1 0.09 85.6 0.11 91.0 0.00 8.5 0.30 89.9 0.35 95.1 100 M1 -0.00 2.2 0.08 93.2 0.10 96.7 0.00 7.1 0.26 91.3 0.30 95.6 M2 -0.00 2.0 0.07 91.6 0.08 95.6 0.00 7.0 0.23 87.7 0.26 91.6 200 M1 -0.00 1.6 0.07 95.6 0.08 97.3 0.00 5.9 0.22 94.0 0.25 96.5 M2 -0.00 1.6 0.06 94.0 0.06 95.4 0.00 5.6 0.19 90.5 0.21 93.7 400 M1 -0.00 1.5 0.06 94.8 0.06 96.5 0.00 5.1 0.19 91.0 0.21 93.7 M2 -0.00 1.4 0.05 92.4 0.05 93.5 -0.00 4.8 0.17 88.8 0.18 90.7 Σ Setting 2: Σ ST ; SNR λ = 1 50 M1 -0.00 1.6 0.05 84.2 0.06 90.5 0.00 4.4 0.16 93.5 0.18 94.8 M2 -0.00 1.6 0.04 80.7 0.05 89.6 0.00 4.5 0.15 90.2 0.16 91.6 100 M1 -0.00 1.1 0.04 92.4 0.05 97.3 0.00 3.2 0.13 95.4 0.14 97.8 M2 -0.00 1.0 0.04 89.4 0.04 95.4 0.00 3.2 0.11 92.6 0.12 95.9 200 M1 -0.00 0.8 0.03 94.0 0.04 97.0 0.00 2.8 0.11 94.8 0.12 96.7 M2 0.00 0.7 0.03 93.7 0.03 95.4 0.00 2.7 0.10 92.6 0.10 94.6 400 M1 0.00 0.7 0.03 96.7 0.03 97.5 0.00 2.3 0.09 95.9 0.10 97.8 M2 0.00 0.6 0.03 95.4 0.03 95.4 0.00 2.3 0.08 92.4 0.09 94.6 Σ Setting 1: Σ UN , λ=0.5 Σ Setting 1: Σ UN , λ=1 Σ Setting 2: Σ ST , λ=0.5 Σ Setting 2: Σ ST , λ=1Number of control runs n in estimating Σ Average length of CIANT NAT N CB N CB size method Bias SD CIL CR CIL CR Bias SD CIL CR CIL CR Σ Setting 1: Σ UN ; SNR λ = 0.5 50 M1 0.00 24.6 0.53 74.9 0.71 90.7 -0.00 130.9 2.08 66.8 3.07 85.8 M2 0.00 22.8 0.47 71.9 0.72 92.6 0.05 115.2 1.77 64.9 3.22 92.1 100 M1 -0.00 17.4 0.44 82.3 0.59 95.1 0.06 97.1 1.90 70.0 2.90 90.7 M2 -0.00 11.5 0.34 86.4 0.50 98.1 0.02 53.3 1.29 76.6 2.28 94.6 200 M1 0.01 11.4 0.36 89.1 0.47 96.7 0.03 47.0 1.37 83.7 2.02 94.6 M2 0.00 7.4 0.27 92.1 0.32 95.6 0.00 29.9 0.91 88.8 1.24 97.5 400 M1 0.00 7.5 0.30 94.3 0.35 97.3 0.02 30.5 1.09 90.5 1.41 96.2 M2 0.00 6.5 0.23 91.8 0.25 93.7 0.01 21.3 0.79 92.4 0.95 96.2 Σ Setting 1: Σ UN , λ=0.5 Σ Setting 1: Σ UN , λ=1 Σ Setting 2: Σ ST , λ=0.5 Σ Setting 2: Σ ST , λ=1 50 100 200 400 50 100 200 400 50 100 200 400 50 100 200 400 85 90 95 100 Coverage rate 50 100 200 400 50 100 200 400 50 100 200 400 50 100 200 400 0.03 0.04 0.05 0.06 0.06 0.08 0.10 0.12 0.15 0.20 0.25 0.30 0.3 0.4 0.5 0.6 0.7 Method M1 M2 . Σ Setting. Σ ST2Σ Setting 2: Σ ST ; Estimating signal amplitudes in optimal fingerprinting, part I: Theory. M R References Allen, P A Stott, Climate Dynamics. 21References Allen, M. R. and P. A. Stott (2003). Estimating signal amplitudes in optimal fingerprinting, part I: Theory. Climate Dynamics 21, 477-491. Checking for model consistency in optimal fingerprinting. M R Allen, S F B Tett, Climate Dynamics. 15Allen, M. R. and S. F. B. Tett (1999). Checking for model consistency in optimal finger- printing. Climate Dynamics 15, 419-434. Tables of Integral Transforms. H Bateman, McGraw-HillIINew YorkBateman, H. (1954). Tables of Integral Transforms, Volume II. New York: McGraw-Hill. Climate Change 2013: The Physical Science Basis. Contribution of Working Group I to the Fifth Assessment Report of the Intergovernmental Panel on Climate Change, Book section 10. N L Bindoff, P A Stott, K M Achutarao, M R Allen, N Gillett, D Gutzler, K Hansingo, G Hegerl, Y Hu, S Jain, I I Mokhov, J Overland, J Perlwitz, R Sebbari, X Zhang, T. F. Stocker, D. Qin, G.-K. Plattner, M. Tignor, S. K. Allen, J. Boschung, A. Nauels, Y. Xia, V. Bex, and P. M. MidgleyCambridge University PressCambridge; New York, NY, USADetection and attribution of climate change: From global to regionalBindoff, N. L., P. A. Stott, K. M. AchutaRao, M. R. Allen, N. Gillett, D. Gutzler, K. Hansingo, G. Hegerl, Y. Hu, S. Jain, I. I. Mokhov, J. Overland, J. Perlwitz, R. Seb- bari, and X. Zhang (2013). Detection and attribution of climate change: From global to regional. In T. F. Stocker, D. Qin, G.-K. Plattner, M. Tignor, S. K. Allen, J. Boschung, A. Nauels, Y. Xia, V. Bex, and P. M. Midgley (Eds.), Climate Change 2013: The Physical Science Basis. Contribution of Working Group I to the Fifth Assessment Report of the Intergovernmental Panel on Climate Change, Book section 10, pp. 867-952. Cambridge, United Kingdom and New York, NY, USA: Cambridge University Press. Confidence intervals in optimal fingerprinting. T Delsole, L Trenary, X Yan, M K Tippett, Climate Dynamics. 52DelSole, T., L. Trenary, X. Yan, and M. K. Tippett (2019). Confidence intervals in optimal fingerprinting. Climate Dynamics 52, 4111-4126. Large dynamic covariance matrices. R F Engle, O Ledoit, M Wolf, Journal of Business & Economic Statistics. 37Engle, R. F., O. Ledoit, and M. Wolf (2019). Large dynamic covariance matrices. Journal of Business & Economic Statistics 37, 363-375. Properties of some estimators for the errors-in-variables model. W A Fuller, Annals of Statistics. 8Fuller, W. A. (1980). Properties of some estimators for the errors-in-variables model. Annals of Statistics 8, 407-422. Estimation in a multivariate "errors in variables" regression model: Large sample results. L J Gleser, Annals of Statistics. 91Gleser, L. J. (1981). Estimation in a multivariate "errors in variables" regression model: Large sample results. Annals of Statistics 9 (1), 24-44. Integrated optimal fingerprinting: Method description and illustration. A Hannart, Journal of Climate. 296Hannart, A. (2016). Integrated optimal fingerprinting: Method description and illustration. Journal of Climate 29 (6), 1977-1998. Optimal fingerprinting under multiple sources of uncertainty. A Hannart, A Ribes, P Naveau, Geophysical Research Letters. 414Hannart, A., A. Ribes, and P. Naveau (2014). Optimal fingerprinting under multiple sources of uncertainty. Geophysical Research Letters 41 (4), 1261-1268. Multi-pattern fingerprint method for detection and attribution of climate change. K Hasselmann, Climate Dynamics. 139Hasselmann, K. (1997). Multi-pattern fingerprint method for detection and attribution of climate change. Climate Dynamics 13 (9), 601-611. Use of models in detection and attribution of climate change. G Hegerl, F Zwiers, Wiley Interdisciplinary Reviews: Climate Change. 24Hegerl, G. and F. Zwiers (2011). Use of models in detection and attribution of climate change. Wiley Interdisciplinary Reviews: Climate Change 2 (4), 570-591. Good practice guidance paper on detection and attribution related to anthropogenic climate change. G C Hegerl, O Hoegh-Guldberg, G Casassa, M P Hoerling, R S Kovats, C Parmesan, D W Pierce, P A Stott, Meeting Report of the Intergovernmental Panel on Climate Change Expert Meeting on Detection and Attribution of Anthropogenic Climate Change. T. F. Stocker, C. B. Field, D. Qin, V. Barros, G.-K. Plattner, M. Tignor, P. M. Midgley, and K. L. EbiBern, SwitzerlandIPCC Working Group I Technical Support Unit, University of BernHegerl, G. C., O. Hoegh-Guldberg, G. Casassa, M. P. Hoerling, R. S. Kovats, C. Parmesan, D. W. Pierce, and P. A. Stott (2010). Good practice guidance paper on detection and attribution related to anthropogenic climate change. In T. F. Stocker, C. B. Field, D. Qin, V. Barros, G.-K. Plattner, M. Tignor, P. M. Midgley, and K. L. Ebi (Eds.), Meeting Re- port of the Intergovernmental Panel on Climate Change Expert Meeting on Detection and Attribution of Anthropogenic Climate Change, Bern, Switzerland. IPCC Working Group I Technical Support Unit, University of Bern. Detecting greenhouse-gas-induced climate change with an optimal fingerprint method. G C Hegerl, H Storch, K Hasselmann, B D Santer, U Cubasch, P D Jones, Journal of Climate. 910Hegerl, G. C., H. von Storch, K. Hasselmann, B. D. Santer, U. Cubasch, and P. D. Jones (1996). Detecting greenhouse-gas-induced climate change with an optimal fingerprint method. Journal of Climate 9 (10), 2281-2306. Attribution of observed historical nearsurface temperature variations to anthropogenic and natural causes using CMIP5 simulations. G S Jones, P A Stott, N Christidis, Journal of Geophysical Research: Atmospheres. 11810Jones, G. S., P. A. Stott, and N. Christidis (2013). Attribution of observed historical near- surface temperature variations to anthropogenic and natural causes using CMIP5 simula- tions. Journal of Geophysical Research: Atmospheres 118 (10), 4001-4024. Uncertainties in the attribution of greenhouse gas warming and implications for climate prediction. G S Jones, P A Stott, J F B Mitchell, Journal of Geophysical Research: Atmospheres. 12112Jones, G. S., P. A. Stott, and J. F. B. Mitchell (2016). Uncertainties in the attribution of greenhouse gas warming and implications for climate prediction. Journal of Geophysical Research: Atmospheres 121 (12), 6969-6992. Eigenvectors of some large sample covariance matrix ensembles. O Ledoit, S Péché, Probability Theory and Related Fields. 150Ledoit, O. and S. Péché (2011). Eigenvectors of some large sample covariance matrix en- sembles. Probability Theory and Related Fields 150, 233-264. A well-conditioned estimator for large-dimensional covariance matrices. O Ledoit, M Wolf, Journal of Multivariate Analysis. 882Ledoit, O. and M. Wolf (2004). A well-conditioned estimator for large-dimensional covariance matrices. Journal of Multivariate Analysis 88 (2), 365-411. Direct nonlinear shrinkage estimation of large-dimensional covariance matrices. O Ledoit, M Wolf, University of Zurich, Department of EconomicsWorking Paper 264Ledoit, O. and M. Wolf (2017a). Direct nonlinear shrinkage estimation of large-dimensional covariance matrices. Working Paper 264, University of Zurich, Department of Economics. Nonlinear shrinkage of the covariance matrix for portfolio selection: Markowitz meets Goldilocks. O Ledoit, M Wolf, Review of Financial Studies. 3012Ledoit, O. and M. Wolf (2017b). Nonlinear shrinkage of the covariance matrix for portfolio selection: Markowitz meets Goldilocks. Review of Financial Studies 30 (12), 4349-4388. Optimal estimation of a large-dimensional covariance matrix under Stein's loss. O Ledoit, M Wolf, Bernoulli. 244BLedoit, O. and M. Wolf (2018). Optimal estimation of a large-dimensional covariance matrix under Stein's loss. Bernoulli 24 (4B), 3791-3832. dacc: Detection and Attribution of Climate Change. Y Li, K Chen, J Yan, R package version 0.1-13Li, Y., K. Chen, and J. Yan (2020). dacc: Detection and Attribution of Climate Change. R package version 0.1-13. Confidence interval calibration for regularized optimal fingerprinting in detection and attribution of climate change. Y Li, K Chen, J Yan, X Zhang, Department of Statistics, University of ConnecticutTechnical reportLi, Y., K. Chen, J. Yan, and X. Zhang (2019). Confidence interval calibration for regularized optimal fingerprinting in detection and attribution of climate change. Technical report, Department of Statistics, University of Connecticut. Distribution of eigenvalues for some sets of random matrices. V Marcenko, L A Pastur, Sbornik: Mathematics. 41Marcenko, V. and L. A. Pastur (1967). Distribution of eigenvalues for some sets of random matrices. Sbornik: Mathematics 4 (1), 457-483. Quantifying uncertainties in global and regional temperature change using an ensemble of observational estimates: The HadCRUT4 data set. C P Morice, J J Kennedy, N A Rayner, P D Jones, Journal of Geophysical Research: Atmospheres. 1178101Morice, C. P., J. J. Kennedy, N. A. Rayner, and P. D. Jones (2012). Quantifying uncertainties in global and regional temperature change using an ensemble of observational estimates: The HadCRUT4 data set. Journal of Geophysical Research: Atmospheres 117, D08101. Total least squares and bootstrapping with applications in calibration. M Pesta, Statistics. 475Pesta, M. (2013). Total least squares and bootstrapping with applications in calibration. Statistics 47 (5), 966--991. Adaptation of the optimal fingerprint method for climate change detection using a well-conditioned covariance matrix estimate. A Ribes, J.-M Azaïs, S Planton, Climate Dynamics. 335Ribes, A., J.-M. Azaïs, and S. Planton (2009). Adaptation of the optimal fingerprint method for climate change detection using a well-conditioned covariance matrix estimate. Climate Dynamics 33 (5), 707-722. Application of regularised optimal fingerprinting to attribution. Part I: Method, properties and idealised analysis. A Ribes, S Planton, L Terray, Climate Dynamics. 41Ribes, A., S. Planton, and L. Terray (2013). Application of regularised optimal fingerprinting to attribution. Part I: Method, properties and idealised analysis. Climate Dynamics 41 (11- 12), 2817-2836. Estimating the transient climate response from observed warming. A Schurer, G Hegerl, A Ribes, D Polson, C Morice, S Tett, Journal of Climate. 3120Schurer, A., G. Hegerl, A. Ribes, D. Polson, C. Morice, and S. Tett (2018). Estimating the transient climate response from observed warming. Journal of Climate 31 (20), 8645-8663. Strong convergence of the empirical distribution of eigenvalues of large-dimensional random matrices. J W Silverstein, Journal of Multivariate Analysis. 55Silverstein, J. W. (1995). Strong convergence of the empirical distribution of eigenvalues of large-dimensional random matrices. Journal of Multivariate Analysis 55, 331-339. On the empirical distribution of eigenvalues of a class of large-dimensional random matrices. J W Silverstein, Z Bai, Journal of Multivariate Analysis. 54Silverstein, J. W. and Z. Bai (1995). On the empirical distribution of eigenvalues of a class of large-dimensional random matrices. Journal of Multivariate Analysis 54, 175-192. Multimodel multisignal climate change detection at regional scale. X Zhang, F Zwiers, P A Stott, Journal of Climate. 1917Zhang, X., F. Zwiers, and P. A. Stott (2006). Multimodel multisignal climate change detec- tion at regional scale. Journal of Climate 19 (17), 4294-4307.
sample_4305
0.805
arxiv
Learning bias corrections for climate models using deep neural operators Aniruddha Bora Division of Applied Mathematics Brown University 170, Hope Street ProvidenceRI-02906 Khemraj Shukla Division of Applied Mathematics Brown University 170, Hope Street ProvidenceRI-02906 Shixuan Zhang Pacific Northwest National Laboratory 902 Battelle Blvd99354RichlandWA Bryce Harrop Pacific Northwest National Laboratory 902 Battelle Blvd99354RichlandWA Ruby Leung Pacific Northwest National Laboratory 902 Battelle Blvd99354RichlandWA George Em Karniadakis georgekarniadakis@brown.edu Division of Applied Mathematics Brown University 170, Hope Street ProvidenceRI-02906 Learning bias corrections for climate models using deep neural operators Numerical simulation for climate modeling resolving all important scales is a computationally taxing process. Therefore, to circumvent this issue a low resolution simulation is performed, which is subsequently corrected for bias using reanalyzed data (ERA5), known as nudging correction. The existing implementation for nudging correction uses a relaxation based method for the algebraic difference between low resolution and ERA5 data. In this study, we replace the bias correction process with a surrogate model based on the Deep Operator Network (DeepONet). DeepONet (Deep Operator Neural Network) learns the mapping from the state before nudging (a functional) to the nudging tendency (another functional). The nudging tendency is a very high dimensional data albeit having many low energy modes. Therefore, the Deep-oNet is combined with a convolution based auto-encoderdecoder (AED) architecture in order to learn the nudging tendency in a lower dimensional latent space efficiently. The accuracy of the DeepONet model is tested against the nudging tendency obtained from the E3SMv2 (Energy Exascale Earth System Model) and shows good agreement. The overarching goal of this work is to deploy the DeepONet model in an online setting and replace the nudging module in the E3SM loop for better efficiency and accuracy. Introduction The atmospheric circulation is characterized by complex multiscale physical processes, hence posing a lot of challenges for numerical simulations. These simulated processes may exhibit inconsistencies and significant deviations from the true states and are known as "biases". They are developed due to limited spatial resolution in climate models and inaccurate physical parameterizations in comparison to the observed atmospheric states. The limited resolution simulations are less taxing on computational resources, but their biases limit their usefulness. This trade off results into larger uncertainties in climate predictions. In general, such biases are removed using post processing steps, such as model output statistics for weather forecasting (Glahn and Lowry 1972), ensemble bias correction for seasonal prediction (Arribas et al. 2011), (Stockdale et al. 1998), etc. In existing implementations of the online bias correction approach, the bias correction is based on a data driven approach with lower generalization capabilities (Watt-Meyer et al. 2021). In this work, we propose a neural operator based surrogate to learn the bias correction with a larger generalization capability. In particular, we utilize Deep Operator Network (DeepONet) (Lu et al. 2021) by augmenting the existing neural network architecture with autoencoders (Oommen et al. 2022). Methodology In this section, we will discuss the data generation, methodology to train DeepONet, and the architecture details of the proposed surrogate model. Data generation The time evolution of a physical quantity X m in the Energy Exascale Earth System Model-E3SM (E3SM Project 2018) is given by (Sun et al. 2019) : ∂X m ∂t = F (X m ),(1) where X m is the state variable. The nudging tendency for the state variable is given by ∂X m ∂t ndg = Xp(tp)−Xm(t) τ , t = t i , 0, t = t i ,(2) where t i is the time at i th hour when the ERA5 data is available. The data used for training and testing the DeepONet are generated by performing EAMv2 simulations, which are nudged towards the reference data sets (i.e. 3-hourly ERA5 reanalysis data (Hersbach et al. 2020)). This time-dependent nudging tendency is determined by the model X m and reference state X p as well as the nudging relaxation time scale τ . This is shown in (2). Nudging tendencies are calculated at every 30 minutes following (2). In (2), X p is obtained by linearly interpolating the 3-hourly ERA5 reanalysis data to the model times. In this study, the EAMv2 simulations are nudged only for U (zonal wind) and V (meridional wind) and we have used three data sets, which are (i) data before nudging, (ii) nudging tendency and (iii) ERA5 reanalyzed data-set. These data sets, in relation to each other, are expressed as, ∂X m ∂t cor = ∂X m ∂t uncor + ∂X m ∂t ndg ,(3) where (∂X m /∂t) uncor and (∂X m /∂t) ndg denote the before-nudged state and nudging tendency, respectively. The (∂X m /∂t) cor represents the corrected stated of the state variable X m , which should be close to ERA5. By construction, (3) tries to converge prediction from model towards true observations. Architecture of Deep Operator Network To learn a surrogate for prediction of the nudging tendency requires learning a function G from space U (before nudge data) to V (Nudging tendency), a function of spatiotemporal coordinates (x, y, t). DeepONet is a neural operator regression technique based on the universal approximation theorem (Chen and Chen 1995). The goal of Deep-ONet is to learn the mapping from an input space, U(η), to an output space V(ζ).The conventional DeepONet architecture consists of two neural networks first, branch network (branch-net) and second trunk network (trunk-net). The branch-network and trunk-network take in as input samples u(η) ∈ U(η) and ζ, respectively. The output of the DeepONet can be represented as the operator G : U − → V, such that v(ζ) = G(u(ζ)), where u(ζ) ∈ U and v(ζ) ∈ V. The nudging tendency has many low energy modes, less coherent structures, and are very high dimensional due to which they are very hard to approximate using neural networks. This is due to very low correlations between feature and label data. Oommen et. al (Oommen et al. 2022) has shown that these type of the problems can be learned successfully by using DeepONet in latent space discovered by encoders. In this study, we use two autoencoders to reduce the spatial dimension of U and V to represent the nudging tendency in a smooth latent manifold so that its easier to learn. The steps required to train the DeepONet are i. The first step is to train two autoencoders, one for the DeepONet input, i.e., the before-nudged variables (ψ bf (z,x,ȳ, t)) and the other for the DeepONet output that is the nudging tendency (ψ ndg (z,x,ȳ, t) variables. Both autoencoders are trained using the MSE loss as shown: L AE1 = ||ψ bf (z,x,ȳ, t) − ψ bf (z,x,ȳ, t; θ AE1 )|| 2 , L AE2 = ||ψ ndg (z,x,ȳ, t) − ψ ndg (z,x,ȳ, t; θ AE2 )|| 2 , where AE1 and AE2 represent the autoencoders for the before-nudged and the nudging tendency variables. Also, θ AE1 and θ AE2 represent the corresponding trainable parameters for the respective autencoders. ii. After training and validation of the encode and decoder, we learn DeepONet in the latent space with features and labels defined byψ bf (z,x,ȳ, t) andψ ndg (z × ld, t), respectively. The output of DeepONetψ ndg don (z × ld, t) is trained against theψ ndg (z × ld, t) by minimizing the mean square error function expressed as L = ||ψ ndg don (z × ld, t) −ψ ndg (z × ld, t)|| 2 . (4) iii. To recover the output of DeepONet in primitive space, we compose it with the decoder. Here ψ bf (z,x,ȳ, t) and ψ ndg (z,x,ȳ, t) are the input to the encoders Encoder bf (encoder for before nudged data) and Encoder ndg (encoder for nudging tendency) respectively.ψ bf (z × ld, t),ψ ndg (z × ld, t) are the latent dimension representation of the respective inputs and ψ bf (z,x,ȳ, t; θ AE1 ), ψ ndg (z,x,ȳ, t; θ AE2 ) are the reconstructed variable via the Decoder bf (decoder for before nudged data) and Decoder ndg (decoder for nudging tendency) respectively. Figure 2: A block diagram showing a high level view of the DeepONet.ψ bf (z × ld, t) (latent space representation of before nudged state) is the input for the branch network and t is the time which the input to the trunk network, which is the time for which we want to predict the nudging tendencŷ ψ ndg don (z × ld, t). Once the prediction of the nudging tendency is obtained in the latent space, it is passed through the Decoder ndg to get the primitive space representation ψ ndg don (z,x,ȳ, t; θ AE2 ). Results To test our model, we train the DeepONet for a particular sub-region of the globe for the state variables U (zonal wind) and V (meridional wind). The latitude and longitude of the chosen sub region varies from 10N to 80N and 120W to 50W , respectively. The choice of the sub region is due to Layer Feature Kernel Activation Conv2D 16 (3, 3) ReLU maxpool (2, 2) Conv2D 8 (3, 3) ReLU maxpool (2, 2) Conv2D 4 (3, 3) ReLU maxpool (2, 2) Flatten Dense the larger variability of the atmospheric state U and V and is dominated by historical cyclones and storms. The Deep-ONet model is trained for the time span of October, which covers the famous hurricane Sandy in 2012. The DeepONet based model accurately predicts the nudging tendencies with a correlation higher than 0.7 with a confidence of 95%. A correct prediction of the storm track of Sandy shows the robustness of the DeepONet model. In Figure Summary In this work, we developed a DeepONet based surrogate model, which successfully learns the bias correction in climate models. We first trained two auto-encoders for U and V providing their latent representations. The evolution of latent representation of U and V are learned by DeepONet. Latent representation of features and labels helps DeepONet to learn the system dynamics fast and efficiently. The accuracy of DeepONet modes is established by testing it to predict the path of hurricane Sandy. The ongoing efforts include integration of the trained DeepONet model in the E3SM, so that it can be used to correct the biases in an online mode for more skillful simulations. Figure 1 : 1A block diagram showing high level view of the autoencoder. Figure 3 : 3A block diagram showing a high level view of the decoding process after DeepONet prediction. Figure 4 :Figure 5 : 455, top/bottom left and top/bottom right subfigures represent E3SM and DeepONet predicted nudging tendencies for U (zonal wind) and V (meridional wind)Figure showing nudging tendency predicted by DeepONet for U (zonal wind) and V (meridional wind) and compared against the corresponding E3SM nudging tendency in the test domain. Column (a) shows the E3SM nudging tendency, (b) shows the DeepONet predicted nudging tendency, and (d) shows the pointwise error for U and V reFigure showing the track of hurricane sandy in 2012. The left column sub-figures are from the E3SM nudged UV simulations and the right column sub-figures are the DeepONet simulation trained with nudging tendency for U (zonal wind) and V (meridional wind) respectively. Table 1 : 1Table representing architecture details of the encoder.Layer Feature Kernel Activation Dense ReLU Reshape Transpose Conv2D 4 (3, 3) ReLU Transpose Conv2D 8 (3, 3) ReLU Transpose Conv2D 16 (3, 3) ReLU Conv2D 4 (3, 3) Reshape Dense Table 2 : 2Table representing architecture details of the decoder.Branch-net Layer Activation Conv2D (feature=32,K=(3,3)) ReLu Conv2D (feature=16,K=(3,3)) ReLu Flatten Linear(ld) tanh Linear(32) tanh Linear(32) tanh Linear(32) tanh Linear(M × ld) Trunk-net Linear(32) tanh Linear(32) tanh Linear(32) tanh Linear(32) tanh Linear(M × ld) Table 3 : 3Table representing the DeepONet architecture. AcknowledgmentsThe authors would like to thank DARPA for funding this work through the project AI-assisted Climate Tipping-point Modeling (ACTM), Agreement No. HR00112290029. K.S. and A.B would also like to acknowledge Vivek Oommen (Brown University). K.S. and A.B would also like to acknowledge the use of the CCV's Oscar HPC cluster at Brown University. The GloSea4 ensemble prediction system for seasonal forecasting. A Arribas, M Glover, A Maidens, K Peterson, M Gordon, C Maclachlan, R Graham, D Fereday, J Camp, A Scaife, Monthly Weather Review. 1396Arribas, A.; Glover, M.; Maidens, A.; Peterson, K.; Gordon, M.; MacLachlan, C.; Graham, R.; Fereday, D.; Camp, J.; Scaife, A.; et al. 2011. The GloSea4 ensemble prediction system for seasonal forecasting. Monthly Weather Review, 139(6): 1891-1910. Universal approximation to nonlinear operators by neural networks with arbitrary activation functions and its application to dynamical systems. T Chen, H Chen, 10.11578/E3SM/dc.20180418.36IEEE Transactions on Neural Networks. 64E3SM Project, D. 2018. Energy Exascale Earth System Model v1.0. [Computer SoftwareChen, T.; and Chen, H. 1995. Universal approximation to nonlinear operators by neural networks with arbitrary acti- vation functions and its application to dynamical systems. IEEE Transactions on Neural Networks, 6(4): 911-917. E3SM Project, D. 2018. Energy Exascale Earth System Model v1.0. [Computer Software] https://doi.org/10.11578/ E3SM/dc.20180418.36. The use of model output statistics (MOS) in objective weather forecasting. H R Glahn, D A Lowry, Journal of Applied Meteorology and Climatology. 118Glahn, H. R.; and Lowry, D. A. 1972. The use of model out- put statistics (MOS) in objective weather forecasting. Jour- nal of Applied Meteorology and Climatology, 11(8): 1203- 1211. The ERA5 global reanalysis. H Hersbach, B Bell, P Berrisford, S Hirahara, A Horányi, J Muñoz-Sabater, J Nicolas, C Peubey, R Radu, D Schepers, Quarterly Journal of the Royal Meteorological Society. 146730Hersbach, H.; Bell, B.; Berrisford, P.; Hirahara, S.; Horányi, A.; Muñoz-Sabater, J.; Nicolas, J.; Peubey, C.; Radu, R.; Schepers, D.; et al. 2020. The ERA5 global reanaly- sis. Quarterly Journal of the Royal Meteorological Society, 146(730): 1999-2049. Learning nonlinear operators via DeepONet based on the universal approximation theorem of operators. L Lu, P Jin, G Pang, Z Zhang, G E Karniadakis, Nature Machine Intelligence. 33Lu, L.; Jin, P.; Pang, G.; Zhang, Z.; and Karniadakis, G. E. 2021. Learning nonlinear operators via DeepONet based on the universal approximation theorem of operators. Nature Machine Intelligence, 3(3): 218-229. Learning two-phase microstructure evolution using neural operators and autoencoder architectures. V Oommen, K Shukla, S Goswami, R Dingreville, G E Karniadakis, Computational Materials. 81190Oommen, V.; Shukla, K.; Goswami, S.; Dingreville, R.; and Karniadakis, G. E. 2022. Learning two-phase microstruc- ture evolution using neural operators and autoencoder archi- tectures. npj Computational Materials, 8(1): 190. Global seasonal rainfall forecasts using a coupled ocean-atmosphere model. T N Stockdale, D L Anderson, J O S Alves, M A Balmaseda, Nature. 3926674Stockdale, T. N.; Anderson, D. L.; Alves, J. O. S.; and Bal- maseda, M. A. 1998. Global seasonal rainfall forecasts us- ing a coupled ocean-atmosphere model. Nature, 392(6674): 370-373. Impact of nudging strategy on the climate representativeness and hindcast skill of constrained EAMv1 simulations. J Sun, K Zhang, H Wan, P.-L Ma, Q Tang, S Zhang, Journal of Advances in Modeling Earth Systems. 1112Sun, J.; Zhang, K.; Wan, H.; Ma, P.-L.; Tang, Q.; and Zhang, S. 2019. Impact of nudging strategy on the climate repre- sentativeness and hindcast skill of constrained EAMv1 sim- ulations. Journal of Advances in Modeling Earth Systems, 11(12): 3911-3933. Correcting weather and climate models by machine learning nudged historical simulations. O Watt-Meyer, N D Brenowitz, S K Clark, B Henn, A Kwa, J Mcgibbon, W A Perkins, C S Bretherton, Geophysical Research Letters. 4815Watt-Meyer, O.; Brenowitz, N. D.; Clark, S. K.; Henn, B.; Kwa, A.; McGibbon, J.; Perkins, W. A.; and Bretherton, C. S. 2021. Correcting weather and climate models by ma- chine learning nudged historical simulations. Geophysical Research Letters, 48(15): e2021GL092555.
sample_4693
0.7959
arxiv
Demostración simplificada de la Conjetura de Modularidad de Serre (carta) 22 Feb 2019 Luis Dieulefait ldieulefait@ub.edu Universitat de Barcelona G.V. de les Corts Catalanes 58508007BarcelonaSpain Demostración simplificada de la Conjetura de Modularidad de Serre (carta) 22 Feb 2019 We explain in this letter how using a recent Modularity Lifting Theorem proved by Lue Pan the proofs of Serre's Modularity Conjecture over Q given by Khare-Wintenberger and the author can be greatly simplified. The main difference with the previous proofs is that neither the process of "weight reduction" developed by Khare in his proof of the level 1 case nor the alternative method of "weight reduction via Galois conjugation" developed by the author are required: weight reduction can now be obtained just with two applications of Pan's result, together with a Lemma that guarantees that the residual representations in the last two steps are not in the bad-dihedral case. 1 Carta datada en Septiembre de 2018 Hola Basil, Te hago notar que, usando el teorema de L. Pan, en la versión queél dijo que pronto demostrará, en la cual quita la condición tediosa local en p (sobre el cociente de los dos caracteres en la representación residual), al menos para p > 3, se puede probar la conjetura de Serre sobre Q de manera muy simple. De hecho, la fase de "killing the level" es muy sencilla y ya está explicada en mi paper "Remarks on Serre's modularity conjecture", y una vez hecho esto, se acaba con el teorema de Pan en sólo dos pasos más! Te recuerdo la parte de "killing the level": como el teorema de Kisin ya ha sido mejorado por otros autores (Y. Hu, F. Tan y S. Tung), quitando precisamente la condición tediosa sobre el cociente de los dos caracteres de la representación residual local en p, tal como anticipé que pasaría en la sección final de mi paper (sección 7), "killing ramification" se hace de la forma más simple imaginable: se introduce un Good Dihedral prime q en el nivel para garantizar "large residual images" y se matan uno tras otro los primos p i del nivel, es decir, se reduce módulo p i y se toma un levantamiento minimal sin p i en el nivel. Hecho esto, la conjetura de Serre queda reducida al caso de nivel q 2 , peso k ≥ 2. Es decir, se aplica el método tal como fuera explicado en mi paper, pero del modo simplificado que se mencionaba en la Sección 7 del mismo gracias a que el teorema de Kisin ya ha sido mejorado. Observación: en realidad, estoy suponiendo que el nivel es impar. Si fuera par, para matar el primo 2 del nivel, se procede como en los papers de Khare-Wintenberger, la idea es la siguiente: después de haber hecho lo anterior (introducir el Good Dihedral prime q en el nivel y matar todos los primos impares del nivel) tomando un levantamiento de peso 2 modulo un primo auxiliar r se puede suponer que se está en un caso de peso 2 (el primo r será un primo que está ahora en el nivel pero que se mata luego de la forma sencilla ya indicada en el párrafo anterior, basta con cogerlo menor que una cota apropiada para que el good dihedral prime q garantice imagen residual grande modulo r), y una vez hecho esto, elúnico problema técnico para matar el 2 del nivel es que los "2-adic modularity lifting theorems" (el de Kisin es el que ellos aplican) requieren que sea una representación potentially Barsotti-Tate (no son válidos en el caso semiestable no-cristalino). Para resolver este problema técnico, Khare-Wintenberger hacen un truco que podríamos llamar "three-two trick": Si están en el caso malo, o sea con un sistema compatible que localmente en el 2 está en el caso semistable (up to twist), prueban que se puede hacer una congruencia modulo 3 con otro sistema cuyo tipo local en el 2 sea tal que la representación 2-adica del nuevo sistema es potentially Barsotti-Tate. Hecho esto, ya se puede usar el teorema 2-adico de Kisin para matar el 2 del nivel, y se tiene una congruencia con una representación de conductor impar y peso 2 o 4. Es en este momento dónde podemos matar el primo r del nivel tal como hicimos con el resto de primos impares del nivel. Una vez que se acaba la fase de killing the level, que es muy sencilla, ya estamos en el caso de nivel q 2 y peso k > 1. Aquí, si suponemos la mejora del teorema de Pan (para p > 3) queél anunció en su charla del congreso de Rio de Janeiro (tal como dije al principio: un teorema que no requiera la condición tediosa local en p para p > 3, con lo que queda un teorema como el de Skinner-Wiles, es decir un teorema de modularidad para el caso residualmente reducible, pero que cubre también el caso no-ordinario, y que tiene comoúnicas condiciones las que son necesarias para que la representación p-adica considerada pueda ser modular, o sea las condiciones de la conjetura de Fontaine-Mazur-Langlands) se puede acabar en dos pasos: reducir modulo q y, si fuera residualmente irreducible y con imagen large, tomar un levantamiento minimal para así pasar a una congruencia con un sistema de nivel 1 y peso mayor que 1 (aquí hay que tener en cuenta que al reducir modulo q estamos perdiendo el Good Dihedral prime y ya no tenemos control sobre la imagen residual): si en este paso la imagen residual es "large" se aplica de nuevo el Teorema de Kisin (como en mi paper ya citado) para garantizar que la modularidad se preserva en esta congruencia (se propaga de la de nivel 1 a la de nivel q 2 ). Si la representación residual es reducible, se aplica el teorema de L. Pan (en la versión mejorada) y se concluye modularidad. Queda un tercer caso, que es el caso donde la imagen residual es bad-dihedral (o sea, irreducible pero tal que su restricción al cuerpo cuadrático ramificado sólo en q es reducible), pero en un lema al final de este mensaje probaré que este tercer caso no puede ocurrir. Notese que queremos eliminar este caso para poder aplicar el Teorema de Kisin y para poder aplicar el resultado de existencia de un levantamiento minimal. En el paso siguiente, que sólo se lleva a cabo si la representación modulo q es irreducible, se coge el levantamiento minimal de nivel 1 y peso k > 1, y el sistema compatible que lo contiene, y se reduce modulo 5. Tras un apropiado twist, podemos suponer que el peso de Serre de esta representación módulo 5 es k = 2, 4 o 6. En los tres casos, la conjetura de Serre la damos por cierta: estos tres casos base se reducen fácilmente (usando la maquinaria de modularity lifting theorems, minimal lifts, compatible systems...) a resultados de Serre (y Tate) módulo p = 3 para los casos k = 2 y 4 y a resultados de Schoof para k = 6 (sobre variedades abelianas semiestables con buena reducción fuera del 5). De hecho, son tres casos de la conjetura de Serre que fueron probados en los primeros papers sobre conjetura de Serre en trabajos de Khare-Wintenberger y míos de 2003 y 2004. Así que los consideramos como casos ya probados. Como no hay formas modulares cuspidales con nivel 1 y peso 2, 4 o 6, esto significa que la representación módulo 5 tiene que ser reducible (de hecho, aplicando el lema al final de esta carta se ve en particular que no puede ser bad-dihedral), con lo cual se concluye modularidad del sistema compatible aplicando una vez más el teorema de L. Pan. Y esto acaba la demostración de la Conjetura de Serre. Sólo falta demostrar el lema que explica porqué al reducir módulo q la representación residual no puede ser bad-dihedral: Demostración del lema: Si la representación residual es bad-dihedral, tendrá peso de Serre k > 1 (twisteando si fuera necesario, podemos suponer 1 < k ≤ q + 1), nivel de Serre 1, y la característica del cuerpo es el primo q. Utilizando resultados de Ribet en los que este caso de imagen bad-dihedral se estudia en detalle, es bien sabido, y se aplicó en reiteradas ocasiones en las demostraciones de la conjetura de Serre de la pasada década (tanto en la de Khare-Wintenberger como en la mía, y de hecho también se aplicó en el resultado anterior de Dieulefait-Manoharmayum sobre modularidad de variedades de Calabi-Yau rígidas) que para que la representación sea baddihedral se tiene que tener la siguiente relación entre el primo q y el peso de Serre k: o bien q = 2k − 3, o bien q = 2k − 1. La primera se corresponde con el caso en que la inercia en q actúa a través de caracteres fundamentales de niveau 2 y la segunda con el caso de niveau 1, es decir, potencias del caracter ciclotómico modulo q. Ahora bien, en el caso en que estamos, en el cual el nivel de Serre es 1, un análisis más fino da lugar al "Lema de Wintenberger" (cuya demostración aparece en elítem 1 del lema 6.2 del paper de C. Khare "Serre's modularity conjecture: the level 1 case" publicado en el Duke Math. Journal) en el que se demuestra que el caso bad-dihedral con q = 2k − 3 (es decir, el caso de caracteres fundamentales de niveau 2) no puede ocurrir. Con lo cual, laúnica posibilidad es q = 2k − 1. Pero observemos que como el nivel de Serre es 1, nuestra representacin residual (debido a que es una representación impar) tiene que tener un valor de k par, con lo cual la igualdad q = 2k − 1 implica que q es congruente con 3 modulo 4. Pero esto contradice la definición misma de Good Dihedral prime, puesto que parte de la definición impone que q ha de ser congruente con 1 módulo 8 (vease el paper "Serre's modularity conjecture (I)", de Khare-Wintenberger). Por lo tanto el lema queda probado, y es válido en general para cualquier primo p congruente con 1 modulo 4: si el nivel de Serre es 1 en una representación modulo p para un tal primo p, entonces la representación no puede ser bad-dihedral (por eso el comentario que hice antes de que este lema también podría aplicarse al reducir modulo 5 para deducir que la representación residual no es bad-dihedral, puesto que 5 es congruente con 1 modulo 4). main result in his paper: "The Fontaine-Mazur conjecture in the residually reducible case" (L. Pan, available at ArXiv). Therefore, the short proof of Serre's conjecture described in this letter is now unconditional. Bueno, habiendo acabado por completo esta demostración breve de la conjetura de Serre, queda sólo un comentario final: Cuál es la principal ventaja de esta demostración más corta? Que es mucho más sencilla. El mecanismo de inducción doble (en el nivel y en el peso) que aparece en la demostración dada por Khare-Wintenberger con la casuística que incluye es claramente más complicado. Por otro lado, en mi paper "Remarks on Serre's modularity conjecture" ya se utiliza el resultado más fuerte de Kisin para hacer el proceso de killing the level más sencillo, pero una vez reducidos a casos de nivel 1, hay que recordar que para reducir el peso de Serre tanto el método de reducción de peso de Khare (en su paper publicado en el Duke Math. Journal sobre el caso de nivel 1) como mi método alternativo en mi paper "The level 1 case of Serre's conjecture revisited", publicado en Rendiconti dei Lincei (la ventaja de este paper era que evitaba el uso de primos auxiliares que dividieran a p−1, cosa que hacía Khare en su paper, mediante el truco de "weight reduction via Galois conjugation") utilizaban versiones refinadas del postulado de Bertrand, con lo cual se trataba en ambos casos de un método inductivo sobre los primos utilizando técnicas analíticas. La demostración en esta carta, gracias al teorema de L. Pan, ejecuta la reducción de peso en un sólo paso, simplemente moviéndonos hasta el primo p = 5.Post Scriptum(January 2019): As expected, L. Pan proved his result in the stronger version required for the argument in this letter to work, this is the
sample_4744
0.9285
arxiv
RELATÓRIO TÉCNICO: CONTROLE DISTRIBUÍDO DE TRÁFEGO BASEADO EM VEÍCULOS CONECTADOS E COMUNICAÇÕES VEICULARES CENTRADAS EM INTERESSES Junho de 2017 1 Aug 2017 Fabrício Barros Gonçalves UMTS Universal Mobile Telecommunication System URI Universal Resource Identifier Rio De Janeiro UMTS Universal Mobile Telecommunication System URI Universal Resource Identifier RELATÓRIO TÉCNICO: CONTROLE DISTRIBUÍDO DE TRÁFEGO BASEADO EM VEÍCULOS CONECTADOS E COMUNICAÇÕES VEICULARES CENTRADAS EM INTERESSES Junho de 2017 1 Aug 2017 ResumoPor mais que sistemas avançados de gerenciamento de tráfego consigam lidar com o problema da heterogeneidade dos fluxos de tráfego das vias que incidem nas interseções de uma rede viária, estes têm o seu desempenho comprometido, quando o volume de tráfego da rede viária nãoé distribuído de maneira uniforme. Para tratar este problema, um sistema avançado de informações ao motorista deve ter total ciência do estado de operação de um sistema avançado de gerenciamento de tráfego. No entanto, este requisito não pode ser completamente satisfeito, devido a existência de lacunas existentes no estado da arte de sistemas avançados de gerenciamento de tráfego e sistemas avançados de informações ao motorista, em específico, a cooperação entre estes dois tipos de sistemas. Por isto, este trabalho propõe um sistema de controle distribuído de tráfego, onde agentes embutidos em veículos conectados, sinalizações semafóricas, elementos urbanos e um centro de controle de tráfego interagem uns com os outros, a fim de promover uma maior fluidez do tráfego veicular. Para tanto, os agentes dependem fortemente de uma rede veicular heterogênea. Por isto, este trabalho também propõe uma rede veicular heterogênea cujo protocolo de comunicaçãoé capaz de satisfazer os requisitos de comunicação de aplicações de serviços de sistemas inteligentes de transporte. De acordo com os resultados obtidos por meio de simulações, o sistema de controle distribuído de tráfego foi capaz de maximizar o fluxo de veículos e a velocidade média dos veículos, e minimizar o tempo de espera, número de paradas, tempo de viagem, consumo de combustível e emissões (CO, CO 2 , HC, NOx e PMx).ii Abstract Although advanced traffic management systems can deal with the heterogeneous traffic flows approaching of intersections, their performances are compromised, when the traffic volume is not distributed uniformly. To evenly distribute the traffic flow, an advanced driver information system should be aware of the traffic control operations. However, such requirement can not ultimately be satisfied due to the gaps in state of the art in advanced traffic management systems. Therefore, this study proposes a distributed traffic control system, in which agents embedded in connected vehicles, traffic signals, urban elements and a traffic control center interact with each other to provide a greater traffic fluidity. Therefore, the agents depend strongly on a heterogeneous vehicular network. In this sense, this study also proposes a heterogeneous vehicular network whose communication protocol can satisfy the communication requirements of intelligent transportation systems service applications. According to the results obtained from simulations, the distributed traffic control system was able to maximize the flow of vehicles and the mean speed of the vehicles, and minimize the wait time, travel time, fuel consume and emissions (CO, CO 2 , HC, NOx and PMx).iii Resumo Por mais que sistemas avançados de gerenciamento de tráfego consigam lidar com o problema da heterogeneidade dos fluxos de tráfego das vias que incidem nas interseções de uma rede viária, estes têm o seu desempenho comprometido, quando o volume de tráfego da rede viária nãoé distribuído de maneira uniforme. Para tratar este problema, um sistema avançado de informações ao motorista deve ter total ciência do estado de operação de um sistema avançado de gerenciamento de tráfego. No entanto, este requisito não pode ser completamente satisfeito, devido a existência de lacunas existentes no estado da arte de sistemas avançados de gerenciamento de tráfego e sistemas avançados de informações ao motorista, em específico, a cooperação entre estes dois tipos de sistemas. Por isto, este trabalho propõe um sistema de controle distribuído de tráfego, onde agentes embutidos em veículos conectados, sinalizações semafóricas, elementos urbanos e um centro de controle de tráfego interagem uns com os outros, a fim de promover uma maior fluidez do tráfego veicular. Para tanto, os agentes dependem fortemente de uma rede veicular heterogênea. Por isto, este trabalho também propõe uma rede veicular heterogênea cujo protocolo de comunicaçãoé capaz de satisfazer os requisitos de comunicação de aplicações de serviços de sistemas inteligentes de transporte. De acordo com os resultados obtidos por meio de simulações, o sistema de controle distribuído de tráfego foi capaz de maximizar o fluxo de veículos e a velocidade média dos veículos, e minimizar o tempo de espera, número de paradas, tempo de viagem, consumo de combustível e emissões (CO, CO 2 , HC, NOx e PMx). ii Abstract Although advanced traffic management systems can deal with the heterogeneous traffic flows approaching of intersections, their performances are compromised, when the traffic volume is not distributed uniformly. To evenly distribute the traffic flow, an advanced driver information system should be aware of the traffic control operations. However, such requirement can not ultimately be satisfied due to the gaps in state of the art in advanced traffic management systems. Therefore, this study proposes a distributed traffic control system, in which agents embedded in connected vehicles, traffic signals, urban elements and a traffic control center interact with each other to provide a greater traffic fluidity. Therefore, the agents depend strongly on a heterogeneous vehicular network. In this sense, this study also proposes a heterogeneous vehicular network whose communication protocol can satisfy the communication requirements of intelligent transportation systems service applications. According to the results obtained from simulations, the distributed traffic control system was able to maximize the flow of vehicles and the mean speed of the vehicles, and minimize the wait time, travel time, fuel consume and emissions (CO, CO 2 , HC, NOx and PMx Por mais que sistemas avançados de gerenciamento de tráfego [9] consigam lidar com o problema da heterogeneidade dos fluxos de tráfego das vias de entradas das interseções de uma rede viária, estes têm o seu desempenho comprometido, quando o volume de tráfego da rede viária nãoé distribuído de maneira uniforme. Como consequência, os intervalos de indicação da luz verde, nas vias pouco utilizadas, são desperdiçados. Por isto, um segundo problema precisa ser enfrentado, queé o problema de planejamento e orientação de rotas. Para tratar este problema, um sistema avançado de informações ao motorista [9] deve ter total ciência do estado de operação de um sistema avançado de gerenciamento de tráfego. No entanto, este requisito não pode ser completamente satisfeito, devido a existência de lacunas existentes no estado da arte de sistemas avançados de gerenciamento de tráfego, sistemas avançados de informações ao motorista e redes veiculares. Motivação Após todo o levantamento bibliográfico acerca dos métodos de controle tráfego ( [10][11][12][13][14][15][16][17][18][19][20][21][22]) e métodos de planejamento e orientação de rotas ( [23][24][25][26][27], percebeu-se que tais métodos podem ser complementares uns aos outros. Métodos como os utilizados em sistemas multiagentes baseados em alocação de recursos podem tirar proveito dos tempos das fases das interseções, ainda que estes possam ser alterados, de acordo com alguma política de adaptação de intervalos de indicações de luzes verdes em função dos fluxos de tráfegos em vias de entrada de interseções. Dessa forma, um mecanismo de planejamento e orientação de rotas pode distribuir o volume de tráfego sobre uma rede viária controlada por sinalizações semafóricas, alocando espaços nas vias para os veículos e fazendo com que eles trafeguem em vias participantes de rotasótimas, sem que estes precisem parar constantemente. Neste caso, a cooperação entre sistemas avançados de gerenciamento de tráfego e sistemas avançados de informações ao motorista permite que o planejamento de rotas tenha ciência das 1 programações das sinalizações semafóricas ao longo do tempo. Para tanto,é fundamental que o método de controle de tráfego seja adequado para a geração de uma agenda global de intervalos de indicações de luzes verdes, de modo que esta sirva de base para construção de uma solução para o problema de planejamento e orientação de rotas. Os métodos de controle de tráfego baseados em otimização [10,[12][13][14] necessitam de uma infraestrutura computacional centralizada e de alto custo, queé utilizada para o processamento das otimizações de fases de todas as interseções pertencentes ao sistema de controle de tráfego. A disponibilização de uma agenda de intervalos de indicações de luzes verde por meio de uma infraestrutura computacional centralizada gera um grande custo de comunicação e, leitura e escrita,à medida que uma grande quantidade de veículos solicita cálculos de rotasótimas. Neste caso, estrutura centralizada pode se tornar um gargalo e, com isto, pode influenciar no tempo de resposta das requisições, fazendo com que o planejamento e orientação de rotas trabalhe com dados defasados. Vale ressaltar que, enquanto os veículos esperam por rotasótimas, eles se movem ao longo das vias da rede viária. Logo, se a latência de resposta de uma requisição para o cálculo de uma rotaótimaé alta, os motoristas dos veículos podem não ser informados a tempo de realizar alguma manobra, podendo, então, ser necessário iniciar um processo de recálculo de rotá otima. Os métodos de controle de tráfego baseados em adaptação [11,[15][16][17][18][19][20][21][22] são capazes de coletar os dados por meio de detectores de tráfego instalados nas vias e, de tempos em tempos, realizar uma computação local, a fim de calcular os novos tamanhos de intervalos de indicações de luzes verdes das sinalizações semafóricas. Neste sentido, as decisões de ajustar as fases das sinalizações semafóricas são tomadas localmente. Por meio das decisões de todas as sinalizações semafóricas pertencentes ao sistema de controle de tráfego, a otimização do fluxo de tráfegoé realizada de maneira descentralizada. Esses métodos são categorizados da seguinte forma: baseados em aprendizado por reforço e baseados em auto-organização. Devidoà incapacidade de se adaptarem facilmenteàs flutuações frequentes dos fluxos de tráfego, queé ocasionada pela necessidade de uma estabilidade do volume de tráfego para a construção de uma base de conhecimento acerca dos padrões macroscópicos dos fluxos de tráfego das vias, métodos de controle de tráfego baseados em adaptação por meio de aprendizado por reforço tendem a gerar agendas de tempos similares as que podem ser geradas por sinalizações semafóricas de tempos pré-fixados. Assim, qualquer mudança no padrão macroscópico de tráfego, que resulte em um padrão não existente na base de conhecimento de uma via, pode gerar um gargalo em uma parte específica da rede viária. Ainda que os métodos de controle de tráfego baseados em adaptação por meio de aprendizado por reforço possam criar um sistema totalmente descentralizado de controle de tráfego com baixo custo de operação, devidoà baixa adaptabilidade em relação aos fluxos de tráfego com flutuações frequentes, tais métodos não são adequados para a construção de sistemas avançados de gerenciamento de tráfego, onde uma das expectativasé cooperar com sistemas avançados de informações ao motorista, no que tange o fornecimento de planejamento e orientação de rotas. Por outro lado, embora existam métodos de baseados em adaptação por autoorganização, estes também apresentam dificuldades, quando se deseja utilizá-los na construção de sistemas avançados de controle de tráfego com intuito de cooperar com sistemas avançados de informações ao motorista, compartilhando agendas de intervalos de indicações de luzes verdes das sinalizações semafóricas, de modo que um mecanismo de planejamento de rotas possa utiliza-las para alocar espaços nas vias de entradas das interseções. Nestes métodos, o controle das sinalizações semafóricaś e programado para identificar as chegadas de pelotões de veículos nas interseções. Sendo assim, as agendas de intervalos de indicações de luzes verdes das sinalizações semafóricas precisam ser atualizadas a cada detecção de um pelotão de veículos. Isto faz com que o aproveitamento da agenda de tempos das programações das sinalizações semafóricas por parte de um mecanismo de planejamento e orientação de rotas seja comprometido. Por causa de uma grande variação de estado de tais agendas, um mecanismo de planejamento e orientação de rotas pode calcular uma rotaótima com base em cópias de agendas de intervalos de indicações de luzes verdes desatualizadas. Como consequência, isto pode levar a um desbalanceamento na distribuição do volume de tráfego sobre as vias de uma rede viária. Por fim, as sinalizações semafóricas tendem a sofrer com o alto overhead de comunicação e, de leitura e escrita,à medida que recebem e processam requisições de novos cálculos de rotasótimas e, em seguida, registram os veículos nas agendas de intervalos de indicações de luzes verdes, geradas com intuito de alocar espaços nas vias de entrada em cada uma das interseções pertencentes as rotasótimas calculadas. Devidoà alta mobilidade dos veículos e a topologia dinâmica das redes ad hoc veiculares,é difícil fornecer serviços de sistemas inteligentes de transporte, usando uma rede veicular baseada em umaúnica tecnologia de acessoà comunicação sem fio, tal como a de rádios de comunicação dedicada de curta distância. Atualmente, as tecnologias de acessoà comunicação sem fio disponíveis para ambientes veiculares são aquelas baseadas em rádios de comunicação de curta distância (IEEE 802.11 [28], and IEEE 802.11p [29]) e aquelas baseadas em redes celulares (GSM, UMTS, and LTE) [30] [31]. No entanto, essas tecnologias têm suas limitações, quando são usadas em ambientes veiculares. No que diz respeitoàs tecnologias de acessoà comunicação sem fio baseadas em comunicações dedicadas de curta distância, essas foram projetadas para fornecer comunicações sem fio sem necessitar de uma infraestrutura pervasiva em ambientes como rodovias, estradas e ruas. Por outro lado, embora redes celulares possam fornecer uma ampla cobertura geográfica, ela não pode fornecer trocas de informações de tempo real emáreas locais de maneira eficiente. Por isso, integrar redes baseadas em diferentes tecnologias de acessoà comunicação sem fioé fundamental para o desenvolvimento de aplicações de serviços de sistemas inteligentes de transporte. De acordo com ZHENG et al. [30], redes veiculares heterogêneas podem ser uma excelente plataforma para satisfazer os requisitos de comunicação de aplicações de serviços de sistemas inteligentes de transporte. Para esse fim, métodos de comunicação propostos para facilitar a comunicação entre nós em redes ad hoc veiculares podem ser adotados em redes veiculares heterogêneas, pois eles são projetados para lidar com características relacionadasàs redes ad hoc veiculares. Tais características são as seguintes: conectividade intermitente, topologias altamente dinâmicas e mudanças constantes de densidade. Apesar disto, muitos destes métodos não adequados somente para comunicações infraestrutura-infraestrutura e inadequados para comunicações veículo-a-veículo e veículo-infraestrutura, pois eles são projetados para redes centradas em IP. Nestas redes, nós origem precisam conhecer os endereços dos nós destino, a fim de estabelecer comunicação fim-a-fim e descobrir rotas. Em ambientes veiculares altamente dinâmicos, os nós produzem um alto custo de mensagens, a fim de encontrar rotas e atualizar suas tabelas de roteamento. Além disto, a comunicação entre nósé intermitente, pois a topologia de redeé altamente dinâmica. Por estas razões, BAI e KRISHNAMACHARI [32] e ? ] têm argumentado por uma troca de paradigma em redes veiculares. Neste sentido, alguns pesquisadores têm identificado as redes centradas em informação (ICNs -Information-Centric Networks) [33] como um paradigma chave, pois elas oferecem uma solução atrativa para ambientes móveis e altamente dinâmicos tais como as VANETs. Entre os modelos arquiteturais encontrados na literatura de ICN, as redes centradas em conteúdos (CCNs -Content-Centric Networks) têm ganhado proeminência em trabalhos sobre redes veiculares [34][35][36][37][38]. Embora as CCNs sejam mais promissoras que os modelos centrados em IP em ambientes veiculares, existem algumas limitações quanto a adoção destas em projetos de VANETs. Por exemplo, a inundação da rede com pacotes de interesses cuja causa provém das políticas de encaminhamento de pacotes de interesses. Nestas, tais pacotes são encaminhados para todos os vizinhos de um nó,à medida que este os recebe. Isto possibilita o surgimento de broadcast storms. Além disto, o modelo da CCN usa estruturas de dados semelhantesàs tabelas de roteamento e adota algoritmos similares ao AODV [39], DSR [40] e GPSR [41]. Tais algoritmos são vulneráveis em ambientes veiculares altamente dinâmicos devido a intermitência de caminho [42]. Por fim, embora existam estudos promissores no campo de redes veiculares, estes 4 têm somente focado em cenários relacionados a serviços populares de dados compartilháveis [42]. Consequentemente, cenários em que aplicações precisam trocar um grande montante de dados sensíveis a atraso não têm sidos estudados. Aplicações com estas características fazem uso de serviços de dados sem cache [42], tais como: controle de sinalizações semafóricas por meio da cooperação de veículos conectados, controle cooperativo e adaptativo de cruzeiro, entre outros. Objetivos O objetivo principal desta teseé tratar os problemas de controle de tráfego e, planejamento e orientação de rotas em sistemas inteligentes de transporte. Para alcançar este objetivo, esta tese propõe um controle distribuído de tráfego baseado em veículos conectados, uma vez que sistemas inteligentes de transporte têm se tornado cada vez mais dependentes de ambientes de redes veiculares. Esta proposta, por sua vez, define os seguintes objetivos específicos: 1. Projetar um novo modelo de rede centrada em informação, que leve em consideração os requisitos de comunicação de aplicações de serviços de sistemas inteligentes de transporte; as configurações de controle de interseções, que são produzidas pelas estratégias de controle distribuído, a fim de gerar agendas de intervalos de luzes verdes, que forneçam dados sobre os períodos em que as vias de entrada das interseções recebem luzes verdes ao longo do tempo; 6. Compartilhar as configurações de controle de interseções entre as sinalizações semafóricas, de modo que estas possam ser utilizadas para gerar agendas de intervalos de luzes verdes localmente, a fim de que cada sinalização semafórica do sistema de controle de tráfego conheça os períodos em que as vias de entrada das interseções de uma rede viária recebem luzes verdes ao longo do tempo; Utilizar 7. Construir uma estratégia de planejamento e orientação de rotas que tire proveito dos períodos em que as vias de entrada das interseções de uma rede viária recebem luzes verdes, a fim de calcular rotasótimas e, com base nestas, alocar espaços nas vias, a fim de distribuir uniformemente o volume de tráfego sobre as vias de uma rede viária; Principais Contribuições Esta tese contribui diretamente em trêsáreas distintas de pesquisa, a saber: redes veiculares, controle de tráfego e, planejamento e orientação de rotas. As contribuições naárea de redes veiculares são as seguintes: • Proposta de uma nova ICN cuja troca de mensagensé baseada somente em interesses definidos por aplicações para VANETs. Esta proposta recebeu o nome de RAdNet-VE [44], queé uma extensão da RAdNet [7] para ambientes veiculares; • As contribuições naárea de controle de tráfego são as seguintes: • Extensões das estratégias de controle distribuído de tráfego propostas por PAIVA [2]. • Propostas de estratégias de controle de tráfego distribuído toleranteàs ausências de funcionamento de sinalizações semafóricas. Tal mecanismo faz uso de veículos conectados para controlar interseções isoladas e cooperar em operações de sistemas coordenados de sinalizações semafóricas; • Avaliações experimentais das estratégias de controle de tráfego distribuído toleranteàs ausências de funcionamento de sinalizações semafóricas, operando sobre um ambiente de rede veicular heterogênea; Por fim, as contribuições naárea de planejamento e orientação são as seguintes: • Extensões da estratégia de planejamento e orientação de rotas orientadosà ondas verdes proposta por FARIA [45]; • Proposta de um mecanismo de geração e compartilhamento de agendas de intervalos de indicações de luzes verdes, utilizando dados relativos ao estado do controle de interseções, sendo estas isoladas ou participantes de sistemas coordenados de sinalizações semafóricas; • Proposta de um mecanismo de alocação de espaços em vias baseado nos tamanhos de veículos e comprimento de vias, de modo que este possa ser utilizado para prever e evitar congestionamentos,à medida que o volume de tráfego de uma rede viáriaé distribuído ao longo do tempo. Organização do Trabalho Redes Ad Hoc Veiculares Esta seção tem como objetivo apresentar um levantamento bibliográfico acerca do referencial teórico em torno de redes ad hoc veiculares. Portanto, este referencial teórico aborda os seguintes assuntos: definição e características de redes ad hoc veiculares; modelos de comunicação; tecnologias de acessoà comunicação sem fio; taxonomia de aplicações para redes ad hoc veiculares; requisitos de comunicação de aplicações para redes ad hoc veiculares; e técnicas de roteamento em redes ad hoc veiculares. Cada um destes assuntosé apresentado conforme as subseções a seguir. Definição e Características Redes ad hoc veiculares são compostas de veículos equipados com dispositivos de comunicação sem fio, que fazem com que os veículos atuem como nós móveis, a fim de realizar algum tipo de computação, e roteadores cujo intuitoé rotear e ou encaminhar mensagens de controle e dados ao longo das redes formadas espontaneamente pelos nós móveis. Similaresàs redes ad hoc móveis, redes ad hoc veiculares são formadas por nós móveis que se comunicam por meio de dispositivos de comu-nicação sem fio de curto alcance, além de serem auto-organizáveis, autogerenciáveis e de largura de banda reduzida. Mesmo assim, redes ad hoc veiculares possuem características que as diferem das redes ad hoc móveis [46], que são: • Topologia altamente dinâmica: devidoà alta velocidade dos veículos, a topologia das redes ad hoc veiculares está sempre mudando. • Desconexões frequentes da rede: devidoà topologia de rede ser altamente dinâmica, o estado das conexões entre veículos em uma rede ad hoc veicular pode mudar com grande frequência. • Disponibilidade de energia e recursos: uma característica comum dos nós em uma rede ad hoc veicularé a disponibilidade de energia e recursos (processamento e armazenamento), pois os veículos possuem mecanismos que permitem a auto recarga de suas baterias e espaços para acomodar dispositivos capazes de armazenar e processar dados. • Comunicação geográfica: comparadaàs outras redes, que usam comunicação unicast e multicast e os nós são identificados por meio de um identificadorúnico ou um identificador de grupo, as redes ad hoc veiculares muitas vezes usam comunicação geográfica para endereçaráreas, onde pacotes de rede precisam ser encaminhados. Para tanto, redes ad hoc veiculares usam comunicação geocast, queé basicamente um multicast baseado em localização. O objetivo da comunicação geocasté entregar um pacote originado a partir de um nó para todos os outros nós em uma região geográfica específica. • Modelagem de mobilidade e predição: devidoà alta mobilidade dos nós e o dinamismo da topologia, o uso de modelos de mobilidade e de predição contribui significantemente para o projeto de protocolos de rede ad hoc veiculares, poisé possível prever a posição futura de um nó. A mobilidade dos veículosé limitada pelos mapas viários de rodovias, estradas e ruas, e também pela velocidade com que os mesmos percorrem estas vias. • Vários ambientes de comunicação: redes ad hoc veiculares operam em dois ambientes típicos de comunicação, que são rodovias ou estradas, e ruas. Em cenários de tráfego em rodovias ou estradas, o ambienteé relativamente simples e constante, diferente dos cenários de tráfego em ruas nas cidades. As ruas em uma cidade são muitas vezes separadas por obstáculos e, por isto, nem sempreé possível estabelecer ou manter a comunicação entre os nós. • Restrições severas na latência da rede: em algumas aplicações de redes ad hoc veiculares, a rede não necessita de altas taxas de transferências. No entanto, essas aplicações exigem que as redes ad hoc veiculares tenham uma baixa latência, pois elas atuam em cenários onde uma informação deve ser propagada dentro de um curto espaço de tempo. • Interações com sensores on-board: os nós são equipados com sensores onboard, a fim de fornecer informações que possam ser utilizadas para estabelecer a comunicação entre nós e também para roteamento e ou encaminhamento de mensagens. Uma vez que dispositivos GPS (Global Positioning System) estão cada vez mais presentes em veículos, eles podem ser utilizados para fornecer informações de localização, de modo que estas possam ser utilizadas para comunicação geocast. Após a apresentação da definição e características das redes ad hoc veiculares, segue, na próxima subseção, uma descrição acerca dos modelos de comunicação encontrados em ambientes de redes ad hoc veiculares. Modelos de Comunicação Segundo ASLAM et al. [47], as redes ad hoc veiculares baseiam-se em três modelos de comunicação: comunicação veículo-a-veículo, comunicação veículo-infraestrutura e comunicação infraestrutura-infraestrutura. Veja Figura 2.1. No modelo de comunicação veículo-a-veículo, broadcast/multicast multi-hop são utilizados para transmitir dados sobre um grupo de receptores. Para que isto ocorra, veículos devem ser equipados com algum tipo de interface de comunicação sem fio ou unidade on-board (On-Board Unit -OBU) capazes de formar uma rede ad hoc veicular. Além disto, os veículos também devem ser equipados com dispositivos que permitam obter dados detalhados de posição dos mesmos, tais como receptores GPS. A Figura 2.2(a) mostra um exemplo de unidade on-board. Em comunicação veículo-a-veículo, existem dois tipos de encaminhamento de mensagens, são eles: broadcasting ingênuo e broadcasting inteligente. Em broadcasting ingênuo, veículos enviam mensagens de broadcast periodicamente e em intervalos regulares. As limitações do método de broadcasting ingênuoé que um grande número de mensagens de broadcasté gerado, aumentando o risco de colisão de mensagens, resultando, então, em baixas taxas de entrega de mensagens, além do aumento na latência de comunicação. O broadcasting inteligente trata os problemas inerentes ao broadcasting ingênuo, limitando o número de mensagens de broadcast. Por exemplo, quando um veículo que detectou um evento em uma via recebe uma mensagem de pelo menos um dos veículos atrás dele, o mesmo assume que pelo menos um dos veículos de trás receberam uma mensagem de broadcast. Isto faz com o veículo em questão cesse o envio de mensagens de broadcast, pois, em broadcasting inteligente, assume-se que o veículo de trás tem a responsabilidade de encaminhar a mensagem de broadcast para o restante dos veículos. Se um veículo recebe a mesma mensagem de mais de uma fonte, o mesmo repassa somente a primeira mensagem recebida. No modelo de comunicação veículo-infraestrutura, a comunicaçãoé feita a partir do envio de mensagens de broadcast para nós que estão a um salto de distância. Dessa forma, unidades de acostamento (Roadside Unities -RSUs) enviam mensagens de broadcast para veículos equipados com dispositivos de comunicação sem fio. Para tanto, unidades de acostamento podem ser posicionadas a cada quilômetro ou menos, fazendo com que altas taxas de transferência de dados sejam mantidas em condições de tráfego pesado de veículos. A Figura 2.2(b) mostra um exemplo de unidade de acostamento. Dependendo da aplicação, a comunicação veículo-infraestrutura pode ser disponibilizada de duas maneiras, que são: comunicação veículo-infraestrutura esparsa e comunicação veículo-infraestrutura ubíqua [48]. Em comunicação veículoinfraestrutura esparsa,é possível fornecer serviços de comunicação por meio de hot spots. Dessa forma,é possível disponibilizar uma infraestrutura de comunicação de maneira gradual, fazendo com que não seja necessário um investimento significativo, antes que um benefício concreto seja obtido. A comunicação veículo-infraestrutura ubíqua tem como objetivo, fornecer serviços de comunicação por toda uma rede viária. No entanto, isto pode exigir grandes investimentos para fornecer a cobertura total da rede viária. No modelo de comunicação infraestrutura-infraestrutura, as unidades de acostamento podem ser conectadasàs unidades de acostamento localizadas em suas adjacências. A conexão entre elas pode ser por meio de cabos ou sem fio. Quando duas unidades de acostamento estão conectadas umaà outra,é dito que a comunicação entre elasé direta [47]. No entanto, ao longo de uma rodovia, podem existir unidades de acostamento que não possuem qualquer conexão com unidades de acostamento adjacentes. Logo, para que estas unidades possam se comunicar umas com as outras, elas usam os veículos que estejam passando por elas como meio de estabelecer comunicações indiretas umas com as outras [47]. Tecnologias de Acessoà Comunicação Sem Fio Em um ambiente de rede veicular, a escolha da tecnologia de acessoà comunicação sem fio tem um papel preponderante no que diz respeitoà satisfação dos requisitos de comunicação das aplicações para redes ad hoc veiculares, pois a tecnologia influencia diretamente no modo como os nós devem se comunicar. Logo, tecnologias de acessoà comunicação sem fio baseadas em padrões como IEEE 802.11 [28], IEEE 802.11p [29], IEEE 802.16e [49] e 3GPP (Third Generation Partnership Project) formam a base de qualquer pilha de comunicação em redes que operam em ambientes veiculares. O padrão IEEE 802.11é um padrão de comunicação que define as operações de redes locais sem fio. No início da pesquisa de rádios de curto alcance para comunicação interveicular, este padrão foi amplamente utilizado no desenvolvimento de protótipos de redes ad hoc veiculares, devidoà grande disponibilidade de dispositivos de baixo custo baseados no padrão IEEE 802.11a no mercado [31]. As redes formadas por dispositivos baseados no padrão IEEE 802.11 conseguem fornecer altas taxas de transferência de dados dentro de um alcance relativamente curto [50]. O padrão 3GPPé uma família de padrões relacionadosàs tecnologias de acessò a comunicação sem fio para redes celulares [31], tais como: GSM (Global System for Mobile Communication), UMTS (Universal Mobile Telecommunication System) e LTE (Long Term Evolution). Tradicionalmente, redes celulares baseadas no padrão GSM são chamadas de redes celulares de segunda geração (2G), pois elas sucederam os sistemas celulares analógicos. Uma vez que o padrão UMTS substituiu o GSM, redes celulares baseadas no padrão UMTS são chamadas de redes celulares de terceira geração (3G). Por fim, redes celulares baseadas no padrão LTE têm sido chamadas de redes celulares de quarta ou quinta geração (4/5G). Embora cada um dos padrões para redes celulares represente uma evolução tecnológica, o conceito principal em torno das redes celularesé o mesmo. Sendo assim, uma amplaárea de geográficaé coberta por uma rede de estações base, onde cada uma serve uma parte destaárea, queé uma célula. Nesta rede, um dispositivo se conecta a uma estação base que serve a célula em que ele se encontra. O dispositivo sempre muda para a estação base mais apropriada,à medida que ele se move em direção aos limites de uma célula. Devido as suas características, o padrão LTE tem sido visto como o padrão tecnológico proeminente, no que tange o fornecimento tanto de comunicação veículo-infraestrutura quanto comunicação infraestrutura-infraestrutura, quando se trata da disponibilização de redes veiculares, pois redes celulares LTE são capazes de transferir dados com taxas de transferência de dados entre 50 e 100 Mbps [30]. Além disto, tal redeé capaz de suportar nós que se movem até 350 km/h [30]. Por fim, as redes LTE são capazes de fornecer alta capacidade com ampla cobertura. Neste caso, o padrão LTE pode suportar até 1200 veículos por célula em ambientes rurais com um delay abaixo de 55ms. Taxonomia de Aplicações para Redes Ad Hoc Veiculares Aplicações de redes ad hoc veiculares tentam resolver diversos problemas cujos requisitos de comunicação são muito específicos. Por esta razão, WILLKE et al. [43] classificaram as aplicações de redes ad hoc veiculares em quatro categorias, a saber: • Serviços de informações gerais: aplicações desta categoria exigem pouco custo de comunicação e uma alta taxa de entrega de informações. Além disto, nós equipados com dispositivos GPS e interfaces de comunicação em redes sem fio usam um banco de dados local para registrar encontros com outros nós ao longo das vias, onde estes trafegam. Com isto,é possível que veículos submetam consultas aos bancos de dados dos nós, a fim de obter informações a respeito de serviços oferecidos ao longo das vias, condições das vias e volume de tráfego. Além disto, os nós podem ser utilizados para disseminar informações para os diversos nós da rede, tais como localização e, metadados de serviços de notícias, publicidade e entretenimento. • Serviços de informações de segurança: nesta categoria, as aplicações são propensas a ser sensíveisà latência do queà capacidade de transferência de dados da rede ad hoc veicular, pois mensagens de aviso de emergência ou acidente devem ser disseminadas em um curto espaço de tempo. Sendo assim, por meio destas mensagensé possível identificar a localização e o estado de movimento de veículos com comportamento anormal, causado por um acidente, avaria mecânica ou outro tipo de falha. Para tanto, veículos devem ser equipados com GPS e dispositivos de comunicação sem fio de curto alcance (DSRC). Com isto, mensagens de aviso podem ser transmitidas por toda uma região e, dessa forma, notificar os nós a respeito de acidentes, avarias, anomalias de tráfego e condições de superfície das vias. • Controle de movimento individual: aplicações de controle de movimento individual utilizam comunicação veículo-a-veículo para trocar dados a respeito da posição, velocidade, aceleração, comportamento e estado dos atuadores dos veículos (aceleradores e freios). Nestas aplicações, a latência da rede ad hoc veicular deve ser baixa, pois os dados mencionados anteriormente podem ser utilizados para controlar a aceleração e a frenagem de veículos ou, ainda, gerar avisos de colisão ou propor alternativas para prevenção de acidentes. Com base na taxonomia de aplicações de redes ad hoc veiculares apresentada acima,é possível identificar que cada categoria de aplicação estabelece seus próprios requisitos de comunicação. Neste sentido, a próxima subseção apresenta os requisitos de comunicação para cada uma das categorias de aplicação para redes ad hoc veiculares. Além disto, a próxima subseção também apresenta mecanismos e abordagens que podem ajudar no projeto de um protocolo de comunicação para redes ad hoc veiculares, de modo que este venha a satisfazer tais requisitos. Requisitos de Comunicação de Aplicações para Redes Ad Hoc Veiculares Segundo WILLKE et al. [43], tais requisitos são: latência de entrega de mensagens, confiabilidade de entrega de mensagens, escala, escopo de comunicação e estrutura de grupo de comunicação. Por isto,é necessário conhecer a importância de cada um destes requisitos. A latência e a confiabilidade de entrega de mensagens são medidas críticas de desempenho. A escalaé importante, uma vez que a comunicação pode acontecer de um para muitos ou de muitos para muitos, podendo envolver um grande número de nós. O escopo de comunicação tem um efeito significativo sobre como as mensagens são roteadas ou encaminhada e, de como a redeé organizada, podendo, assim, influenciar diretamente na escalabilidade da aplicação. Por fim, estrutura de grupo se refereà capacidade de os nós poderem estabelecer relacionamentos persistentes ou de simplesmente poderem se comunicar com outros nós. Com isso,é possível salientar que aplicações pertencentesà categoria de serviços de informações gerais podem tolerar atrasos na entrega de mensagens e ainda operar corretamente. Além disto, estas aplicações também podem tolerar falhas de comunicação intermitente, tais como perda de respostas a uma consulta e quadros de mídia. Outro ponto importante relacionadoàs aplicações de serviços de informações geraisé a escala, pois este tipo de aplicação necessita transmitir mensagens emáreas grandes. Isto faz com que o escopo de comunicação também seja grande. Por não lidar com controle de movimento de veículos, aplicações de serviços de informações gerais não mantêm estruturas de grupo entre veículos. Embora tenham características semelhantesàs de serviços de informações gerais, aplicações de serviços de informações de segurança têm como requisito fundamental duras restrições de tempo real e podem apresentar falhas, estas oriundas de atrasos infrequentes de entrega de mensagens. Para tanto, estas aplicações demandam de tempos de processamento e latência menores que 40 ms e frequência de repetição de envio de mensagens seja de 50 Hz. Além disto,é necessário que as aplicações garantam altas taxas de entrega de informação. No que diz respeitoà escala, escopo de comunicação e estrutura em grupo, aplicações de serviços e informações de segurança são semelhantesàs aplicações de serviços de informações gerais. Como as aplicações de serviços de informações de segurança, aplicações de controle de movimento individual têm como requisito fundamental duras restrições de tempo real. Apesar disto, ainda pode haver falhas, por causa de atrasos infrequentes de entrega de mensagens. Além disto, estas aplicações fazem uso de dados de vizinhanças de veículos para garantir a segurança de condutores e manter uma distância otimizada entre veículos. Portanto, em casos de atraso de entrega de mensagens, as aplicações passam a operaràs cegas, no que diz respeito aos possíveis perigos ao longo das vias. Diferentemente de aplicações de serviços de informações gerais e de serviços de informações de segurança, aplicações de controle de movimento individual operam em redes ad hoc veiculares de média escala, a fim de fornecer comunicação entre veículos que estejam próximos uns dos outros. Por isto, o escopo de comunicaçãoé menor, quando comparado ao escopo de comunicação dos dois tipos de aplicações cujos requisitos de comunicação foram discutidos imediatamente acima. No que tange a estrutura de grupos, aplicações de controle de movimento individual não envolvem grupos persistentes e, por isto, os relacionamentos entre veículos são apenas transientes. Em aplicações de controle de movimento de grupo, o requisito de latência de entrega de mensagens varia de um modelo de regulação de movimento para outro. Neste caso, no modelo de planejamento de grupo com regulação individual, aplicações podem tolerar o atraso da entrega de mensagens, sem que haja falha, porque as restrições tempo real não são tão rígidas quantos as dos demais modelos. No que tange o requisito de confiabilidade de entrega de mensagens, as aplicações de movimento de grupo devem ter a capacidade de determinar se as mensagens enviadas para seus destinatários são efetivamente recebidas pelos veículos que devem recebê-las. Assim, os veículos podem realizar alguma ação, caso as entregas das mensagens não sejam confirmadas dentro de um tempo estipulado. A escala de aplicações de controle de movimento de grupoé na maioria das vezes média, semelhanteàs aplicações de controle de movimento individual. Sendo assim, o escopo de comunicação dessas aplicaçõesé limitadoàs vizinhanças de veículos ou pequenas regiões. Diferentemente das outras categorias de aplicações de redes ad hoc veiculares, que têm estrutura de grupo transiente, aplicações de controle de movimento em grupo possuem estrutura de grupo persistente, pois nelas são envolvidos relacionamentos persistentes entre veículos específicos. Estes veículos, por sua vez, podem compartilhar missões ou destinos. Para finalizar a apresentação do referencial teórico acerca de redes ad hoc veiculares, a próxima seção apresentará as principais técnicas de roteamento adotadas em redes ad hoc veiculares. Técnicas de Roteamento em Redes Ad Hoc Veiculares Devidoà natureza dinâmica dos nós de uma rede ad hoc veicular, encontrar e manter rotasé uma tarefa difícil. O problema de roteamento em redes ad hoc veiculares tem sido amplamente estudado e, por isto, muitos protocolos de roteamento têm sido propostos. De acordo com [38], os protocolos de roteamento podem ser agrupados em cindo categorias: roteamento ad hoc, roteamento baseado em localização geográfica, roteamento baseado em cluster, roteamento broadcast e roteamento geocast. Como mencionado anteriormente, redes ad hoc veiculares e redes ad hoc móveis compartilham os mesmos princípios, ou seja, elas não contam com uma infraestrutura fixa de comunicação e possuem muitas similaridades, tais como: autoorganização, autogerenciamento, largura de banda baixa e alcance curto de comunicação. Por este motivo, muitos protocolos de roteamento ad hoc têm sido aplicados em redes ad hoc veiculares, pois eles foram projetados para redes ad hoc móveis de propósitos gerais. Além disto, estes protocolos não mantêm rotas, a menos que seja necessário e, por isto, podem reduzir o overhead de mensagens de controle, especialmente em cenários com um número pequeno de nós. No entanto, isto nãoé uma realidade em ambientes veiculares e, por isto, protocolos de roteamento ad hoc sofrem com o dinamismo topológico das redes ad hoc veiculares, uma vez que esté e causado pela alta mobilidade dos nós de rede. Por isto, em cenários de redes ad hoc veiculares, as técnicas de roteamento ad hoc são incapazes de encontrar rapidamente, manter e atualizar rotas longas em uma rede ad hoc veicular. Logo, o roteamento ad hoc pode apresentar grandes perdas de pacotes, devidoàs falhas de rotas, uma vez queé quase impossível finalizar um handshake de três vias, quando uma conexão TCP (Transmission Control Protocol ) está sendo estabelecida. O movimento dos nós em redes ad hoc veicularesé frequentemente restrito em movimentos bidirecionais, sendo estes limitados ao longo de rodovias, estradas e ruas. Por isto, estratégias de roteamento baseadas em dados de localização geográfica, obtidos por meio de mapas de ruas, modelos de tráfego ou até de sistemas de navegação a bordo dos veículos, fazem sentido. Embora os nós, em uma rede ad hoc veicular, possam usar dados de localização geográfica em decisões de roteamento, ainda existem alguns desafios que precisam ser superados. Em cenários de cidades, o encaminhamento de mensagensé frequentemente limitado, devidoà dificuldade em manter conexões entre os nós. Tal dificuldadeé causada por obstáculos presentes neste tipo de cenário, tais como prédios eárvores. Além disto, a construção de uma topologia para roteamento pode degradar o desempenho de roteamento, ou seja, as mensagens poderão percorrer longos caminhos com altos delays de comunicação fim-a-fim. No que tange a mobilidade, esta pode induzir o roteamento a loops. Por fim, mensagens podem ser encaminhadas para direções erradas, causando delays desnecessários de comunicação fim-a-fim ou, até mesmo, partições de rede. Em roteamento baseado em clusters, uma rede virtualé criada por meio de agrupamento de nós, a fim de fornecer escalabilidade na comunicação. Com base nisto, cada cluster possui um líder, queé responsável pela coordenação intra e inter cluster. Os nós dentro de um cluster se comunicam diretamente uns com os outros. A criação de uma infraestrutura de rede virtualé crucial para a escalabilidade de protocolos de acesso ao meio, protocolos de roteamento e infraestrutura de segurança. O agrupamento estável dos nósé a chave para criar esta infraestrutura. Embora existam propostas de protocolos de roteamento baseados em clusters para redes ad hoc móveis, estes não são adequados, no que diz respeitoàs redes ad hoc veiculares, devido ao comportamento dos motoristas, restrições na mobilidade eàs altas velocidades dos nós. Por isto, as técnicas de redes ad hoc móveis para formação de clusters tornam-se instáveis, quando aplicadas em redes ad hoc veiculares. O roteamento broadcasté frequentemente utilizado em aplicações de redes ad hoc veiculares cujo objetivoé compartilhar dados entre os veículos. Tais dados podem estar relacionados ao tráfego, condições climáticas, emergências, condições das vias, entre outros. O roteamento broadcast tambémé usado em protocolos de roteamento unicast, de modo que uma rota eficiente até um destino seja encontrada. A maneira mais simples de implementar um roteamento broadcasté o flooding. Nesta estratégia, cada nó, ao receber mensagens, as retransmitem para todos os nós vizinhos, a menos que não as tenha recebido. O flooding funciona bem para um número limitado de nós. No entanto, quando o número de nós aumenta, o desempenho diminui drasticamente. Além disto, a demanda por largura de banda para a transmissão de uma mensagem pode aumentar exponencialmente. Como cada nó recebe e transmite a mesma mensagem ao mesmo tempo, isto causa contenções, colisões de pacotes, broadcast storms e alto consumo da largura de banda. Por fim, o roteamento geocasté basicamente um roteamento multicast baseado em localização. O objetivo deste tipo de roteamentoé entregar mensagens de uma origem para todos os nós de uma região geográfica específica, queé chamada de zona de relevância. Devido a esta característica, muitas aplicações de rede ad hoc veiculares podem se beneficiar do roteamento geocast. Por exemplo, se um veículo detecta que se envolveu em um acidente por meio de sensores veiculares de acionamento de airbags, ele pode informar instantaneamente o acidente aos veículos dentro da zona relevância. Após a apresentação do referencial teórico sobre redes ad hoc veiculares, o texto desta tese avança para a próxima seção, cujo objetivoé apresentar um estudo teórico a respeito de sistemas de transporte e sistemas inteligentes de transporte. Sistemas Inteligentes de Transporte Esta seção tem como objetivo apresentar o referencial teórico a respeito de sistemas inteligentes de transporte. Este referencial teórico tem como base a terceira seção do Capítulo 1 do livro de BAZZAN e KLÜGL [9]. Sistemas inteligentes de transporte podem ser vistos como sistemas em que tecnologias de informação e comunicação são aplicadas emáreas relacionadasà rede de transporte (por exemplo, infraestrutura, veículos e usuários de vias, gerenciamento de tráfego e mobilidade e a integração dinâmica entre todos estes). Sistemas inteligentes de transporte também podem ser vistos como um termo geral para a aplicação integrada de tecnologias de comunicação, controle e processamento de informações no sistema de transporte. A informação está no centro de sistemas inteligentes de transporte. Por isto, muitas ferramentas de sistemas inteligentes de transporte são dedicadasà coleta, processamento, integração e fornecimento de informações. A informação nãoé importante somente para operadores e autoridades de transporte, mas também fornecedores de transporte público e comercial, e usuários de vias. O objetivo distó e permitir a tomada de decisões de maneira mais inteligente, a fim de tornar os sistemas de transporte mais seguros e eficientes. Desde a década de 90, vários elementos, que hoje são conhecidos como sistemas inteligentes de transporte, foram definidos comênfase em vigilância de tráfego, controle, otimização, e simulação de sistemas de tráfego e transporte. O surgimento de sistemas inteligentes de transporteé frequentemente creditado aos avanços na computação e na comunicação.À medida que os custos dos dispositivos de computação vêm diminuindo desde a década de 90, tem sido possível embutir microprocessadores e mais inteligência em sistemas de transporte. Dessa forma, técnicas e assuntos relacionadosà computação estão se tornando comuns em sistemas de transporte, tais como: computação ubíqua, internet das coisas e computação nas nuvens. Isto permite que indivíduos (motoristas, passageiros, entre outros) tenham acesso contínuo e ubíquoà informação, queé entregue tanto pelo setor público quanto pelos próprios 20 usuários das vias (por exemplo, plataformas colaborativas como o Waze). Isto constitui uma clara mudança de paradigma, pois, a uma década atrás, o principal fornecedor de informações de tráfego e transporte era o setor público (autoridade de tráfego). Esta mudança no paradigma, por sua vez, significa que as autoridades de tráfego têm perdido cada vez mais o controle sobre a rede de transporte, porque os usuários das vias estão cada vez mais informados. Consequentemente, estes usuários podem se adaptar continuamenteàs mudanças das condições de tráfego, a fim de atingir os seus objetivos de mobilidade. Sistemas inteligentes de transporte envolvem cincoáreas ou sistemas, a saber: sistemas avançados de gerenciamento de tráfego, sistemas avançados de informações ao motorista, sistemas avançados de assistênciaà direção, sistemas avançados de transporte público, e operação de veículos comerciais. Os sistemas avançados de gerenciamento de tráfego visam as tecnologias de gerenciamento relacionadas a dispositivos de controle de tráfego, situações de emergências, monitoramento de emissões e comunicações entre várias partes do sistema, tais como dispositivos de monitoramento de tráfego, controladores de sinalização semafóricas e outros dispositivos relacionadosà segurança. Os sistemas avançados de informações ao motorista têm como objetivo fornecer informações aos usuários das vias e a outros participantes do sistema de transporte em ambientes como os de rodovias, estradas e ruas. Tais informações são, em muitos casos, coletadas e processadas por sistemas avançados de gerenciamento de tráfego e, em seguida, são transmitidas para aplicações que fazem uso destas. Enquanto os sistemas avançados de gerenciamento de tráfego referem-se primariamenteà infraestrutura, os sistemas avançados de informações ao motorista são direcionados aos usuários do sistema. Os sistemas avançados de assistênciaà direção têm como objetivo aplicar tecnologias avançadas em veículos e vias, a fim de reduzir acidentes e melhorar a segurança do tráfego. Estes sistemas incluem controle e aviso anti-colisão, assistênciaà direção, controle automático lateral ou longitudinal, entre outros. Os sistemas avançados de transporte público aplicam as tecnologias de sistemas avançados de gerenciamento de tráfego, sistemas avançados de informações ao motorista e sistemas avançados de assistênciaà direção no transporte público, a fim de melhorar a qualidade do serviço e aumentar a eficiência por meio de monitoramento automático de veículos e bilhetagem eletrônica. Por fim, operação de veículos comerciais funciona como sistemas avançados de transporte público, mas aplicado a operações de veículos comerciais (monitoramento automático de veículos, gerenciamento de frota, agendamento e pagamento eletrônicos). Com o fim da apresentação do referencial teórico acerca de sistemas de transporte e sistemas inteligentes de transporte, a apresentação do referencial teórico desta tese avança para um outro assunto, que são os fundamentos de engenharia de tráfego. Portanto, a próxima seção realiza a apresentação destes. 21 Fundamentos de Engenharia de Tráfego Esta seção tem como objetivo apresentar o levantamento bibliográfico do referencial teórico acerca da estrutura de rede de tráfego, assim como, o referencial teórico relacionado aos parâmetros microscópicos e macroscópicos de tráfego, diagrama fundamental do fluxo de tráfego e controle de tráfego por meio de sinalização semafórica. Com relaçãoà seção sobre estrutura de rede de tráfego, o texto tem como base primeira seção do sétimo dois do livro de BAZZAN e KLÜGL [9]. No que tange o referencial teórico de parâmetros microscópico e macroscópico de tráfego, o texto tem como base a primeira seção do segundo capítulo do livro de CHOWDHURY e SADEK [52]. O referencial teórico a respeito do diagrama fundamental do fluxo de tráfego teve como base o texto da segunda seção do capítulo seis do livro de GARBER e HOEL [53]. Por fim, o referencial teórico acerca do controle de tráfego por meio de sinalizações semafórica teve como base documentações do DENATRAN [54] Estrutura de Rede de Tráfego Redes sãoúteis para descrever sistemas de transporte a partir do ponto de vista dos componentes físicos. Elas são compostas por nós (vértices) e conexões (arestas). Os nós representam estações, interseções, entre outros. Em sistemas de transporte, existem normalmente mais de uma maneira de viajar entre dois nós, ou seja, as redes são redundantes. As conexões representam rodovias, estradas, ruas, linhas de trens, linhas deônibus, entre outros. As conexões conduzem fluxos (veículos em uma direção ou em duas direções) e têm uma determinada capacidade. Existem várias maneiras de representar o custo de atravessar uma conexão. Neste sentido, este pode ser representado por uma função relacionadaà capacidade da conexão e a ocupação desta. Os custos podem ser explícitos (pedágios), implícitos (tempo de viagem) ou representações mais abstratas. Cada autoridade de tráfego tem nomes particulares para os vários tipos de conexões, mas uma hierarquia amplamente aceitaé baseada em suas capacidades e funções. A respeito da capacidade, as vias são organizadas, de modo que o fluxo de tráfego escoe de uma via de menor capacidade para uma via de maior capacidade. Neste sentido, vias locais escoam o fluxo de tráfego para vias coletoras, que escoam o seu fluxo de tráfego para vias arteriais, que, por fim, escoam o seu fluxo para vias de trânsito rápido. A vias locais são aquelas caracterizadas por interseções em nível não semaforizadas, destinada apenas ao acesso local ou aáreas restritas [55]. As vias coletoras são aquelas destinadas a coletar e distribuir o trânsito que tenha necessidade de entrar ou sair das vias de trânsito rápido ou arteriais, possibilitando o trânsito dentro das regiões da cidade [55]. A vias arteriais são aquelas caracterizadas por interseções em nível, geralmente controlada por semáforo, com acessibilidade aos lotes lindeiros eàs vias secundárias e locais, possibilitando o trânsito entre as regiões da cidade [55]. Por fim, as vias de trânsito rápido são aquelas caracterizadas por acessos especiais com trânsito livre, sem interseções em nível, sem acessibilidade direta aos lotes lindeiros e sem travessia de pedestres em nível [55]. Com base nestas definições de vias,é possível perceber uma relação entre os níveis de acessibilidade e mobilidade. Uma via local fornece alta acessibilidade, mas possui baixa mobilidade. Diferentemente, uma via de trânsito rápido tem acesso muito limitado, mas possui alta mobilidade. A Figura 2.4, apresenta graficamente a relação entre acessibilidade e mobilidade dos diferentes tipos de vias. A tarefa de descrever fluxos de tráfego envolve a medida e a análise de parâmetros macroscópicos ou microscópicos. Os parâmetros macroscópicos podem ser o volume, a velocidade e a densidades dos fluxos de tráfego. Os parâmetros microscópicos podem ser a velocidade individual dos veículos, intervalo de tempo entre veículos (headway) e espaçamento entre veículos (gap). Detalhes sobre os parâmetros microscópicos e macroscópicos serão apresentados na próxima seção. No entanto, antes de detalhar cada um destes parâmetros,é importante mencionar que o tipo de via influencia diretamente os valores obtidos a partir destes parâmetros. Parâmetros Macroscópicos e Microscópicos de Tráfego Como mencionado anteriormente, descrever fluxos de tráfego envolve uma série de parâmetros que podem ser macroscópicos ou microscópicos. Neste sentido, três parâmetros básicos são utilizados para descrever fluxos de tráfego. Tais Diagrama Fundamental de Fluxo de Tráfego A teoria de fluxo de tráfego tem como base o relacionamento entre os parâmetros macroscópicos de fluxo de tráfego apresentados na seção anterior, que são: fluxo (q), densidade (k) e velocidade média espacial u s . Esta relação se dá a partir de q = k × u (2.4) . Outros relacionamentos que existem entre os parâmetros macroscópicos de fluxo de tráfego podem ser obtidos de acordo com as Equações 2.5,2.6, 2.7, 2.9 e 2.10. u s = q × d (2.5) , onde dé o espaçamento entre veículos, queé dado por d = 1 k (2.6) k = q × t (2.7) , onde té a média de tempo para atravessar uma seção de via, queé dado por Controle de Tráfego por meio de Sinalização Semafórica Quando se aborda o problema de controle de tráfego,é comum o uso de sinalizações semafóricas como mecanismo de controle de tráfego. De acordo com [54], a sinalização semafóricaé um subsistema da sinalização viária queé composto de indicações luminosas acionadas alternada ou intermitentemente por meio de um sistema eletromecânico ou eletrônico (controlador). Além disto, este tipo de sinalização tem como objetivo transmitir diferentes mensagens aos usuários das vias, regulando o direito de passagem ou advertindo sobre condições especiais nas vias [54]. Em situações específicas, tais como o uso de dispositivos de detecção do tráfego, equipamentos de fiscalização não metrológico e centrais de controle podem ser associados a sinalização semafórica [54]. Por fim, a operação da sinalização semafórica deve ser contínua e criteriosamente avaliada quanto a sua real necessidade e adequação de sua programação [54]. Toda sinalização semafórica tem seu funcionamento baseado em um ciclo composto de três indicações: SIGA, ATENÇÃO e PARE. Cada uma destas três indicaçõesé representada por uma luz de cor específica. A luz verde representa a indicação SIGA. Nesta indicação, veículos podem atravessar a interseção. A luz amarela representa a indicação ATENÇÃO. Nesta indicação, os motoristas devem reduzir a velocidade de seus veículos, de modo que possam se preparar para uma parada antes da faixa de contenção pintada sobre as vias de entrada de uma interseção. Por fim, a luz vermelha representa a indicação PARE. Além disto, cada uma destas indicações tem um tempo de duração, que ajuda a definir o início e o fim de uma indicação ao longo do tempo. Dessa forma, se as luzes das sinalizações semafóricas estão verdes ou amarelas para as vias de entrada de uma interseção, então, as luzes vermelhas das sinalizações semafóricas sobre as vias com movimen- tos conflitantes aos das vias entrada devem estar acesas. Esta regra de segurança tem como objetivo evitar que veículos atrevessem uma interseção ao mesmo tempo. Além desta regra de segurança, também existem regras de igualdade cujo intuitó e distribuir de maneira justa os tempos das fases das sinalizações semafóricas que controlam as vias de entrada de uma interseção. Portanto, para todas estas vias, deve ser fornecido um tempo mínimo de duração para a indicação SIGA. No que tange a indicação ATENÇÃO, esta tem um tempo fixo de duração. Existem termos que são comumente utilizados em controle de tráfego por meio de sinalizações semafóricas, são eles: fase, intervalo, ciclo, tamanho do ciclo [52], movimento e grupos de movimento [3]. A faseé o tempo em que um conjunto de movimentos de tráfego recebe o direito de atravessar a interseção. O intervaloé o tempo em que as indicações de uma sinalização semafórica se mantêm constantes. O cicloé uma sequência completa de indicações de uma sinalização semafórica até que uma nova sequência seja iniciada. O tamanho do cicloé o tempo que uma sinalização semafórica leva para exibir uma sequência completa de indicações. O intervaloé o tempo em que as indicações das sinalizações semafóricas se mantêm constantes. Um ciclo inclui vários intervalos para as indicações de uma sinalização semafórica, ou seja, intervalos para indicações das luzes verde, amarela e vermelha. O movimentoé definido pela direção do fluxo de tráfego e a manobra que cada veículo precisa realizar em uma interseção. Em uma interseção sinalizada, os movimentos são identificados por meio de números, como pode ser visto na Figura 2.6(a). Neste caso, movimentos que viram a esquerda são enumerados com númerosímpares (veja Figura 2.6(a)). Para movimentos que atravessam a interseção, utiliza-se uma enumeração com números pares (veja Figura 2.6(a)). No que diz respeito aos movimentos que viramà direita, utiliza-se o mesmo número do movimento compatível que atravessa a interseção ou este número antecedido pelo dígito 1 (veja Figura 2.6(a)). Os movimentos são classificados, de acordo com as restrições impostas a eles, a saber: movimento sem oposição, movimento protegido, movimento permitido e movimento proibido. O movimento sem oposiçãoé aquele que nenhum outro movimento se opõe a ele. O movimento protegidoé aquele que pode ter um movimento oposto a ele, mas a indicação da sinalização dá a este movimento o direito de passagem. O movimento permitidoé aquele queé permitido trafegar através de uma interseção, mas deve dar direito de passagem, se um movimento oposto de maior prioridade existir. Por fim, o movimento não permitidoé aquele que um fluxo de veículoś e totalmente proibido de trafegar ou tem tráfego proibido em certos períodos do dia. Os grupos de movimentos são classificados em compatíveis ou conflitantes. Em geral, movimentos norte-sul/sul-norte conflitam com movimentos leste-oeste/oesteleste (veja Figura 2.6(a)). Os movimentos norte-sul e sul-norte são parte de um grupo chamado de grupo de concorrência, como pode ser visto na Figura 2.6(b), pois estes movimentos podem trafegar concorrentemente pela interseção. O mesmo se aplica os movimentos Leste-Oeste e Oeste-Leste, como pode ser visto na Figura 2.6(c). Por fim, de acordo com o plano de fases da sinalização semafórica e restrições nos movimentos, um movimento no grupo de concorrência Norte-Sul-Norte pode ser servido ao mesmo tempo que qualquer movimento do mesmo grupo. Este conceito se aplica aos movimentos do grupo Leste-Oeste-Leste. As sinalizações semafóricas podem operar em quatro diferentes modos, a saber: pré-temporizado, semiatuado, totalmente atuado e baseado em computadores [52]. No modo de operação pré-temporizado, o tamanho do ciclo, intervalos e fases são pré-definidos ou fixos e, por isto, não são sensíveisàs variações do volume de tráfego. O modo de operação semiatuadoé utilizado em interseções onde uma via com volume maior e outra com volume menor são claramente identificadas. Neste caso, os detectores de tráfego são utilizados somente na via de menor volume. Desta forma, a sinalização semafórica da via com maior volume de tráfego mantém a luz verde acesa até o momento em que veículos sejam detectados na via de menor volume. Quando isto acontece, após a sinalização semafórica da via com maior volume ter permanecido um tempo mínimo com a luz verde acesa, a sinalização semafórica da via com menor volume pode ter sua luz verde acesa. No modo de operação totalmente atuado,é necessário que todas as vias tenham detectores de tráfego. Com isto, o tempo em que a luz verde permanece acesa nas sinalizações semafóricas pode ser alocado de acordo com o volume de tráfego observado em cada via de entrada da interseção. Por fim, o modo de operação baseado em computador refere-se ao uso de um computador para ligar a operação de um grupo de interseções sinalizadas na forma de um sistema coordenado. Assim, o computador seleciona ou computa planosótimos de sinalizações semafóricas coordenadas para todo o sistema, baseando-se nas informações de tráfego fornecidas pelos detectores de tráfego instalados nas vias. Uma sinalização semafórica pode ser responsável pelo controle de uma interseção isolada, queé uma interseção que opera a parte de um sistema coordenado de sinalizações semafóricas. Um sistema coordenado de sinalizações semafóricasé um grupo de sinalizações semafóricas que têm seus intervalos indicações de luzes verdes sincronizados, de modo que os veículos não precisem parar em cada uma interseção controlada por uma das sinalizações semafóricas deste sistema. Sistemas coordenados de sinalizações semafóricas são utilizados, quando as sinalizações semafóricas estão relativamente próximas umas das outras e formam um corredor. Nesse tipo de sistema, as sinalizações semafóricas devem ter o mesmo tamanho de ciclo. Para sincronizar os intervalos de verde, sistemas coordenados de sinalizações semafóricas fazem uso de um termo chamado de offset. O offseté a diferença de tempo entre o início do intervalo de luz verde entre duas interseções vizinhas. Ao findar toda essa discussão em torno dos fundamentos de engenharia de tráfego, o texto segue para próxima seção, a fim de apresentar o estudo que diz respeito ao assunto de agentes e sistemas multiagentes. Agentes e Sistemas Multiagentes Esta seção tem como objetivo apresentar o levantamento bibliográfico acerca de agentes e sistemas multiagentes. Os textos compreendidos nas subseções seguintes tem como base o capítulo de livro escrito por [56]. Apesar de não existir uma definição universalmente aceita acerca de agentes, será adotada uma definição mais genérica baseada em FERBER [57]. Um agenté e uma entidade real ou virtual, capaz de agir em um ambiente, de se comunicar com outros agentes, queé movida por um conjunto de inclinações (sejam objetivos individuais a atingir ou uma função de satisfação a otimizar). Além disto, um agente possui recursos próprios, além de ser capaz de perceber o seu ambiente (de modo limitado) e possuir (eventualmente) uma visão parcial deste sistema. Outra característica importante de um agenteé que ele possui autonomia e oferece serviços. Com base nisto, sistemas multiagentes são as atividades de um conjunto de agentes autônomos em um universo multiagente. Uma vez que são autônomos, os agentes devem coordenar dinamicamente suas atividades e cooperar uns com outros para que o objetivo do sistema seja alcançado. Com base nessa definição, as características-chave que efetivam a caracterização de um agente são: autonomia de decisão, autonomia de execução, competência para decidir e a existência de uma agenda própria [58]. A autonomia de decisão está relacionadaà capacidade de analisar uma situação, gerar alternativas de atuação e escolher a situação que melhor atende seus objetivos. Em certos casos, o agente não conhece o cenário de atuação, mas tem capacidade de escolher uma experiência prévia semelhante e, em seguida, adaptar a solução ao novo cenário. A autonomia de execuçãoé a capacidade de operar no ambiente sem intervenção de outro agente (geralmente humanos). A competência para decidiré a capacidade de configurar sua atuação sem intervenção externa. Por fim, a existência de uma agenda própria, queé a capacidade de criar uma agenda de objetivos que concretizem suas metas. Continuando a apresentação do referencial teórico desta tese, a próxima seção apresenta um estudo sobre escalonamento por reversão de arestas. Escalonamento por Reversão de Arestas Esta seção tem como objetivo apresentar o levantamento bibliográfico a respeito dos algoritmos de escalonamento por reversão de arestas conhecidos como SER [4,59] e SMER [60]. A apresentação dos detalhes de cada um destes algoritmosé feita de acordo com a disposição das próximas subseções. SER Escalonamento por Reversão de Arestas ou Scheduling by Edge Reversal (SER)é um poderoso algoritmo paralelo e distribuído desenvolvido por BARBOSA e GAFNI [59], a fim de controlar a operação concorrente entre os elementos de sistemas de vizinhança restrita de topologia genérica. O SER tem como base um conjunto de processos que executamà medida que acessam recursos atômicos compartilhados. Sistemas de recursos compartilhados são representados por meio de um grafo orientado finito G = (V, E), onde os processos são os vértices de G e uma aresta orientada existe entre quaisquer dois nós, desde que estes compartilhem um recurso. O SER inicia sua execução a partir de qualquer orientação acíclica ω em G, devendo existir pelo menos um vértice sumidouro, ou seja, um vértice que tenha todas as arestas entre seus vizinhos direcionadas para ele. A Figura 2.7(a) apresenta um exemplo de grafo com uma orientação acíclica contendo um vértice sumidouro. A partir de uma orientação acíclica inicial, pode-se garantir que não haverá deadlock ou starvation durante a execução do algoritmo. A Figura 2.7(b) apresenta um grafo em estado de deadlock, uma vez que as orientações das arestas entre os vértices deste grafo formam um ciclo. Quando um vértice se torna um sumidouro, este tem a permissão de operar sobre os recursos compartilhados entre ele e seus vizinhos. Uma vez que um vértice sumidouro tenha finalizado a sua operação, ele reverte a orientação de todas as suas arestas, enviando mensagens para todos os seus vizinhos e, em seguida, se torna um vértice fonte. Este processo dá início a uma nova orientação acíclica ω . A partir desta nova orientação acíclica, um novo conjunto de vértices sumidourosé formado e assim por diante. Como o número das orientações acíclicasé finito, eventualmente um conjunto de orientações se repetirá ao longo do tempo. Isto define um período de tamanho p de orientações. Dentro de um período, cada vértice opera exatamente o mesmo número constante de vezes, queé denotado por m. Assim, a concorrência de um períodoé definida pelo coeficiente γ(G) = m/p. Quanto mais altoé o coeficiente de concorrência de um período, menor será a ociosidade dos vértices durante a evolução de um período. Segundo BAROBOSA [4], para qualquer sistema conectado, o coeficiente de concorrência de um período deve respeitar a seguinte regra: 1/n ≤ m/p ≤ 1/2, tal que n = |N |. Embora o SER garanta que todos os nós possam operar com a mesma frequência sobre os recursos compartilhados em um sistema distribuído, esta condiçãoé indesejável, quando os vértices precisam operar com diferentes frequências sobre tais recursos. Para tanto, BARBOSA et al. [60] desenvolveram uma generalização do SER, queé apresentada na próxima seção. SMER O Escalonamento por Reversão Múltipla de Arestas ou Scheduling by Multiple Edge Reversal (SMER)é uma generalização do SER em que taxas de acesso pré-determinadas para os recursos atômicos compartilhados são impostas aos processos em um sistema distribuído de compartilhamento de recursos representado por uma transformação do grafo G em um multigrafo M = (V ", E"), onde N " = N e, para cada (v i , v j ) ∈ E, existe e i,j arestas em E". Diferente do SER, múltiplas arestas e i,j ∈ E podem existir entre quaisquer dois vértices i e j (i, j ∈ V ") nas dinâmicas do SMER, denotando um conjunto de arestas cujo nomeé arco [60]. A Figura 2.9 apresenta um exemplo de multigrafo, apresentando três vértices, os arcos entre os vértices e as reversibilidades de cada vértice. Além disto, a cada vértice ié associado um parâmetro r i cujo nomeé reversibilidade. A reversibilidadeé o número de arestas que devem ser revertidas por um vértice i em direção a cada um de seus vértices vizinhos, após este findar uma operação que esteja acessando os recursos atômicos compartilhados. No SMER, um vértice ié chamado de sumidouro, se este possuir, em cada arco e i,j com seus vizinhos, um número r i de arestas direcionadas para si. Diferente do SER, um vértice pode operar mais de uma vez consecutivamente durante a execução do algoritmo SMER. Para evitar que dois vértices executem sobre os mesmos recursos compar-Figura 2.9: Exemplo de um multigrafo no contexto do SMER. Adaptado de PAIVA [2]. Figura 2.10: Exemplo de execução do SMER sobre um multigrafo com três vértices. Adaptado de PAIVA [2] tilhados, [60] introduziram uma restrição sobre os arcos que conectam os vértices do multigrafo M . Esta restrição consistem na seguinte regra: um arco e i,j deve ter um número de arestas que seja maior ou igual a maior reversibilidade entre i e j (máximo{r i , r j }), e menor ou igual a r i + r j − 1. Além disto, para garantir que o número de arestas de um arco e i,j seja mínimo, BARBOSA et al. [ r 1 = (d 1 , d 2 , d 3 ) d 1 = 2 2 = 1 r 2 = (d 1 , d 2 , d 3 ) d 2 = 2 1 = 2 r 3 = (d 1 , d 2 , d 3 ) d 3 = 2 1 = 2 Por fim, utiliza-se a Equação 2.11 para calcular o número de arestas de um arco e i,j compreendido entre cada par de vértices i, j. O cálculo do número de arestas de cada arcoé dado como segue: Tanto para o SER quanto para o SMER, determinar uma orientação inicial acíclicaé fundamental para execução destes algoritmos distribuídos. No entanto, este estado inicial não pode levar o grafo a uma orientação que leve a uma situação de deadlock. Em específico, no SMER, existe uma maneira de saber se um estado s ≥ 0 levará o grafo a um estado de situação de deadlock. Para tanto, considere o conjunto K de ciclos simples não-dirigidos em G. Para k ∈ K, tem-se que v i ∈ k, significando que o vértice i pertence ao ciclo não-dirigido k, e (v i , v j ) ∈ k, indicando que a aresta entre os vértices i e j faz parte do ciclo não-dirigido k. Além disto, também considere a soma das reversibilidades dos vértices em k, queé dada por e 1,2 = r 1 + r 2 − mdc(r 1 , r 2 ) = 1 + 2 − 1 = 2 e 1,3 = r 1 + r 3 − mdc(r 1 , r 3 ) = 1 + 2 − 1 = 2ρ(k) = v i ∈k r n i (2.13) , e o número de arestas orientadas do multigrafo em k na direção transversal cuja maioria das arestas está orientada, queé dado por σ s (k) = max    (v i ,v j )∈k + e ij s , v i ∈k e ij s    (2.14) , onde k + possui arestas orientadas em sentido horário e k − possui arestas orientadas em sentido anti-horário. Com base nas Equações 2.13 e 2.14,é possível verificar se o multigrafo entrará em um estado de deadlock, comparando σ(k) com ρ(k). Se σ(k) < ρ(k), entãoé garantido que o multigrafo não entrará em um estado de deadlock. Como pode ser visto na Figura 2.11, o SMER inicia sua execução a partir de uma orientação inicial acíclica que posteriormente leva o grafo a um estado de deadlock. No multigrafo, a soma das reversibilidades dos três vérticesé ρ(k) = v i ∈k r n i = r 1 + r 2 + r3 = 3 + 2 + 2 = 7 . A soma das arestas orientadas no sentido horárioé: σ s (k + ) = (v i ,v j )∈k + e ij s = e 31 0 + e 12 0 + e 23 0 = 2 + 4 + 2 = 8 . A soma das arestas orientadas no sentido anti-horárioé: [2]. σ s (k − ) = (v i ,v j )∈k − e ijmax    (v i ,v j )∈k + e ij s , v i ∈k e ij s    < ρ(k) (2.15) Embora seja simples detectar deadlocks em grafos de baixa complexidade, esta tarefa se torna difícil em grafos complexos e gera um grande overhead de comunicação durante a detecção destes estados [2]. Para tratar este problema, SANTOS [5] propôs um método baseado em mudanças de reversibilidade. Este método permite que os vértices de um multigrafo mudem suas taxas relativas de execução durante a execução do algoritmo SMER. O método de SANTOS [5] consiste em iniciar o multigrafo em uma condição específica, de maneira que todos os vértices tenham a mesma frequência de operação. Logo, isto faz com que o algoritmo SMER inicie sua execução se comportando como o SER. Desta forma,é possível assegurar que o estado inicial do multigrafo não levará o algoritmo SMER entre em deadlock. A partir disto,à medida que os vértices em M se tornam sumidouros, estes passam a ter o direito de mudar as suas reversibilidades r i com intuito de ajustar as suas frequências de operação de acordo com uma demanda d i ao longo do tempo. Esta mudança de frequência sóé possível, quando os vértices sumidouros têm conhecimento das reversibilidades de seus vizinhos. Com isto,é possível recalcular a quantidade de arestas presentes em cada arco e ij que interliga o vértice sumidouro aos seus vizinhos. Este cálculoé realizado, usando a Equação 2.11. Uma vez calculado o novo número de arestas para os arcos entre os vértices sumidouros e seus vizinhos, os vizinhos dos sumidouros não sofrem qualquer mudança, mas o sistema distribuído de compartilhamento de recursos automaticamente sofre um redimensionamento de seu período com base nas novas Figura 2.12: Exemplo de uma execução do algoritmo SMER com o mecanismo de mudança de reversibilidade. Adaptado de [5] reversibilidades [2]. Por fim, o mecanismo de mudança de reversibilidade garante a ausência de deadlocks, ainda que as reversibilidades tenham seus valores aumentados ou diminuídos em função da demanda dos vértices. Esta garantia se baseia na regra definida pela Inequação 2.15, pois aumentos ou diminuições nas reversibilidades dos vértices sumidouros são reproduzidos em ambos os lados da inequação. A Figura 2.12 mostra um exemplo de uma execução do algoritmo SMER, utilizando o mecanismo de mudança de reversibilidade, tendo como base um multigrafo com dois vértices. Neste exemplo, ambos os vértices iniciam com demandas e reversibilidades iguais a um. Além disto, o estado inicial do multigrafo tem o vértice um como sumidouro. O vértice um tem sua demanda aumentada para dois, fazendo com que sua reversibilidade se mantenha em um e a reversibilidade do vértice dois aumente para dois. Estes valores de reversibilidade foram obtidos a partir do uso da Equação 2.12 da seguinte forma: r 1 = mmc(d 1 , d 2 ) d 1 = 2 2 = 1 r 2 =r 1 = mmc(d 1 , d 2 ) d 1 = 6 2 = 3 r 2 = mmc(d 1 , d 2 ) d 2 = 6 3 = 2 . Com estes novos valores de reversibilidade, o resultado do cálculo do número de arestas para o arco e 12 foi o seguinte: e 12 = r 1 + r 2 − mdc(r 1 , r 2 ) = 3 + 2 − mdc(3, 2) = 3 + 2 − 1 = 4 . Dessa forma, o arco e ij passou a ter quatro arestas. Após isto, o período se torna estável e o algoritmo SMER continua sua execução normalmente. Para finalizar a apresentação do referencial teórico desta tese, a próxima seção apresenta um breve estudo sobre escalonamento em sistemas flexíveis de manufatura. Escalonamento em Sistemas Flexíveis de Manufatura Job-Shop Esta seção tem como objetivo apresentar o referencial teórico sobre escalonamento em sistemas flexíveis de manufatura. Nas próximas subseções, portanto, são apresentados os seguintes assuntos: sistemas flexíveis de manufatura, escalonamento em sistemas flexíveis de manufatura do tipo job-shop e heurísticas para geração de regras de despacho. Sistemas Flexíveis de Manufatura Sistemas Flexíveis de Manufatura podem ser definidos como sistemas de fabricação formados por estações de trabalho que compartilham sistemas de transporte e controle, objetivando a produção de um determinado espectro de produtos, sem que haja a necessidade de interromper o processo de produção para uma reconfiguração. Segundo BROWNE et al. [61], Sistemas Flexíveis de Manufatura podem ser divididos em duas categorias: flexibilidade de máquina e flexibilidade de roteamento. A primeira categoria consiste na capacidade que o sistema tem de mudar, de modo que novos tipos de produtos sejam produzidos, bem como na capacidade de alterar a ordem das operações em uma parte deste sistema. A segunda categoria consiste na capacidade que sistema tem de usar várias máquinas para executar as mesmas operações em uma parte deste sistema, bem como a capacidade de absorver grandes mudanças em termos de volume, capacidade e capabilidade de processo. Dentro desta classificação, o problema de orientação de rotas pode ser tratado como um problema de Sistemas Flexíveis de Manufatura com flexibilidade de roteamento. Em Sistemas Flexíveis de Manufatura, existem diferentes processos com uma variedade de produtos que podem ou não seguir a mesma rota. Quando todos os grupos de produtos percorrem uma mesma rota para chegaràs estações de trabalho, o Sistema Flexível de Manufaturaé chamado de sistema de produção contínua ou Flow Shop. Diferente disto, quando cada tipo de produto tem sua própria rota, o Sistema Flexível de Manufaturaé chamado de sistema de produção descontínua ou Job Shop. O escalonamento de um job-shop pode ser visto como uma definição de uma ordenação entre todas as operações que devem ser processadas na mesma máquina, fixando precedências entre estas operações. No modelo de grafo disjunto, istoé feito, tornando os arcos não direcionados (disjuntivos) em direcionados. Uma seleçãoé um conjunto de arcos direcionados selecionados com base nos arcos disjuntivos. Por definição, uma seleçãoé completa, se todas as disjunções são selecionadas. Além disto, uma seleçãoé consistente, se o grafo direcionado resultanteé acíclico. Dessa forma, uma seleção consistente define uma família de agendas e cada agenda pertence exatamente a uma determinada família. Por fim, o makespanótimo para uma seleção consistenteé o maior caminho no grafo direcionado, queé gerado a partir do grafo disjunto. Portanto, o problema consiste em encontrar uma seleção consistente que minimize o tamanho de um caminho mais longo no grafo direcionado gerado com base grafo disjunto. Escalonamento em Job-Shops Heurísticas para Geração de Regras de Despacho O Problema de Escalonamento Job-Shop está entre os problemas de otimização combinatória mais difíceis. Ele não somenteé um problema do tipo NP-completo, mas, entre os problemas desta classe, ele está entre os piores. De acordo com a literatura,é possível resolver problemas do cacheiro viajante gerados aleatoriamente com um número de cidades entre 300 e 400 ou problemas de cobertura de conjunto com centenas de restrições e milhares de variáveis, mas nãoé possível escalonar de maneiraótima dez jobs em dez máquinas. Uma vez que o escalonamento jobshopé um problema prático muito importante,é natural olhar para métodos de aproximação, a fim de produzir o escalonamento de jobs em um tempo aceitável. A maioria dos métodos heurísticos de escalonamento job-shop descritos na literatura são baseados em regras de despacho. Tais regras de despacho são baseadas em critérios, dentre eles: tempo de processamento e data de entrega. As regras de despacho baseadas em tempo de processamento têm como características a escolha de jobs com o ciclo de processamento menor ou maior e também com o menor ou maior número de tarefas ainda não concluídas. Tais regras são as seguintes: • Shortest Processing Time (SPT): escolhe a operação mais rápida, em outras palavras, com o menor tempo de processamento; • Largest Imminent Operation Time (LI): escolhe a operação com o maior tempo de processamento; • Most Work Remaining (MWR): seleciona o produto com a maior soma de operações ainda não efetuadas. • Least Work Remaining (LWR): seleciona o produto com a menor soma de operações ainda não efetuadas. As regras de despacho baseadas na data de entrega são as seguintes: • Earliest Due Date (EDD): seleciona a operação cujo produto tem a data de entrega mais cedo; • Minimum Slack Time (MST): seleciona a operação que tem a menor folga. A folgaé a diferença entre o tempo que falta para a data de entrega e tempo necessário para executar as operações restantes; • Earliest Operation Due Date (ODD): seleciona a operação que o tempo de término mais próximo; • Operation Slack Time (OST): seleciona a operação que tem a menor folga. Outras regras de despacho podem ser encontradas na literatura de escalonamento job-shop. No entanto, elas não serão apresentadas aqui, uma vez que esta tese usa somente duas das regras de despacho citadas acima, que são: SPT e EDD. Aqui, se dá o fim da apresentação do referencial teórico desta tese. No entanto, existem algumas considerações que precisam ser feitas, de modo que fique claro a relação de todo o referencial com o restante desta tese. Portanto, a próxima seção tem esta finalidade. Considerações Finais Este capítulo apresentou o assuntos pertinentes ao referencial teórico desta tese, que são: redes ad hoc veiculares; sistemas inteligentes de transporte; fundamentos de engenharia de tráfego; agentes e sistemas multiagentes; escalonamento por reversão de arestas; e escalonamento em sistemas flexíveis de manufatura. Cada um destes assuntos teve como objetivo o fornecimento de um embasamento conceitual e teórico acerca das temáticas e trabalhos relacionados que envolvem os problemas atacados por esta tese, que são: controle de tráfego por meio de sinalização semafórica, planejamento e orientação de rotas e comunicações heterogêneas em ambientes veiculares. As soluções para os problemas de controle de tráfego por meio de sinalizações semafóricas e planejamento e orientação de rotas para motoristas dependem de comunicação com baixa latência e alta confiabilidade, sendo esta escalável e de baixo custo de mensagens. Para tanto, esta tese se apropriou dos conceitos e características das redes ad hoc veiculares, levando em consideração as tecnologias de acessoà comunicação sem fio e técnicas de roteamento, a fim de propor uma rede veicular, que, por meio de seu protocolo de comunicação, satisfaça os requisitos de comunicação das categorias de aplicações para redes ad hoc veiculares [30,43]. Tendo em vista que esta tese contribui também paraárea de sistemas inteligentes de transporte, foi necessário compreender os conceitos básicos e a importância de tais tipos de sistemas inteligentes. Este breve estudo contribuiu para compreensão do termo sistemas inteligentes de transporte, assim como, as suas principaisáreas de aplicação. Assim, esta tese apropriou-se dos conceitos relacionados aos sistemas avançados de gerenciamento de tráfego e sistemas avançados de informações ao motorista, a fim de propor tanto um mecanismo de controle de tráfego quanto um mecanismo para planejamento e orientação de rotas. Esteúltimo mecanismo, por sua vez, tira proveito das agendas de intervalos de indicações de luzes verdes geradas com base nas configurações de controle das sinalizações semafóricas, a fim de orientar o motorista, no que diz respeito a escolha da melhor rota para o destino desejado por este [62]. Devido aos estudos relacionados aos sistemas inteligentes de transporte, tornouse imprescindível um estudo a respeito dos fundamentos de engenharia de tráfego. Este estudo forneceu um conhecimento sobre a estrutura de uma rede de tráfego, que foi de grande importância durante a confecção de mapas viários durante a criação de cenários de uso para execução de experimentos. Além disto, o estudo também forneceu um conhecimento sobre os parâmetros macroscópicos e microscópicos. Alguns destes parâmetros foram utilizados como medidas de desempenho durante a execução dos experimentos de simulação presentes nesta tese. Devido a natureza distribuída e a cooperação entre as entidades de mundo real, em específico, veículos e sinalizações semafóricas, inerentes aos mecanismos de controle de tráfego e orientação de rotas fez-se necessário a busca de um paradigma de sistemas de computação que pudesse servir como base teórica para a especificação destas entidades de mundo real na forma de entidades computacionais, que não somente realizam algum tipo de tarefa, mas também cooperam umas com as outras. Sendo assim, esta tese apropriou-se dos conceitos e características relacionados ao paradigma de agentes e sistemas multiagentes, para especificar duas aplicações de sistemas inteligentes de transporte como sistemas multiagentes, uma vez que este tipo de sistema está relacionadoàárea de Inteligência Artificial Distribuída. A fim de atacar o problema de controleótimo de tráfego por meio de sinalizações semafóricas, esta tese lança a mão sobre as teorias e algoritmos relacionados a técnica de escalonamento por reversão múltipla de arestas. O escalonamento por reversão múltipla de arestas tem um papel relevante nesta tese, pois ele não somente foi utilizado para controlar o acessoàs interseções, mas também foi utilizado para geração e compartilhamento das agendas dos tempos das fases das sinalizações semafóricas. Além disto, esta técnica tambémé utilizada por esta tese, no que diz ao controle de interseções compartilhadas entre corredores contendo redes de sinalizações semafóricas, que, por sua vez, precisam ter os seus tempos dos inícios de seus intervalos de indicação de luzes verdes sincronizados, a fim de facilitar o escoamento de pelotões de veículos que precisam trafegar ao longo dos seguimentos de via componentes destes corredores. Tal técnica tambémé utilizada em um dos trabalhos relacionados a esta tese. Por fim, para atacar o problema de orientação de rotas, foi necessário buscar um modelo que pudesse não somente fornecer um arcabouço teórico, mas também um arcabouço prático, que pudesse fornecer subsídios para o desenvolvimento de um procedimento heurístico, cujo intuito não somenteé calcular rotasótimas, mas também alocar espaços de uso por parte dos veículos nas vias que os conduzem ao longo de um conjunto de interseções de uma rede viária. O problema de orientação de rotas em uma rede viáriaé similar ao problema de planejamento de rotas de veículos guiados automaticamente em sistemas flexíveis de manufatura do tipo job-shop [63]. Por este motivo, esta tese faz uso das teorias e heurísticas de escalonamento em sistemas flexíveis de manufatura do tipo job-shop. Após o levantamento bibliográfico acerca do referencial teórico desta tese, a pesquisa avançou na direção do levantamento do estado da arte em métodos de controle de tráfego por meio de sinalizações semafóricas, orientação de rotas e redes ad hoc veiculares centradas em informação. Portanto, o próximo capítulo descreve o levantamento bibliográfico a respeito do estado da arte de cada um destes tópicos. Este capítulo tem como objetivo apresentar o estado da arte acerca dos seguintes assuntos: controle de tráfego, orientação de rotas e redes ad hoc veiculares centradas em informação. O estado da arte de cada um destes assuntosé apresentado como seguem as próximas seções. Por fim, são apresentadas as considerações finais acerca do que foi apresentado neste capítulo, destacando lacunas que precisam ser preenchidas em cada um dos assuntos supracitados. Controle de Tráfego por meio de Sinalizações Semafóricas Tendo em vista os possíveis modos de operação de sinalizações semafóricas, o modo de operação baseado em computadores merece bastante atenção, uma vez que permite o emprego de métodos computacionais, permitindo, assim, o projeto e o desenvolvimento de sistemas avançados de gerenciamento de tráfego. Analisando a bibliografia de controle de sinalização semafórica por meio de computadores,é possível destacar trabalhos em duas linhas metodológicas: métodos baseados em otimização [10,[12][13][14] e métodos baseados em adaptação [11,[15][16][17][18][19][20][21][22]. Os métodos baseados em otimização tentam alcançar uma soluçãoótima que satisfaça as restrições impostas a um espaço de busca, queé formado por planos de temporização e fases de sinalizações semafóricas. Para tanto, segundo a literatura, o problema de controleótimo de tráfego poder ser modelado como problema de programação linear mista, game-playing, problema de satisfação de restrições distribuídas ou problema de programação linear de dois níveis. Apesar disto, todos os métodos baseados em otimização compartilham as mesmas deficiências. Tais métodos são computacionalmente caros e, por isto, eles demandam uma grande quantidade de tempo para convergir soluçõesótimas. Vale ressaltar, que o tempo para que estes métodos convirjam soluçõesótimasé influenciado pelo tamanho da rede semafórica e a configuração de cada uma das interseções presentes em tal rede. Portanto, o sistema de controle de tráfego requer uma estrutura computacional dedicada compatível com o tamanho e a configuração da rede semafórica. Além disto, os métodos de otimização são cegos diante de situações anormais de tráfego, como, por exemplo, muitos veículos chegando ou saindo de um determinado lugar (estádio, shopping, centros econômicos, entre outros) ao mesmo tempo. Tendo em vista que o volume de tráfego muda constantemente, métodos baseados em adaptação tendem a ser melhores que os métodos baseados em otimização. Neste sentido, GERHENSON [18] propõem que o controleótimo de tráfego por meio de sinalizações semafóricas nãoé necessariamente um problema de otimização, uma vez que o volume de tráfego muda constantemente. Portanto, o controleótimo de tráfego por meio de sinalizações semafóricas deve ser tratado como um problema de adaptação. Dentre os métodos baseados em adaptação, destacam-se os que se baseiam em aprendizado por reforço e os que se baseiam em auto-organização. Embora os métodos baseados em adaptação por meio do aprendizado por reforço possam ajustar os tamanhos de ciclos, intervalos e fases das sinalizações semafóricas, eles necessitam de um grau de estabilidade por parte dos volumes de tráfego, a fim de possibilitar a construção de uma base de conhecimento acerca dos padrões macroscópicos do tráfego. Sendo assim, tais métodos não funcionam bem em redes viárias cujas vias apresentam constante variação no volume de tráfego. No que tange os métodos baseados em adaptação por meio de auto-organização, eles são mais promissores que os métodos baseados em adaptação por meio de aprendizado por reforço, uma vez que eles conseguem ajustar os tamanhos de ciclos, intervalos e fases em tempo real. Para realizar o controleótimo de sinalizações semafóricas, os métodos baseados em adaptação por meio de auto-organização levam em consideração a formação de comboios de veículos ao longo das vias que participam das interseções sinalizadas, uma vez que veículos normalmente trafegam juntos e aproximadamente na mesma velocidade. Desta forma, um grupo de veículos tende a se comportar como um comboio coerente, devidoàs limitações para ultrapassagem. Neste sentido, os comboios de veículos não são importantes somente para as sinalizações semafóricas pertencentesàs vias em que eles estejam trafegando, mas também para as sinalizações semafóricas pertencentesàs interseções vizinhas, de modo que elas possam operar de maneira síncrona e coordenada umas com as outras. A consequência distoé que os métodos baseados em adaptação por meio de auto-organização conseguem compactar os veículos em comboios,à medida que estes trafegam ao longo da rede viária controlada por sinalizações semafóricas. Além disto, eles conseguem maximizar a velocidade média destes comboios, aumentando, a taxa de vazão de veículos do sistema de controle de tráfego. Apesar de os métodos baseados em adaptação por meio de auto-organização se-rem os mais promissores dentre os métodos apresentados até aqui, eles compartilham uma deficiência com os demais métodos, ou seja, todos os métodos são sensíveisàs escolhas de rotas por parte dos motoristas dos veículos. Em outras palavras, tanto métodos baseados em otimização quanto métodos baseados em adaptação podem ter seus resultados comprometidosà medida que haja um desbalanceamento severo na densidade das vias. Neste caso, as vias podem ter um aumento severo de densidade, devidoàs rotas escolhidas pelos motoristas dos veículos ou uso de sistemas de navegação baseados em mapas estáticos, que, por não terem ciência de rotas alternativas, acabam escolhendo rotas que levam ao aumento da concentração de veículos em determinadas vias, enquanto outras ficam subutilizadas ou até mesmo ociosas. Ainda que tais métodos possam aumentar o tamanho dos ciclos e ajustar os tamanhos dos intervalos de luzes verde das sinalizações semafóricas, estas operações não devem ultrapassar os limites recomendados de tempo, que são definidos pelas especificações técnicas para o funcionamento de sinalizações semafóricas, uma vez que valores muito altos de tamanhos de ciclo implicam em tempos de espera elevados DENATRAN [54]. Sendo assim,é necessário que o fluxo de veículos seja distribuído, a fim de evitar congestionamentos. Planejamento e Orientação de Rotas Para dissipar rapidamente os fluxos de veículos e evitar congestionamentos, veículos precisam ser uniformemente distribuídos ao longo de rotas alternativas. Para tanto, e preciso que um mecanismo tenha conhecimento das escolhas de rotas dos veículos que trafegam ao longo de uma rede viária, de modo que os motoristas possam ser orientados a seguir um caminho que os levem aos destinos pretendidos por seus motoristas, sem que um congestionamento seja causado. Um importante componente em sistemas avançados de informações ao motorista, queé responsável por isto,é o mecanismo de planejamento e orientação de rota. Embora existam soluções comercialmente disponíveis para sistemas avançados de informações ao motorista com orientação de rotas, que conseguem utilizar informações dinâmicas sobre o volume tráfego (tais como: [64], TomTom [65], Waze [66], entre outros), elas não são capazes de antecipar congestionamentos. Tais soluções reagem somente após os congestionamentos terem ocorrido e, com isso, acabam propagando os efeitos destes sobre uma parte substancial da rede viária. Isto se deve aos altos intervalos de atualização do estado do tráfego, que variam entre 2 a 30 minutos [26]. Para tratar as deficiências descritas acima, novas técnicas para orientação de rotas têm sido propostas. Analisando a bibliografia pertinente ao tema,é possível destacar duas categorias, a saber: técnicas de orientação de rotas usando redes ad hoc veiculares [23][24][25] e técnicas de orientação de rotas baseadas em sistemas multiagentes [26,27]. Nas técnicas de orientação de rotas usando redes ad hoc veiculares, informações detalhadas a respeito das condições de tráfego são propagadas por meio de redes ad hoc veiculares. Com base neste tipo de rede, alguns trabalhos merecem destaque devido aos seus resultados, tais como: KRAUS et al. [23], LEONTIADIS et al. [24], SCHÜNEMMAN et al. [25], LAKAS e CHAQFEH [67]. Em KRAUS et al. [23] e LEONTIADIS et al. [24], os autores usaram em redes ad hoc veiculares uma técnica de redes ad hoc móveis conhecida como gossiping para propagar informação de tráfego. Em KRAUS et al. [23], os resultados das simulações mostraram que somente entre 20% a 30% dos veículos tiveram seus tempos de viagem similares a aqueles cujas informações de tráfego foram obtidas a partir de uma fonte centralizada de informações de tráfego. Apesar disto, esta proposta apresentou problemas de escalabilidade.Á medida que o número de nós realizando gossiping aumenta, também aumenta o tempo de viagem dos veículos que tentaram seguir a mesma rota alternativa. Percebe-se, então, que os nós não têm conhecimento do estado global acerca do volume de tráfego presente na rede viária por onde eles trafegam. Em LEONTIADIS et al. [24], os resultados mostraram que 64% dos veículos que realizam gossiping tiveram uma redução nos seus tempos de viagem. No entanto, devidoà falta de coordenação, os veículos podem congestionar rotas alternativas. Em SCHÜNEMMAN et al. [25], cada veículoé capaz de informar sua velocidade média aos outros veículos em sua vizinhança e sua rota de viagem com informações a respeito das condições do tráfego. Com esta abordagem, foi possível reduzir o tempo de viagem em 50%, utilizando uma taxa de penetração de veículos com capacidade de comunicação igual a 80%. No entanto, esta abordagem faz uso intensivo de comunicação veículo-a-veículo. Em LAKAS e CHAQFEH [67], cada veículoé capaz de requisitar informações sobre rotas, utilizando comunicação veicular. Com base nestas informações, os veículos são capazes de selecionar as rotas menos congestionadas. Observando os resultados obtidos em LAKAS e CHAQFEH [67], percebe-se que a proposta ajuda a reduzir congestionamentos. Analisando essas técnicas de orientação de rotas, usando redes ad hoc veiculares, a conclusão a respeitoé que redes ad hoc veiculares facilitam a propagação de informações de tempo real acerca das condições de tráfego. No entanto,é importante frisar que aplicações para redes ad hoc veiculares, cujo objetivoé propagar, manter e processar informações de tempo real a respeito das condições de tráfego de uma rede viária, possuem requisitos de comunicação específicos, conforme descrito em WILLKE et al. [43]. Neste sentido,é necessária uma atenção especial, no que tange a arquitetura de rede e o protocolo de comunicação adotados [68]. Por fim, para que técnicas de orientação de rotas possam distribuir uniformemente os fluxos de tráfego sobre uma rede viária, são necessárias decisões coordenadas entre os motoristas. Dentro desta perspectiva, técnicas de orientação de rotas baseadas em sistemas multiagentes são mais adequados para o problema de orientação de rotas e demandam coordenação entre as entidades constituintes do tráfego (tais como: veículos, sinalizações semafóricas e dispositivos de controle). Com base nisto,é possível destacar as principais técnicas de sistemas multiagentes para o problema de orientação de rotas, a saber: abordagens bioinspiradas [26,27,69] abordagens baseadas em alocação de recursos [68,[70][71][72]. Em algumas abordagens bioinspiradas, os veículos são modelados como formigas, que depositam uma substância química chamada feromônio para marcar o caminho mais curto entre o formigueiro e a fonte de comida. A partir desta técnica,é possível identificar quais vias estão sendo mais utilizadas para escoar o tráfego, uma vez que o feromônio identifica a frequência com que uma determinada via está sendo usada. Dessa forma, o mecanismo de orientação de rotas selecionará uma rota com a menor quantidade possível de feromônio. Sempre que um veículo passa por uma interseção, o processo de busca pela melhor rota se repete, adotando a interseção como formigueiro [27,69]. Embora WEDDE e SENGE [26] tenham proposto uma abordagem bioinspirada baseada em enxame de abelhas, tal abordagemé similarà abordagem proposta por CLAES et al. [27]. No entanto, o algoritmo de roteamento proposto por WEDDE e SENGE [26]é um algoritmo probabilístico, enquanto o algoritmo de roteamento proposto por CLAES et al. [27]é um algoritmo proativo e utiliza um mecanismo de reserva com intuito de evitar ciclos. Além disto, ambas as abordagens foram projetadas, levando em consideração uma rede ad hoc veicular cujo modelo de comunicação adotadoé o veículo-infraestrutura. No entanto, os autores dessas abordagens não detalharam as configurações de rede adotadas durante os experimentos de simulação. Por fim, os resultados de ambos os trabalhos mostram ganhos nos tempos de viagem, quando comparados com motoristas normais e aqueles motoristas que fazem uso de sistemas de navegação baseados em serviços de TMC. No que tange as abordagens baseadas em alocação de recursos, estas consistem a partir de agentes de infraestrutura, que reservam espaços nas interseções para agentes motoristas, ou puramente de agentes veículos, que trocam preferências de rotas, de modo que este possam estabelecer negociações virtuais sucessivas e, com isto, tomar cooperativamente a melhor decisão para alocação de rotas para cada agente. Dessa forma, agentes motoristas escolhem as rotas baseados no custo da reserva do espaço e ou preferências pessoais de tempos de viagem. Em VASIRANI e OSSOWSKI [70,71], os gerenciadores de interseções concorrem pelo fornecimento de reservas. Os agentes motoristas participam na alocação da capacidade da rede viária por meio de um mecanismo combinatório baseado em leilão. A avaliação experimental mostrou 30% na redução do atraso para os motoristas que submeteram ofertas de alto valor. Em WANG et al. [68], um centro de gerenciamento de tráfego detecta eventos que demandam o roteamento de veículos. Uma vez detectados tais eventos, agentes de infraestrutura são notificados. Tais agentes de infraestrutura são sinalizações semafóricas. Em seguida, as sinalizações semafóricas enviam alertas de re-roteamento para o primeiro veículo de cada uma das vias de entrada das interseções em que estão localizadas. Após isto, os veículos checam, se existe a necessidade de requerer uma nova alocação de rota. Se verdadeiro, os veículos requisitamàs sinalizações semafóricas uma nova alocação de rota. Ao receber estas requisições, as sinalizações semafóricas calculam os caminhosótimos para cada requisição recebida, levando em consideração os dados contidos nesta. Após o cálculoótimo de rota, as sinalizações semafóricas enviam a rota para o veículo correspondente. Com base nas novas rotas recebidas, os motoristas seguem os caminhos que lhes são sugeridos, até que recebam um novo alerta de alguma sinalização semafórica. Em WANG et al. [68], os resultados mostraram uma redução no tempo médio de viagem de 51.5%, em um cenário baseado em grade manhattan, e 11.9% em um cenário baseado em um mapa realístico. Em DESAI et al. [72], agentes veículos tomam decisões cooperativa de alocação de rotas,à medida que se aproximam das interseções nas vias em que trafegam. Cada agente veículo troca de maneira autônoma informações de preferência de rota calculada para chegar em uma alocação inicial de rotas. A alocaçãoé melhorada usando um número de sucessivas negociações virtuais. Em DESAI et al. [72], os resultados mostraram que quando a abordagemé comparada com um algoritmo de caminho mínimo para melhorias no tempo de viagem, a abordagem oferece um ganho entre 21% a 43%, quando a demanda de tráfego está abaixo da capacidade da rede viária, e ganho entre 13% a 17%, quando a demanda de tráfego excede a capacidade da rede viária. Analisando as abordagens de sistemas multiagentes baseados em alocações recursos, VASIRANI e OSSOWSKI [70,71] e WANG et al. [68] o modelo de comunicação adotado foi o veículo-infraestrutura. Já, em DESAI et al. [72], o modelo de comunicação adotado foi o veículo-a-veículo. Embora essas abordagens tenham adotado modelos de comunicação diferentes, seus autores, assim como os das abordagens de sistemas multiagentes bioinspirados, também não detalharam modelos de pilhas de protocolo, mecanismos de endereçamento de nós e algoritmos de encaminhamento ou roteamento de mensagens adotados. Redes Ad Hoc Veiculares Centradas em Informação Esta seção apresenta o estado da arte em redes ad hoc veiculares centradadas em informação, que foi apresentado em GONÇ ALVES et al. [44]. Muitos métodos têm sido propostos para facilitar a comunicação entre os nós de redes ad hoc veiculares, mas o uso de modelos de pilhas de protocolos e esquemas de endereçamento, ambos projetados para redes centradas em IP (Internet Protocol), os tornam inadequados para ambientes veiculares altamente dinâmicos [42]. Por isto, Bai e Krishnamachari [32] têm argumentado a respeito de uma troca de paradigma de comunicação em redes veiculares. Para este fim, alguns pesquisadores têm identificado as redes centradas em informação (Information-Centric Network -ICN) [33] como um paradigma chave, pois elas oferecem uma solução atrativa para ambientes móveis e altamente dinâmicos tais como as redes ad hoc veiculares. Entre os modelos arquiteturais encontrados na literatura de ICN, as redes centradas em conteúdos (Content-Centric Networks -CCN) têm ganhado proeminência em trabalhos sobre redes veiculares [34][35][36][37][38]. Em ARNOULD et al. [34] aplicaram o modelo de redes centradas em conteúdos para disseminar informações críticas em uma VANET híbrida. Tal estudo propôs um mecanismo de entrega de dados chamado pacote de evento, que não requer o envio prévio de um pacote de interesse para que a entrega de dados aconteça. Desta forma, o publisher detecta eventos críticos, usando sensores embutidos em um veículo e, em seguida, transmite pacotes de evento contendo informações relacionadas a eventos sensíveis a atraso, tais como informações de acidentes, alertas de segurança e avisos de colisões. Porém, os autores modificaram a arquitetura original da CCN, para controlar a disseminação de pacotes de evento de acordo com largura de banda demandada por estes pacotes. Este aumento de complexidade pode causar falhas na entrega de dados em ambientes de alta demanda. Em AMADEO et al. [35,36] propuseram um framework para redes ad hoc veiculares que tem como base a arquitetura de uma rede centrada em conteúdos. De acordo com AMADEO et al. [73], redes ad hoc veiculares baseadas em redes centradas em conteúdos têm desempenho melhor que as redes ad hoc veiculares baseadas em IP, quando se trata da transmissão de dados e do balanceamento de carga dos veículos na rede, além de sofrerem menos com a degradação de desempenhoà medida que o volume de dados aumenta. Além disto, os autores dividiram os pacotes de interesse em dois subtipos, que são: interesse básico (B-Int) e interesse avançado (A-Int). Em ambos os trabalhos, B-Int foi usado quando um consumidor desejava descobrir fornecedores de conteúdo e requisitar o primeiro segmento de dados do conteúdo descoberto, enquanto o A-Int foi usado para requisitar os segmentos de dados restantes a partir dos fornecedores descobertos após o envio de B-Int. Os autores também introduziram uma nova estrutura de dados chamada de Content Provider Table (CPT) para substituir a Forwarding Information Base (FIB). A CPT foi usada para armazenar informações a respeito de fornecedores que já tenham sido descobertos e associa o endereço MAC destes nós com o conteúdo. Com esta mudança, os autores descartaram a principal premissa de uma rede centrada em conteúdo, queé a independência do conteúdo em relação a sua localização física. Tal ruptura conceitual pode levar ao comprometimento do suporteà mobilidade dos nós [74]. Em WANG et al. [37] apresentaram uma arquitetura de rede centrada em conteúdo, mas não consideraram os tipos de aplicações possíveis ou eventos que poderiam afetar significantemente sua arquitetura. Além disto, a arquitetura proposta não pode ser usada eficientemente em aplicações baseadas fortemente na comunicação veículo-aveículo. Em WANG et al. [38] também propuseram um mecanismo de disseminação de pacotes para reduzir a latência da entrega de conteúdo. Este mecanismo utilizou temporizadores para coordenar o envio de pacotes entre os nós da rede. No entanto, Wang et al. não definiram limites para a disseminação de interesses em umaárea geográfica, tornando persistente o problema de inundação de pacotes de interesses [74]. Por fim, a avaliação feita pelos autores não considerou como a mobilidade dos nós impactaria o mecanismo proposto. Considerações Finais Após todo o levantamento bibliográfico acerca dos métodos de controle de tráfego e métodos de orientação de rotas, percebeu-se que tais métodos podem ser complementares uns aos outros. Sendo mais específico, métodos como os utilizados em sistemas multiagentes baseados em alocação de recursos podem tirar proveito dos tempos das fases das sinalizações semafóricas, ainda que estes possam ser alterados, de acordo com alguma política de adaptação de tamanhos de intervalos de luzes verdes em função dos fluxos de tráfegos em vias que incidem nas interseções. Dessa forma, um mecanismo de orientação de rotas pode distribuir o volume de tráfego sobre uma rede viária controlada por sinalizações semafóricas, fazendo com que veículos trafeguem em vias participantes de rotasótimas, sem que estes precisem realizar paradas desnecessárias. Neste caso, a cooperação entre sistemas avançados de gerenciamento de tráfego e sistemas avançados de informações ao motorista permite que a orientação de rotas tenha ciência das programações das sinalizações semafóricas ao longo do tempo. No entanto, os métodos de controle de tráfego por meio de sinalização semafórica baseados em operação por computadores apresentados acima não são adequados para fornecer agendas de tempos a partir das programações das sinalizações semafóricas, de modo que estas possam ser consultadas por veículosà medida que estes se movem ao longo de uma rede viária. Embora os métodos de controle de tráfego por meio de sinalização semafórica baseados em operação por computadores não tenham levado em consideração o uso da comunicação entre veículos e sinalizações semafóricas, isto nãoé o fator determinante que indica a deficiência destes, quando se deseja criar uma cooperação entre um sistema avançado de gerenciamento de controle de tráfego e um sistema avançado de informações ao motorista. O uso de redes ad hoc veiculares em conjunto com tais métodos de controle de tráfego por meio de sinalização semafórica não contribui necessariamente para que eles possam ser aproveitados em uma cooperação entre as duas categorias de aplicações de sistemas inteligentes de transporte, uma vez que oúnico benefício alcançado seria a substituição da coleta de dados macroscópicos de tráfego por meio de detectores de tráfego instalados nas vias por coleta de dados feita pelas sinalizações semafóricasà medida que estas recebem dados sobre os veículos que se aproximam de uma interseção. Sendo assim, as deficiências dos métodos de controle de tráfego por meio de sinalização semafórica baseados em operações por computadores consistem de suas próprias concepções. No que tange os métodos de controle de tráfego baseados em otimização, estes necessitam de uma estrutura de computação centralizada e de alto custo para processamento das otimizações de fases de todo o sistema de controle de tráfego. Além disto, ainda que uma agenda de intervalos de indicações de luzes verdes fosse disponibilizada para consulta, esta seria utilizada na manutenção da alocação e desalocação de espaços nas vias de entrada das interseções, que seriam utilizados pelos veículos,à medida que um mecanismo de planejamento e orientação de rotas fornecesse rotasótimas, de acordo com a necessidade de distribuição dos veículos sobre a rede viária. Isto gera um grande overhead de comunicação e, de leitura e escrita de dados. Além disso, qualquer necessidade de ajuste no tamanho do intervalo de indicação de luz verde de umaúnica interseção, faz com que o sistema de controle de tráfego tenha que ajustar os tamanhos dos intervalos de indicação de luzes verdes de todas as sinalizações semafóricas pertencentes ao sistema de controle de tráfego e, em seguida, notificar os veículos sobre o evento de modificação das agendas de intervalos de indicações de luzes verdes. Como consequência, todos os veículos requisitarão novos cálculos de rotasótimas, com o intuito de novamente tirar proveito dos novos tamanhos de intervalos de indicações de luzes verdes disponíveis no sistema de controle de tráfego. Neste instante, a estrutura centralizada pode se tornar um gargalo e, com isto, pode influenciar no tempo de resposta das requisições, fazendo com que o planejamento e orientação de rotas trabalhe com dados defasados, no que diz respeito das alocações dos espaços nas vias de entrada das interseções. Vale ressaltar que, enquanto os veículos esperam por rotasótimas, eles se movem ao longo das vias da rede viária. Logo, se a latência de resposta de uma requisição para o cálculo de uma rotaótimaé alta, os motoristas dos veículos podem não ser informados a tempo de realizar alguma manobra, podendo, então, ser necessário iniciar um processo de recálculo de rotaótima. Com relação aos métodos baseados em adaptação, estes se dividem em duas subcategorias: métodos baseados em aprendizado por reforço e métodos baseados em auto-organização. Nestas duas categorias, as sinalizações semafóricas são capazes de coletar os dados por meio de detectores de tráfego instalados nas vias e, de tempos em tempos, realizar uma computação local, a fim de calcular os novos tamanhos de intervalos de indicações de luzes verdes das sinalizações semafóricas. Neste sentido, as decisões de ajustar as fases das sinalizações semafóricas são tomadas localmente. Por meio das decisões de todas as sinalizações semafóricas pertencentes ao sistema de controle de tráfego, a otimização do fluxo de tráfegoé realizada de maneira descentralizada. Com base nessas sinalizações semafóricas,é possível construir uma agenda de intervalos de indicações de luzes verdes de maneira centralizada ou descentralizada. Para manter as agendas de intervalos de indicações de luzes verdes de maneira centralizada,é necessária a disponibilidade de uma infraestrutura computacional como a queé fornecida aos métodos baseados em otimização. Dessa forma, os métodos baseados em adaptação são afetados pelos mesmos problemas relacionadosà infraestrutura computacional adotada pelos métodos baseados em otimização. Para contornar este problema, as agendas de intervalos de indicações de luzes verdes podem ser mantidas de maneira descentralizada. Desta forma, sinalizações semafóricas podem manter sua própria agenda de intervalos de indicações de luzes verdes ou, até mesmo, uma cópia da agenda de intervalos de indicações de luzes verdes de cada uma das sinalizações semafóricas do sistema de controle de tráfego. Assim, as requisições por cálculos de rotasótimas devem se dá por meio da comunicação entre veículos e as sinalizações semafóricas. Se cada sinalização semafórica mantém sua própria agenda de intervalos de indicações de luzes verdes, ela precisa consultar outras sinalizações semafóricas para calcular uma rotaótima e, em seguida, devolvê-la como resposta de uma requisição enviada por um veículo. Neste cenário, o tempo de obtenção de uma rotaé influenciado pelo tamanho da rede de sinalizações semafóricas. Assim, uma rede de sinalizações semafóricas de larga escala pode fazer com que o tempo de resposta não seja adequado e, por isto, os veículos podem receber informações equivocadas a respeito de rotasótimas. Neste caso, essa estratégia de mantença das agendas de intervalos de indicações de luzes verdes pode levar aos mesmos problemas de latência apresentados na discussão relacionada aos métodos de controle de tráfego baseados em otimização. Uma opção a essa estratégiaé fazer com que cada sinalização semafórica tenha uma cópia das agendas de intervalos de indicações de luzes verdes das demais sinalizações semafóricas do sistema de controle de tráfego. Neste sentido, a computação para calcular rotasótimasé feita localmente nas sinalizações semafóricas que venham a receber requisições enviadas por veículos. Independente da estratégia adotada para a mantença de agendas de intervalos de indicações de luzes verdes, os veículos que trafegam ao longo de uma rede viária controlada pelo sistema de controle de tráfego precisam ser notificados sobre as mudanças destas agendas, de modo que eles possam requisitar novos cálculos de rotasótimas. No entanto, se a estratégia adotadaé a que cada sinalização semafórica mantenha somente a sua agenda de intervalos de indicações de luzes verdes, ela pode inviabilizar o planejamento e orientação de rotas, pois um grande overhead de comunicação e, de leitura e escrita será demandado, uma vez que os veículos reagirão ao recebimento das notificações de mudanças nas agendas de intervalos de indicações de luzes verdes das sinalizações semafóricas, requisitando novos cálculos de rotasótimas. Em um cenário como este, a medida que os veículos requisitam novos cálculos de rotasótimas, uma execução do algoritmo de cálculo de rotasótimasé realizada sobre toda a rede de sinalizações semafóricas. Tendo em vista o grande número de mensagens geradas durante a execução do algoritmo de cálculo de rotasótimas, os tempos de respostas para cada uma das requisições enviadas pelos veículos podem ser afetados drasticamente, uma vez que uma instância de tal algoritmoé criada e executada,à medida que uma sinalização semafórica recebe requisições por cálculos de rotasótimas enviadas pelos veículos. Consequentemente, toda a rede de sinalizações semafóricasé inundada por mensagens desse algoritmo. No caso do uso de uma estratégia de mantença de agendas de intervalos de indicações de luzes verdes, em que cada sinalização semafórica mantém sua própria agenda de tempos e cópias das de outras sinalizações semafóricas do sistema de controle de tráfego, todo o overhead de comunicaçãoé retirado, pois este tem suas instâncias executadas localmente nas sinalizações semafóricas. Tendo em vista que o planejamento e orientação de rotas auxilia na distribuição equilibrada do volume de tráfego ao longo de uma rede viária, as sinalizações semafóricas precisam manter um grau de estabilidade no que diz respeitos aos seus tempos de fases e, também, precisam adaptar-se a qualquer alteração no fluxo de tráfego. Com base nisto, as sinalizações semafóricas precisam atualizar suas agendas de intervalos de indicações de luzes verdes, conforme as modificações de seus planos de temporização, realizadas após a leitura e processamento dos dados relacionados aos fluxos de tráfego incidentes nas interseções controladas por elas. Devidoà incapacidade de se adaptarem facilmenteàs flutuações frequentes dos fluxos de tráfego, queé ocasionada pela necessidade de uma estabilidade do volume de tráfego para a construção de uma base de conhecimento acerca dos padrões macroscópicos dos fluxos de tráfego das vias, métodos de controle de tráfego baseados em adaptação por meio de aprendizado por reforço tendem a gerar agendas de tempos similares as que podem ser geradas por sinalizações semafóricas de tempos pré-fixados. Assim, qualquer mudança no padrão macroscópico de tráfego, que resulte em um padrão não existente na base de conhecimento de uma via, pode gerar um gargalo em uma parte específica da rede viária. Ainda que os métodos de controle de tráfego baseados em adaptação por meio de aprendizado por reforço possam criar um sistema totalmente descentralizado de controle de tráfego com baixo overhead de operação, devidoà baixa adaptabilidade em relação aos fluxos de tráfego com flutuações frequentes, tais métodos não são adequados para a construção de sistemas avançados de gerenciamento de tráfego, onde uma das expectativasé cooperar com sistemas avançados de informações ao motorista, no que tange o fornecimento de planejamento e orientação de rotas. Por outro lado, embora existam métodos de baseados em adaptação por autoorganização, estes também apresentam dificuldades, quando se deseja utilizá-los na construção de sistemas avançados de controle de tráfego com intuito de cooperar com sistemas avançados de informações ao motorista, compartilhando agendas de intervalos de indicações de luzes verdes das sinalizações semafóricas, de modo que um mecanismo de orientação de rotas possa utiliza-las para alocar espaços de uso nas vias de entradas das interseções. Nestes métodos, o controle das sinalizações semafóricasé programado para identificar as chegadas de pelotões de veículos nas interseções. Sendo assim, as agendas de intervalos de indicações de luzes verdes das sinalizações semafóricas precisam ser atualizadas a cada detecção de um pelotão de veículos. Isto faz com que o aproveitamento da agenda de tempos das programações das sinalizações semafóricas por parte de um mecanismo de planejamento e orientação de rotas seja comprometido. Por causa de uma grande variação de estado de tais agendas, um mecanismo de planejamento e orientação de rotas pode calcular uma rotaótima com base em cópias de agendas de intervalos de indicações de luzes verdes desatualizadas. Como consequência, isto pode levar a um desbalanceamento na distribuição do volume de tráfego sobre as vias de uma rede viária. Por fim, as sinalizações semafóricas tendem a sofrer com o alto overhead de comunicação e, de leitura e escrita,à medida que recebem e processam requisições de novos cálculos de rotasótimas e, em seguida, registram os veículos nas agendas de intervalos de indicações de luzes verdes, geradas com intuito de alocar espaços nas vias de entrada em cada uma das interseções pertencentes as rotasótimas calculadas. Embora as redes centradas em conteúdos sejam mais promissoras que os modelos centrados em IP em ambientes veiculares, existem algumas limitações quanto a adoção destas em projetos de aplicações para redes ad hoc veiculares, tais como a inundação da rede com pacotes de interesses cuja causa provém das políticas de encaminhamento de pacotes de interesses. Nestas, tais pacotes são encaminhados para todos os vizinhos de um nó,à medida que este os recebe. Isto possibilita o surgimento de broadcast storms. Além disto, o modelo de uma rede centrada em conteúdos usa estruturas de dados semelhantesàs tabelas de roteamento e adota algoritmos similares ao AODV [39], DSR [40] e GPSR [41]. Tais algoritmos são vulneráveis em ambientes veiculares altamente dinâmicos devido a intermitência de caminho [42]. Por fim, embora existam estudos promissores no campo de redes veiculares, estes têm somente focado em cenários relacionados a serviços populares de dados compartilháveis [42]. Consequentemente, cenários em que aplicações precisam trocar um grande montante de dados sensíveis a atraso não têm sidos estudados. Após o levantamento bibliográfico referente ao estado da arte de cada um dos assuntos relacionados a esta tese, o trabalho de pesquisa avançou na direção de trabalhos que pudessem fornecer subsídios para a estruturação da proposta de solução para os problemas anteriormente relatados na Seção 1.1. Para apresentar os trabalhos que contribuíram para a construção desta tese, o próximo capítulo apresentará os trabalhos relacionados a esta tese. Trabalhos Relacionados Este capítulo apresenta os trabalhos relacionados, que foram relevantes ao desenvolvimento desta tese. Portanto na Seção 4.1,é apresentada de maneira breve os detalhes da rede ad hoc móvel centrada em interesses desenvolvida por DUTRA et al. [7,8]. Posteriormente, na Seção 4.2, são apresentadas as abordagens desenvolvidas por PAIVA [2] para controlar e coordenar sinalizações semafóricas por meio de um sistema distribuído de controle de tráfego. Por fim, a Seção 4.3 apresenta o mecanismo desenvolvido por FARIA [45] cujo objetivoé rotear veículos ao longo de uma rede viária urbana, utilizando os dados obtidos a partir dos planos de temporização das sinalizações semafóricas, com o intuito de calcular rotasótimas para os veículos. Rede Ad Hoc Móvel Centrada em Interesses Esta seção tem como objetivo apresentar brevemente o trabalho desenvolvido por DUTRA et al. [7,8]. Primeiramente, serão apresentadas as principais características da rede ad hoc móvel centrada em interesses. Em seguida, são apresentada as principais estruturas de dados relacionadas ao trabalho de DUTRA et al. [7,8], que são: o prefixo ativo e o cabeçalho de mensagens de rede. Por fim,é apresentado o protocolo de comunicação, queé executado pelos nós de redeà medida que recebem mensagens uns dos outros. Principais Características A Rede Ad Hoc Móvel Centrada em Interesses ou InteRest-Centric Ad-Hoc Network (RAdNet) [7,8]é uma rede ad hoc móvel centrada em informação baseada no modelo Publicador/Subscritor (Publisher/Subscriber ) [75]. Dessa forma, na RAdNet, um nó publicador envia uma mensagem de rede com algum interesse para todos os nós da rede e, em seguida, os nós subscritores deste interesse específico recebem a mensagem. Este modelo de comunicação da RAdNet difere das abordagens tradicionais, uma vez que tais abordagens se baseiam em comunicação centrada em IP. No modelo de comunicação centrada em IP, os nós de origem precisam conhecer os endereços dos nós de destino, a fim de estabelecer comunicação fim-a-fim e descobrir rotas até tais nós. Segundo DUTRA et al. [7,8], o modelo Publicador/Subscritor foi adotado pela RAdNet com o intuito de tratar o problema das entradas e saídas frequentes de nós em uma rede ad hoc móvel, pois,à medida que um nó se move, ele pode entrar ou sair dos alcances de transmissão dos nós próximos a ele. Devidoà adoção desse modelo, a instabilidade de rede, causada por estas entradas e saídas frequentes do alcance de transmissão de nós vizinhos, não impacta a RAdNet, pois os nós não precisam conhecer a topologia de rede para enviar mensagens, fazendo com que o protocolo de comunicação da RAdNet difira da maioria dos protocolos de roteamento para redes ad hoc móveis (por exemplo, DSDV [39], AODV [76], DSR [77] e GPSR [41]). Além disto, na RAdNet, os nós não necessitam de um endereço para identificá-los unicamente, pois a comunicaçãoé totalmente baseada em interesses. Um interesseé qualquer termo (ou sequência de caracteres) que tem algum significado para aplicações, permitindo que a informação seja focada na aplicação e não em dispositivos [7,8]. Segundo [7,8], o uso do interesse reduz o custo de mensagens, assim como, a necessidade de tabelas de roteamento, pois as mensagens com interesses não precisam de um destinoúnico ou predeterminado. O encaminhamento de mensagens ocorre com base em um conjunto de campos probabilisticamente escolhidos, como em um protocolo gossip, reduzindo a complexidade das decisões de Figura 4.2: Especificação do cabeçalho de mensagens da RAdNet. Adaptado de DUTRA et al. [7,8]. Nóé formado por n campos com tamanho de m bits, tal que os n × m bits fornecem identificação de nó para propósitos de endereçamento e filtragem de mensagens por meio de combinação de dados, a fim de encaminhar mensagens. Além disto, cada nó gera sua própria sequência de n campos, onde, para cada campo, o nó associa um valor de m bits usando uma variável aleatória com alguma distribuição de probabilidade. Os campos do Prefixo do Nó são utilizados para duas funções: encaminhamento probabilístico de mensagens e endereçamento. No que diz respeito ao encaminhamento probabilístico de mensagens, cada nó tem uma determinada probabilidade de encaminhar mensagens, de acordo com a construção da sequência de valores dos campos. No que tange o endereçamento, os nós são identificados por meio de uma sequência de valores dos campos do Prefixo do Nó. Por fim, o segundo campoé o Interesse, cuja funçãoé manter o interesse de uma aplicação que esteja sendo executa pelo nó. Portanto, vale ressaltar que todo nó possui um mecanismo de registro de interesses. Tal mecanismoé utilizado sempre pelas aplicações, quando estas iniciam suas execuções, a fim de registrar os seus interesses na camada de rede nós que as mantêm. O cabeçalho de mensagens da RAdNeté formado por sete campos, a saber: versão, limite de saltos, identificador da mensagem, prefixo do destino, prefixo da origem e o interesse. O campo versão contém a versão do protocolo de comunicação da RAdNet. O campo limite de saltos contém o número de saltos dados por uma mensagem,à medida que estaé encaminhada pelos nós ao longo da rede. O campo tamanho do cabeçalho contém um número inteiro que remente ao comprimento do cabeçalho de mensagens. O campo prefixo de destino contém identificador do destinatário da mensagem, podendo ser um valor correspondendo ao prefixo de um nó ou nulo. O campo prefixo de origem contém o prefixo do nó que envia a mensagem. Por fim, o campo interesse contém um interesse, queé enviado por um nó publicador para os nós subscritores deste. Protocolo de Comunicação da RAdNet Na RAdNet, cada nó executa um protocolo de comunicação, queé o RAdNet Protocol (RP). Este protocolo permite que os nós encaminhem mensagens, de acordo com o Algoritmo 1: Protocolo de comunicação da RAdNet. Obtido de DUTRA et al. [7,8]. Entrada: msg j 1 se msg j .id ∈ tabelaIds i [msg j .pref ixoOrigem] então 2 Descartar msg j ; 3 senão 4 Inserir msg j .id em tabelaIds i [msg j .prefixoOrigem]; 5 msg j .limiteSaltos := msg j .limiteSaltos -1; 6 casInteresses := msg j .interesse ∈ tabelaInteresses i ; 7 casPrefixos := |prefixo i ∩ msg j .prefixoOrigem| > 0 ∨ msg j .prefixoDestino = nul; 8 se casInteresses = verdadeiro então 9 se msg j .pref ixoDestino = nulo ∨msg j .pref ixoDestino = pref ix i então 10 Enviar uma cópia msg j para aplicação; Controle Distribuído de Tráfego com Fluxos Heterogêneos A seguir, serão apresentados sucintamente os detalhes do trabalho de PAIVA [2]. Primeiramente,é apresentado as dinâmicas de funcionamento de um controlador inteligente de sinalização semafórica. As dinâmicas de funcionamento deste controlador têm como base as dinâmicas do algoritmo de escalonamento por reversão múltipla de arestas (SMER) [60]. Por fim, em seguida,é apresentada uma abordagem para o problema de coordenação de redes de sinalização semafórica. Assim como no controlador inteligente de sinalizações semafóricas, PAIVA [2] aplica também as dinâmicas do SMER com o intuito de solucionar tal problema. Controlador Inteligente de Sinalizações Semafóricas O controlador proposto por PAIVA [2]é capaz de responder sensivelmenteàs flutuações dos fluxos de tráfego que incidem nas interseções por meio de suas vias de entrada. Para tanto, inicialmente, PAIVA [2] se apropria de uma modelagem proposta por SOARES [78], que trata uma interseção de vias como um recurso compartilhado entre fluxos conflitantes de tráfego oriundos das vias de entrada desta interseção. Dessa forma, tais fluxos são considerados processos que necessitam de acesso ao recurso compartilhado, quando estes estão em execução. Por fim, o trabalho de PAIVA [2] estende o controlador proposto por SOARES [78], que consistiu na substituição do algoritmo SER, utilizado por SOARES [78] em seu trabalho, pelo SMER. Assim como em SOARES [78], para cada movimento de uma interseçãoé criado um vértice no grafo (veja 4.3(b)), a fim de representar a incidência dos fluxos de tráfegos das vias de entrada da interseção como um processo. Com base nisto, os pontos de conflito entre os movimentos da interseção (veja Figura 4.3(a)) são mapeados na forma de recursos (veja 4.3(b)), cujos compartilhamentos são representados por arestas, ligando um par de vértices. De acordo com SOARES [78], quando um vérticeé um sumidouro, os veículos do movimento representado por tal vértice ganham a permissão para acessar a interseção, uma vez que a sinalização semafórica passa a indicar a luz verde. A Figura 4.4(a) apresenta um exemplo de orientação inicial acíclica, de acordo com a abordagem proposta por SOARES [78]. Uma vez que PAIVA [2] usa o SMER, o grafo resultante do mapeamentoé um multigrafo, conforme ilustrado na Conforme PAIVA [2], no início da operação de sua proposta de controlador inteligente de sinalização semafórica, o controlador ainda não possui informações acerca das demandas das vias de entrada da interseção. Por isto, cada vértice do multigrafo começa com reversibilidade e demanda igual a um. Assim que as sinalizações semafóricas começam a operar, elas começam a extrair dados oriundos dos detectores de tráfego instalados na entrada das vias que estas estão instaladas. Uma vez que as demandas de cada vértice são iniciadas com o valor um, todos os fluxos de tráfego oriundos das vias de entrada das interseções acessam estas com taxas de operação iguais. A medida que os sensores acumulam dados sobre os fluxos de tráfego das vias em que eles estão instalados, as sinalizações semafóricas, após um intervalo de tempo, recolhem tais dados, a fim de obter as demandas destas vias.À medida que as sinalizações semafóricas obtêm as demandas de suas vias, os vértices que as representam compartilham as mesmas com os demais vértices do multigrafo. Uma vez que os vértices têm conhecimento das demandas das vias de entrada, elas passam a ter os dados necessários para mudar suas reversibilidades, para que, em seguida, os intervalos de tempos das indicações das sinalizações semafóricas sejam reconfigurados, a fim de refletir as novas condições de tráfego. As reversibilidades são ajustadasà medida que os vértices se tornam sumidouros, conforme o algoritmo para mudanças de reversibilidades proposto por SANTOS [5]. Para tanto, primeiramente, a sinalização semafórica precisa calcular localmente a sua demanda e as das demais sinalizações da interseção. Assim, a demanda de um vértice ié dada por d i = 100 × D i j∈V + 0, 5 (4.1) , onde D ié a demanda do vértice i e D jé a demanda de um vértice vizinho j. Com isto, os ciclos das sinalizações semafóricas podem ser ajustados em função das flutuações dos fluxos de tráfego oriundos das vias de entrada das interseções. Além disto,é também importante ressaltar que este controlador inteligente de sinalizações semafóricas proposto por PAIVA [2], foi projetado para operar sobre sinalizações semafóricas de uma interseção isolada. Sendo assim, deve ficar a cargo de um mecanismo inteligente a coordenação de redes de sinalizações semafóricas. Tal mecanismoé proposto por PAIVA [2] e, por isto,é apresentado na seção seguinte. Coordenador de Redes de Sinalizações Semafóricas Uma rede de sinalizações semafóricasé formada com base em um corredor, queé uma sequência de seguimentos de vias, por onde os fluxos de tráfego são escoados. A medida que os fluxos de tráfego são escoados ao longo de um corredor, os veículos atravessam uma série de interseções sinalizadas. Por isto,é desejável que os fluxos de tráfego fluam ao longo de corredores com sinalizações semafóricas, sem que estes sejam interrompidos desnecessariamente, em outras palavras, sem paradas em sinalizações indicando luz vermelha em seus grupos focais. Neste sentido, segundo a proposta de PAIVA [2], a composição das redes de sinalizações semafóricas precisa ser conhecida, ou seja, quais as interseções e suas respectivas sinalizações semafóricas compõem um corredor. Além disto, as sinalizações semafóricas participantes de uma ou mais redes de sinalizações semafóricas, precisam ter ciência de quais redes elas participam. Istoé importante, pois o mecanismo de coordenação de redes de sinalizações semafóricas precisa calcular o offset entre sinalizações semafóricas instaladas em interseções vizinhas. Para tanto, o mecanismo precisa de dados a respeito das vias componentes de um corredor, tais como: limite de velocidade, comprimento e sentido do tráfego. Por fim, sugere-se que um sensor seja instalado na via de entrada de cada corredor, a fim de fornecer dados que permitam o cálculo das demandas de cada corredor. Com isto, o sistema de coordenação de redes semafóricas dá início a sua operação, executando um algoritmo distribuído para prospecção de corredores. O início da execução deste algoritmo se dá com base nas sinalizações semafóricas líderes de suas redes, ou seja, aquelas sinalizações semafóricas instaladas nas vias de entrada de um corredor. Por sua vez, tais sinalizações semafóricas atuam como controladores dos corredores em que elas participam. Segundo PAIVA [2], uma sinalização semafórica só pode ser líder de umúnico corredor. Com base na execução do algoritmo de prospecção de corredores, tais sinalizações semafóricas buscam pontos de interseção entre seus corredores e os demais corredores da rede viária em elas operam. A Figura 4.5 apresenta um exemplo com três corredores com duas interseções compartilhadas entre eles. Ao encontrar uma interseção, onde dois corredores se cruzam, o algoritmo cria uma aresta entre os vértices que controlam os corredores, que, neste caso, representam as interseções líderes. Esta arestaé criada, a fim de garantir o acesso mutuamente exclusivo por parte dos fluxos de tráfego, que competem um com o outro, para atravessar o ponto de interseção entre seus corredores. Por fim, após o grafo para controle dos corredores ter sido construído (veja Figura 4.5), uma sinalização semafórica executa um algoritmo Alg-Colour, a fim de gerar um estado inicial acíclico para o grafo (veja Figura 4.5(c)). Após isto, este estado inicial passa a ser conhecido por todas as interseções líderes de corredores. Em seguida, cada vértice do multigrafo inicia um processo de ajuste dos relógios das sinalizações semafóricas pertencentes ao corredor. Para tanto, o vértice toma a si como ponto de partida, usando o seu relógio como início referencial do tempo de operação da coordenação da rede de sinalização semafórica. Iniciando as sinalizações cujas interseções estão a jusante, ou seja, interseções que receberão o fluxo de veículos da interseção em que a sinalização semafórica líder está instalada, o offset de cada umaé dado por t d − d v (4.2) , onde dé o distância entre o par de interseções, vé o limite de velocidade do segmento de via e t dé o tempo que se leva para percorrer o segmento de via. Uma vez calculado o tempo de viagem, os offsets sinalizações semafóricas das interseções a jusante serão fixados com o valor atual da sinalização semafórica (que, no caso inicial,é a líder e vale zero) mais o valor de t d [2]. Após isso, a interseção líder se volta para as sinalizações semafóricas instaladas nas interseções imediatamente a montante, ou seja, aquelas interseções que enviam fluxos de veículos para a interseção em que a sinalizações semafórica líder está instalada. Para cada uma, o offseté calculado por meio da base referencial local (no caso inicial, zero) menos t d . Dessa forma, a sinalização semafórica líder encerra a primeira geração de offsets, ajustando os relógios locais das sinalizações semafóricas das interseções vizinhas. Após isto, cada uma das sinalizações semafóricas que tiveram seus relógios locais ajustados inicia uma nova geração de offsets, tendo como base o ajuste de seu relógio local. Uma vez que uma sinalização semafórica já tenha tido o seu relógio local ajustado, esta não participa da geração de offsets [2]. Todo esse processo se repete recursivamente, até que todas as sinalizações existentes em corredor tenham Após o término das gerações de offsets, segundo PAIVA [2], o sistema coordenado estará pronto para iniciar, tendo como base o estado inicial acíclico gerado anteriormente por uma das sinalizações semafóricas líder de algum corredor, queé representada por um dos vértices do multigrafo. Uma vez que cada vértice representa um corredor, os corredores, cujos vértices são sumidouros, terão seus intervalos de onda verde, a fim de escoar os fluxos de tráfego que os atravessam. Ao final do intervalo de tempo da onda verde, os vértices revertem suas arestas, de modo que os demais vértices do multigrafo se tornem sumidouros. Desta forma, os fluxos de tráfegos dos demais corredores ganham permissão de atravessar as interseções com-partilhadas, sem que tenham os seus movimentos cessados temporariamente por uma sinalização semafórica com sua luz vermelha acesa. De acordo com PAIVA [2], assim como no controlador inteligente de sinalizações semafóricas, cada vértice representante de um corredor pode redefinir suas reversibilidades. Para tanto, PAIVA [2] propôs separar os corredores em grupos de corredores concorrentes. Com base nestes grupos, extrai-se a maior demanda e esta, por sua vez, passa a valer para todos os vértices representantes destes corredores. Com base nisto, PAIVA [2] aplica o algoritmo de SANTOS [5] para redefinir as reversibilidades dos vértices do multigrafo. Por fim,é possível que interseções presentes nos corredores tenham vias de entrada que não fazem parte de outro corredor. Neste caso, as sinalizações semafóricas destas interseções devem possuir dois controladores, um primário e outro secundário. O controlador primário faz com que as sinalizações semafóricas destas interseções operem, contribuindo com a coordenação da rede de sinalizações semafóricas do corredor que elas fazem parte. O controlador secundário faz com que as sinalizações semafóricas operem, como se elas estivessem controlando as vias de entrada de uma interseção isolada. De acordo com PAIVA [2], o controlador primário tem prioridade sobre o controlador secundário. Dessa forma, o controlador primário entra em operação, quando as sinalizações semafóricas de uma interseção precisam cooperar com a coordenação da rede de sinalizações semafóricas do corredor, cujo vértice que o representaé um sumidouro. Logo após o vértice representante do corredor deixar de ser um sumidouro, o controlador primário entrega o controle das sinalizações semafóricas para o controlador secundário. Roteamento Ecológico de Veículos Orientados a Ondas Verdes Predição de Fases de Sinalizações Semafóricas Segundo FARIA [45], a orientação de rotas pode tirar vantagem dos intervalos de tempo das indicações das sinalizações semafóricas.À medida que um veículo viaja através de uma sequência de segmentos de via cujas sinalizações semafóricas operam em sincronia, uma série de benefícios são obtidos, são eles: tempos mais curto de viagem, paradas menos frequentes, diminuição da formação de filas durante o intervalo de tempo em que as sinalizações semafóricas mantêm suas luzes vermelhas acesas, redução nos níveis de consumo de combustível e nas emissões de gases e material particulado. Em um ambiente em que todos as sinalizações semafóricas de um sistema de controle de tráfego são pré-temporizadas e as suas temporizações são conhecidas, e possível planejar rotas, a fim de evitar segmentos de via, onde as sinalizações semafóricas estejam indicando luz vermelha. Dessa forma, um veículo, ao entrar em uma interseção, ele pode avaliar quanto tempo será necessário para alcançar a próxima interseçãoà sua frente. De maneira otimista, o tempo mínimo a trafegar através do segmento de via e alcançar a próxima interseção pode ser obtido com base na divisão do comprimento do seguimento de via pelo limite de velocidade do mesmo. Caso este tempo mínimo esteja dentro do intervalo de verde da próxima sinalização semafórica, o motorista pode manter a velocidade do seu veículo igual a permitida do seguimento de via. Caso contrário, ou seja, a sinalização semafórica esteja indicando luz vermelha, o motorista não terá outra opção senão esperar a próxima indicação de luz verde. Após atravessar a interseção, o veículo deverá seguir por uma das vias de saída desta e, em seguida, alcançar a próxima interseção. Por fim, escolha da próxima interseção a partir do tempo mínimo para alcançá-la. Com base na temporização das sinalizações semafóricas pré-temporizadas, o trabalho de FARIA [45] constrói rotas baseadas nos tempos factíveis para atravessar os segmentos de via que ligam pares de interseções. Para tanto, PAIVA [2] fez uso do algoritmo de caminho mais curto de Dijskstra, ponderando as arestas (segmentos de via ligando um par de interseções) por meio dos valores de tempo mínimo para o alcance de uma próxima interseção. Além de sinalizações pré-temporizadas, FARIA [45] também fez uso de sinalizações semafóricas controladas por meio do controlador proposto por PAIVA [2]. Neste caso, FARIA [45] leva em consideração os intervalos de tempo entre as reprogramações das sinalizações semafóricas. Entre uma reprogramação e outra, as sinalizações semafóricas se comportam como se fossem pré-temporizadas, permitindo que o algoritmo para cálculo de rotasótimas, apresentado nesta seção, seja executa sobre uma rede viária controlado por sistema de controle de tráfego cujas sinalizações semafóricas utilizam o controlador inteligente proposto por PAIVA [2]. Planejamento Cooperativo de Rotas e Sensívelà Demanda Uma vez que os veículos são capazes de planejar as suas rotas, pode surgir um desbalanceamento na distribuição do volume de tráfego sobre uma rede viária. Para resolver este problema, FARIA [45] propõe um mecanismo de alocação de espaço nas vias controladas por sinalizações semafóricas. Assumindo que os níveis de saturação das vias são conhecidos globalmente, o trabalho de FARIA [45] permite que um veículo determine o atraso que lhe será imposto durante o planejamento de rota e, por meio disto, evite vias que lhe aumentarão o tempo de viagem e o tempo de espera atrás de uma sinalização semafórica com a luz vermelha acesa. Assim, durante o cálculo de rotasótimas, o algoritmo reserva espaços nos segmentos de via escolhidos para compor a rotaótima. Esta reserva de espaçoé visível para todo o sistema, a fim de permitir que os demais veículos saibam quantos veículos já reservaram espaços nos segmentos de via durante o planejamento de suas rotas. Com base nisto, o algoritmo de cálculo de rotasótimas de FARIA [45] determina qual o seguimento de via que terá o maior atraso em função da quantidade de espaços alocados por veículos. Este tempoé adicionado ao tempo mínimo factível para se alcançar a interseção pretendida. Uma vez que a quantidade de espaços alocados varia para cada segmento de via, o algoritmo de cálculo de rotasótimas de FARIA [45] uso deste dado para calcular o atraso, que se dá por t d = w × q f r (4.3) , onde wé uma parâmetro de regulagem e q f ré a quantidade de veículos que reservaram espaços no seguimento de via. Como mencionado anteriormente, a construção de rotas parte de premissas otimista acerca das condições de tráfego da rede viária. Em cenários realísticos, nem sempreé possível que um veículo trafegue na velocidade máxima do seguimento de via, uma vez que os seguimentos de vias são divididos com outros veículos. Por isto, e comum que os veículos encontres veículos mais lento a sua frente. Para tratar este problema, FARIA [45] propôs que o veículo, ao entrar em cada interseção, recalcule sua rota, tomando como ponto de partida a interseção. Intelligent Driver Model e as Ondas Verdes De acordo com FARIA [45], o comportamento do motorista ou, até mesmo, de veículos autônomos pode ser ajustado para que as temporização dos sejam aproveitadas ao calcular a aceleração do veículo. Desta fora, veículos podem atravessar várias interseções, aproveitando o intervalo de verde das em que estão trafegando, sem que aconteçam paradas desnecessárias. Para atingir este objetivo, FARIA [45] estendeu o Intelligent Driver Model (IDM) [79]. No trabalho de FARIA [45], os veículos se esforçam para viajar nas ondas verdes sempre que possível, permitindo que eles aproveitem as temporizações das sinalizações semafóricas para se movimentarem, a fim de reduzir as variações de velocidade e aceleração. Neste sentido, os veículos buscam se posicionar o mais próximo possível da cabeça da onda, de modo que haja espaço na cauda da onda, para que outros veículos possam alcançá-la e, em seguida, se juntarem, formando um pelotão. Aquele veículo que entra na onda verde a partir de sua cabeça, ele deve reduzir sua velocidade, a fim de que a onda verde o alcance. Quando a onda verde alcança o veículo, os veículos que se movimentam sobre ela são empurrados para trás, permitindo a acomodação do novo veículo na onda. Por outro lado, se um veículo deseja alcançar uma verde, primeiramente, ele precisa verificar se a calda da onda verde pode ser alcançada. Segundo FARIA [45], uma onda verdeé alcançável, quando o veículo pode chegar até a sua calda antes de entrar em uma interseção. Dadas a velocidade, aceleração máxima e posicionamento do veículo juntamente com a velocidade e o posicionamento da onda verde, FARIA [45] descobre o momento em o veículo e a onda se encontrarão de acordo com a Equação 4.4. s 0v + v v t = s 0w + v w t s 0v + (v 0v + a v t) = s 0w + (v 0w + a w t) (4.4) Uma vez que a onda verde se move em uma velocidade constante, sua aceleração máxima a wé nula. Dessa forma, simplificando a Equação 4.4, tem-se a v t 2 + (v 0v − v w )t + s 0v − s 0w = 0 (4.5) ,v v = v 0v + a v t (4.7) . Caso esta velocidade seja superior ao limite da via,é necessário calcular o instante em que a velocidade máximaé atingida. Este instanteé dado por t = v max r − v 0v a v (4.8) . A posição do veículo no instante t é dada por s v = a v t 2 + v 0v t + s 0v (4.9) , assim como, a posição da cauda da onda verdeé dada por s w = s 0w + v w t (4.10) . Portanto, o tempo em que o veículo viajará na velocidade máximaé dado por t = s w − s v v max r − v w (4.11) . Baseado nisto, o instante em que o veículo se encontrará com a cauda da onda verdeé dado por t + t , que corresponde ao tempo em que o veículo levará para chegar até a velocidade máxima da via somado ao tempo em que ele viajará na velocidade constante v max r . A onda verde somente será considerada alcançável, se o encontro entre o veículo e ela acontecer antes que a cauda desta onda atinja a interseção. Istoé dado por meio da Inequação t + t < d w,i v w (4.12) , onde d w,ié a distância entre a cauda da onda verde e a interseçãoà frente, que para onde a onda verde se movimenta. Por fim, uma vez que o veículo esteja dentro da onda verde, o veículo acelerará confortavelmente, se for preciso, para se juntar ao pelotão de veículos formado a partir da cabeça da onda verde e, nela, se manterá. Na situação em que não houver nenhuma onda verde com a possibilidade de ser alcançada, o veículo terá que esperar pela próxima indicação de luz verde para cruzar a sinalização semafóricaà frente. Por isto, o veículo usa dados do plano de temporização da sinalização semafóricaà sua frente, a fim de calcular a sua velocidade e sua aceleração. O objetivo distoé obter uma taxa de desaceleração confortável, a fim de minimizar a probabilidade de parada do veículo atrás de uma faixa de retenção de uma via de entrada de uma interseção, enquanto este espera pela próxima indicação de luz verde na sinalização semafórica instalada sobre tal via. Então, seja b a taxa de frenagem definida na equação do IDM [79] , a max v o nível máximo de aceleração do veículo e d v,i a distância entre o veículo e a interseção. O tempo mínimo de viagem até a interseção, em condições de tráfego livre,é dado por (a max v − b)t 2 + v 0v t + d v,i = 0 (4.13) . Com base na equação acima,é possível verificar a velocidade final do veículo,à medida que ele mantém a aceleração a max v por t segundos. Isto se dá por meio de v v = v 0v + a max v t (4.14) . t = v max r − v 0v a max v − b (4.15) . No instante t', o veículo estará na posição s v , queé dada por s v = (a max v − b)t 2 + v 0v t + s 0v (4.16) . Após atingir a velocidade máxima, o veículo ainda viajará por mais t segundos, até alcançar a interseçãoà sua frente. Este tempoé dado por t = l r − s v v max r (4.17) . t min i = t , para v v ≤ v max r t + t , para v v > v max r (4.18) , onde t ié o tempo em que o intervalo de verde, na sinalização semafóricaà frente do veículo, será iniciado. Segundo FARIA [45], para viajar com um comportamento suave, o veículo deve estabelecer uma velocidade média da sua posição até a interseção, queé dada por v mv = s v,i t i . (4.19) a = max b max , min 2v mn − 2v 0v t i , a f . (4.20) Finalmente, para garantir que a viajem seja realizada com esta velocidade média, o veículo deve estabelecer uma aceleração instantânea de com a Equação 4.20. Considerações Finais Este capítulo apresentou os trabalhos relacionados relevantes ao desenvolvimento desta tese, que são: rede ad hoc móveis centrada em interesses [7,8], controle distribuído de tráfego com fluxos heterogêneos [2] e roteamento ecológico de veículos orientados a ondas verdes. O trabalho de DUTRA et al. [7,8], queé a rede ad hoc móvel centrada em interesses, contribui relevantemente para este tese, fornecendo um arcabouço teórico para o projeto e desenvolvimento de uma rede ad hoc veicular centrada em interesses [44], uma vez que protocolo de comunicação apresentado na Seção 4.1.3 mostrouse superioràs abordagens tradicionais baseadas em IP para redes ad hoc móveis. Embora o trabalho de [7,8] tenha obtido tais resultados, ele nãoé adequado para um ambiente de comunicação veicular. Esta afirmativa parte da análise do trabalho de WILLKE et al. [43], que define os requisitos de comunicação das categorias de aplicações para redes ad hoc veiculares. Por este motivo, foi necessário estender as estruturas de dados e mecanismos propostos por DUTRA et al. [7,8], a fim de satisfazer os requisitos de comunicação das categorias de aplicações para redes ad hoc veiculares. O trabalho de PAIVA [2], queé o controle distribuído de tráfego com fluxos heterogêneos, contribui para esta tese, fornecendo um estudo inicial acerca do uso do algoritmo de SMER, no que tange o controle de sinalizações semafóricas em interseções isoladas e o controle de redes de sinalizações semafóricas coordenadas. Embora as abordagens adotadas por PAIVA [2] tenham se mostrado eficiente, elas foram construídas sem levar em consideração os modelos de comunicação utilizados em ambientes veiculares. A construção das abordagens de controle de tráfego propostas por PAIVA [2] se deu por meio de um simulador de tráfego desenvolvido pelo mesmo, queé chamado de MicroLAM. Embora o MicroLAM seja capaz de fornecer um framework para implementação de novos componentes para uso em simulações de ambientes de sistemas inteligentes de transporte, existem simuladores já consolidados pela comunidade científica de sistemas de transporte e de redes de computadores, tais como o SUMO (Simulation of Urban Mobility) [80] e o Om-net++ [81]. Por meio de bibliotecas de simulação de redes veiculares do Omnet++, tais como Veins [82],é possível não somente construir e simular abordagens como as de PAIVA [2], mas também implementar protocolos para redes ad hoc veiculares. A biblioteca Veins fornece uma API de comunicação com o SUMO, permitindo que as simulações executadas por meio do do Omnet++ controlem as simulações no SUMO. Outro ponto a respeito do trabalho de PAIVA [2]é sobre a maneira como são obtidas os dados a respeito dos fluxos de tráfego nas vias de entrada das interseções e corredores. Para obter tais dados, PAIVA [2] leva em consideração a instalação de sensores de pressão tanto no início das vias de entradas das interseções controladas por sinalizações semafóricas quanto no início de corredores. Devido a isto, as abordagens propostas por PAIVA [2] levam em consideração somente a contagem de veículos que entram nas vias controladas pelas sinalizações semafóricas. Dessa forma, os ajustes dos intervalos das indicações das sinalizações semafóricas podem ser comprometidos, uma vez que alguns veículos podem ficar retidos na via, quando a sinalização desta estiver com a luz vermelha acesa. Logo, nãoé possível levar em consideração a quantidade residual de veículos na via. Além disto, fica difícil identificar os tipos de veículos que compõem os fluxos de tráfego. Neste caso, uma via pode ser ocupada por veículos como caminhões ouônibus e estes serão contabilizados como automóveis. Dessa forma, as leituras dos fluxos de tráfego serão equivocadas, pois, de acordo com DENATRAN [54], caminhões de dois eixos, caminhões de três eixos eônibus têm fatores de equivalência de tráfego iguais dois, três e dois, respectivamente. Em outras palavras, os fatores de equivalência de tráfego correspondem ao número de veículos que uma determinada classe de veículo corresponde. Portanto, caminhões de dois eixos, caminhões de três eixos eônibus equivalem a dois, três e dois veículos, respectivamente. Apesar de uma abordagem para controlar corredores e sincronizar as sinalizações semafóricas neste tenha sido proposta por PAIVA [2], não fica bem claro o funcionamento desta em seu trabalho, devidoà ausência de uma especificação algorítmica. De forma geral, no que tange a descrição dos algoritmos relacionados a cada uma das abordagens propostas por PAIVA [2], não há uma especificação das primitivas relacionadas as trocas de mensagens entre as sinalizações semafóricas que controlam interseções isoladas, assim como, as sinalizações semafóricas que compõem o modelo de controle de corredores com sinalizações semafóricas coordenadas. Tendo em vista que a abordagem de PAIVA [2]é um sistema multiagente, a especificação destas primitivasé de grande importância, pois permitem uma melhor compreensão de como se dá a interação entre os agentes inteligentes, que são as sinalizações semafóricas. O trabalho de FARIA [45], queé o roteamento ecológico de veículos orientadosà ondas verdes, contribui para esta tese, fornecendo um estudo inicial acerca de uma abordagem para o planejamento e orientação de rotas baseados nos intervalos de verde das sinalizações semafóricas. Tal abordagem se baseia no compartilhamento dos planos de temporização das sinalizações semafóricas de uma rede viária controlado por um sistema de controle de tráfego. De acordo com FARIA [45], presume-se que os intervalos de verde das sinalizações semafóricas são conhecidos por todo o sistema de planejamento e orientação de rotas. Além disto, por meio destes intervalos de verde bem conhecidos, os veículos alocam espaços nas vias de entrada das interseções que fazem parte de uma rotaótima, queé calculada por meio de um algoritmo de caminho temporalmente mais curto. Por fim, os veículos,à medida que seguem os seus planejamentos de rota, se fazem valer dos intervalos de verde ou da previsão de quando estes irão iniciar, para poderem ajustar suas velocidades, enquanto trafegam de uma interseção a outra, evitando paradas desnecessárias. Tudo isso foi possível, pois FARIA [45] desenvolveu seu trabalho com base no simulador desenvolvido por PAIVA [2], o MicroLAM. Por este motivo, algumas lacunas no trabalho de [45] precisam ser preenchidas. Então, por se tratar também de um sistema multiagente, o trabalho de FARIA [45] não deixa claro como os agentes veículos e sinalizações semafóricas interagem. Além disto, não fica claro como os agentes do tipo sinalizações semafóricas mantêm as alocações de espaços nas vias durante os intervalos de indicação de verde. Outro ponto importanteé que não existe uma definição clara a respeito do agente responsável em executar o algoritmo de planejamento e orientação de rotas, além de como este algoritmoé executado pelo sistema de planejamento e orientação de rotas, ou seja, seé executado localmente pelos agentes ou seé executado de maneira distribuída. No que tange o processo de alocação definido juntamente com o algoritmo de planejamento e orientação de rotas, não existe menção sobre como as estruturas de dados responsáveis pela mantença das alocações de espaços nas vias são manutenidas,à medida que os agentes veículos replanejam suas rotas. Ainda sobre o processo de alocação de espaços nas vias, este não leva em consideração os tamanhos dos veículos, assim como, não leva em consideração o tamanho das vias. Por fim,à medida que as sinalizações semafóricas mudam os seus planos de temporização, seja por necessidade de adaptar-seàs flutuações dos fluxos de tráfego ou pela cooperação em operações de coordenação de redes de sinalizações semafóricas em corredores controlados, os veículos não são notificados sobre estas mudanças. Isto faz com que os planejamentos de rotas se tornem obsoletos, uma vez que as agendas de tempos, criadas a partir dos planos de temporização das sinalizações semafóricas, são modificadas. A consequência distoé a inconsistência nas alocações de espaços nas vias de entrada das interseções. Após a apresentação e discussão em torno dos trabalhos relacionados a esta tese, o texto avança para as duas primeiras contribuições desta pesquisa de doutorado. Portanto, o próximo capítulo apresentará os detalhes acerca dos projetos da Rede Ad Hoc Veicular Centrada em Interesses [44,83] Os detalhes acerca destas duas redes veiculares centradas em interesses, assim como, as relações destas com as tecnologias de acessoà comunicação sem fio serão apresentadas nas seções que seguem. Rede Ad Hoc Veicular Centrada em Interesses Entender os requisitos de comunicação das categorias de aplicações para redes ad hoc veicularesé fundamental para o projetar um protocolo de comunicação eficiente. Neste sentido, inicialmente, esta seção apresenta como os o projeto da Rede Ad Hoc Veicular Centrada em Interesses [44] ou RAdNet-VE (InteRest-Centric Mobile Ad Hoc Network for Vehicular Environments) trata tais requisitos. Em seguida,é descrito como o projeto da RAdNet-VE estendeu o cabeçalho de mensagens da RAdNet (InteRest-Centric Mobile Ad Hoc Network ). Tratando os Requisitos de Comunicação das Categorias de Aplicações para Redes Ad Hoc Veiculares Os projetos de protocolos de comunicação para redes ad hoc veiculares devem levar em conta os requisitos de latência, confiabilidade e escala. Além disto, o escopo de comunicação e serviços de comunicação de membros de grupos também devem ser bem definidos, a fim de satisfazer os requisitos de comunicação das categorias de aplicação para redes ad hoc veiculares [43]. Portanto, a RAdNet-VE herda características da RAdNet [7,8] e, além disto, adota mecanismos e abordagens descritas a seguir. Quando uma aplicação precisa se comunicar com baixa latência, o protocolo de comunicação deve ser capaz de fornecer comunicação fim-a-fim com baixo delay [43]. Neste sentido, a RAdNet-VE deve fornecer baixa latência, pois ela não sofre com o dinamismo das redes ad hoc veiculares. Na RAdNet-VE, os nós não precisarão de informações a respeito da topologia de rede, pois eles não precisarão encontrar, manter e atualizar rotas para outros nós na rede. Consequentemente, a largura de banda, normalmente ocupada por mensagens de controle, deverá ser liberada. Na RAdNet, o uso de prefixos como um conjunto de valores probabilísticos permite que mensagens sejam encaminhadas, de acordo com a distribuição de probabilidade usada para construir os prefixos. Dessa forma, os nós não precisam determinar o melhor caminho entre a origem e o destino de uma mensagem. O mecanismo adotado pela RAdNet permite que os veículos troquem mensagens por múltiplos caminhos. As aplicações necessitam de um protocolo, que possa entregar mensagens a um grupo de nós. Este protocolo deve assegurar uma alta probabilidade de entrega de mensagens [43]. Como nos nós da RAdNet, os nós da RAdNet-VE devem armazenar o identificador e o prefixo de origem das mensagens, a fim de compará-los com os de mensagens recebidas. Isto permite que mensagens já recebidas pelos nós não sejam encaminhadas. No entanto, isto nãoé suficiente para assegurar altas taxas de entrega de mensagens na RAdNet-VE, pois ambientes veiculares são caracterizados por serem ambientes com alta densidade de veículos. Assim, quando os veículos na mesma vizinhança recebem uma mensagem, eles a encaminham para todos os nós vizinhos, de acordo com um filtro de casamento de dados da RAdNet, causando um overhead desnecessário. Para evitar isto, o mecanismo de encaminhamento de mensagens da RAdNet deve ser estendido, adicionando campos ao cabeçalho original de mensagem da RAdNet. Estes campos devem armazenar a posição relativa da origem da mensagem e identificador de via. Além disto, devem ser levados em consideração o uso de dispositivos GPS em cada nó da RAdNet-VE e o acesso a bancos de dados de mapas por parte das aplicações para redes ad hoc veiculares. Portanto, quando um nó receber uma mensagem, ele pode calcular a distância relativa entre ele e a origem da mensagem recebida, além de poder armazenar tanto o prefixo quanto a posição relativa da origem da mensagem recebida.É importante pontuar que, os nós devem armazenar somente os prefixos e posições relativas de seus vizinhos, que são aqueles nós a um salto de distância. Uma vez que os nós passam a conhecer as posições relativas de seus vizinhos, aqueles que são os nós mais distantes da origem de uma mensagem, eles devem encaminhar as mensagens recebidas ou devem atuar passivamente e não encaminhar mensagens, se estes não obedecerem esta restrição. Além disto, o encaminhamento de mensagens deve acontecer entre nós que estejam na mesma via cujo identificador seja igual ao do campo identificador de via da mensagem recebida. A adição destas restrições ao mecanismo de encaminhamento de mensagens deve permitir que as mensagens sejam entregues a muitos nós, usando poucos saltos, assim como, deve fornecer baixa latência de comunicação entre os nós. O uso de posições relativas no encaminhamento de mensagens sobre longas distâncias deve permitir que o protocolo de comunicação escale apropriadamente em ambientes veiculares com alta densidade [43]. No entanto, algumas aplicações para redes ad hoc veiculares precisam propagar mensagens em uma determinada direção. Embora os nós da RAdNet possam encaminhar mensagens sobre longas distâncias, usando muitos saltos, o mecanismo de encaminhamento de mensagens da RAdNet não satisfaz tal requisito, pois ela foi projetada para satisfazer os requisitos de aplicações para rede ad hoc móveis. Isto, portanto, torna necessária a adição de um campo direção ao cabeçalho de mensagens da RAdNet. Este campo deve admitir somente os seguintes valores: • -1: mensagens podem somente ser encaminhadas na direção opostaà do nó, a medida que este se move; • 0: mensagens podem ser encaminhadas em todas as direções; • -1: mensagens podem somente ser encaminhadas na mesma direção que a do nó. A adição do campo direção no cabeçalho de mensagem da RAdNet permite que o fluxo de encaminhamento de mensagens seja unidirecional ou bidirecional. Portanto, o mecanismo de encaminhamento de mensagens deve ser estendido, adicionando mais uma restrição, a fim de permitir que os nós encaminhem mensagens, de acordo com a direção em que eles se movem. Então, ao receber uma mensagem, o nó deve usar o campo de posição relativa para calcular seu posicionamento na via em relaçãoà origem da mensagem. Uma vez que cada nó possui seu próprio dispositivo GPS, ele deve ser capaz de obter o seu posicionamento atual em relação aos nós que trafegam em uma via. Em outras palavras, os nós devem ser capazes de saber se eles estão atrás ouà frente da origem de uma mensagem. Então, para representar o posicionamento dos nós, adota-se o valor -1, quando o nó estiver atrás da origem da mensagem, ou 1, quando ele estiverà frete desta. Dessa forma, ao receber uma mensagem cuja origem estáà frente e o valor do campo direçãoé igual a -1, o nó deve ser capaz de encaminhar a mensagem para seus vizinhos, senão, ele deve descartar a mensagem. Por outro lado, ao receber uma mensagem de uma origem que está atrás e o valor do campo direçãoé 1, o nó deve ser capaz de encaminhar esta mensagem para os seus vizinhos, caso contrário, ele deve descartar a mensagem. Além disto, os nós devem encaminhar mensagens, se o identificador de via da mensagem recebida corresponde a via em eles estão operando. As aplicações relacionadas ao controle de movimento individual ou em grupo operam em um escopo de comunicação bem definido, que pode ser uma vizinhança de veículos ou uma região pequena na rede [43]. Portanto, os protocolos de comunicação devem assegurar a entrega seletiva de mensagens, que podem ser baseadas em trajetória, proximidade de veículo ou identificação de veículo. Na RAdNet, os nós não precisam manter ou atualizar rotas, mas eles podem encaminhar mensagens até um número máximo de saltos, de acordo com o resultado do filtro de casamento de dados [7,8]. No entanto, tal comportamento não permite que aplicações de controle de movimentos individuais de veículos ou de grupos de veículos troquem mensagens dentro de um escopo bem definido de comunicação, pois o protocolo de comunicação da RAdNet leva em consideração umúnico valor de número máximo de saltos para encaminhar mensagens. Por isto, o mecanismo de registro de interesses deve ser estendido, assim como, o mecanismo de encaminhamento de mensagens. Neste sentido, deve se fazer uso do campo identificador de via, a fim de limitar o escopo de comunicação na via em que os nós estejam operando. Além disto, na RAdNet-VE, as aplicações para redes ad hoc veiculares devem registrar seus interesses com seus respectivos números máximos de saltos. Com isto, o escopo de comunicação se torna restrito, de acordo com os números máximos de saltos registrados com os interesses e as vias em que os nós estejam operando. A respeito de serviços de membros de grupos, as aplicações relacionadas ao controle de movimentos individuais ou de grupos precisam de um protocolo que possibilite a mantença de estruturas de grupos persistentes. Uma vez que a RAdNet-VÉ e uma rede centrada em informações, ela não leva em consideração espaços de endereçamento de grupos ou mecanismos centralizados ou distribuídos para gerenciamento de membros de grupos. Assim como a RAdNet, a RAdNet-VEé baseada no modelo de comunicação Publisher/Subscriber [75]. Portanto, usando o mecanismo de interesses contidos nas mensagens, serviços para membros de grupos devem ser implementados de maneira completamente distribuída. Com base em de todas essas propostas de mecanismos e abordagens para satisfazer os requisitos de comunicação das categorias de aplicações para redes ad hoc veiculares, as seções seguintes descrevem como se deram as extensões das estruturas de dados e mecanismos da RAdNet, tais como: prefixo ativo, cabeçalho de mensagens, mecanismo de encaminhamento de mensagens e mecanismo de registro de interesses. • Adição de novas regras de filtragem ao mecanismo de encaminhamento de mensagens:é importante pontuar que, a adição destas novas regras não afeta as que foram herdadas do protocolo de comunicação da RAd-Net. Por fim, com base nas extensões descritas acima, foi possível iniciar o projeto do protocolo de comunicação da RAdNet-VE. Pretende-se com este protocolo, encaminhar mensagens, levando em conta os seguintes dados: A próxima seção tem como objetivo descrever os detalhes do projeto do protocolo de comunicação da RAdNet-VE cujo nomeé o seguinte acrônimo: RVEP (RAdNet-VE Protocol ). Projeto do Protocolo de Comunicação da RAdNet-VE Na RAdNet-VE, todos os nós devem ser inicializados, antes que eles possam transmitir mensagens. Portanto, durante o processo de inicialização do nó, as seguintes variáveis de controle e estruturas de dados são inicializadas: contador de mensagens enviadas, prefixo do nó, tabela de prefixos de origem e mensagens recebidas, tabela de interesses e números máximos de saltos, tabela de posições relativas de vizinhos dentro daárea coberta pelo rádio de comunicação e lista de identificadores de vias. Seguindo com o processo de inicialização, o nó registra os interesses das aplicações com seus respectivos números máximos de saltos. Por fim, a configuração da lista de identificadores de via depende das aplicações instaladas no nó e de como elas lidam com as características das vias, onde o nó esteja operando. Portanto, as aplicações precisam registrar os identificadores de vias na camada de rede do nó. A identificação deve seguir a seguinte estrutura: radnet-ve://user service bundle/user service/application name/roadway identifier/lane, tal que roadway identifieré o identificadorúnico da via em que o nó está operando, queé obtido por meio de um banco de dados de mapas pela aplicação; e laneé a faixa da via, caso haja a necessidade de diferenciar as faixas da via, a fim de estabelecer a comunicação entre os nós. Portanto, uma via pode ser identificada de acordo com a seguinte URI, por exemplo: radnet://avss/safety readiness/obstacle notifier/Rod.+Gov.+Mario+Covas. Caso seja necessário identificar as faixas de uma via com duas faixas, estas podem ser identificadas de acordo com as seguintes URIs, por exemplo: radnet://avss/safety readiness/obstacle notifier/Rod.+Gov.+Mario+Covas/0, para a faixa da direita, e radnet://avss/safety readiness/obstacle notifier/Rod.+Gov.+Mario+Covas/ para a faixa da esquerda. Se uma aplicação instalada em uma unidade de acostamentoé responsável em notificar veículos sobre obstáculos em uma rodovia, a lista de identificadores pode conter uma entrada. Embora a via tenha mais de uma faixa, pretende-se notificar todos os veículos, independente das faixas em que eles estejam trafegando. Um outro exemplo pode ser uma aplicação responsável em controlar as sinalizações semafóricas de uma interseção complexa, semelhante a apresentada na Figura 4.4 desta tese. Neste caso, cada sinalização semafórica da interseçãoé responsável em executar uma instância diferente da aplicação. Dessa forma, a lista de identificadores de vias de cada sinalização semafórica poderá ter mais de duas entradas, sendo que uma delas está relacionada a via de entrada, onde a sinalização semafórica está instalada. As demais vias, neste caso, estão relacionadasàs vias de saída, de acordo com os movimentos permitidos na interseção a partir da via de entrada. Umúltimo exemplo pode ser as aplicações instaladas nos veículos. Devidoà mobilidade dos veículos, estas aplicações constantemente atualizam a lista de identificadores de vias,à medida que trafegam em diferentes vias ao longo de uma determinada rota. Para o nó enviar uma mensagem, o protocolo de comunicação deve receber quatro itens, que são: prefixo de destino, interesse, direção, identificador de via. Em [44], eram levados em consideração somente os três itens. A inclusão de mais um item tem como objetivo tirar a responsabilidade da camada de rede, no que diz respeitò a inclusão automática do identificador de via, quando a mensagemé construída. Antes de enviar a mensagem para seus vizinhos, o nó constrói a mensagem da seguinte maneira: Finalmente, o algoritmo determina o tempo de espera por meio do resultado da função de número aleatório da distribuição uniforme entre 0 e 1 dividido pela distância entre nó i e a origem da mensagem. O tempo de esperaé necessário, pois ele evita que muitos nós encaminhem mensagens em instantes muito próximos.À medida que a mensagemé encaminhada para longe de sua origem, o tempo de espera diminui. Rede Ad Hoc Veicular Heterogênea Centrada em Interesses Devidoà alta mobilidade dos veículos eà topologia dinâmica das redes ad hoc veiculares,é difícil fornecer serviços de sistemas inteligentes de transporte somente por meio de uma rede, que tem como base umaúnica tecnologia de acessoà comunicação sem fio, especificamente rádios de comunicação dedicada de curto alcance ou Dedicated Short Range Communication (DSRC). Atualmente, as tecnologias disponíveis de acessoà comunicação sem fio para ambientes veiculares são as que se baseiam em rádios de comunicação dedicada de curto alcance (IEEE 802.11 e IEEE 802.11p) e as que se baseiam em redes celulares (GSM, UMTS e LTE). No entanto, estas tecnologias têm suas próprias limitações quando usadas em ambientes veiculares. Em particular, tecnologias de acessoà comunicação sem fio baseadas em rádios de comunicação de curto alcance, foram inicialmente projetadas para fornecer comunicações sem fio, sem a necessidade de uma infraestrutura pervasiva em ambientes como os de rodovias, estradas e ruas. Por outro lado, embora redes celulares possam fornecer uma ampla cobertura geográfica, elas não podem fornecer de maneira eficiente trocas de informações de tempo real emáreas locais. Consequentemente, integrar redes baseadas em tecnologias de acessoà comunicação sem fio, tais como IEEE 802.11, IEEE 802.11p, GSM, UMTS e LTE,é de grande relevância para o desenvolvimento de aplicações para sistemas inteligentes de transporte. Por isto, ZHENG et al. [30] argumenta que uma rede veicular heterogênea pode ser uma boa plataforma para atender os vários requisitos de comunicação dos serviços de sistemas inteligentes de transporte [84]. Com base nessa demanda, resolveu-se estender o projeto da RAdNet-VE [44], a fim de criar uma rede ad hoc veicular heterogênea centrada em interesses, pois o protocolo de comunicação da RAdNet-VEé capaz de satisfazer os requisitos de comunicação das categorias de aplicações para redes ad hoc veiculares. Com isto, ao analisar o trabalho de [30], percebeu-se que o protocolo de comunicação da RAdNet-VEé capaz de satisfazer os requisitos de comunicação de parte dos serviços de sistemas inteligentes, devido aos bons resultados apresentados em [44]. Tais resultados serão apresentados nesta tese no capítulo apropriado. Com base nestes resultados e nos requisitos de comunicação de aplicações de serviços de sistemas inteligentes, decidiu-se incluir a capacidade de os nós RAdNet-VE poderem se comunicar por meio de redes celulares, mais especificamente LTE, por se tratar de um padrão mais recente deste tipo de tecnologia de acessoà comunicação sem fio. Portanto, criou-se a Heterogeneous InteRest-Centric Mobile Ad Hoc Network for Vehicular Enviornments (HRAdNet-VE). Antes de apresentar como se deu a criação da HRadNet-VE,é necessário apresentar, ainda que brevemente, os requisitos de comunicação de aplicações de serviços de sistemas inteligentes de transporte. Portanto, tal tarefa cabeà seção seguinte. Requisitos de Serviços de Sistemas Inteligentes de Transporte O principal objetivo desta seçãoé resumir os requisitos dos serviços de sistemas inteligentes de transporte. Tal levantamento de requisitosé fruto do levantamento bibliográfico apresentado por ZHENG et al. [30]. Os serviços de sistemas inteligentes de transporte podem ser categorizados em serviços relacionadosà segurança e serviços não relacionadosà segurança [30]. Os serviços relacionadosà segurança visam a redução do risco de acidentes envolvendo veículos e a diminuição da perda vidas humanas. Nestes serviços, a oportunidade e a confiabilidade são considerados requisitos altamente exigentes. A frequência mínima de mensagens periódicas dos serviços de segurança varia de 1 Hz (uma mensagem por segundo) a 10 Hz (dez mensagens por segundo). Além disto, deve-se também ser levado em consideração o tempo de reação da maioria dos motoristas, que pode variar de 0.6 s a 1.4 s. Por isto,é razoável restringir a latência máxima em não mais que 100 ms. Por exemplo, a latência máxima do aviso de detecção pré-colisãoé de 50 ms. Maiores detalhes acerca dos requisitos de comunicação de serviços de sistemas inteligentes de transporte não relacionadosà segurança podem ser vistos em [30]. Os requisitos de segurança e confiabilidade são muito rigorosos, devidoàs características dos serviços de segurança. Em serviços de segurança para sistemas inteligentes de transporte são considerados dois tipos de mensagens: • Mensagens de ciência cooperativa: são transmitidas periodicamente em umaárea de interesse, principalmente para propósitos de avisos em estradas ou rodovias. Frequentemente, a troca de mensagens envolve dados como estado do veículo, posição, velocidade, entre outros; • Notificação ambiental descentralizada: estas mensagens são frequentemente disparadas por eventos especiais. As mensagens deste tipo têm como objetivo notificar em umaárea potencialmente perigosa. Por fim, os serviços não relacionadosà segurança são usados principalmente para gerenciamento de tráfego, controle de congestionamento, melhoria da fluidez do tráfego, entretenimento, entre outros. O principal objetivo dos serviços não relacionadosà segurançaé tornar possível uma experiência de direção mais eficiente e confortável. Estes serviços não têm requisitos rigorosos acerca da latência e confiabilidade. Comparados aos serviços relacionadosà segurança, serviços não relacionados a segurança têm diferentes requisitos de qualidade de serviço. Para a maioria dos serviços não relacionadosà segurança, a frequência máxima de mensagens periódicaś e de 1 Hz (uma mensagem por segundo), enquanto a latência máximaé 500ms. Maio-res detalhes acerca dos requisitos de comunicação de serviços de sistemas inteligentes de transporte não relacionadosà segurança podem ser vistos em [30]. No que diz respeito ao tratamento dos requisitos de comunicação das aplicações dos serviços de sistemas inteligentes de transporte, estes são tratados no projeto da RAdNet-VE, baseando-se nos requisitos de duas categorias de aplicações para redes ad hoc veiculares, que são: serviços de informações gerais e serviços de informações de segurança. No entanto, estes requisitos foram definidos a partir de comunicações utilizando dispositivos de comunicação dedicada de curto alcance, como IEEE 802.11 e IEEE 802.11p. No trabalho de [43], os autores não detalham as aplicações das duas categorias citadas acima. Portanto, o trabalho de [30] fornece detalhes acerca dos requisitos de aplicações de serviços de sistemas inteligentes de transporte. Com base nestes requisitos, foi possível, então, estender o projeto da RAdNet-VE e criar um porte da RAdNet-VE para redes ad hoc veiculares heterogêneas. Portanto, a próxima seção detalhará como tal processo se deu. Projeto da Rede Veicular Heterogênea Centrada em Interesses e seu Protocolo de Comunicação Em uma rede veicular heterogênea, um mesmo nó deve ser capaz de lidar com diferentes tecnologias de acessoà comunicação sem fio, sem a necessidade de um protocolo de comunicação específico para cada uma das interfaces de comunicação sem fio instaladas no nó. Neste sentido, para que o protocolo de comunicação da jeto de software tais como: Abstract Factory [85] e Forwarder and Receiver [75]. O Abstract Factory fornece uma interface para criação de famílias de objetos relacionados ou dependentes sem especificar suas classes concretas [85]. O Forwarder and Receiver fornece uma interface transparente de comunicação inter-processo para sistemas de software com um modelo de interação peer-to-peer, introduzindo forwarders e receivers para desacoplar os peers de detalhes específicos da comunicação entre os nós de rede [75]. A fim de encapsular todos estes componentes sob umaúnica interface de acesso, o padrão de projeto Wrapper Façade deve ser utilizado, a fim de encapsular funções e dados de maneira mais concisa, robusta, portável, manutenível e coesa [86]. Após o encapsulamento das interfaces de acessoà comunicação sem fio, foi necessário separar dados e estruturas de dados inerentesà operação do protocolo de comunicação. Neste sentido, para cada interface de acessoà comunicação sem fio devem existir as seguintes estruturas de dados: contador de mensagens enviadas, tabela de prefixos de origem e mensagens recebidas, tabela de interesses e números máximos de saltos, tabela de posições relativas de vizinhos dentro daárea coberta pelo rádio de comunicação e lista de identificadores de vias. No que diz respeito ao prefixo do nó, este não varia em função do número de interfaces de acessoà comunicação sem fio instaladas no nó. Em outras palavras, o prefixo do nóé o mesmo independentemente do número de interfaces de acessoà comunicação sem fio instaladas no nó. Além disto, cada uma destas estruturas de dados citadas acimá e inicializada da mesma maneira como a RAdNet-VE as inicializa. No entanto, tal inicialização deve ser realizada para cada interface de acessoà comunicação sem fio instalada no nó. Por fim, as aplicações, que irão executar sobre uma rede ad hoc veicular heterogênea centrada em interesses, devem registrar os interesses e seus respectivos números máximos de saltos na estrutura de dados correspondentè a tecnologia de acessoà comunicação sem fio da interface que deverá receber as mensagens. Para o nó enviar uma mensagem, o protocolo de comunicação deve receber cinco itens, que são: prefixo de destino, interesse, direção, identificador de via e tecnologia de acesso. A definição de qual interface de comunicação deve ser depender das operações das aplicações de serviços de sistemas inteligentes de transporte. Antes de enviar a mensagem para seus vizinhos, o nó constrói a mensagem conforme os passos descritos na Seção 5.1.3, além de configurar o campo tecnologia de acesso com o dado de entrada correspondente. Por fim, ao receber uma mensagem por meio de uma das interfaces de acessò a comunicação sem fio, o nó executa o Algoritmo 2, mas utilizando as estruturas de dados correspondentesàs tecnologias das interfaces de comunicação instaladas nos nós, como pode ser visto no Algoritmo 3. Desta forma, o protocolo de comu- se msg j,tac .idVia ∈ lstIdVias i,tac ∨ msg j,tac .idVia = nulo então nicação da RAdNet-VE foi estendido completamente, tornando-se um protocolo de comunicação para uma rede veicular heterogênea, sendo i o nó que recebe uma mensagem de um nó j, que por sua vez pode ter enviado ou encaminhado a mensagem por meio de uma interface de uma tecnologia de acessoà comunicação sem fio, e tać e o identificador da tecnologia de acessoà comunicação sem fio utilizada tanto pelo nó j quanto pelo nó i. Nesta seção, foram descritos os detalhes acerca do projeto da HRAdNet-VE e de seu protocolo de comunicação, aqui chamado de HRAdNet-VE Protocol (HRVEP). No que diz respeitoà comunicações sem fio, usando interfaces de acesso baseadas no padrão LTE, a proposta do HRVEP não trata de comunicações veículo-a-veículo usando LTE Device-to-Device (D2D) [30]. Logo, os veículos não podem se comunicar diretamente uns com os outros por meio de redes celulares. Neste trabalho, os nós configurados como User Equipaments (UEs) só podem se comunicar com nós configurados como Evolved Node B (eNodeB). Logo, os nós UE podem se movimentar e trocar dados com estações base, que são os nós eNodeB. No entanto,é possível que os nós UE se comuniquem uns com os outros de maneira indireta, desde que existam nós eNodeB, atuando como relayers na rede. Relação da RAdNets Considerações Finais Este capítulo apresentou duas contribuições desta tese, que são a RAdNet-VE e a HRAdNet. Ambos os trabalhos foram fundamentais para o desenvolvimento das propostas que serão apresentadas nos Capítulos 7 e 8. No que diz respeitoà proposta a ser apresentada pelo Capítulo 7, a RAdNet-VE forneceu todo o substrato de comunicação eficiente, permitindo a construção de uma estratégia de controle inteligente de tráfego para interseções isoladas, uma vez que tal estratégia demandava somente o uso de interfaces de acessoà comunicação sem fio baseadas no padrão IEEE 802.11n. A partir da criação da HRAdNet-VE, foi possível construir as estratégias para controlar interseções cujo acessoé compartilhado entre corredores e sincronizar as indicações de intervalos de verde das sinalizações semafóricas instaladas ao longo destes corredores. Acerca da proposta a ser apresentada pelo Capítulo 8, a HRAdNet-VE permitiu que as sinalizações semafóricas pudessem se comunicar umas com as outras, a fim de compartilhar suas agendas de tempos. Partindo disto, foi possível construir uma estratégia para o problema de planejamento e orientação de rotas. Neste caso, a HRAdNet-VE foi fundamental, pois ela possibilitou que não somente veículos pudessem se comunicar com as sinalizações semafóricas, a fim de informar suas presenças nas vias e requisitar cálculos de rotasótimas a elas, mas também permitiu que as mesmas pudessem se comunicar, a fim de atualizar o estado global do sistema de informações ao motorista, no que tange alocação de espaços de nas vias,à medida que estes são alocados e desalocadas conforme os resultados dos cálculos de rotaś otimas. Por meio da HRAdNet-VE, as sinalizações semafóricas puderam notificar umasàs outras sobre qualquer mudança e, cada sinalização semafórica, ao receber tal notificação, foi capaz de notificar os veículos que trafegam na via sob seu controle. Antes de apresentar os detalhes relativosàs abordagens para os problemas de controle de tráfego e, planejamento e orientação de rotas,é necessário detalhar como o paradigma de sistemas multiagentesé utilizado nesta tese. Por isto, o próximo capítulo descreve os agentes e como eles interagem, a fim de formar um sistema multiagente. 99 Capítulo 6 Definição do Agentes dos Sistemas Multiagentes Este capítulo tem como objetivo introduzir e descrever de forma alto nível os agentes utilizados tanto no sistema de controle de tráfego quanto no sistema de planejamento e orientação de rotas que são: Centro de Controle de Tráfego, Elemento Urbano, Veículo e Sinalização Semafórica. A descrições dos agentes busca tornar clara a participação e a contribuição dos mesmos, noâmbito do sistema de controle de tráfego e do sistema de planejamento e orientação de rotas. Portanto, este capítuló e uma preparação para os detalhamentos acerca destes sistemas, a partir dos dois capítulos subsequentes a este. Agente Centro de Controle de Tráfego Nesta tese, o agente Centro de Controle de Tráfego foi projetado para monitorar o estado de controle das interseções isoladas e interseções que participam de sistemas coordenados de sinalizações semafóricas, conforme definido na National ITS Architecture 7.1 [84]. Para tanto, o agente Centro de Controle de Tráfego monitora as interações entre agentes Sinalização Semafórica,à medida que estes notificam uns aos outros sobre as mudanças de estado de seus mecanismos de controle de interseções e dos mecanismos de alocação de espaços nas vias de entrada das interseções, onde as sinalizações semafóricas que os embutem atuam. A partir deste monitoramento de interações, o agente Centro de Controle de Tráfego atualiza um sistema supervisório, queé responsável em monitorar o funcionamento do sistema de controle de tráfego. Para tanto, o agente Centro de Controle de Tráfego deve ser embutido em um nó de rede cuja funçãoé atuar como um relayer de mensagens enviadas por meio de interfaces de acessoà comunicação sem fio baseadas no padrão LTE [30]. Nesta tese, considera-se que o sistema supervisório usa os dados obtidos pelo agente Centro de Controle de Tráfego para manter uma simulação do funcionamento do sistema real de controle de tráfego. O uso de um sistema supervisório tanto para o sistema de controle de tráfego quanto para o sistema de planejamento e orientação de rotas se faz necessário, pois os engenheiros de tráfego precisam interagir com o sistema real de controle de tráfego, seja recebendo informações acerca das condições de tráfego ou entrando com valores de parâmetros de configuração dos agentes Sinalização Semafórica (veja na Seção 6.4). Tais parâmetros são utilizados durante a inicialização dos agentes Sinalização Semafórica, quando as sinalizações semafóricas dos mesmos são ligadas. Além disto, levando em consideração a infraestrutura computacional disponível nos centros de controle de operações de tráfego, o acesso ao estado da simulação pode ser fornecido com alta disponibilidade. Ainda que não seja possível o fornecimento de uma infraestrutura computacional robusta,é possível usar a estratégia de uma simulação, pois ela somente levaria em consideração o controle de interseções isoladas e o controle de sistemas coordenados de sinalizações semafóricas. No que diz respeito aos veículos, a simulação apenas usa dados macroscópicos, em específico, a quantidade de veículos nas vias de entrada das interseções controladas pelo sistema de controle de tráfego. Nesta tese, não são abordados detalhes a respeito de uma implementação de um sistema supervisório e dos mecanismos para simulação do sistema de controle de tráfego mantida por ele. O estado da simulação mantida pelo sistema supervisórioé fundamental para a recuperação tanto dos controles de interseções isoladas quanto dos controles de sistemas coordenados de sinalizações semafóricas. Neste caso, os estados, relativos ao controle de interseções isoladas ou de sistemas coordenados de sinalizações semafóricas, podem ser recuperados por meio de uma interação entre um agente Veículo, responsável pelo controle de uma interseção, e o agente Centro de Controle de Tráfego. Tal estado de controle consiste em parâmetros de configuração das sinalizações semafóricas, assim como, estruturas de dados de controle, como o multigrafo utilizado nas dinâmicas do SMER para controle de interseções isoladas, além das leituras referentes aos fluxos de tráfego das vias de entrada das interseções. Após a recuperação desse estado, os veículos podem ser utilizados para controlar autonomamente interseções isoladas ou aquelas que integram os sistemas coordenados de sinalizações semafóricas, criando sinalizações semafóricas virtuais [87], que, por sua vez, operam de acordo com as dinâmicas do SMER para controle de interseções isoladas. A condição para que isto aconteçaé a detecção da ausência de funcionamento de sinalizações semafóricas. A ausência de funcionamento de sinalizações semafóricas pode ser causada por muitos fatores, dentre eles: falhas de equipamentos, falta de fornecimento de energia elétrica e acidentes. Uma vez que uma sinalização semafórica para de funcionar, istoé rapidamente A estratégia de manter uma simulação do sistema real de tráfego permite a introdução de um mecanismo de recuperação de falhas. No que tange o controle de sistemas coordenados de sinalizações semafóricas, assim como, a coordenação do início dos intervalos destas, quando seus sistemas coordenados estão ativos,é fundamental para manutenção da fluidez do tráfego em uma rede viária. Embora as sinalizações semafóricas instaladas em interseções isoladas sejam de grande importância, pois estas, por meio dos agentes Sinalização Semafórica, são capazes de se adaptaràs flutuações do tráfego das vias de entrada dessas interseções, o controle de sistemas coordenados de redes de sinalizações semafóricas e a coordenação do início das indicações de intervalo de verde das mesmas têm uma importância ainda maior. Com um mecanismo de recuperação de falhas em que agentes Veículos podem tomar o controle de interseções, caso as sinalizações destas apresentem ausência de funcionamento, pelotões de veículos têm a garantia de que não serão parados, enquanto atravessam os corredores em que tais interseções fazem parte. Além disso, outro ponto importante, no que tange a estratégia de manter uma simulação do sistema real de tráfego,é a manutenção das agendas de intervalos de indicações de luzes verdes cujas sinalizações semafóricas apresentam ausência de funcionamento. Uma vez que as sinalizações semafóricas apresentam ausência de funcionamento, seus agentes não podem gerar agendas de tempos a partir das configurações de controle vigentes, assim como, não podem compartilhar tais configurações com os demais agentes Sinalização Semafórica do sistema de controle de tráfego, de modo que estesúltimos possam também gerar e manter as cópias dessas agendas. Uma vez que os agentes Veículo tomam o controle das interseções, criando sinalizações semafóricas virtuais, eles interagem com o agente Centro de Controle de Tráfego e os agentes Sinalização Semafórica. A partir disto, o agente Centro de Controle de Tráfego volta a monitorar o estado de controle das interseções isoladas e ou interseções participantes de sistemas coordenados de sinalizações semafóricas. Uma vez que as sinalizações semafóricas são criadas por meio da cooperação entre agentes Veículo, objetivando o controle de uma interseção, um agente Veículo se torna responsável pelo controle da interseção. Assim, este interage com o agente Centro de Controle de Tráfego, como se fosse um agente Sinalização Semafórica, e com os vários agentes Sinalização Semafórica do sistema de controle de tráfego. Por meio da interação entre o agente Veículo, responsável pelo controle de uma interação, com os demais agentes Sinalização Semafórica, o agente Centro de Controle de Tráfego monitora tais interações, e, a partir disto, atualiza o sistema supervisório, de modo que este mude o estado da simulação. Além disto, estas interações possibilitam que os agentes Sinalização Semafórica possam manter agendas de tempos relativasàs sinalizações semafóricas virtuais. Além disto, os agentes Sinalização Semafórica também interagem com os agentes Veículo responsáveis pelas sinalizações semafóricas virtuais. Com isto, além de manterem as agendas de intervalos de indicações de luzes verdes relativas ao controle das interseções por meio de sinalizações semafóricas virtuais, os agentes Veículo também recebem configurações de controle de outras interseções, enviadas pelos agentes Sinalização Semafórica presentes nestas, e, com isto, gera e mantém cópias de agendas de tempos, enquanto são responsáveis pelo controle das interseções. Com isto, estes agentes Veículo podem também calcular rotasótimas, alocar espaços de uso das vias de entradas das interseções e fornecer dados relativosàs ondas verdes para os veículos que se aproximam das interseções por meio de suas vias de entrada. Com a ausência de veículos se aproximando de interseções, onde as sinalizações semafóricas apresentam ausência de funcionamento, o agente Centro de Controle de Tráfego para de monitorar os estados de controle relativos a estas interseções, pois não existes sinalizações semafóricas virtuais. Por isto, o agente Centro de Controle de Tráfego altera os estados de controle das interseções na simulação mantida pelo sistema supervisório, ajustando as representações dos mecanismos de controle dessas interseções, de modo que as representações das sinalizações semafóricas simulem o funcionamento destas, quando não existem fluxos de veículos nas vias de entrada se aproximando das interseções. Após isto, o agente Centro de Controle de Tráfego interage com os agentes Sinalização Semafórica, compartilhando as novas configurações de controle das interseções cujas sinalizações semafóricas apresentam ausência de funcionamento. Os agentes Sinalização Semafórica, então, geram novas agendas de tempos a partir das novas configurações de controle de interseções recebidas por eles. Este processoé valido somente para interseções isoladas e aquelas que participam de somente um sistema coordenado de sinalizações semafóricas, pois estasúltimas só participam da coordenação de sinalizações semafóricas, quando o sistema coordenado em que elas estão inseridas está ativo. Caso contrário, a interseçãoé vista como uma interseção isolada e, por isto,é tratada como tal. Agente Elemento Urbano Nesta tese, o agente Elemento Urbano foi primeiramente projetado para representar entidades de mundo real, que estão presentes no ambiente urbano, tais como: instituições sociais e políticas; instalações educacionais e culturais; instalações comerciais e ou de serviços; instalações relativas ao estacionamento de veículos particulares; instalações de veículos comerciais; entre outros. Para tanto, este agente deve ser embutido em dispositivos capazes de se comunicar por meio de interfaces de acessoà comunicação sem fio, que permitam a comunicação indireta com sinalizações semafórica e veículos. Logo, tal interface deve ser baseada no padrão LTE [30]. Uma vez que os agentes Elemento Urbano podem representar entidades de mundo real, eles podem interagir periodicamente tanto com agentes Sinalização Semafórica quanto agentes Veículo, desde que esteúltimo esteja controlando uma interseção, compartilhando dados que os associam a interesses. Com estes dados, os agentes Sinalização Semafórica e Veículo, esteúltimo, de acordo com a condição descrita anteriormente, registram os interesses na camada de rede de seus ambientes e os associam as ações executadas por estes agentes. Desta forma, os ambientes (sinalizações semafóricas e veículos conectados) são configurados com os interesses relacionados aos agentes Elemento Urbano, que estão operando dentro de uma região, onde os sistemas de controle de tráfego e, planejamento e orientação de rotas atuam. Para tanto, o agente Elemento Urbano deve conter os seguintes parâmetros de configuração de performance: periodicidade de envio de mensagens interação e identificador da via onde se encontra. Diferente dos ambientes relacionados aos agentes Sinalização Semafórica, os ambientes relativos aos agentes Veículo não mantêm, por muito tempo, os interesses registrados em suas camadas de rede, pois eles,à medida que seus agentes deixam de controlar interseções isoladas e cooperar com sistemas coordenados redes de sinalizações semafóricas, têm tais interesses removidos de suas camadas de redes. Outra finalidade relativa aos dados compartilhados pelos agentes Elemento Urbanó e o uso destes para fins de atualização dos bancos de dados de mapas instalados nos dispositivos que embutem os agentes Veículo. Assim, nesta tese, parte-se do princípio que os motoristas solicitam rotasótimas até os elementos urbanos, utilizando os interesses contidos nos dados compartilhados por seus agentes Elemento Urbano. Por uma questão de simplificação, nesta tese, os agentes Veículo utilizam como interesse o nome da via, onde o elemento urbano se encontra, para encontrar rotasótimas. Logo, esta tese parte do princípio que os dispositivos que embutem os agentes Veículo possuem uma interface, em que os motoristas buscam os elementos urbanos e, em seguida, os selecionam, fazendo com que os agentes Veículos obtenham rotasótimas a partir das interações com agentes Sinalização Semafórica, tendo como base disso a comunicação centrada em interesses provida por uma rede ad hoc veicular heterogênea centrada em interesses. Embora esta tese não aborde questões relativasà segurança de redes ad hoc veiculares centradas em interesses,é necessário ressaltar, que os interesses relativos aos agentes Elemento Urbano devem ser validados, a fim de evitar inconsistências nas associações entre os interesses e as ações executadas pelos agentes. No entanto, e importante indicar um possível caminho para tratar este problema. Neste sentido, esta tese aponta para a investigação do uso de técnicas baseadas em nomes autocertificáveis [88], no que tange a validação de interesses. Nomes auto-certificáveis são nomes que permitem a verificação direta entre o nome e o objeto associado [88]. Neste caso, o objeto associado pode ser o nome da ação a ser executada pelos agentes Veículo e Sinalização Semafórica. Agente Veículo Nesta tese, o agente Veículo foi projetado para interagir tanto com agentes Sinalização Semafórica quanto com outros agentes Veículo. Para tanto, tal agente precisar ser embutido em um veículo conectado. Um veículo conectadoé aquele capaz de se comunicar tanto com outros veículos quanto com elementos relativos a infraestrutura viária, utilizando interfaces de acessoà comunicação sem fio baseadas em padrões tecnológicos, como IEEE 802.11 [28], IEEE 802.11p [29] e LTE [30]. Além disto, tal tipo de veículo também oferece capacidade de realizar computações, permitindo que os mesmos sejam utilizados em aplicações de software paraárea de sistemas inteligentes de transporte. No que diz respeitoà interação com agentes Sinalização Semafórica, noâmbito do sistema de controle de tráfego, os agentes Veículo interagem com estes agentes, a fim de informar a presença dos veículos nas vias de entrada de interseções controladas por sinalizações semafóricas.À medida que os agentes Veículo informam a presença de seus veículos conectados, interagindo com agentes Sinalização Semafórica, estes, por sua vez, passam a ter ciência dos veículos que estão se aproximando da interseção e, em seguida, confirmam isto, interagindo com os agentes Veículo. Para que cada agente possa realizar a ação descrita, eles contam com um parâmetro que contém a frequência de envios de mensagens desta interação para os agentes Sinalização Semafórica. A repetição de envios de mensagens da interação entre agentes, aqui em discussão, sóé interrompida, após os agentes Veículo terem ciência de que as suas presenças foram reconhecidas pelos agentes Sinalização Semafórica. Vale ressaltar, que a interação em questão se dá sempre no escopo da via onde os veículos estejam trafegando e as sinalizações semafóricas estão instaladas. Portanto, tanto os agentes Veículo quanto os agentes Sinalização Semafórica têm ciência da via em que estão operando e, consequentemente, registram tal dado na camada de rede de seus ambientes. Por fim, os agentes Sinalização Semafórica precisam das interações com os agentes Veículos, para acumular conhecimento acerca das flutuações do fluxo de tráfego nas vias de entrada das interseções, onde suas sinalizações semafóricas estão instaladas. Os agentes Sinalização Semafórica utilizam este conhecimento para ajustar o tamanho dos intervalos de indicações das sinalizações semafóricas em que estão embutidos. No que diz respeito a interação entre agentes Veículo e agentes Sinalização Semafórica, noâmbito do sistema de planejamento e orientação de rotas, os agentes Veículo interagem com os agentes Sinalização Semafórica, requisitando rotasótimas, de acordo com os destinos informados pelos motoristas dos veículos conectados em que os agentes estão embutidos. Como os agentes Sinalização Semafórica têm a base de conhecimento necessária para compartilhar o conhecimento de rotasótimas com os agentes Veículo, eles compartilham estas rotas com os agentes Veículo. No instante em que os agentes Sinalização Semafórica interagem com os agentes Veículo, em resposta a interação anterior, estesúltimos passam a ter conhecimento de rotas ao longo de uma rede viária, que podem auxiliar o motorista, enquanto este dirige seu veículo conectado, objetivando uma viajem com o menor tempo possível. Para que todo esse processo de interação entre os agentes ocorra,é necessário que os agentes Veículo tenham como configuração de performance um parâmetro, no que diz respeitoà frequência com que as mensagens de interação, requisitando rotasótimas, são enviadas pelos agentes Veículo para os agentes Sinalizações Semafóricas. Vale ressaltar, que os envios das mensagens de interação, requisitando rotasótimas, são cessados,à medida que os agentes Veículos passam a ter conhecimento de uma rotá otima. Ainda noâmbito do sistema de planejamento e orientação de rotas,à medida que os agentes Veículo orientam os motoristas dos veículos, estes precisam interagir com os agentes Sinalização Semafórica novamente. Desta vez, os agentes Veículo precisam ter ciência acerca do posicionamento, comprimento e velocidade dos seguimentos de ondas verdes nas vias em que as sinalizações semafóricas, contendo o tipo de agente correspondente as mesmas, estejam instaladas. Além disto, os agentes Veículo também precisam conhecer a duração do intervalo de verde disponibilizado pelo agente Sinalização Semafórica da via. O mecanismo das ondas verdes permite que os agentes Veículo orientem os motoristas dos veículos conectados, no que diz respeito ao controle de velocidade destes. Para tanto, os agentes Veículo usam o conhecimento acerca dos seguimentos de ondas verdes, a fim de se manterem atualizados sobre descolamento destes sobre a via em que estão posicionados. Logo, os agentes Veículo precisam ser configurados quantoà frequência de atualização de deslocamentos de seguimentos de onda verde. Por isto, os agentes Veículo possuem um parâmetro de configuração de performance para tal fim.É importante pontuar aqui também, que os agentes Veículo não automatizam a condução dos veículos. Portanto, eles apenas orientam os motoristas dos veículos a tomarem as seguintes decisões: Embora os agentes Veículo possam orientar motoristas a seguirem as velocidades recomendadas por eles, os mesmos precisam ter conhecimento acerca de outros agentes Veículo, operando na mesma via em que trafegam. Este conhecimentoé fundamental nas ações de orientação de velocidades, pois os agentes Veículos precisam conhecer o estado relativo do veículo que está imediatamenteà frente do veículo conectado em que eles estão embutidos. Tal conhecimentoé utilizado para auxiliar no cálculo da velocidade que um veículo conectado deve assumir, de acordo com as possibilidades de os motoristas alcançarem os seguimentos de ondas verdes, assim como, se manterem nestes ou esperá-los até que os veículos conectados sejam alcançados pelos mesmos. Portanto, os agentes Veículo interagem uns com outros, trocando dados sobre os estados relativos dos veículos em que estão embutidos. O estado relativo refere-seà velocidade e a posição geográfica do veículo conectado. Por isto, os agentes Veículo precisam ser configurados com um parâmetro de frequência para envio de mensagens de interação entre eles. Tal parâmetro deve compor juntamente com os outros parâmetros mencionados até aqui, as configurações dos agentes Veículo. Os agentes Veículo podem assumir também a responsabilidade de controlar interseções, criando sinalizações semafóricas virtuais, quando eles detectam a ausência de um agente Sinalização Semafórica em uma das vias de entrada de uma interseção controlada por sinalizações semafóricas. Desde então, o agente Veículo interage com o agente Centro de Controle de Tráfego, a fim de obter estado de controle da interseção, tais como os descritos na Seção 6.4. Uma vez que estado de controle de uma interseção tenha sido obtido por um agente Veículo, ele sabe se ele ou outro agente Veículo em uma via conflitante será o responsável em manter uma sinalização semafórica virtual, pois ambos passam a simular o funcionamento das sinalizações semafóricas da interseção de onde eles se aproximam, utilizando as configurações de controle da interseção. Caso a interseção tenha uma sinalização semafórica cujo agente Sinalização Semafórica controlava um sistema coordenado de sinalizações semafóricas, o agente Veículo assume as configurações fornecidas pelo agente Centro de Controle de Tráfego, que neste momento está assumindo o controle de sistemas coordenados de sinalizações semafóricas. Dessa forma, um agente Veículo se torna responsável por uma interseção, quando a sinalização semafórica virtual está indicando luz vermelha e o seu veículo conectadoé o mais próximo da faixa de retenção da via. A partir disto, ele adquire o comportamento de um agente Sinalização Semafórica, de acordo com as configurações de controle da interseção em questão, com exceção daquelas configurações de controle relativas ao controle de sistemas coordenados de redes de sinalizações semafóricas. Logo, durante intervalo de indicação de luz vermelha da sinalização semafórica virtual de sua via, eleé capaz de realizar as seguintes tarefas, de acordo com as configurações de controle da interseção em questão: manter agendas de tempos geradas com base em configurações de controle de interseções enviadas por sinalizações semafóricas; calcular rotasótimas,à medida que os agentes Veículoàs solicitam, alocar espaços de uso nas vias de entrada das interseções; manter e compartilhar dados acerca dos posicionamentos das ondas verdes das vias de entrada da interseção, onde eleé responsável; ajustar os intervalos de luzes verde, de acordo com o fluxo das vias de entrada; notificar os responsáveis por outras interseções, sejam estes agentes Sinalização Semafórica ou agentes Veículo, acerca das atualizações do estado de controle da interseção; e notificar os agentes Veículo, que estão embutidos nos veículos conectados que trafegam nas vias de en-trada da interseção, acerca das atualizações do estado de controle da interseção. No que tange os demais agentes Veículo cujos veículos conectados trafegam pelas vias entrada da interseção, estes também simulam o funcionamento das sinalizações semafóricas da interseção para onde estão se dirigindo, de modo que os motoristas destes veículos tenham ciência das indicações das sinalizações semafóricas virtuais das vias de onde eles estão conduzindo seus veículos. Durante o intervalo de amarelo de uma via cuja sinalização semafórica virtual indicava luz verde, os agentes Veículos interagem entre si, a fim de elegerem um líder, queé aquele cujo veículo conectado mais próximo da faixa de retenção da via onde eles trafegam. Após o intervalo de amarelo, aquele agente cujo veículoé o mais próximo da faixa de retenção da via onde ele se encontra, passa a ser o novo responsável pelo controle da interseção. Vale ressaltar que tal controle varia de acordo com interseção. Se elaé uma interseção isolada, os agentes Veículo executarão o algoritmo SMER para controle de interseções isoladas. Caso contrário, se a interseção está participando de uma coordenação de redes de sinalização semafóricas em um sistema coordenado de sinalizações semafóricas ativo, os agentes Veículo seguirão as configurações de controle para tal situação. Por fim, se a interseção participa somente de um sistema coordenado de sinalização semafórica e este não se encontra ativo, os agentes Veículo executarão o algoritmo SMER para controle de interseções isoladas. Agente Sinalização Semafórica Nesta tese, o agente Sinalização Semafórica foi projetado com intuito de interagir tanto com os agentes Veículo quanto com outros agentes Sinalização Semafórica. Para isto, o agente deve ser embutido em um dispositivo que não somente permita controlar as indicações presentes nos grupos focais das sinalizações semafóricas, mas também de realizar computações e se comunicar tanto com veículos conectados quanto com outras sinalizações semafóricas, sendo estas participantes de uma mesma interseção ou não. Isto torna as sinalizações semafóricas inteligentes. Devido a esta característica, estes dispositivos devem ser equipados com interfaces de acessò a comunicação baseadas nos padrões IEEE 802.11 [28], IEEE 802.11p [29] e LTE [30]. No que diz respeitoà interação dos agentes Sinalização Semafórica com os agentes Veículo, noâmbito do sistema de controle de tráfego, os agentes Sinalização Semafórica interagem com tais agentes, a fim de tornar mais precisa a medição do fluxo de tráfego das vias de entrada das interseções controladas por sinalizações semafóricas. Para tanto, os agentes Sinalização Semafórica reiniciam o processo de notificação de presença de veículos que se aproximam da interseção controlada por suas sinalizações semafóricas. Assim, os agentes Veículo dão inícioà interação des-crita na seção anterior, sempre que recebem uma mensagem de interação dos agentes Sinalização Semafórica, para tal fim. Esta interação se dá de maneira periódica e, por isto, parâmetros, definindo esta periodicidade de obtenção de dados e a quantidade de obtenções de dados, são incluídos nas configurações dos agentes Sinalização Semafórica. Ainda noâmbito do sistema de controle de tráfego, os agentes Sinalização Semafórica interagem uns com os outros para atingir três objetivos, que são: 1. Controlar interseções isoladas, levando em consideração as flutuações dos fluxos de tráfego das vias de entrada destes locais; 2. Controlar interseções compartilhadas entre sistemas coordenados de sinalizações semafóricas, levando em consideração as flutuações de tráfego das vias que compõem os mesmos; 3. Coordenar as redes de sinalizações semafóricas instaladas nos corredores, de modo que as sinalizações semafóricas tenham seus intervalos de indicações de luzes verdes reprogramados, a fim de permitir que pelotões de veículos atravessem os corredores, sem haver interrupções desnecessárias da locomoção do mesmos. No primeiro item da lista enumerada acima, os agentes Sinalização Semafórica interagem uns com os outros, primeiramente, trocando mensagens relacionadasà execução do algoritmo SMER para controle de interseções isoladas. Por meio destas mensagens, os agentes Sinalizações Semafóricas têm conhecimento do estado em que as interseções se encontram. Em outras palavras, este estado quer dizer quais vias têm permissão para escoar seus fluxos de tráfego e quais as vias não têm tal permissão. Uma segunda interação, relacionada ao primeiro item da lista enumerada acima,é quando os agentes Sinalização Semafórica interagem uns com os outros, compartilhando o conhecimento que cada um tem a respeito das condições de tráfego da via entrada controlada pela sinalização semafórica que o embute. Por meio desta segunda interação, todos os agentes Sinalização Semafórica têm conhecimento das demandas de cada via de entrada da interseção em que as sinalizações semafóricas que os embutem participam. Por fim, uma terceira interação, em que os agentes Sinalização Semafórica realizam umaúltima interação, queé a atualização das reversibilidades e, consequentemente, do número de arestas entre os vértices do grafo utilizado pelo algoritmo SMER para controle de interseções isoladas. Nesta tese, todos os agentes Sinalização Semafórica possuem um conjunto comum de parâmetros de configuração. Tal conjuntoé formado pelos seguintes parâmetros: identificação da sinalização semafórica, identificação da interseção, tempo mínimo do intervalo de verde, tempo máximo do intervalo de verde, tempo do intervalo de amarelo, tempo de vermelho geral, via de entrada da interseção, grafo de controle utilizado durante a execução do algoritmo SMER para controle de interseções isoladas, comprimento daárea para monitoramento fluxo de tráfego, número de sinalizações semafóricas da interseção, periodicidade de obtenção de quantidade de veículos de uma via e número de obtenções de quantidade de veículos de uma via. No segundo item da lista enumerada acima, os agentes Sinalização Semafórica interagem uns com os outros, trocando mensagens relacionadasà execução do algoritmo SMER, mas no contexto do controle do acessoàs interseções compartilhadas entre sistemas coordenados de sinalizações semafóricas. Por meio das mensagens de interação, os agentes Sinalização Semafórica ativam e desativam os sistemas coordenados de sinalizações semafóricas. Uma vez que um sistema coordenadoé ativado, todas as sinalizações semafóricas pertencentes a ele têm seus intervalos de indicações de luzes verdes modificados, de modo que cada uma possa operar de maneira síncrona em relaçãoà outra. Para tanto, um agente Sinalização Semafóricá e o líder do sistema coordenado de sinalizações semafóricas e, por isto, ele interage primeiramente com outros agentes com a mesma responsabilidade, a fim de executarem o algoritmo SMER para controle de sistemas coordenados de sinalizações semafóricas. Neste sentido, cada agente Sinalização Semafórica líder de um sistema coordenado de sinalizações semafóricasé representado como um vértice do grafo utilizado pelo SMER para controle de sistemas coordenados de sinalizações semafóricas, a fim de ativar e desativar a sincronização de redes de sinalizações semafóricas instaladas em corredores. Além disto, os agentes Sinalização Semafórica líderes de sistemas de sinalizações semafóricas interagem com os demais agentes embutidos nas sinalizações semafóricas do mesmo sistema coordenado. Cada agente líder interage com os demais agentes do mesmo sistema coordenado, atuando como um mestre e os demais agentes como escravos [75]. Isto, portanto, caracteriza uma segunda interação do agente Sinalização, dentro do contexto relacionado ao segundo item da lista enumerada acima. No que tange o controle de sistemas coordenados de sinalizações semafóricas, cada um vértice do grafo, queé utilizado durante a execução do algoritmo SMER para controle de sistemas coordenados de sinalização semafórica, representa uma agente Sinalização Semafórica. Por isto, estes agentes controladores precisam também ser configurados com os seguintes parâmetros de configuração: identificador do corredor contendo as sinalizações semafóricas, lista de participantes do sistema coordenado de sinalizações semafóricas, seguimentos de via componentes do corredor, grafo de controle utilizado pelo algoritmo SMER para controle de sistemas coordenados de sinalização semafórica, número mínimo de ciclos por operação de coordenação de sinalizações semafóricas e número máximo de ciclos operação de coordenação de sinalizações semafóricas, lista de identificações de corredores agrupados, periodicidade de compartilhamento de médias de quantidades de veículos, periodicidade de compartilhamento de médias de quantidades veículos de um grupo de sistemas coordenados de sinalizações semafóricas e periodicidade de atualização de demandas de corredores de sistemas coordenados de sinalizações semafóricas. Dessa forma, cada agente líder de um sistema coordenado de sinalizações semafóricas coordena todos os demais agentes participantes do mesmo sistema coordenado, com o intuito de sincronizar um a um, utilizando seu relógio como ponto de partida. Além disto, o agente Sinalização Semafórica líder de um sistema coordenado de sinalizações semafóricas também interage com o agente Centro de Controle de Tráfego. Isto, portanto, caracteriza o terceiro item da lista enumerada acima. Uma vez que um veículo conectado alcança uma onda verde de uma das sinalizações semafóricas, participantes do sistema coordenado cujas sinalizações semafóricas estevam sincronizadas, ele poderá alcançar o fim do corredor, sem a necessidade de parar atrás de uma sinalização semafórica com a luz vermelha acesa.À medida que um agente controlador de sistema coordenado de sinalizações semafóricas desativa um corredor em função da execução do algoritmo SMER para controle de sistemas coordenados de sinalizações semafóricas, ele realiza uma terceira interação, sendo esta com os demais agentes do mesmo sistema coordenado, liberando-os das operações sincronizadas. Neste caso, estes agentes passam a executar o SMER para controle de interseções isoladas. Além disso, os agentes Sinalização Semafórica controladores de sistemas coordenados de sinalizações semafóricas interagem com os demais agentes de mesma responsabilidade, compartilhando seus conhecimentos acerca das condições de tráfego de seus corredores. A partir desta quarta interação, todos os agentes líderes têm conhecimento das condições de tráfego de cada corredor existente em uma rede viária urbana. Por fim, os agentes Sinalização Semafórica líderes de sistemas coordenados de sinalizações semafóricas realizam uma quinta interação, queé a atualização das reversibilidades e, consequentemente, do número de arestas entre os vértices do grafo utilizado pelo algoritmo SMER para controle de sistemas coordenados de sinalizações semafóricas. Para que os agentes Sinalização Semafórica participantes de sistemas coordenados de sinalizações semafóricas interajam com os agentes Sinalização Semafórica controladores, compartilhando dados acerca das condições de tráfego das vias, onde suas sinalizações semafóricas estão instaladas, estes agentes precisam ser configurados com os seguintes parâmetros de configuração: identificadores dos corredores e identificadores dos controladores dos sistemas coordenados de sinalização semafóricas. Noâmbito do sistema de planejamento e orientação de rotas, os agentes Sinalização Semafórica interagem uns com os outros para atingir os seguintes objetivos, são eles: 1. Manter atualizadas as cópias de agendas de intervalos de indicações de luzes verdes geradas com base nos estados de controle enviados pelas sinalizações semafóricas instaladas em interseções isoladas; 2. Manter atualizadas as cópias de agendas de intervalos de luzes verdes geradas com base nos estados de controle enviados pelas sinalizações semafóricas, que são instaladas em interseções participantes de sistemas coordenados de sinalizações semafóricas; 3. Alocar e desalocar espaços de uso em vias de entradas de interseções controladas por sinalizações semafóricas. No primeiro item da lista enumerada acima, os agentes Sinalização Semafórica interagem uns com os outros, assim como, com agentes Veículo. Assim,à medida que os agentes Sinalização Semafórica reprogramam as sinalizações semafóricas, a fim de ajustar os intervalos de indicação de luzes verdes em função das flutuações dos fluxos de tráfego das vias de entrada das interseções, eles interagem com os agentes Sinalização Semafórica da mesma interseção e com os demais agentes Sinalização Semafórica do sistema de controle de tráfego, compartilhando o estado de controle da interseção. Como mencionado anteriormente, tal estadoé compostos pelos parâmetros de configuração de performance de todos os agentes Sinalização Semafórica da interseção, assim como, o grafo de controle utilizado pelo algoritmo SMER para controle de interseções isoladas. Quando os agentes Sinalização Semafórica recebem tal estado de controle, eles o utilizam para gerar as entradas das agendas tempos relativas aos intervalos de indicação de verde de cada uma das sinalizações semafóricas instaladas na interseção. Após isto, cada um destes agentes Sinalização Semafórica interage com os agentes Veículo embutidos nos veículos que trafegam na via controlada pela sinalização semafórica do agente Sinalização Semafórica, notificando os agentes Veículo, de modo que estes possam interagir novamente com o agente Sinalização Semafórica, requisitando novos cálculos de rotaś otimas. No segundo item da lista enumerada acima, os agentes Sinalização Semafórica cujas sinalizações semafóricas participam de sistemas coordenados de sinalizações semafóricas interagem com os demais agentes Sinalização Semafórica pertencentes ao sistema de controle de tráfego e agentes Veículo.À medida que os agentes Sinalização Semafórica embutidos em sinalizações semafóricas integrantes de sistemas coordenados de sinalizações semafóricas participam da ativação destesúltimos, a fim de ajustar os inícios dos intervalos de indicação de verde de tais sinalizações, de modo que as redes de sinalizações semafóricas destes corredores sejam sincronizadas, eles interagem com os agentes Sinalização Semafórica da mesma interseção. Esta interação faz com que o algoritmo SMER para controle de interseções isoladas controle a interseção, executando como se fosse o algoritmo SER. A partir disto, as agendas de tempos das sinalizações semafóricas de uma mesma interseção são modificadas. Neste caso, as entradas atuais das agendas de intervalos de indicações de luzes verdes das sinalizações semafóricas são removidas e, em seguida, novas entradas são geradas a partir do novo estado de controle da interseção. Após este procedimento, os agentes Sinalização Semafórica das sinalizações semafóricas instaladas na interseção interagem com os agentes Veículo dos veículos conectados que trafegam nas vias de entrada da interseção, de modo que estes possam interagir com os agentes Sinalização Semafórica, a fim de requisitar novos cálculos de rotaś otimas. O próximo passoé interagir com os demais agentes Sinalização Semafórica do sistema de controle de tráfego, compartilhando os novos estados de controle da interseção. O responsável por este passoé o agente Sinalização Semafórica embutido na sinalização semafórica participante do sistema coordenado de sinalizações semafóricas ativado. Ao receberem estes novos estados, os demais agentes Sinalização Semafórica do sistema de controle de tráfego reorganizam as entradas das cópias das agendas de intervalos de indicações de luzes verdes relativasàs sinalizações semafóricas das interseções participantes de um sistema coordenado de sinalizações semafóricas ativo, conforme explicado neste parágrafo. Com isto, os demais agentes Sinalização Semafórica interagem com os agentes Veículo dos veículos conectados que trafegam nas vias de entradas das interseções, para que estes interajam com os agentes Sinalização Semafórica, requisitando novos cálculos de rotasótimas. Por fim,à medida que os sistemas coordenados de sinalizações semafóricas são desativados, conforme as dinâmicas de execução do algoritmo SMER para controle de sistemas coordenados de sinalizações semafóricas, os agentes Sinalização Semafórica, participantes do sistema coordenado de sinalizações semafóricas, voltam a controlar as interseções, de acordo com as dinâmicas de execução do algoritmo SMER para controle de interseções isoladas. Após isto, todo o sistema de controle de tráfego sofre uma atualização, no que diz respeitoàs novas entradas das agendas de tempos relativas as sinalizações semafóricas que participaram das coordenações das redes de sinalização semafóricas promovidas pela ativação anterior de sistemas coordenados de sinalizações semafóricas. A partir disto, os agentes Sinalização Semafórica interagem com os agentes Veículo dos veículos nas vias de entrada das interseções, de modo que estes interajam com eles, requisitando novos cálculos de rotasótimas. No terceiro item da lista enumerada acima, os agentes Sinalização Semafórica interagem com os demais agentes Sinalização Semafórica pertencentes ao sistema de controle de tráfego, manutenindo as estruturas de dados relativasàs alocações de espaços de uso nas vias de entrada das interseções controladas pelas sinalizações semafóricas do sistema de controle de tráfego, após os agentes Veículo confirmarem o recebimento de um cálculo de rotaótima.À medida que os agentes Sinalização Semafórica atualizam localmente essas estruturas de dados, após receberem a confirmação do uso das rotasótimas por parte dos agentes Veículo, eles interagem com os demais agentes Sinalização Semafórica, atualizando as estruturas de dados destes. Esta atualização consiste em remoções e inserções de entradas nas estruturas de dados relativasàs alocações de espaços de uso as vias de entrada das interseções. Vale ressaltar, que para cada entrada de uma agenda de tempos de uma sinalização semafórica existe uma estrutura de dados própria para a alocação de espaços de uso na via de entrada durante o intervalo de indicação de verde, queé representado pela entrada da agenda de tempos. Considerações Finais Este capítulo introduziu e descreveu os agentes utilizados tanto pelo sistema de controle de tráfego quanto pelo sistema de planejamento e orientação de rotas. A descrição dos agentes quanto dos agentes foi o mais alto nível possível, a fim de preparar para os detalhamentos acerca do sistema de controle de tráfego e do sistema de planejamento e orientação de rotas. A fim de dar prosseguimento ao detalhamento desta tese, o capítulo seguinte apresentará os detalhamentos acerca de um sistema de controle de tráfego, utilizando sinalizações semafóricas inteligentes e veículos conectados. Capítulo 7 Controle Inteligente de Tráfego Utilizando Sinalizações Semafóricas e Veículos Conectados Este capítulo tem como objetivo detalhar a implementação do sistema multiagente para controle de tráfego, queé proposto por esta tese. Este sistema multiagente faz uso de três dos quatro agentes apresentados no capítulo anterior, a saber: Centro de Controle Tráfego, Veículo e Sinalização Semafórica. Para tanto, este capítulo inicia, detalhando o problema de controle de tráfego, a fim de fornecer um esclarecimento maior acerca do assunto. Depois disto, discute-se conceitualmente sobre como tratar o problema de controle de tráfego, aplicando o algoritmo SMER e veículos conectados. Por fim, são apresentados os detalhamentos algorítmicos relativosàs estratégias apresentadas para solução do problema de controle de tráfego. Descrevendo o Problema de Controle de Tráfego O problema de controle de tráfego por meio de sinalizações semafóricas está em reconfigurar o tamanho do intervalo de indicação de luz verde de cada sinalização semafórica, a fim de maximizar o fluxo de tráfego nas redes viárias controladas por tais sinalizações, levando em consideração regras de segurança e igualdade. Dessa forma, um conjunto de sinalizações semafóricas controla uma interseção, queé formado por um conjunto de vias. Tal conjunto de viasé dividido em dois subconjuntos, a saber: o subconjunto de vias onde os veículos entram na interseção e o subconjunto de vias onde os veículos deixam a interseção. As regras de segurança descrevem os princípios de funcionamento das sinalizações semafóricas. Maiores detalhes a respeito destes princípios são apresentados na Seção 2.3.4. Além destas regras, também existem as regras de igualdade cujo intuitoé distri-buir de maneira justa os tempos das fases das sinalizações semafóricas que controlam as vias de entrada de uma interseção. Portanto, para todas estas vias, deve ser fornecido um tempo mínimo de duração para fase cuja luzé verde. No que tange a intervalo de indicação cuja luzé amarela, esta tem um tempo fixo de duração. De acordo com os fluxos de tráfego que incidem em uma interseção, a fase de luz verde de cada uma das vias de entrada da interseção pode sofrer ajustes. Tais ajustes tem como objetivo aumentar ou diminuir o tamanho do intervalo de indicação de luz verde. A variação permitida para o tamanho do intervalo de indicação de luz verdé e compreendida entre um tempo mínimo e um tempo máximo de duração. Com isto, fica a cargo de um controlador de sinalizações semafóricas distribuir de maneiraótima os tamanhos dos intervalos de indicação de luz verde para cada uma das vias de entrada de uma interseção, levando em consideração as flutuações do fluxo de tráfego em cada uma delas, sem que os tamanhos dos ciclos de fases das sinalizações ultrapassem o limite máximo de tempo recomendado pela literatura [54]. Este problema de controleótimo de tráfegoé relativoàs interseções isoladas, que são aquelas interseções, onde as sinalizações semafóricas operam a parte de sistema coordenado de sinalizações semafóricas. Um sistema coordenado de sinalizações semafóricasé um grupo de sinalizações semafóricas que têm seus inícios de intervalos de luz verde sincronizados, de modo que os veículos não precisem parar em cada uma interseção controlada por uma das sinalizações semafóricas deste sistema. Dessa forma, sistemas coordenados de sinalizações semafóricas são capazes de fornecer ondas verdes. Apesar disto, estes fluxos contínuos e ininterruptos de veículos podem ser interrompidos, caso os veículos não ganhem acesso exclusivoàs interseções compartilhadas entre dois ou mais sistemas coordenados de sinalizações semafóricas,à medida que eles se aproximam delas com o intuito de atravessá-las. Neste caso, deve ficar a cargo de um controlador de interseções compartilhadas tal responsabilidade. Tratando o Problema de Controle de Tráfego Para tratar o problema de controle de tráfego, que consiste em controlar interseções isoladas e interseções compartilhadas entre dois ou mais sistemas coordenados e sinalizações semafóricas, esta tese faz uso do algoritmo SMER, tendo como base o trabalho realizado por PAIVA [2]. Abaixo, portanto, seguem as explicações de como a proposta de PAIVA [2] foi aplicada nesta tese. Estratégia de Controle de Interseções Isoladas Para um melhor entendimento sobre como o SMER pode ser aplicado em um mecanismo multiagente de controle de interseções isoladas,é necessário pensar aárea de uma interseção entre vias de uma rede viária como um recurso compartilhado entre os fluxos de tráfego oriundos das vias de entrada cujos grupos de movimento são conflitantes. Sendo assim, tais fluxos podem ser considerados processos cujas operações necessitam de acesso a um recurso compartilhado, queé a interseção. Tais processos, por sua vez, são agentes Sinalização Semafórica. Dessa forma, quando uma via recebe luz verde da sinalização semafórica responsável pelo controle de seu fluxo, o agente Sinalização Semafórica toma para si o recurso compartilhado e este fica indisponível temporariamente para os agentes vizinhos até que a ação de controle termine. Passado o tempo de duração em que as luzes verdes das sinalizações semafóricas se mantêm acesas para as vias pertencentes ao mesmo grupo de movimento, o acesso por parte dos fluxos de tráfegoś e interrompido pelo agente Sinalização Semafórica. Esta interrupção do acessoà interseçãoé sinalizada com a luz vermelha. Consequente, os fluxos de tráfego das vias cujos os grupos de movimento conflitam com aqueles das vias que anteriormente recebiam luz verde de suas sinalizações semafóricas passam a ter acessoà interseção, recebendo luz verde de suas sinalizações semafóricas. Para lidar com estas dinâmicas de controle, o SMER faz uso de um multigrafo direcionado, em que cada vértice deste, nesta tese,é um agente Sinalização Semafórica e asáreas onde os fluxos de tráfego se cruzam são representadas por meio de arestas, permitindo definir um relacionamento de exclusão mútua entre fluxos de tráfegos pertencentes a grupos de movimentos conflitantes. Para representar as permissões de acesso aos recursos compartilhados entre os agentes Sinalizações Semafóricas, o SMER utiliza as orientações das arestas do multigrafo para indicar quais agentes podem acessar os recursos compartilhados. Dessa forma, quando um agente Sinalização Semafórica tem o número suficiente de arestas direcionadas para ele em cada arco entre o mesmo e um vizinho, a sinalização semafórica controlada por ele indica o intervalo de luz verde para os veículos da via controlada por ela, acendendo a luz verde do grupo focal da sinalização semafórica. Consequentemente, os veículos da via passam a ter permissão para atravessar a interseção. Enquanto um agente Sinalização Semafórica não tem todas as suas arestas voltadas para ele, o mesmo não permite que os veículos da via controlada por sua sinalização semafórica atravessem a interseção. Passados os intervalos das indicações das luzes verdes de suas sinalizações semafóricas, os agentes embutidos interagem com os demais agentes vizinhos da mesma interseção, revertendo suas arestas por meio de um envio de mensagem de interação. Com isto,é possível definir como as sinalizações semafóricas poderão operar e controlar o acessoà interseção por parte dos fluxos de tráfego de vias de entrada pertencentes a grupos de movimentos conflitantes. No entanto,é preciso que o algoritmo SMER consiga lidar com as flutuações de fluxos de tráfego em cada uma das vias de entrada de a interseção. Por utilizar um multigrafo, queé um grafo que possui duas ou mais arestas entre pelo menos um par de vértices pertencentes ao conjunto de vértices, o algoritmo de escalonamento em questão faz uso de uma quantidade de arestas para indicar quais agentes Sinalização Semafórica devem ter suas sinalizações semafóricas indicando intervalos de luz verde. Para indicar a quantidade de arestas que devem incidir nos vértices, adotase o conceito de reversibilidade para cada um dos agentes Sinalizações Semafórica. A reversibilidadeé um número inteiro maior ou igual a um, que indica a quantidade de arestas que cada um dos agentes vizinhos de um agente Sinalização Semafórica precisa direcionar para o mesmo. Todos os agentes Sinalizações Semafóricas são iniciados com o mesmo valor de reversibilidade, queé um. O valor das reversibilidades de cada agente Sinalização Semafórica muda em função das flutuações do fluxo de tráfego da via controlada pela sinalização semafórica que embute o agente. Por meio do mecanismo de reversibilidades, um agente Sinalização Semafórica permite que os veículos das vias controladas por sua sinalização semafórica atravessem a interseção, até que a quantidade de arestas direcionadas para ele seja menor que o valor de sua reversibilidade. Dessa forma, o algoritmo SMER consegue não pode somente controlar o acesso ao recurso compartilhado, que aquié uma interseção isolada, mas também balancear o tempo em que os fluxos de tráfego podem fluir através da interseção em função das flutuações de fluxos de tráfego. O tempo que os fluxos de tráfego podem fluir através das interseçõesé sempre múltiplo do tempo mínimo do intervalo de verde e nunca deve ultrapassar o parâmetro tempo máximo do intervalo de verde. Para descobrir a quantidade de veículos presentes nos fluxos de tráfego, os agentes Sinalização Semafórica contam com a cooperação dos agentes Veículos. Esta cooperação se dá,à medida que os agentes Veículo interagem com os agentes Sinalização Semafórica, informando a presença de seus veículos conectados nas vias controladas pelas sinalizações semafóricas por meio de mensagens de interação. Esta cooperação acontece em duas situações. Na primeira, o veículo do agente Veículo acabou de entrar em uma e, por isto, o agenteé obrigado a interagir com o agente Sinalização Semafórica, a fim de notificá-lo de sua presença. Naúltima, o agente Sinalização Semafórica interage com os agentes Veículos, solicitando que os mesmos notifiquem novamente a presença de seus veículos. Isto acontece periodicamente, pois o agente Sinalização Semafórica precisa medir a quantidade de veículos que se aproximam da intersecção. Após um determinado número de vezes, o agente Sinalização Semafórica calcula uma média a partir das quantidades de veículos obtidas. Todos os agentes Sinalização Semafórica são configurados com mesmo valor de periodicidade de obtenção de dados e o mesmo valor de quantidade de obtenções de dados. Ao final de cada período de medição das quantidades de veículos, os agentes Sinalização Semafórica interagem com o agente Centro de Controle de Tráfego, compartilhando a quantidade de veículos medida durante o período de obtenção deste dado e o instante de tempo em que a medição foi realizada. Para evitar problemas de sincronização de relógios, esta tese considera o uso de um relógio global que, por sua vez, pode ser acessado por meio de dispositivos GPS. Em ambas as situações em que os agentes Veículo interagem com um agente Sinalização Semafórica, esteúltimo agente deve confirmar também sua presença via, de modo que os agentes Veículo possam saber se as sinalizações semafóricas da interseção apresentam ausência de funcionamento. Caso isto aconteça, os agentes Veículo devem adotar uma estratégia de controle de interseção com ausência de sinalizações semafóricas, que, por sua vez, e apresentada na Seção 7.2.3. Uma vez que a quantidade de obtenções de dadosé atingida, cada agente Sinalização Semafórica interage com os seus vizinhos de interseção, compartilhando as médias dos dados obtidos por eles. Após terem conhecimento de todas as médias de seus agentes vizinhos, o agente Sinalização Semafórica executa o cálculo de demandas proposto por PAIVA [2]. Uma vez conhecidas as demandas, cada agente Sinalização Semafórica pode mudar o valor da reversibilidade relativo a ele, bem como, o número de arestas entre ele e seus vizinhos de interseção. Porém, isto somente acontece, quando o agente Sinalização Semafórica tem todas as arestas de seus vizinhos apontadas para ele. Com isto, ele realiza o ajuste de reversibilidade proposto por SANTOS [5]. Para tanto, o agente Sinalização Semafórica atualiza suas estruturas de dados locais e, em seguida, interage com os agentes vizinhos, notificando a mudança de reversibilidade por meio de mensagens de interação. Ao receberem estas mensagens, seus vizinhos atualizam suas estruturas de dados. Com tudo isso, esta tese trata o problema de controle e distribuição dos tamanhos dos intervalos de indicação de luzes verdes de sinalizações semafóricas utilizadas para controlar o acesso e limitar o tempo de uso de uma interseção isolada. No entanto, aindaé preciso tratar o problema de controle relativoàs interseções compartilhadas entre dois ou mais sistemas coordenados de sinalizações semafóricas. Estratégia de Controle de Sistemas Coordenados de Sinalizações Semafóricas Para tratar o problema de controle relativoàs interseções compartilhadas entre dois ou mais sistemas coordenados de sinalizações semafóricas,é necessário que os corredores contendo redes de sinalizações semafóricas sejam identificados. A partir desta identificação, deve-se escolher a sinalização semafórica cujo agente também será responsável pela ativação e desativação do sistema coordenado de sinalizações semafóricas. Em outras palavras, o agente da sinalização semafórica atuará também como líder do sistema de coordenação de sinalizações semafóricas. Nesta tese, a sinalização semafórica escolhida para tais finalidadesé sempre aquela que controla o primeiro seguimento de via do corredor contendo a rede de sinalizações semafóricas. Os líderes dos sistemas coordenados de sinalizações semafóricas devem conhecer todas as sinalizações semafóricas participantes do mesmo corredor, assim como, os identificadores das vias que elas controlam. Eles também devem conhecer outros líderes de sistemas coordenados de sinalizações, que, por sua vez, têm interseções compartilhadas entre eles. Com isto,é possível construir um multigrafo, de modo que este possa ser utilizado em um algoritmo SMER para controle de sistemas coordenados de sinalizações semafóricas. Neste contexto, os vértices do multigrafo representam os agentes líderes de sistemas coordenados de sinalizações semafóricas e cada conjunto de arestas representam o compartilhamento de uma interseção entre dois agentes líderes de sistemas coordenados de sinalizações semafóricas. Todos os agentes Sinalização Semafórica participantes de um sistema coordenado de sinalizações semafóricas devem conhecer os corredores em que participam, assim como, a identificação dos agentes Sinalização Semafórica líderes dos sistemas coordenado de sinalização semafóricas em que fazem parte. Por fim, cada agente líder deve saber quantos outros agentes líderes existem no sistema multiagente de controle de tráfego. Assim como no algoritmo SMER para controle de interseções isoladas, o algoritmo SMER para controle de sistemas coordenados de sinalizações semafóricas precisa que o multigrafo esteja em um estado inicial acíclico. Além disto, cada agente Sinalização Semafórica líder de um sistema coordenado de sinalizações possui sua própria reversibilidade, que, por sua vez,é diferente da reversibilidade utilizada durante o controle de uma interseção isolada. A reversibilidade inicial para cada um dos agentes Sinalizações Semafóricas líderes de um sistema coordenados de sinalizações semafóricasé igual a um. Com base nisso, o controle de sistemas coordenados de sinalizações semafóricasé iniciado. Quando o agente líder de um sistema coordenado de sinalizações semafóricas possui um número suficiente de arestas direcionadas para ele, em cada um dos arcos entre o mesmo e outro agente líder de um sistema coordenado de sinalização semafóricas, ele ativa o seu sistema coordenado de sinalizações semafóricas. Para tanto, esta tese usa um método diferente daquele proposto por PAIVA [2]. Assim, o agente líder cria uma cópia do multigrafo do algoritmo SMER para controle de sistemas coordenados de sinalizações semafóricas e, em seguida, executa localmente o algoritmo SMER para controle de sistemas coordenados de sinalizações semafóricas. A execução local deste algoritmo simula as reversões das arestas direcionadas para o agente Sinalização Semafórica líder de um sistema coordenado de sinalizações semafóricas. Para cada reversão de arestas realizada, um número mínimo de ciclosé utilizado para gerar mensagens de sincronização das sinalizações semafóricas participantes de um sistema coordenado. Cada ciclo da sinalização semafórica do agente líder de um sistema coordenado de sinalizações semafóricas ativado equivale a geração de uma onda verde. A cada ciclo, o agente líder interage com os demais agentes participantes, configurando estes agentes, de modo que os inícios dos intervalos de indicação das luzes verdes das sinalizações semafóricas destes possam ser sincronizados.À medida que recebem a mensagem de interação pela primeira vez, os agentes participantes tomam ciência do número de ciclos configurado para sistema coordenado de sinalizações semafóricas e o instante em que a sinalização semafórica deve iniciar a sua participação no sistema coordenado de sinalizações semafóricas. A partir deste instante, os agentes das interseções participantes do sistema coordenado de sinalizações passam a controlá-las, como se eles estivessem executando o algoritmo SER. Uma vez tomada a ciência de tais dados, o agente líder e os demais agentes do sistema coordenado de sinalizações, a cada ciclo de suas sinalizações semafóricas, decrementam em um o número de ciclos recebido. Quando este número chega a zero, agentes das interseções participantes voltam a controlá-las com o algoritmo SMER para controle de interseções isoladas, até que recebam uma nova mensagem de interação, requisitando a participação dos agentes no mesmo sistema coordenado de sinalizações semafóricas ou outro, caso a interseção seja compartilhada entre dois ou mais sistemas coordenados de sinalizações semafóricas. A desativação de um sistema coordenado de sinalizações semafóricas só ocorre efetivamente, quando o número de arestas de cada arco entre o agente líder do sistema coordenado e outro agente de mesma responsabilidadeé menor que a sua reversibilidade. Quando isto acontece, a interseção do agente líder do sistema coordenado de interseções volta a ser controlada pelo algoritmo SMER para controle de interseções isoladas. Por meio do mecanismo de reversibilidades, um agente Sinalização Semafórica líder de um sistema coordenado de sinalizações semafóricas permite que pelotões de veículos atrevem corredores formados por seguimentos de vias controlados por sinalizações semafóricas. Isto acontece, enquanto o número de arestas direcionadas para o agente, em cada um dos arcos entre ele e outro agente líder de um sistema coordenado de sinalizações, for maior ou igual a reversibilidade do agente. O tempo em que os pelotões de veículos podem fluir ao longo dos corredores varia em função das flutuações de tráfego nos seguimentos de vias componentes dos corredores. Para descobrir a quantidade de veículos dos seguimentos de vias de um corredor, o agente Sinalização Semafórica líder de um sistema de coordenado de sinalizações semafóricas conta com a interação entre os agentes Sinalização Semafórica participantes de seu sistema coordenado e ele. Esta interseção acontece,à medida que os agentes compartilham suas médias de quantidades de veículos com os agentes controladores dos sistemas coordenados de sinalizações semafóricas em que fazem parte. Uma vez que um número dessas interaçõesé alcançado, o agente líder de um sistema coordenado de sinalizações semafóricas escolhe a maior média de quantidades de veículos como sua demanda e, em seguida, interage com os demais agentes controladores de sistemas coordenados de sinalizações semafóricas, compartilhando tal informação. Para aumentar o coeficiente de concorrência do algoritmo SMER para controle de sistemas coordenados de sinalizações semafóricas, PAIVA [2] criou um agrupamento de sistemas coordenados de sinalizações semafóricas, de modo que as reversibilidades de todos os agentes líderes de sistemas coordenados de sinalizações semafóricas de um mesmo grupo tivessem o mesmo valor. Para tanto, os agentes controladores de um mesmo grupo de sistemas coordenados de sinalizações semafóricas escolhem a maior média de quantidades de veículos do grupo e a utiliza para fins de cálculos e ajustes de reversibilidades, conforme descrito em SANTOS [5]. Antes de ajustarem suas reversibilidades, os agentes líderes precisam interagir com aqueles agentes líderes que concorrem pelas mesmas interseções, compartilhando a média de quantidade de veículos de seu grupo de sistemas coordenados de sinalizações semafóricas. Uma vez que isso tenha sido feito, os agentes controladores de sistemas coordenados de sinalizações semafóricas podem ajustar suas reversibilidades, quando estes ganharem o direito de ativas seus sistemas coordenados de sinalizações semafóricas. Dessa forma, o algoritmo SMER para controle de sistemas coordenados de sinalizações semafóricas balanceia os tempos em que os pelotões de veículos podem fluir ao longo de corredores formados por seguimentos de vias controladas por sinalizações semafóricas, levando em consideração as flutuações dos fluxos de tráfego desses corredores. Estratégia de Controle com Ausência de Sinalizações Semafóricas Como mencionado anteriormente, os agentes Veículo podem detectar a ausência de funcionamento de sinalizações semafóricas tanto em interseções isoladas ou aquelas que participam de sistemas coordenados de sinalização semafórica. Uma vez detectada a ausência de funcionamento das sinalizações semafóricas de uma interseção, os agentes Veículos devem providenciar imediatamente o controle da mesma. Para detectar a ausência de funcionamento das sinalizações semafóricas de uma interseção, o banco de dados de mapas deve conter dados, que permitam os agentes Veículo verificarem se uma interseçãoé controlada ou não por um conjunto de sina-lizações semafóricas [87]. Além disto, estes mesmos bancos de dados devem também fornecer dados acerca dos comprimentos dasáreas para monitoramento de fluxo de tráfego. Por meio desta informação, os agentes Veículo se tornam cientes dos pontos dos seguimentos de via, onde eles podem iniciar interação com os agentes Sinalização Semafóricos embutidos nas sinalizações semafóricas instaladas sobre as vias em que trafegam. A partir do momento em que os veículos conectados dos agentes estejam em umaárea de monitoramento de fluxo de tráfego, eles anunciam suas presenças na via de entrada da interseção para o agente Sinalização Semafórica, por meio de uma interação. Após um número de tentativas malsucedidas de anunciar a presença dos veículos, os agentes Veículo iniciam a estratégia de controle com a ausência de sinalizações semafóricas. Para tanto, os agentes Veículos precisam inicialmente interagir com o agente Centro de Controle de Tráfego, a fim de recuperar o estado de controle das interseções, queé obtido a partir da simulação do sistema de controle de tráfego mantida pelo sistema supervisório. Juntamente com o estado de controle da interseção, o agente Veículo também recupera os parâmetros das sinalizações semafóricas da interseção. Tais parâmetros foram descritos na Seção 6.4. Esta tese considera que tal simulação está sincronizada com o sistema real de controle de tráfego. Dessa forma, os agentes Veículo recuperam os dados contendo o estado de controle das interseções e, em seguida, passam a executar localmente o algoritmo vigente de controle da interseção. O algoritmo vigente de controle de interseção pode ser uma versão local do algoritmo SMER para controle de interseções isoladas ou uma versão local do algoritmo SMER, executando como SER, quando a interseção está participando de um sistema coordenado de sinalizações ativo. Esta execução local cria sinalizações semafóricas virtuais, que, por sua vez, simulam o funcionamento das sinalizações semafóricas reais que apresentam ausência de funcionamento. Para que estas execuções locais se mantenham sincronizadas, elas fazem uso dos relógios dos dispositivos GPS, que, por sua vez, são embutidos nos veículos. Após isto, os agentes Veículos devem tomar ciência das indicações das sinalizações semafóricas virtuais das vias, onde os veículos que os embutem estão trafegando. Se as sinalizações semafóricas virtuais indicarem luz amarela, os agentes Veículos, cujos veículos conectados estão na mesma via, precisam imediatamente iniciar uma eleição de líder entre eles. Para tanto, eles interagem entre si, compartilhando suas posições geográficas, enquanto o intervalo de indicação de luz amarela durar.À medida que os agentes Veículo recebem mensagens de interação, eles formam uma base de conhecimento acerca dos posicionamentos dos veículos em uma mesma via de entrada de uma interseção. Logo,à medida que esta base de conhecimentoé formada, os agentes Veículo executam um algoritmo simples para identificar o líder. Este algoritmo identifica qualé o veículo mais próximo da faixa de retenção da via de entrada de uma interseção. Dessa forma, todos agentes Veículos sabem qualé o veículo conectado líder. Quando um veículo conectadoé o líder, o agente embutido nele adquiri alguns comportamentos de um agente Sinalização Semafórica. O agente Veículo passa coletar dados acerca do fluxo de tráfego da via onde seu veículo conectado trafega e dos fluxos de tráfego das vias de grupos de movimentos conflitantes. Após o término período de medição das quantidades de veículos nas vias de entrada da interseção, o agente Veículo interage primeiramente com o agente Centro de Controle de Tráfego, compartilhando a quantidade veículos medida durante o período de medição, de modo que tal dado seja utilizado na atualização do estado de controle da interseção na simulação mantida pelo sistema supervisório. Porúltimo, o agente Veículo atualiza sua base de conhecimento local e, em seguida, interagem com os agentes Veículos cujos veículos conectados trafegam pelas vias de entrada da interseção, compartilhando o mesmo dado. Desta forma, a versão local do algoritmo SMER para controle de interseções pode realizar os ajustes de reversibilidades e, com isto, reagiràs flutuações de tráfego das vias de entrada da interseção. Se a interseçãoé participante de um sistema coordenado de sinalizações semafóricas, ele também interage com o (s) agente (s) Sinalização Semafórica controladores de sistema (s) coordenado (s) de sinalizações semafóricas, compartilhando a média das quantidades de veículos obtidas durante os períodos de medição. Desta forma, os líderes dos sistemas coordenados de sinalizações semafóricas atualizam os dados relativos aos seguimentos de via participantes de corredores. Todos esses comportamentos são abandonados pelo agente Veículo, após a sinalização semafórica virtual indicar luz verde. Sistema Multiagente de Controle de Tráfego Esta seção tem como objetivo apresentar os detalhamentos algorítmicos relativos a cada uma das estratégias apresentadas anteriormente. Primeiramente, são apresentados os detalhes acerca da inicialização do sistema multiagente de controle de tráfego. Após isto, são apresentados os detalhes do controle de tráfego em interseções isoladas. Em seguida, são apresentados os detalhes a respeito do controle de sistemas coordenados de sinalizações semafóricas. Por fim, são apresentados os detalhes de um controle de interseções baseado em veículos conectados. Inicialização do Sistema Multiagente de Controle de Tráfego Esta seção tem como objetivo descrever o processo de inicialização das instâncias dos agentes participantes do sistema multiagente de controle de tráfego. Tais agentes são os seguintes: Centro de Controle de Tráfego, Veículo e Sinalização Semafórica. Antes de iniciar a descrição dos processos de inicialização das instâncias destes agentes, e necessário definir uma URI para identificar o sistema multiagente de controle de tráfego. Sendo assim, a URIé definida da seguinte forma radnet://ttm/trafficcontrol/signal control/. A partir desta, as instâncias dos agentes podem utilizá-la para registrar interesses e vias na camada de rede de seus ambientes. Tais ambientes, no contexto da HRadNet-VE, são nós de rede. O termo ambiente está sendo usado aqui, por uma questão de coerência com o paradigma de sistemas multiagentes. Para que um agente Centro de Controle de Tráfego possa entrar em operação,é necessário o registro de interesses na camada de rede do ambiente, a fim de preparar o ambiente para comunicações centradas em interesses e mapear as ações executadas pelo agente,à medida que o mesmo recebe uma mensagem de interação. Durante o registro de interesses na camada de rede do ambiente, devem ser informados os seguintes dados: interesse, número máximo de saltos (NMS) e a tecnologia de acessò a comunicação (TAC). Tal entrada de dadosé comum para todos os agentes descritos nesta tese. A Tabela A.1 apresenta os interesses registrados por um agente Centro de Controle de Tráfego e as ações executadas pelo agente. Para que um agente Veículo possa operar,é necessário atribuir um valor ao parâmetro de configuração de performance relativoà frequência de interações com um agente Sinalização Semafórica, no que tange a notificação da presença de um veículo em via controlada por uma sinalização semafórica. Segundo ZHENG et al. [30], o valor deste parâmetro deve ser igual a 1 Hz. Além desse parâmetro, outro que tambémé necessária a atribuição de um valoré aquele relativo a frequência de interações para realização de descobertas de veículos líderes em uma via de entrada de uma interseção. Segundo ZHENG et al. [30], o valor deste parâmetro deve ser igual a 10 Hz. No que diz respeito a via onde o veículo se encontra, estaé configurada dinamicamente pelo agente,à medida que o veículo trafega ao longo dos segmentos de via de uma rede viária. Para tanto, a cada segundo o agente utiliza as coordenadas do GPS embutido no veículo conectado e a banco de dados de mapas local. Por fim, tambémé necessário registrar os interesses na camada de rede do ambiente que suporta o agente, assim como, mapear as ações que deverão ser executadas, quando o agente receber uma mensagem de interação. A Tabela A.2 apresenta os dados relativos ao registro de interesses no ambiente de um agente Veículo e as descrições das ações associadas aos interesses. No que diz respeitoàs ações executadas pelo ambiente do agente Veículo, estas remetem aos procedimentos relativosà execução do protocolo de comunicação da HRAdNet-VE. Após o registro dos interesses, o agente Veículo escalona duas ações em seu mecanismo de planejamento de ações, são elas: monitoramento de faixas e notificação de presença na via onde ele está trafegando. Para que um agente Sinalização Semafórica possa operar,é necessário atribuir valores aos parâmetros de configuração de performance, de acordo com a atuação deste agente do sistema multiagente de controle de tráfego. Os valores para esses parâmetros devem ser informados pelo engenheiro de tráfego, quando o mesmo estiver configurando o sistema multiagente de controle de tráfego, utilizando um sistema supervisório. Sendo assim, o engenheiro de tráfego deve inicialmente atribuir os valores dos parâmetros de configuração de performance comuns a todos os agentes Sinalização Semafórica, que são: identificação da sinalização semafórica, de registrarem seus identificadores. Além desses parâmetros de configuração de performance, os engenheiros de tráfego também precisam informar as vias, onde os agentes Sinalização Semafórica operarão. Tais dados devem ser extraídos de um banco de dados de mapas e, em seguida, registrados na camada de rede do ambiente. Após isto, um agente Sinalização Semafórica inicia o registro de interesses na camada de rede de seu ambiente. Existem interesses e ações que são comuns a todos os agentes Sinalização Semafórica. Estes, por sua vez, são apresentados na Tabela A.3. Esses interesses garantem que os agentes Sinalização Semafórica possam executar o algoritmo SMER para controle de interseções isoladas. Além desses interesses, existem aqueles que também são adicionados pelos agentes Sinalização Semafórica que operam em sistemas coordenados de sinalizações semafóricas. Estes são apresentados nas Tabelas A.5 e A.6. Por fim, ainda existe um interesse que precisa ser registrado pelos agentes Sinalização Semafórica cujas sinalizações semafóricas não participam permanentemente (pertence a dois ou mais sistemas coordenados de sinalizações semafóricas) ou temporariamente (nãoé participante, mas integra uma interseção participante de um sistema coordenado de sinalizações semafóricas) de operações de coordenação de sinalizações semafóricas. Os interesses registrados por estes agentes são apresentados na Tabela A. 7 Após a etapa de registro de interesses, um agente Sinalização Semafórica verifica o estado inicial do multigrafo utilizado no controle da interseção, a fim de verificar se ele poderá iniciar o intervalo de luz verde da sinalização semafórica que o embute. Se verdadeiro, a luz verdeé acesa e, em seguida, o agente escalona uma ação para dar início ao intervalo de amarelo, utilizando o tempo mínimo de intervalo de luz verde para isto. Se falso, a luz vermelhaé acesa e, em seguida, o agente espera por reversões de arestas por parte de seus vizinhos. Após isto, se o agenteé um líder de um sistema coordenado de sinalizações semafóricas, ele deve verificar o estado inicial do multigrafo utilizado no controle de sistemas coordenados de sinalizações semafóricas, a fim de verificar se ele poderá ativar o seu sistema coordenado de sinalizações semafóricas. Se verdadeiro, o agente imediatamente executa o Algoritmo 18, queé apresentado na Seção 7.3.3. Por fim, os agentes Sinalização Semafórica escalonam suas ações em seu mecanismo de planejamento de ações, a fim de obter as quantidades de veículos nas vias controladas por suas sinalizações semafóricas. Controlando Tráfego em Interseções Isoladas Esta seção tem como objetivo apresentar a abordagem algorítmicas para controle de tráfego em interseções isoladas, que, por sua vez,é proposta por esta tese. O detalhamento desta abordagem não serve somente para descrever os algoritmos uti-lizados no controle de interseções isoladas, mas também como ela tira proveito das características da HRAdNet-VE. Monitoramento de Mudanças de Faixas ou Vias Controlando Sistemas Coordenados de Sinalizações Semafóricas Esta seção tem como objetivo apresentar a abordagem algorítmicas para controle de sistemas coordenados de sinalização semafórica, que, por sua vez,é proposta por esta tese. O detalhamento desta abordagem não serve somente para descrever os algoritmos utilizados no controle de sistemas coordenados de sinalizações semafóricas, mas também como ela tira proveito das características da HRAdNet-VE. Ativação de um Sistema Coordenado de Sinalizações Semaforicas Controle da Ativação de Sistemas Coordenados de Sinalizações Semafóricas De acordo com o Algoritmo 14, um agente Sinalização Semafórica líder de um sistema coordenado de sinalização semafórica, ao executar a ação de acionamento da luz amarela, reverte as arestas direcionadas para ele noâmbito do controle de sistemas coordenados de sinalizações semafóricas, caso o número de ciclos seja zero. Para tanto, uma mensagem de interação, contendo o interesse corridor edge reversal,é enviada para todos os agentes controladores de sistemas coordenados de sinalizações semafóricas, utilizando uma interface de acessoà comunicação baseda no padrão LTE. Ao receber uma mensagem de interação M sg j , contendo o interesse corridoredge reversal, um agente Sinalização Semafórica líder de um sistema coordenado de sinalizações semafóricas trata a mesma, executando o Algoritmo 24. O algoritmo inicia, verificando se a mensagem de interaçãoé proveniente de um corredor vizinho. Para isto, o algoritmo faz uso parâmetro corredor contido na mensagem (Msg j .parametros["corredor"] ). Se verdadeiro, o algoritmo reverte as arestas do corredor cuja mensagemé proveniente. Em seguida, o algoritmo verifica seé possível escalonar o início de uma coordenação de sinalizações semafóricas. Para tanto, o agente líder de um sistema coordenado de sinalizações semafóricas precisar ter um número de arestas direcionadas nos arcos, que, por sua vez, seja maior ou igual a reversibilidade do corredor. Se verdadeiro, o algoritmo escalona para execução 136 imediata o início da coordenação de sinalizações semafóricas. Isto faz com que um sistema coordenado de sinalizações semafóricas seja ativado. Portanto, o Algoritmo 18é executado. Obtenção de Quantidades de Veículos em Corredores De acordo com o Algoritmo 9, se um agente Sinalização Semafóricaé participante de um ou mais sistemas coordenados de sinalizações semafóricas, mas o mesmo nãó e um controlador, ele compartilha também a sua média de quantidades de veículos com o agente líder do sistema coordenado de sinalizações semafórica em que ele faz parte. Para tanto, o agente interage com cada líder de sistema coordenado de sinalizações semafóricas em que o mesmoé participante, enviando uma mensagem de interação cujo interesse contido nelaé roadway segment vehicle amount. Ao receber uma mensagem de interação , contendo o interesse roadway segment vehicle amount, um agente Sinalização Semafórica líder de um sistema coordenado de sinalizações semafóricas trata esta mensagem, executando o Algoritmo 25. Este algoritmo apenas registra as médias das quantidades de veículos obtidas por cada participante de um sistema coordenado de sinalizações semafóricas (mediasQtdeVeiculosCor i ). A partir destas médias, um agente Sinalização Semafórica líder de um sistema coordenado de sinalizações semafóricas pode escolher a maior média entre elas e, em seguida, compartilhar com outros agentes controladores de sistemas coordenados de sinalizações semafóricas de um mesmo grupo. Istoé feito periodicamente, de acordo com o parâmetro de periodicidade de compartilhamento de medias de quantidades de veículos entre agentes de um mesmo grupo de sistemas coordenados de sinalizações semafóricas. O valor deste parâmetro deve ser superior a periodicidade de obtenção de médias de quantidades de veículos. Sendo assim, o Algoritmo 26é constantemente executado. Ao receber uma mensagem de interação , contendo o interesse group member vehicle amount, um agente Sinalização Semafórica líder de um sistema coordenado de sinalizações semafóricas trata esta mensagem, executando o Algoritmo 27. Este algoritmo apenas registra as médias das quantidades de veículos obtidas em cada sistema coordenado de sinalizações semafóricas pertencente ao mesmo grupo (mediasQtdeVeiculosGrupo i ). A partir destas médias, um agente Sinalização Semafórica líder de um sistema coordenado de sinalizações semafóricas pode escolher a maior média entre elas e, em seguida, assumir este valor como sua média de quantidade de veículos (Algoritmo 28). Isto faz com que todos os agentes controladores dos sistemas coordenados de sinalizações semafóricas de um mesmo grupo assumam o mesmo valor de média de quantidades de veículos. Após isto, o algoritmo envia uma mensagem de interação, contendo o interesse corridor vehicle amount, a fim de compartilhar a média escolhida com os agentes controladores de sistemas coordena- Considerações Finais Este capítulo apresentou as estratégias, propostas por esta tese, para tratar o problema de controle de tráfego por meio de sinalizações, bem como, a implementação das mesmas sobre uma rede veicular heterogênea centrada em interesses. Tais estratégias lidam com o controle de interseções isoladas, coordenação de sinalizações semafóricas e o controle de interseções em situações em que as sinalizações semafóricas apresentam ausência de funcionamento. A partir da implementação destas estratégias sobre um a rede veicular heterogênea centrada em interesses, foi possível criar um sistema de controle de tráfego distribuído e descentralizado, utilizando o paradigma de sistemas multiagentes, em que sinalizações semafóricas inteligentes e veículos conectados cooperam uns com os outros, a fim de melhorar a fluidez do tráfego em uma rede viária. Esse sistema de controle de tráfego, portanto, fornece as bases necessárias para a construção de um sistema de planejamento e orientação de rotas. Os detalhes acerca deste sistema são apresentados no próximo capítulo. 141 Capítulo 8 Planejamento e Orientação Inteligentes de Rotas Baseado em Interesses de Motoristas Este capítulo tem como objetivo apresentar a estratégia, proposta por esta tese, para lidar com o problema de planejamento e orientação de rotas, bem como, detalhar a implementação da mesma sobre a rede ad hoc veicular heterogênea centrada em interesses. O sistema multiagente para planejamento e orientação de rotas faz uso dos quatro tipos agentes apresentados no Capítulo 6, que são: Elemento Urbano, Centro de Controle Tráfego, Veículo e Sinalização Semafórica. Neste sentido, o sistema de planejamento e orientação de rotas tira proveito das implementações do sistema de controle de tráfego apresentado no capítulo anterior. Este capítulo inicia, descrevendo brevemente o problema de planejamento e orientação de rotas. Em seguida,é discutido conceitualmente a proposta de uma estratégia de solução para o problema em questão. Por fim, são apresentados os detalhamentos algorítmicos relativosà implementação da estratégia sobre a rede ad hoc veicular heterogênea centrada em interesses. Descrevendo o Problema de Planejamento e Orientação de Rotas O problema de planejamento e orientação de rotas está em dissipar rapidamente os fluxos de veículos e evitar congestionamentos, distribuindo os veículos de maneira uniforme ao longo de rotas alternativas. Tendo em vista que um controle de tráfegó e capaz somente de lidar com flutuações de tráfego em interseções isoladas ou em corredores de sinalizações semafóricas, eles não são imunes ao desbalanceamento dos fluxos de tráfego, queé causado pelas escolhas equivocadas de rotas por parte dos motoristas ou por mecanismos de planejamento e orientação de rotas ineficientes, tais como [64], TomTom [65], Waze [66], entre outros. Em outras palavras, Tais soluções reagem somente após os congestionamentos terem ocorrido e, com isso, acabam propagando os efeitos destes sobre uma parte substancial da rede viária. Isto se deve aos altos intervalos de atualização do estado do tráfego, que variam entre 2 a 30 minutos [26]. Segundo BROWNE et al. [61], Sistemas Flexíveis de Manufatura podem ser divididos em duas categorias: flexibilidade de máquina e flexibilidade de roteamento. A primeira categoria consiste na capacidade que o sistema tem de mudar, de modo que novos tipos de produtos sejam produzidos, bem como na capacidade de alterar a ordem das operações em uma parte deste sistema. A segunda categoria consiste na capacidade que sistema tem de usar várias máquinas para executar as mesmas operações em uma parte deste sistema, bem como a capacidade de absorver grandes mudanças em termos de volume, capacidade e capabilidade de processo. Dentro desta classificação, o problema de orientação de rotas pode ser tratado como um problema de Sistemas Flexíveis de Manufatura com flexibilidade de roteamento. Em Sistemas Flexíveis de Manufatura, existem diferentes processos com uma variedade de produtos que podem ou não seguir a mesma rota. Quando todos os grupos de produtos percorrem uma mesma rota para chegaràs estações de trabalho, o Sistema Flexível de Manufaturaé chamado de sistema de produção contínua ou Flow-Shop. Diferente disto, quando cada tipo de produto tem sua própria rota, o Sistema Flexível de Manufaturaé chamado de sistema de produção descontínua ou Job-Shop. Dentro da perspectiva de um Job-Shop, os destinos das viagens de cada motorista podem ser abstraídos na forma de diferentes produtos que precisam ser encaminhados para as diversas estações de trabalho do sistema de produção, utilizando rotas individuais, até que o processo de produção termine, ou seja, até que o motorista chegue ao destino de sua viagem sobre as vias de uma rede viária. Sendo assim, as viagens realizadas pelos motoristas podem ser abstraídas na forma de processos de produção, que são compostos por diversas estações de trabalho, de acordo com a rota a ser percorrida durante o processo de produção de um produto. Para que a viagem possa ser realizada, torna-se necessário o planejamento e ou o replanejamento de rotas. O planejamento e ou o replanejamento de rotas pode ser abstraído na forma de um escalonamento de operações de um produto em um Job-Shop. Sendo assim, uma rotaé abstraída na forma de um conjunto de operações a serem executadas em diversas estações de trabalhos do sistema. Com isto, cada operação representa um espaço de uso nas vias que conectam as interseções em uma rede viária. As diversas estações de trabalho do Sistema Flexível de Manufatura representam as interseções das vias de uma rede viária. Em uma rede viária, as interseções são conectadas umas as outras por meio vias que ao mesmo tempo são vias de saída de uma interseção e vias de entrada em uma outra interseção imediatamente a frente daquela cuja mesma viaé uma via de saída. Transpondo isto para um modelo de Job-Shop, as vias podem ser abstraídas na forma de filas, onde componentes de movimentação são organizados, de modo que estes se movam de estação de trabalhoà estação de trabalho, de acordo com o planejamento de rotas de cada produto. Por fim, os componentes de movimentação abstraem os veículos que trafegam ao longo das vias de uma rede viária, sendo esta abstraída na forma de uma rede job-shop composta por filas. Uma vez que o problema de orientação de rotas pode ser abstraído na forma de um problema de escalonamento de operações em um Job-Shop,é possível definir as estratégias e mecanismos a serem adotadas na construção de uma possível solução para o problema de planejamento e orientação de rotas. Sendo assim, este trabalho propõe o uso de um algoritmo de escalonamento baseado em regras de despacho com as heurísticas de menor data de entrega (Earliest Due Date -EDD) e menor tempo de processamento (Shortest Processing Time -SPT). A construção deste algoritmo depende fortemente das agendas de intervalos de indicações de luzes verdes, que devem ser geradas com base nos estados de controle das interseções de uma rede viária controlada pelo sistema de controle de tráfego. Conforme descrito até aqui, as sinalizações semafóricas são controladas por meio da execução de um algoritmo de escalonamento distribuído chamado SMER cujo funcionamento se baseia em um multigrafo. Para o correto funcionamento deste algoritmo,é necessário que cada sinalização semafórica mantenha uma cópia do multigrafo. Uma vez que tal grafo representa uma máquina de estados finitos, as sinalizações semafóricas tiram proveito desta abstração e, por isto, são capazes de utilizá-la para gerar localmente as agendas de intervalos de indicações de luzes verdes e das demais sinalizações semafóricas participantes da mesma interseção. Ao receberem os dados de controle de uma interseção, os agentes responsáveis pelo controle de uma interseção, agentes Sinalização e agentes Veículo, devem ser capazes organizá-las, de modo que estas sejam utilizadas por um algoritmo local de geração de agendas de intervalos de indicações de luzes verdes. Desta forma, cada agente Sinalização Semafórica gera uma cópia das agendas de intervalos de indicações de luzes verdes, utilizando dados de controle de interseções, ainda que tais dados mudem em função das flutuações dos fluxos de tráfego. Neste caso, em específico, os novos dados de controle das interseções precisam ser compartilhados com as demais agentes responsáveis pelo controle de interseções, de modo que eles possam excluir as agendas e, em seguida, gerar novas agendas de intervalos de indicações de luzes verdes. Com tudo isso, deve ser possível construir um algoritmo de escalonamento livre de deadlock e starvation baseado em regras de despacho com as heurísticas de menor data de entrega (Earliest Due Date -EDD) e menor tempo de processamento (Shortest Processing Time -SPT), uma vez que as agendas de intervalos de indicações de luzes verdes são geradas com base nas simulações de execuções do algoritmo de escalonamento SMER. Vale ressaltar que, uma das características do SMERé a garantia de acessoàs interseções por parte dos fluxos de tráfego das vias de entrada de maneira mutuamente exclusiva, ou seja, dois fluxos de tráfego de vias de entrada de uma interseção, que sejam pertencentes a grupos de movimentos conflitantes, não podem ter acesso simultâneoà uma interseção. Esse algoritmo de escalonamento deve ser divido em quatro etapas: cálculo de uma rotaótima; desalocação de espaços nas vias e alocação de espaços nas vias em função na nova rotaótima; atualização das alocações dos espaços nas vias nos demais agentes responsáveis pelos controles de interseções; entrega da rotaótima calculada para o requerente do cálculo. A primeira etapa deve executar, quando os agentes responsáveis pelos controles de interseções recebem uma requisição para o cálculo de rotaótima por meio dos agentes Veículo. Neste instante, os agentes responsáveis pelos controles de interseções devem executar um algoritmo capaz de calcular uma rotaótima para o veículo conectado requisitante até um determinado destino, levando em consideração as disponibilidades de acessoàs interseções ao longo do tempo, limites de velocidade das vias de entrada destas interseções e os espaços físicos disponíveis nestas vias. Logo, o algoritmo deve iniciar com uma rota vazia, uma via de partida e um conjunto de vias de entrada das interseções vizinhasà interseção em que a sinalização semafórica está instalada. Em seguida, o algoritmo deve realizar a escolha de uma via que possa fornecer o menor tempo para que o veículo conectado alcance a próxima interseção. O algoritmo utiliza uma heurística de menor data de entrega (EDD), a fim de escolher as vias com menor tempo de espera por uma luz verde das sinalizações semafóricas que as controlam. Este tempo de espera equivale ao tempo de inicialização eé calculado com base nas entradas das agendas de intervalos de indicações de luzes verdes, que são mantidas pelos responsáveis pelos controles das interseções. Por fim, o algoritmo seleciona a via em que o veículo co-nectado gastará o menor tempo para alcançar a próxima interseção (SPT), levando em consideração o tempo acumulado das vias escolhidas anteriormente, o tempo de espera pela próxima luz verde, a disponibilidade de espaços de uso, o atraso causado pelos veículos conectados que possuem espaços alocados na via e o limite de velocidade da via. O menor tempo para um veículo conectado alcançar uma interseção equivale ao menor tempo de processamento de uma operação. Após o processo de escolha da melhor via, o algoritmo deve atualizar a rota parcial, adicionando a via escolhida e, em seguida, ele atualiza o custo parcial da rota e toma a via escolhida como ponto de partida. O algoritmoé encerrado, quando uma rota parcialótimaé calculada até o destino pretendido pelo motorista. Após isto, o algoritmo finaliza a primeira etapa e, em seguida, inicia a segunda etapa. Nesta etapa, se existirem alocações de espaços nas vias, que sejam relativas ao requerente do cálculo de rotasótimas, elas são removidas. Após isto, novas alocações de espaços nas vias são realizadas, utilizando a rotaótima calculada. Após esta atualização local acerca das alocações de espaços nas vias, a segunda etapaé finalizada e, após isto, a terceira etapaé iniciada. Esta etapa consiste na atualização das alocações de espaços nas vias em outros agentes responsáveis pelos controles de interseções. Paralelo a isto,é realizado o envio da nova rotaótima ao requerente do cálculo de rotaótima. Com base na modelagem do problema de planejamento e orientação de rotas na forma de um problema de escalonamento em Sistemas Flexíveis de Manufatura do tipo Job-Shop e no algoritmo de escalonamento proposto neste parágrafo, apresentou-se uma solução para o problema de planejamento orientação de rotas descrito acima. Sistema Multiagente de Planejamento e Orientação de Rotas Esta seção tem como objetivo apresentar os detalhamentos algorítmicos relativosà estratégia apresentada anteriormente. Primeiramente, são apresentados os detalhes sobre a inicialização do sistema de planejamento e orientação de rotas. Após isto, são apresentados os detalhes relativos ao registro de interesses de usuários e interesses da rede. Em seguida, são apresentados os detalhes em torno do mecanismo de geração de agendas de intervalos de indicações de luzes verdes. Ao findar esta apresentação, inicia-se o detalhamento do mecanismo de cálculo de rotasótimas e alocação de espaços nas vias. Logo após,é descrito como as agendas de intervalos de indicações de luzes verdes são compartilhadas entre veículos conectados, quando estes são os responsáveis pelo controle de uma interseção. Por fim,é detalhado como os veículos conectados tiram proveito dos intervalos de indicações de luzes verdes,à medida que entram nas vias. Inicialização do Sistema Multiagente Esta seção tem como objetivo descrever o processo de inicialização das instâncias dos agentes participantes do sistema multiagente de planejamento e orientação de rotas. Tais agentes são os seguintes: Elemento Urbano, Centro de Controle de Tráfego, Sinalização Semafórica e Veículo. Antes de iniciar a descrição dos processos de inicialização das instâncias destes agentes,é necessário definir uma URI para identificar o sistema multiagente de planejamento e orientação de rotas. Sendo assim, a URIé definida da seguinte forma: radnet://ttm/route guidance/trasitroute. Com base nesta, as instâncias dos agentes podem utilizá-la para registrar interesses e vias na camada de rede de seus ambientes. Para que um agente Elemento Urbano entre em operação,é necessário atribuir um valor ao parâmetro de configuração relativoà periodicidade de interações com os agentes do sistema multiagente de planejamento e orientação de rotas, objetivando o compartilhamento de dados do agente. Com estes dados, os agentes podem configurar a camada de rede de seus ambientes, registrando interesses e associando ações, se necessário. Desta forma, os ambientes dos agentes podem encaminhar mensagens de interações para os agentes, de modo que estes executem ações, desde que estas estejam associadas ao interesse registrado na camada de rede. Além disso, o registro de interesses, utilizando dos dados compartilhados pelos agentes Elemento Urbano, permite também que os ambientes dos agentes cooperem para o funcionamento da HRAdNet-VE, no que tange o encaminhamento de mensagens de rede. Nesta tese, o parâmetro em questãoé configurado, de modo que os agentes Elemento Urbano enviem mensagens de interação a cada 60 segundos. Além disto, nesta tese, os agentes Elemento Urbano compartilham somente a via onde se encontram. Tendo em vista que o sistema multiagente para planejamento e orientação de rotasé construído sobre o sistema multiagente para controle de tráfego, as inicializações dos agentes Centro de Controle de Tráfego, Sinalização Semafóricas e Veículos são estendidas, de modo que estes agentes possam interagir noâmbito do sistema multiagente para planejamento e orientação de rotas. Neste sentido, as instâncias destes agentes registram seus interesses na camada de rede do ambiente. Os dados interesses registrados pelas instâncias dos agentes Centro de Controle de Tráfego, Sinalização Semafórica e Veículo e as ações executadas por elas ou pelo seus ambientes são apresentados respectivamente nas Tabelas C.2, C.3 e C.4. Registrando Interesses Relacionados aos Elementos Urbanos Após terem sido inicializados, os agentes Elemento Urbano interagem com os agentes Sinalização Semafórica, enviando, a cada minuto, mensagens de interação contendo o interesse urban element data. Os detalhes acerca do envio desta mensagem são apresentados pelo Algoritmo 37. Como pode ser visto, os agentes Elemento Urbano enviam uma lista de termos, aqui chamadados de interesses de usuário, e o identificador da via onde o elemento urbano relacionado a tais termos se encontra. Com base neste identificador de via, os demais tipos de agentes podem configurar a camada de rede de seus ambientes. O envio da mensagem de interação se dá por meio de uma interface de acessoà comunicação baseada no padrão LTE. Ao receber uma mensagem de interação, contendo o interesse urban elementdata, o agente Centro de Controle de Tráfego registra um interesse, queé a concatenação da string route to com o identificador da via contido no parâmetro idVia da mensagem recebida. O agente registra o interesse em uma interface de acessoà comunicação baseada no padrão LTE com um número máximo de saltos igual a um. Além disto, a ação associada ao interesse registrado permite que o agente Centro de Controle de Tráfego encaminhe mensagens de interação com tal interesse para os agentes responsáveis pelos controles das interseções, sejam estes agentes Sinalização Semafórica e agentes Veículo. Além do interesse citado acima, o agente Centro de Controle de Tráfego também registra o interesse calculated route <id. da via>, de modo que o agente possa encaminhar a mensagem para um agente Veículo requerente de um cálculo de rotaótima, se necessário. O agente registra o interesse em uma interface de acessoà comunicação baseada no padrão LTE com um número máximo de saltos igual a um. Por fim, o agente Centro de Controle de Tráfego encaminha a mensagem recebida para cada agente responsável em controlar uma interseção. Quando um agente Sinalização Semafórica recebe a mensagem encaminhada pelo agente Centro de Controle de Tráfego, ele extrai o valor do parâmetro idVia da mensagem de interação recebida e o concatena também com a string route to . O agente registra esta concatenação como um interesse em mais de uma interface de acessò a comunicação. Os dados relativos ao registro do interesse e ações executadas pelo agente são apresentados na Tabela C.5. No que diz respeito a um agente Veículo responsável pelo controle de uma interseção, quando este recebe a mensagem encaminhada pelo agente Centro de Controle de Tráfego, utilizando os dados apresentados na Tabela C.5. Após isto, ele associa as ações que permitem tratar mensagens contendo o interesse. Após os registros de interesses, tanto os agentes Sinalização Semafórica quanto os agentes Veículos encaminham a mensagem recebida por meio das interfaces de acessoà comunicação baseadas nos padrões IEEE 802.11 e IEEE 802.11p, de modo que a mensagem seja recebida pelos agentes Veículos que trafegam nas vias de entrada das interseções. Quando estes agentes Veículo recebem a mensagem de interação, eles extraem uma lista de interesses de usuários, utilizando parâmetro listaInteressesUsuario e, em seguida, atualizam os dados relativos ao elemento urbano no sistema de planejamento e orientação de rotas. Além disto, eles também registram o interesse, conforme os dados apresentados na Tabela C.6. Por fim, os agentes Veículo registram o interesse calculated route to <id. da via>, utilizando os dados da Tabela C.4. Vale ressaltar, quando um agente Veículo deixa de ser líder, ele desassocia a ação de cálculo de rotasótimas dos interesses registrados e os reconfigura, de acordo com os dados da Tabela C.4. Isto pode acontecer, de acordo com os Algoritmos 4 e 36. Gerando Agendas de Intervalos de Indicações de Luzes Verdes A geração de uma agenda de intervalos de indicações de luzes verdesé de extrema importância para o sistema de planejamento e orientação de rotas, pois, por meio desta,é possível saber a disponibilidade das vias de entradas das interseções de uma rede viária,à medida que as sinalizações semafóricas que as controlam indicam luz verde durante intervalos de tempo determinados pela configuração do multigrafo, qué e utilizado pelo algoritmo de controle de interseção. Para tanto,é preciso executar o Algoritmo 38. Este algoritmo deve receber os seguintes dados de entrada: tempo atual do GPS, dados de controle da interseção e um multiplicador. Como pode ser visto nos Algoritmos 38, ele primeiramente inicializa tanto variáveis quanto estruturas de dados necessárias para execução do artigo. A variável tempoé inicializada com o valor obtido pela multiplicação dos valores dos parâmetros de periodicidade de obtenção da quantidade de veículos (periodObtQtdeVeic) e do número de obtenções de quantidades de veículos (numObtQtdeVeic), e do multiplicador. O valor do tempoé utilizado para definir uma janela de tempo, queé utilizada para limitar a geração de agendas de intervalos de indicações de luzes verdes. Em seguida,é inicializado o tempo inicial (tempoInicial ), que será utilizado na definição dos inícios de intervalos de indicações de luzes verdes. A próxima variável a ser inicializadaé o acumulador de tempo (acumuladorTempo), que, por sua vez, tem a finalidade de acumular as durações dos intervalos das indicações de luzes verdes. O valor desta variávelé utilizado para controlar as iterações dos algoritmos, enquando o tempo acumulado seja menor que a janela de tempo calculada anteriormente. Agora, seguindo com a inicialização das estruturas de dados, a lista de tamanhos de intervalos de tempo (tamanhosIntervalos i )é esvaziada. Esta listaé mantida pelos agentes responsáveis pelo controle da interseção. Cada entrada dela, possui um mapa, em que cada deste mapeia o identificador de uma via de entrada da interseção e o tamanho do intervalo de indicação de luz verde, queé disponibilizado para a via, de acordo com a configuração do multigrafo. Logo após, o mapa de alocações de espaços nas viasé esvaziado (alocacoesEspacosV ias i ). Cada entrada deste mapaé um mapeamento entre o identificador de uma via e uma lista de mapas de alocações de espaços nestas vias. Cada entrada destes mapas de alocações de espaços nas vias mapeia um identificador de um agente veículo com a previsão do instante de tempo em que ele chegará na via e o tamanho do veículo. Em seguida, um mapa dos tempos iniciais para cada intervalo de indicação de luz verde (tem-posIniciais)é inicializado. Cada entrada deste mapa corresponde ao mapeamento entre um vértice do multigrafo, que representa um agente Sinalização Semafórica, e o tempo de início do intervalo de indicação de luz verde da sinalização semafórica do agente. A próxima estrutura de dados a ser inicializadaé um mapa dos tamanhos de intervalos de indicações de luzes verdes relativos a cada vértice em operação (ta-mIntVertices),à medida que os algoritmos executam. Ao final de cada iteração dos algoritmos, este mapaé adicionadoà lista de tamanhos de intervalos de indicações de luzes verdes (tamanhosIntervalos i ). Logo após essaúltima inicialização, dois conjuntos são inicializados: conjuntos dos vértices em operação (verticesOp) e o conjunto dos vértices bloqueados (verticesBlc. Em seguida, as estruturas de dados relativasà agenda de intervalos das indicações de luzes verdes são inicializadas. Estas estruturas de dados são listas em que cada entrada corresponde a um mapa. Cada entrada deste mapaé o mapeamento entre uma via e um valor de tempo. De acordo com o objetivo da estrutura de dados, este valor de tempo determina o início de um intervalo de indicação de luz verde ou o fim deste. Por isto, os agentes responsáveis pelo controle da interseção devem manter duas listas: lista de inícios dos intervalos de indicações de luzes verdes (iniciosIntervalos i ) e lista de fins dos intervalos de indicações de luzes verdes (f insIntervalos i ). Para finalizar a inicialização das variáveis dos algoritmos, as seguintes estruturas de dados são recuperadas dos dados de controle da interseção: conjunto de vértices (vertices), multigrafo utilizado pelo algoritmo de controle da interseção (multigrafo), reversibilidades dos agentes Sinalização Semafórica (reversibilidades), intervalos mínimos de indicações de luzes verdes (intMinIndVerdes), intervalos mínimos de indicações de luzes amarelas (intMinIndAmarelas) e o mapeamento entre os vértices do multigrafo e as vias controladas pelas sinalizações semafóricas (mapVerticesVias). Após a inicialização das variáveis e estruturas de dados, o algoritmo inicia um laço. Enquanto o tempo acumulado for menor que a janela de tempo, o algoritmo simula o funcionamento do controle da interseção. Para tanto, o algoritmo verifica se o conjunto de vértices em operação está vazio. Se verdadeiro, para cada vértice existente no conjunto de vértices,é verificado se ele possui arestas revertidas para ele. Se verdadeiro, o vérticeé incluído no conjunto de vértices em operação, um mapeamento entre o vértice e o tempo de início de um intervalo de indicação de luz verdeé adicionado ao mapa de tempos iniciais e, por fim, uma entrada no mapa dos tamanhos de intervalos de indicações de luzes verdes relativos a cada vértice em operaçãoé adicionada. Após isso, para cada vértice em operação,é verificado se a interseção participa de uma coordenação de sinalizações semafóricas. Se falso, o algoritmo reverte as arestas do vértice para seus vizinhos. Caso contrário, o algoritmo reverte todas as arestas do vértice para seus vizinhos. Em seguida,é verificado se o vértice ainda possui arestas revertidas para ele. Se falso, o algoritmo realiza os seguintes passos: inclusão do vértice no conjunto de vértices bloqueados; inclusão de um início de intervalo de indicação de luz verde na lista de inícios de intervalos de indicações de luzes verdes; inclusão de um fim de intervalo de luz verde na lista de fins de intervalos de indicações de luzes verdes; inclusão de uma lista de mapas de alocações de espaços na via; inclusão de um mapa de alocaçõesà lista de mapas de alocações de espaços de uma via; e atualização de uma entrada no mapa dos tamanhos de intervalos de indicações de luzes verdes relativos a cada vértice em operação. Em seguida, para cada vértice existente no conjunto de vértices bloqueados, eles removem o mesmo do conjunto de vértices em operação. Após isto, o algoritmo verifica se o tamanho do conjunto de vértices em operaçãoé igual a zero. Se verdadeiro, ele encontra o maior intervalo de indicação de luz verde de um vértice e o tempo de indicação de luz amarela do vértice. Em seguida, os seguintes passos são executados: atualização do tempo; atualização do tempo inicial; inserção do mapa de tamanhos de intervalos de indicações de luzes verdes relativos aos vértices na lista de tamanhos de intervalos de indicações de luzes verdes; incremento da fase da interseção. Uma vez que o sistema de planejamento e orientação de rotasé projetado com base nos agentes utilizados no sistema de controle de tráfego, algumas modificações precisam ser feitas nesteúltimo sistema, de modo que a funcionalidade de geração de agendas de intervalos de indicações de luzes verdes seja incorporada aos agentes responsáveis pelo controle de interseções. Neste sentido, inicialmente todas os agentes Sinalização Semafórica devem executar o Algoritmo 38, quando os mesmos estiverem entrando em operação. Além disto, o mesmo algoritmo deve ser executado, quando um agente Sinalização Semafórica muda sua reversibilidade e os números de arestas nos arcos entre o agente e seus vizinhos. No caso dos agentes Sinalização Semafórica que iniciam a sua participação em uma coordenação de sinalizações semafóricas de um sistema coordenado de sinalizações semafóricas ativo, estes também devem executar o Algoritmo 38, pois a agenda de intervalos de indicações de luzes verde precisa refletir a execução do algoritmo SMER como se este fosse um algoritmo SER. No findar de tal participação, os agentes Sinalização Semafórica precisam executar o Algoritmo 38 novamente, pois a interseção volta a operar com o algoritmo SMER para controle de interseções isoladas, se for o caso. No caso daqueles agentes Veículos, que por ausência do funcionamento das sinalizações semafóricas de uma interseção assumem o controle desta, executam o algoritmo, de acordo com os dados de controle de interseção obtidos do agente Centro de Controle de Tráfego. Por fim, sempre que o Algoritmo 38é executado,é necessário que todos os agentes responsáveis pelo controle de uma interseção, incluindo agentes Veículos, tomem ciência destas execuções. Para que um agente Veículo, responsável pelo controle de uma interseção, possa tomar ciência das agendas de intervalos de indicações de luzes verdes de outras interseções, eles registram o interesse new traffic light schedule. O registro deste interesse utiliza os mesmos dados apresentados na Tabela C.3. Para tanto, os executores destes algoritmos precisam interagir com esses agentes, compartilhando os dados de controle de sua interseção.À medida que os agentes recebem estes dados, eles executam um algoritmo apropriado para a geração de agendas de intervalos de indicações de luzes verdes. Dessa forma, esses agentes passam a ter ciência dos intervalos de indicações de luzes verdes de todas as interseções de uma rede viária. A mensagem de interação enviada para os agentesé configurada da seguinte forma: o campo interesseé configurado com new traffic light schedule; os campos destino e identificador da via são configurados com nulo; o campo direçãó e configurado com zero; o campo tecnologia de acessoà comunicaçãoé configurado com o valor LTE; eé inserido um parâmetro dadosControleIntrsc, queé configurado com os dados de controle da interseção. Ao receber uma mensagem de interação , contendo o interesse new traffic lightschedule, os agentes responsáveis pelo controle de uma interseção tratam esta mensagem, executando o Algoritmo 39. O algoritmoé uma variante do Algoritmo 38. A diferença entre os Algoritmos 38 e 39é que, no primeiro algoritmo, os tamanhos dos intervalos de indicações de luzes verdes são mantidos pelo agente participante da interseção cujos dados de controle serviram de entrada para o algoritmo. Os tamanhos dos intervalos de indicações de luzes verdes são utilizados para calcular tanto o avanço quanto o posicionamento dos seguimentos de ondas verdes das vias de entrada da interseção. No que diz respeito ao Algoritmo 39, este apenas gera a agenda de intervalos de indicações de luzes verdes de outras interseções, a fim de que o agente tenha conhecimento dos intervalos de indicações de luzes verdes de outras interseções. Com base nestes intervalos, os agentes responsáveis pelo controle de uma interseção podem utilizá-los no cálculo de rotasótimas, levando em consideração os espaços alocados nas vias em cada intervalo de indicação de luz verde. Por fim, o algoritmo envia uma mensagem de interação, contendo o mesmo interesse da mensagem recebida, para os veículos conectados da via, utilizando uma interface de acessoà comunicação baseada no padrão IEEE 802.11p. Além disto, a mensagem deve ser propagada no sentido oposto da via, ou seja, para trás dos veículos conectados. Todo agente Veículo, ao receber tal mensagem, requisita um novo cálculo de rotas, devidoàs modificações nas agendas de intervalos de luzes verde das interseções controladas pelo sistema de controle de tráfego. Calculando RotasÓtimas Uma vez que os agentes responsáveis pelo controle de interseções tenham conhecimento de todas as agendas de intervalos de indicações de luzes verdes das interseções de uma rede viária, eles podem receber mensagens de interação oriundas de veículos conectados, desde que estejam na mesma via, cujo intuitoé requisitar o cálculo de rotaótima para um determinado destino. Neste momento, fica mais clara a utilidade das listas de interesses de usuários, que são publicadas pelos agentes Elemento Urbano. Os termos contidos nestas listas auxiliam o motorista, quando este realiza a busca por um determinado local do mapa, queé a via onde se encontra o elemento urbano desejado. Esta busca pode ser motivada, por exemplo, pelo interesse do motorista em encontrar gasolina mais barata, promoções das mais diversas, eventos, entre outros. Uma vez que os destinos tenham sido escolhidos pelos motoristas, agentes Veículos iniciam o processo de cálculo de rotasótimas, tentando interagir com os agentes responsáveis pelo controle das interseções. Para tanto, os esses agentes escalonam periodicamente ações que executam o Algoritmo 40, de acordo com o valor do parâmetro de periodicidade de tentativas de requisição de cálculo de rotaś otimas. A execução deste algoritmoé interrompida, quando o veículo conectado alcança o destino desejado. Como pode ser visto no Algoritmo 40, o algoritmo inicia, verificando se o agente já possui uma rota calculada. Se falso, o algoritmo envia uma mensagem de interação (M sg i ) na mesma via em que o veículo conectado se encontra. Tal mensagemé enviada para frente, de modo que o agente responsável pelo controle da interseção possa ser alcançado. Além disto, tal mensagem pode ser enviada por meio de interfaces de acessoà comunicação baseadas no padrão IEEE 802.11 ou no padrão IEEE 802.11p, de acordo com o valor da variável de controle da tecnologia de acessoà comunicação para cálculo de rotas (tacCalcRotas i ). Esta variávelé mantida pelo agente Veículo. Após enviar a mensagem, o algoritmo incrementa o número de tentativas de requisição de cálculo de rotasótimas. Tudo issoé feito, se o número de tentativasé menor que o valor do parâmetro de número máxima de tentativas de requisição de rotasótimas (paramN umT entativasCalcRotas i ). Caso contrário, o algoritmo troca a tecnologia de acessoà comunicação, de modo que o agente comece a requisitar cálculos de rotasótimas sempre pela tecnologia de menor alcance de comunicação. Caso o agente não receba uma rota calculada, o algoritmo troca a tecnologia de acessoà comunicação até que o padrão LTE seja utilizado. Por fim, se o agente possuir uma rota calculada, o algoritmo mantém o número de tentativas de requisições de cálculos de rotasótimas com o valor zero e a tecnologia de acessò a comunicação no padrão IEEE 802.11. Antes de entrar nos detalhes relativos ao tratamento de mensagens de interação cujo interesseé route to <id. da via>.É preciso ressaltar que, ao receber uma mensagem com este interesse, o agente Centro de Controle de Tráfego a encaminha para um agente que esteja mais próximo do veículo conectado cujo agenteé o requerente do cálculo de rotaótima. O agente cuja mensagem foi encaminhada deve ser responsável pelo controle de uma interseção. Ao receber a mensagem de interação , contendo o interesse route to <id. da via>, os agentes responsáveis pelo controle de uma interseção tratam esta, executando o Algoritmo 41. O algoritmo verifica se a mensagem de interação recebida possui o parâmetro rota. Se verdadeiro, o algoritmo verifica se os instantes de tempo relativos a cada componente da rota estão dentro de um limite de tempo tolerável, quando este são comparados com os tempos das alocações de espaços na via. Se verdadeiro, o algoritmo devolve a rota para o agente Veículo requerente. Caso contrário, ele calcula uma nova rotaótima para o requerente. Caso a mensagem não contenha uma rota, o algoritmo calcula uma nova rotaótima para o agente, queé a origem da mensagem de interação recebida. Para calcular uma rotaótima, o Algoritmo 42é executado. O algoritmo inicia, extraindo os parâmetros destino e posicaoGPS da mensagem recebida. Em seguida, ele inicia uma lista cuja finalizadaé armazenar os seguimentos de via componentes da rotaótima (rota). Além desta estrutura de dados, tambémé inicializado um mapa para associar as vias e os instantes de tempo em que o veículo conectado atravessará as mesmas (instantes). Após isto, o algoritmo calcula o custo inicial para o veículo conectado atravessar a via em que ele e o agente responsável pelo controle de interseção estão localizadas. Nos próximos passos, o algoritmo obtém as os identificadores das faixas da via (faixas) e o conjunto de vias controladas por sinalizações semafóricas (viasControladas). Além disto, ele inicializa um acumulador de tempo de viagem. Com base na inicialização das variáveis descritas até aqui, o algoritmo inicia o cálculo de rotasótimas, tomando como início as faixas da via em que o veículo conectado está trafegando. Dessa forma, para cada faixa da via, o algoritmo calcula uma rotaótima até o destino. Este cálculo tem como base o algoritmo de caminho mais curto de Dijkstra, queé combinado com as premissas das heurísticas de despacho EDD (Earliest Due Date) e SPT (Short Processing Time). Para cada rotaótima calculada, o algoritmo a compara com outra rota anteriormente calculada pelo mesmo, caso estaúltima exista, a fim de encontrar a melhor rotaótima dentre as que foram calculadas. Com base na melhor rotaótima, o algoritmo aloca espaços nas vias nas agendas de intervalos de indicações de luzes verdes. Neste processo de alocação, se existir uma rota anteriormente alocada, elá e removida e, em seguida, dá lugarà alocação nova rota. Alocando Espaços nas Vias Para notificar todos os responsáveis pelo controle de interseções, uma mensagem de interação, contendo o interesse roadway space allocation,é enviada para tais agentes. Esta mensagemé configurada de modo que todos os agentes responsáveis pelos controles de interseções a recebam por meio de uma interface de acessoà comunicação baseada no padrão LTE. Além disto, esta mensagemé parametrizada com o identificador do agente veículo, rota e os instantes de tempos relativosàs travessias de cada componente da rota. Ao receber tal mensagem, os agentes executam o procedimento de alocação temporário de rotas descrito anteriormente. Sempre que o Algoritmo 41, envia uma rotaótima para um agente Veículo, esta está contida em uma mensagem de interação cujo interesseé calculated route to<id. da via>. O envio desta mensagemé detalhado no Algoritmo 43. Se a mensagem de interação foi recebida por meio de uma interface de acessoà comunicação baseada no padrão IEEE 802.11 ou no IEEE 802.11p, ela deve ser enviada para sua origem, utilizando a mesma tecnologia de acessoà comunicação. Além disto, a mensagem deve ser enviada para trás, de modo que ela chegue a até a origem. Porém, se a mensagem de interação foi recebida por meio de interface de acessoà comunicação baseada no padrão LTE, esta deve receber mais um parâmetro, queé o identificador da origem. Este parâmetroé necessário, pois, quando o agente Centro de Controle de Tráfego receber a mensagem, ele poderá enviá-la diretamente para o agente Veículo requerente do cálculo de rotaótima. Ao receber a mensagem de interação, contendo o interesse roadway space allocation, o agente Veículo passa a ter conhecimento de uma rota e esta, por sua vez, deve ser mantida pelo mesmo até que uma nova requisição de cálculo de rota seja feito pelo agente. Além disto, a variável possuiRotaCalculada i tem seu valor alterado para verdadeiro (veja Algoritmo 40). Por fim, como citado acima, os agentes Veículo requisitam novos cálculos de rotasótimas, quando recebem mensagens de interação cujo interesseé new trafficlight schedule. Ao receber tal mensagem, o agente apenas atribui falsoà váriável de controle possuiRotaCalculada i , tendo em vista que a rota alocada para o mesmo foi excluída em todas as agendas de intervalos de indicações de luzes verdes. Além disso, os agentes Veículos requisitam novos cálculos de rotasótimas, quando seus veículos conectados atravessam as interseções. Neste caso, os agentes Veículo tomam como referência a via em que o seu veículo conectado se encontra. Agendas de Intervalos de Indicações de Luzes Verdes e o Controle de Interseções com Veículos Conectados isto, os agentes escalonam ações periodicamente, de acordo com um parâmetro de periodicidade de atualização das ondas verdes cujo valoré 1 ms. Estas ações executam o Algoritmo 44. De acordo com o algoritmo, as posições de início são atualizadas, bem como, a velocidade de deslocamento das ondas verdes (velocidadeOndasVerdes i ), tempo para os próximos intervalos de indicações de luzes verdes (tempoParaProxIntVerde i ) e a duração da onda verde (tempoDurOndaVerde i ). Em embora os agentes responsáveis pelos controles de interseções escalonem periodicamente ações executoras do Algoritmo 44, isto nãoé necessário para manter as atualizações descritas acima. Para tanto, sempre que a interseção muda de fase, ou seja, todas as sinalizações semafóricas mudam suas indicações em seus grupos focais, as ondas verdes são reposicionadas.À medida que as interseções mudam de fase, a variável de controle da fase em cada agente responsável pelos controles de interseçõeś e incrementada (f ase i ). Sendo mais específico, esta variávelé incrementada, após a troca das indicações verdes e vermelhas nos grupos focais das sinalizações semafóricas da interseção, sejam estas reais ou virtuais. Esta variável de controleé de grande importância, pois elaé utilizada para acessar os tamanhos dos intervalos na lista de tamanhos de intervalos mantida pelo agente (tamanhosIntervalos i ). Sempre que os tamanhos dos intervalos de indicações de luzes verdes de uma interseção são modificados em função das flutuações de tráfego, demanda a geração de uma nova agenda de intervalos de indicações de luzes verde na interseção, conforme mencionado antes. Quando isto acontece, a variável f ase ié zerada em todos os agentes responsáveis pelo controle da interseção, a fim de que estes agentes acessem corretamente as estradas na nova agenda de intervalos de indicações de luzes verdes. Além disso, sempre que uma sinalização semafórica passa a indicar luz verde em seu grupo focal, o início da onda verdeé posicionado no fim da via de entrada, especificamente, sobre a faixa de contenção da via. Por outro lado, sempre que uma sinalização semafórica passa a indicar luz vermelha em seu grupo focal, o início da onda verdeé posicionado na posição geográfica do fim daárea de monitoramento de tráfego da via. Para que um agente Veículo se torne ciente do intervalo de indicação de luz verde na via em que seu veículo conectado está trafegando, ele interagem com o agente responsável pelo controle da interseção, enviando uma mensagem de interação cujo interesseé green wave request. Além deste interesse, a mensagemé configurada da seguinte forma: o campo destinoé nulo; o campo via recebe o identificador da via onde o veículo conectado está trafegando; o campo direção recebe o valor um, pois a mensagem precisa ser enviada para frente do veículo, de modo que ela alcance o agente responsável pelo controle da interação; a tecnologia da interface de acessoà comunicaçãoé IEEE 802.11. Essa mensagem de interação sempreé enviada, após o veículo conectado atravessar uma interseção e, em seguida, entrar em uma nova via. Quando o agente reponsável pelo controle da interseção recebe uma mensagem de interação, contendo o interesse green wave request, o agente responde com uma mensagem de interação, contendo o interesse green wave. Esta mensagem tem como destino o agente Veículo, queé a origem da mensagem recebida. Além disto, a mensagem tem seu campo direção configurado com o valor -1, pois ela precisa ser encaminhada para trás dos veículos conectados. O campo viaé configurado com o valor do campo via da mensagem recebida. A a tecnologia da interface de acessoà comunicaçãoé IEEE 802.11. A mensagemé parametrizada com x parâmetros, são eles: posicao do início da onda verde (posInicioOndaV erde), velocidade da onda verde (velocidadeOndaV erde), tempo de duração da onda verde (tempoDurOndaV erde) e tempo para o próximo intervalo de verde (tempoP araP roxIntervaloV erde). Após ter sido totalmente configurada, a mensagem de interaçãoé enviada para a origem da mensagem recebida. Por fim, ao receber uma mensagem de interação cujo o interesseé green wave, o agente Veículo toma ciência do intervalo de indicação de luz verde da via. Após isto, o agente passa a executar a proposta de FARIA [45]. Para que a proposta de FARIA [45] funcione corretamente,é necessário que o agente Veículo tenha conhecimento dos veículos conectados próximos ao dele, de modo que o agente possa saber a velocidade do veículo conectado imediatamenteà frente do seu. Para tanto, os agentes Veículo interagem uns com os outros periodicamente por meio do envio de mensagens de interação cujo o interesseé hello, levando em consideração o valor de frequência de envio destas mensagens. O valor utilizado nesta teseé 10 Hz (10 mensagens por segundo), de acordo com ZHENG et al. [30]. Estas mensagens são limitadasà vizinhança dos veículos conectados, conforme os dados utilizados no registro do interesse hello. Além disto, estas mensagens são enviadas por meio de uma interface de acessoà comunicação baseada no padrão IEEE 802.11, contendo a velocidade e o identificador do agente Veículo como parâmetros. Ao receber a mensagem, os agentes Veículos atualizam suas bases de conhecimento acerca dos veículos conectados ao redor daquele que o embute. Utilizando esta base de conhecimento, os agentes extraem os veículos conectados imediatamenteà frente dos seus e as velocidades dos mesmos. entrada das interseções de uma rede viária. Modelando as redes viárias como um Sistema Flexível de Manufatura do tipo Job-Shop foi possível criar um algoritmo de roteamento de veículos conectados com base em regras de despacho SPT (Short Processing Time) e EDD (Earliest Due Date). Este algoritmo de escalonamento tira proveito das alocações de espaços nas vias, que são realizadas,à medida que as rotasótimas para cada veículo conectado são inseridas no sistema de planejamento e orientação de rotas. Uma vez que este sistema usa como base o sistema de controle de tráfego, que escalona o acessoàs interseções de uma rede viária, o algoritmo de roteamento de veículos conectados não precisa se preocupar com possíveis colisões de veículos. Por fim, prosseguindo com o detalhamento desta tese, o capítulo seguinte apresentará as avaliações experimentais das propostas apresentadas nesta tese, assim como, a análise em torno dos dados obtidos por meio dos experimentos. 159 Capítulo 9 Avaliação Experimental e Resultados Este capítulo tem como objetivo de apresentar as avaliações experimentais relativas as propostas apresentadas por esta tese. Metodologia Utilizada Para se obter os resultados apresentados neste capítulo, foi necessário o uso de ferramentas de software capazes de fornecer subsídios para o desenvolvimento de modelos de redes ad hoc veiculares e cenários de uso relacionadosàs propostas apresentadas anteriormente nos Capítulos 5, 7 e 8. Neste sentido, fez-se o uso de três frameworks: Veins [82], Inet [81] e SimuLTE [89]. Estes frameworks permitiram a implementação tanto de modelos de redes ad hoc veiculares quanto cenários de uso para avaliação das propostas desta tese. Para executar as simulações, este frameworks têm como base dois simuladores: Omnet++ [81] e SUMO [80]. O Omnet++é um simulador de redes baseado em eventos discretos. O SUMOé um simulador que permite tanto a criação e importação de mapas rodoviários, assim como, a definição, configuração e simulação do tráfego de veículos em uma rede viária. Com base nos frameworks citados acima, foram desenvolvidos os protocolos de comunicação não somente da RAdNet-VE e da HRAdNet-VE, mas também da RAd-Net [7] e de dois modelos básicos de CCN, em que um delesé uma CCN baseada em roteamento reativo de dados (CCN R ) [36] o outroé uma CCN baseada em roteamento proativo de dados (CCN P ) [38]. Vale ressaltar que estas CCNs, nesta tese, não fornecem serviços de ache de dados, pois os dados das aplicações de sistemas inteligentes propostas nesta tese são sensíveis a atrasos [42]. Esses protocolos de comunicação foram desenvolvidos com o intuito de comparar seus desempenhos com os dos protocolos de comunicação da RAdNet-VE e da HRadNet-VE. Vale ressaltar que, todos esses protocolos operam no nível da camada de rede. Além disso, considera-se que em todos os nós as aplicações podem acessar coordenadas geográficas obtidas por meio de dispositivos GPS e ter acesso a bancos de dados de mapas. Nos experimentos envolvendo a RAdNet, RAdNet-VE e ou HRAdNet-VE, os prefixos ativos foram compostos de oito campos com oito possibilidades. Por fim, para identificar os nós em experimentos envolvendo as CCNs, foi utilizado mecanismo de identificação de nós fornecido pelo Omnet++. Para medir o desempenho dos protocolos de comunicação acima, foram utilizadas as seguintes métricas: • Custo de Mensagens Trafegadas (CMT):é o total de mensagens recebidas pelos nós (inclusos os nós destino e aqueles que as encaminharam); • Latência de Comunicação entre Nós (LCN):é o tempo entre o envio de uma mensagem da camada de rede por um nó origem até a recepção da mensagem pela camada rede de um nó vizinho; • Taxa de Entrega de Dados (TED): total de mensagens de dados recebidas dividido pelo total de mensagens dados enviadas; • Número de Saltos (NS): consiste na número de vezes que as mensagens foram encaminhadas pelos nós; • Alcance das Mensagens (AM): consiste na distância que as mensagens percorreram,à medida que foram encaminhadas pelos nós; • Tempo de propagação de mensagens (TPM): tempo gasto para uma mensagem alcançar uma determinada distância. Além dos protocolos de comunicação, também foram desenvolvidos os modelos de agentes no nível da camada de aplicação, de modo que fosse possível simular o comportamento das aplicações de sistemas inteligentes de transporte propostas anteriormente nos Capítulos 7 e 8, que são o sistema multiagente para controle de tráfego e o sistema multiagente para planejamento e orientação de rotas, respectivamente. Para avaliar o desempenho do sistema multiagente para controle de tráfego, foi desenvolvido um modelo de sinalização semafórica pré-temporizada, de modo que este pudesse ter seu desempenho comparado com as estratégias adotadas pelo sistema multiagente para controle de tráfego. Para tanto, as seguintes métricas foram utilizadas: • Taxa de vazão do sistema (TVS): número de veículos que alcançaram seus destinos por hora; • Tempo médio de espera (TME): a quantidade máxima de tempo que um veículo fica parado; • Tempo médio de viagem (TMV): média dos tempos que os veículos gastam durante o percurso entre a origem de sua viagem e o destino da mesma; • Velocidade média (VM): velocidade média dos veículos,à medida que viajam pela rede viária até alcançarem o destino de suas viagens. No que diz respeitoà avaliação do desempenho do sistema multiagente para planejamento e orientação de rotas, foram desenvolvidos algoritmos de escalonamento de veículos, a fim de simular as escolhas de caminhos realizadas pelos motoristas (Caminho Espacialmente mais Curto) e planejamento e orientação de rotas baseado nos sistemas atuais navegação (Caminho Temporalmente mais Curto). Para realizar as comparações de desempenho, as seguintes métricas foram utilizadas: • Taxa de vazão do sistema (TVS): número de veículos que alcançaram seus destinos por hora; • Tempo médio de espera (TME): a quantidade de tempo que um veículo fica parado; • Tempo médio de viagem (TMV): tempo que os veículos gastam durante o percurso entre a origem de sua viagem e o destino da mesma; • Velocidade média (VM): velocidade média dos veículos,à medida que viajam pela rede viária até alcançarem o destino de suas viagens; • Consumo médio de combustível: a quantidade de combustível gastou ao realizar uma viagem. • Emissões de CO (Monóxido de Carbono) (CO): total de emissões de monóxido de carbono. • Emissões de CO 2 (Dióxido de Carbono) (CO 2 ): total de emissões de dióxido de carbono. • Emissões de HC (Hidrocarbonetos) (HC): total de emissões de hidrocarbonetos. • Emissões de NOx (Óxidos de Nitrogênio) (NOx): total de emissões dé oxidos de nitrogênio. • Emissões de PMx (Material Particulado)(PMx): total de emissões de material particulado. Uma vez que as simulações tiveram seus tempos de duração fixados em 3600 s, os valores relativosàs métricas acima foram acumulados e calculados a cada 100 s. Desta forma, foi possível extrair os resultados, que serão apresentados nas Seções 9. 3, 9.4, 9.5 e 9.6. Tais resultados são apresentados na forma de valores totais e médios. No que diz respeito aos valores totais, estes são os acumulados dos valores totais de cada intervalo de medição. Acerca dos valores médios, estes são as médias dos valores médios de cada intervalo de medição. Para os valores médios, foi adotado um intervalo de confiança de 95%. Ambiente Computacional para Realização dos Experimentos Embora o Omnet e seus frameworks sejam amplamente utilizados para realizar simulações de redes veiculares, nãoé possível realizá-las em ambientes paralelos. Portanto, os seguintes equipamentos foram utilizados durante o período de realização de experimentos: • Desktop com Processador Intel c Core i7-3770K CPU 3,5 GHz com quatro núcleos de processamento e 16 GB de memória RAM; • Notebook Dell XPS com Processador Intel c Core i7-2670QM CPU 2,2 GHz com quatro núcleos de processamento e 16 GB de memória RAM; • Notebook Dell Inspiron com Processador Intel c Core i7-6500U CPU 2,5GHz com dois núcleos de processamento e 16 GB de memória. Nestes equipamentos, foi instalado o Linux Mint 17.1 Rebecca, pois não foi preciso instalar emuladores para execução do Omnet++. Além disto,é importante pontuar sobre a capacidade de armazenamento dos equipamentos. Nestes equipamentos, foram utilizados discos rígidos de 1TB. Embora o Omnet++ seja capaz de gerar arquivos, contendo os resultados das simulações, tais arquivos ocupam bastante espaço em disco, podendo ultrapassar 30 GB de tamanho em experimentos com redes veiculares heterogêneas. Avaliando a Rede Ad Hoc Veicular Centrada em Interesses Nesta seção, são apresentados os resultados obtidos nos primeiros experimentos com a RAdNet-VE e publicados em GONÇ ALVES et al. [44]. Antes da apresentação dos resultados,é feita uma descrição dos cenários para os experimentos, utilizando as redes RAdNet-VE, RAdNet, CCN R e CCN P . Em seguida, são apresentadas as configurações adotadas para os experimentos. Finalmente, são apresentados os resultados dos experimentos de acordo com os cenários e a análise comparativa destes, utilizando as métricas definidas anteriormente para comparar o desempenho dos protocolos de comunicação das redes citadas acima. Descrição dos Cenários para os Experimentos Para obtenção dos resultados da RAdNet-VE, foram criados dos cenários: cooperação entre veículos e sinalizações semafóricas e cooperação entre veículos. Para o primeiro cenário, foram desenvolvidas suas aplicações, sendo elas um controlador de sinalizações semafóricas e um assistente de direção. O controlador de sinalizações semafóricas executou em cada uma das sinalizações semafóricas do mapa viário produzido para este cenário. Além disto, ela foi projetada para coletar dados de fluxos de tráfego nas vias de entrada de interseções e ajustar os intervalos de indicações de luzes verdes em função das flutuações de tráfego de tais vias. No que diz respeito ao assistente de direção, esteé uma aplicação que foi projetada para executar nos veículos conectados e cooperar com instâncias do controlador de sinalizações semafóricas, enviando dados relacionados a entrada e saída do veículo de uma via de entrada de uma interseção. Além disso, para este cenário, foi criada uma grade manhattan 3 x 3 em que a distância entre quaisquer duas das dezesseis interseções foi de 300 m. Cada via que leva a uma interseção teve como velocidade máxima permitida 60 Km/h. Em cada interseção, foram instaladas sinalizações semafóricas equipadas com uma interface de acessoà comunicação sem fio. Desta forma, veículos conectados e sinalizações semafóricas puderam requisitar dados uns dos outros por meio das aplicações instaladas nos mesmos. Para obter dados relativos aos fluxos de tráfego das vias de entradas das interseções, os controladores das sinalizações semafóricas que as controlam requisitaram dados sobre a presença dos veículos conectados nessas vias. Ao receber as requisições, os assistentes de direção nos veículos conectados as respondem, enviando o identificador do veículo. Ao receber as respostas enviadas pelos assistentes de direção, os controladores de sinalizações registram o identificador do veículo em estruturas de dados apropriadas, que são conjuntos de identificadores de veículos conectados. Além disso, os controladores de sinalizações também requisitam dados relativos a partida de veículos conectados das interseções. Portanto, para conhecer o número de veículos que deixaram as interseções, os controladores requisitam dados aos veículos que deixaram imediatamente uma interseção. Ao receberem as requisições, os assistentes de direção nos veículos conectados as respondem, enviando o identificador do veículo. Ao receberem estas respostas, os controladores de sinalizações semafóricas registram os identificadores dos veículos em conjuntos de identificadores de veículos. De acordo com GONÇ ALVES et al. [44], a periodicidade de envio de requisições por dados de veículos entrando e deixando vias de entradas de interseções foi de 1s. Para o segundo cenário, foram desenvolvidas duas aplicações, sendo elas um controle adaptativo e cooperativo de cruzeiro e um notificador de obstáculos. O controle adaptativo e cooperativo de cruzeiro executou em cada um dos veículos conectados, controlando as velocidades dos mesmos de acordo com os dados microscópicos dos veículos conectados vizinhos. O notificador de obstáculos executou em uma unidade de acostamento, notificando os veículos conectados sobre a presença de um obstáculo na estrada. Além disso, para esse cenário, foi criada um segmento de estrada e instalado um notificador de obstáculo em uma unidade de acostamento próxima ao final deste segmento. O objetivo distoé notificar os veículos conectados sobre a presença de um obstáculo ao final do segmento de estrada. Além disto, a unidade de acostamento foi posicionada, de modo que os motoristas dos veículos fossem notificados, quando seus veículos estivessem a 1 km de distância do obstáculo. Neste cenário, cada veículo conectado viajou a 80 km/h até alcançar a região do obstáculo. Ao atravessar tal região, os veículos conectados reduziram suas velocidades para 20 km/h. Para receber dados sobre obstáculos na estrada, os controles adaptativos e cooperativos de cruzeiro nos veículos conectados enviaram requisições ao notificador de obstáculos. Ao receber estas requisições, o notificador de obstáculos as respondem, enviando os dados relativos ao obstáculo, tal como a posição geográfica e a velocidade máxima permitida na região do obstáculo. A receber tais dados, o controle adaptativo e cooperativo de cruzeiro iniciou o processo de descoberta de vizinhança. Durante o processo de descoberta de vizinhança, os controles adaptativos e cooperativos de cruzeiro requisitaram dados relativos aos veículos dentro do alcance de comunicação da interface de acessoà comunicação sem fio. Ao receberem estas requisições, os controladores adaptativos e cooperativos de cruzeiro as respondem, enviando a posição geográfica e o identificador de seus veículos conectados. Ao receberem estas respostas, os controles adaptativos e cooperativos de cruzeiro as posições geográficas e identificadores dos veículos e os registram em estruturas de dados apropriadas. Uma vez iniciado o processo de descoberta de vizinhança, os controles adaptativos e cooperativos de cruzeiro requisitaram dados sobre os veículos conectados a cada 1 s. Os controladores adaptativos e cooperativos de cruzeiro, ao identificarem os veículos conectados imediatamenteà frente dos veículos que os executam, requi-sitam dados acerca destes veículos. Ao receber estas requisições, os controles adaptativos e cooperativos de cruzeiro as respondem, enviando as velocidades e posições geográficas de seus veículos conectados. Ao receberem estas respostas, os controles adaptativos e cooperativos de cruzeiro extraíram os dados e calcularam novas velocidades para seus veículos conectados, de acordo com o trabalho de KATO et al. [90]. Esse processo acontece a cada 0.1 s, ou seja, dez vezes por segundo. Configurações dos Experimentos Os tempos de simulação dos cenários foram fixados em 3600s. No primeiro cenário, os veículos conectados e sinalizações semafóricas foram equipados com interfaces de acessoà comunicação sem fio baseadas no padrão IEEE 802.11n. De acordo com LI e WANG [46], o padrão IEEE 802.11 tem sido utilizado em interseções para capturar dados de tráfego ou dados que podem auxiliar no roteamento e ou encaminhamento de mensagens ao longo de uma rede ad hoc veicular. Os parâmetros da camada física das interfaces de acessoà comunicação sem fio são listados na Tabela E.1. Para configurar a camada de enlace, o protocolo de controle acesso ao meio CSMA/CA (Carrier Sense Multiple Access with Collision Avoidance) foi configurado de acordo com os parâmetros listados na Tabela E.2. No cenário dois, os veículos conectados e a unidade de acostamento foram equipados com interfaces de acessoà comunicação sem fio baseada no modelo IEEE 802.11p. Segundo PLOEG et al. [91], o IEEE 802.11pé o padrão mais adequado para ambientes em que os veículos viajam em alta velocidade. Os parâmetros relativosà camada física das interfaces de acessoà comunicação sem fio são listados na Tabela E.3. Para identificar os dados nas CCN, foi adotada a seguinte estrutura de nomes: uri://type of provider/geolocation/application/data service name. Esta estrutura de nomes baseia-se no trabalho de WANG et al. [37]. O componente type of provider define a entidade fornecedora do serviço, por exemplo, veículo conectado, sinalização semafórica, sinalizações verticais em rodovias, entre outros. O componente geolocation usa o formado roadId/direction/section definido por WANG et al. [37]. As aplicações usaram o componente geolocation para filtrar as mensagens de com a posição dos nós. O componente application possui os dados fornecidos pelo nó. O componente data service nameé o nome de um determinado serviço. Dessa forma, as aplicações desenvolvidas para os cenários foram identificadas conforme os a listagem apresentada pela Tabela 9.1. De acordo com o modelo de uma CCN, as aplicações desenvolvidas para os cenários são fornecedoras de dados. Estes dados são fornecidos por meio de um nome de serviço de dados criado com base na estrutura de nomes definida acima. Portanto, as aplicações fornecem dados por meio dos nomes de serviços de dados listados na Tabela F.1. Para estes cenários, foi criada uma grade manhattan 10 x 10 em que a distância entre quaisquer das 100 interseções foi de 100m (veja Figura 9.1(a)). Nesta grade, cada uma de suas 20 entradas tiveram 2000m de tamanho e velocidade máxima permitida igual a 80 Km/h. Além disto, a grade manhattan foi composta de quatro corredores (veja Figura 9.1(a)). A velocidade máxima permitida em cada um dos corredores foi de 60 Km/h. As demais vias da grade tiveram suas velocidades máximas permitidas igual a 40 Km/h. Por meio desta grade manhattan, foram estabelecidos os cenários citados acima. No primeiro cenário, todas as 200 sinalizações semafóricas não apresentaram ausência de funcionamento, ou seja, elas operaram do início ao fim das simulações. No segundo cenário, foram escolhidas quatroáreas da grade manhattan, a fim de que eles pudessem servir como regiões, onde as sinalizações semafóricas não funcionam, ou seja, apresentam ausência de funcionamento. Taisáreas podem ser vistas na Figura 9.1(b). Sendo assim, as sinalizações semafóricas das regiões escolhidas permaneceram inoperantes do início ao fim das simulações. Por esta razão, as vias de entrada das interseções pertencentesàsáreas selecionadas são afetadas, pois nelas os agentes Veículo precisam se comportar com sinalizações semafóricas, a fim de controlar interseções isoladas ou cooperar com as coordenações de sinalizações semafóricas dos corredores. Configurações dos Experimentos Os tempos de simulação dos cenários descritos na seção anterior foram fixados em 3600s. No dos dois cenários, os veículos conectados e sinalizações semafóricas foram equipados com interfaces de acessoà comunicação sem fio baseadas no padrão IEEE 802.11n. Estas interfaces foram configuradas de acordo com os parâmetros listados nas Tabelas E.1 e E.2. Além destas interfaces, esses mesmos nós também foram equipados com interfaces de acessoà comunicação sem fio baseadas no padrão IEEE 802.11p. As configurações adotadas para estas interfaces estão listadas nas Tabelas E.3 e E.4. Para finalizar a configuração das interfaces de acessoà comunicação sem fio, veículos conectados, sinalizações semafóricas, elementos urbanos e centro de controle de tráfego foram equipados com interfaces baseadas no padrão LTE. De acordo com as definições dos sistemas multiagentes, veículos conectados, elementos urbanos e sinalizações semafóricas foram configurados como nós UE. As configurações das interfaces de acessoà comunicação sem fio destes nós são listadas na Tabela E.5. No que diz respeito ao centro de controle de tráfego, este foi configurado com um nó eNodeB. As configurações da interface de acessoà comunicação sem fio deste nóé listada na Tabela E.6. Embora os cenários de avaliação remetam a um ambiente urbano, foi necessário usar o modelo de macrocélula RURAL MACROCELL, pois este modelo fornece um alcance de comunicação de 5000m, enquanto o modelo URBAN MACROCELL fornece apenas 2000m. Esses alcances de comunicação são impostos pelo framework SimuLTE [89]. Além disso, o objetivo foi fornecer a maioŕ area de cobertura possível. Para comparar de maneira ainda mais justa o desempenho da HRadNet-VE contra o da RAdNet, CCN R e CCN P , foi introduzida uma filtragem nos mecanismos de encaminhamento de mensagens dos protocolos de comunicação destas redes, utilizando o identificador da via. Esta filtragemé a mesma realizada pelo protocolo de comunicação da HRAdNet-VE. Para identificar as aplicações nos experimentos, foi utilizada uma estrutura de nomes similar a que foi definida no Capítulo 5. Uma vez que os experimentos envolvem redes diferentes, foi necessário introduzir apenas um parâmetro em tal estrutura, formando a seguinte URI: <rede>://user service bundle/user service/application name, onde redeé o nome da rede veicular heterogênea. Dessa forma, as identificações das aplicações de sistemas inteligentes de transporte definidas nos Capítulos 7 e 8 ficaram da seguinte forma: (i) sistema multiagente de controle de tráfego: <rede>://ttm/traffic control/signal control/ ; (ii) sistema multiagente de planejamento e orientação de rotas: <rede>://ttm/route guidance/trasit route; (iii) controle adaptativo e cooperativo de cruzeiro: <rede>://lca/cruise control/ccac/. Com base nestas identificações, foram definidas as configurações de interesses para os experimentos com HRAdNet-VE e RAdNet, levando em consideração as mesmas definições de identificação de interesses e tecnologias de acessoà comunicação sem fio utilizadas para enviar e receber mensagens de rede heterogênea. Nos experimentos com a HRAdNet-VE, também foram utilizados o mesmo número máximo de saltos definidos anteriormente nos Capítulos 7 e 8. Os experimentos com as CCNs utilizaram as mesmas definições de identificação de interesses como nomes de dados, assim como, as mesmas definições de tecnologias de acessoà comunicação sem fio dos interesses. Nos experimentos com a RAdNet-VE, as aplicações foram desenvolvidas para operar de maneira reativa, de modo que elas pudessem requisitar dados e, em seguida, recebê-los. Nos experimentos com a HRAdNet-VE, foi necessário diferenciar as mensagens trocadas pelos agentes. Tal diferenciação consistiu em separar as mensagens trocadas entre os agentes em duas categorias, que são: controle e dados. Como pôde ser obervado nos Capítulos 7 e 8, as mensagens relativas aos processos de controle em ambos os sistemas multiagentes são de caráter proativo. Dessa forma, a adoção dos mesmos procedimentos usados nos experimentos com a RAdNet-VE e RAdNet introduziria uma complexidade desnecessária aos experimentos com a HRAdNet-VE. Assim, tais procedimentos foram aplicados somente para mensagens contendo interesses relativosàs trocas de dados entre os agentes, quando os desempenhos da HRAdNet-VE e RAdNet foram comparados com o desempenho da CCN R .É importante ressaltar que, essa diferenciação entre mensagens de controle e de troca de dados foi apenas para facilitar a configuração dos experimentos desta seção. A diferenciação dos interesses pode ser vista nas Tabelas F.4, F.5, F.6, F.7 e F.8. Para evitar que os nós CCN R enviassem pacotes Interesse, requisitando mensagens contendo nomes de dados relativosàs atividades de controle dos sistemas multiagentes, os nomes de dados foram registrados permanentemente nas Pendent Interest Bases (PIBs) dos nós. Desta forma, as trocas de mensagens de controle entre os agentes foi realizada de acordo com as definições dos algoritmos apresentados nos Capítulos 7 e 8. No que diz respeitoàs mensagens contendo interesses relativos as trocas de dados entre os agentes, estas geraram pacotes Interesse para requisitar dados. Consequentemente, os nós CCN R , quando receberam tais pacotes, enviaram os dados para os agentes que os requereram. Nos experimentos com a RAdNet-VE, embora a CCN P tenha usado roteamento proativo de dados, os nós precisam enviar pacotes Interesse para que o envio proativo de dados pudesse acontecer [38]. Nos experimentos com a CCN P , este comportamento foi removido. Para que os nós pudessem trocar mensagens na CCN P , os nomes dos dados foram registrados permanentemente nas PIBs dos mesmos. Com isto, as trocas de mensagens de controle e de dados entre os agentes foram realizadas de maneira proativa. Com base nas modificações realizadas nas CCNs, foi possível criar dois grupos de comparação, são eles: reativo e proativo. No grupo reativo, os desempenhos da HRAdNet-VE e RAdNet foram comparados somente com o desempenho da CCN R . Por outro lado, no grupo proativo, os desempenhos da HRAdNet-VE e RAdNet foram comparados somente com o desempenho da CCN P . Para configurar o número máximo de saltos na RAdNet, CCN R e CCN P , os seguintes valores saltos foram adotados: (i) oito saltos para comunicações com interfaces IEEE 802.11n; (ii) quatro saltos para comunicações com interfaces IEEE 802.11p; e (iii) um salto para comunicações com interfaces LTE. De acordo com o Algoritmo 3, o protocolo de comunicação da HRAdNet-VE prevê o uso de um número máximo de saltos padrão. Este parâmetro foi configurado para oito saltos. Para os dois cenários, os tamanhos dos intervalos de indicações das sinalizações semafóricas foram configurados de acordo com os tipos de vias encontrados na grade 10 x 10. Dessa forma, agentes cujas sinalizações semafóricas estavam instaladas em vias de entradas de interseções participantes de corredores foram configurados com os seguintes tamanhos de intervalos mínimos de indicações de sinalização: (i) 33s para luzes verdes; (ii) 4s para luzes amarelas; e (iii) 1s para vermelho geral. Os demais agentes Sinalização Semafórica foram configurados com os seguintes tamanhos de intervalos mínimos de indicações de sinalização: (i) 22s para luzes verdes; (ii) 4s para luzes amarelas; e (iii) 1s para vermelho geral. No que diz respeito ao tamanho máximo dos intervalos de verde em cada agente Sinalização Semafórica, o valor deste parâmetro foi igual ao tempo mínimo de verdes vezes três. Além desses parâmetros de configurações, existem outros que precisam ser mencionadas aqui, que são aquelas relacionadasàs performances dos agentes. Tais parâmetros foram citados no Capítulo 6,á medida que os agentes Sinalização Semafórica e suas interações eram descritos. A Tabela 9.7 lista esses parâmetros e seus respectivos valores. Tais valores foram obtidos por meio dos experimentos relativos ao sistema multiagente de controle de tráfego. Como mencionado no Capítulo 6, os agentes Sinalização Semafórica possuem um identificadorúnico, queé fornecido pelo engenheiro de tráfego durante a configuração do sistema de controle de tráfego. Sendo assim, os agentes Sinalização Semafóricas foram numerados de 0 até 199, seguido o sentido das vias horizontais. Além disto, os corredores também foram identificados unicamente, como pode ser visto na Figura 9.2. Todos os agentes Sinalização Semafórica controladores de um sistema coordenado de sinalizações semafóricas foram configurados com tais identificadores de corredor. Além destes agentes, aqueles cujas sinalizações semafóricas integraram corredores também tiveram conhecimento das identificações de corredores. Todos os agentes controladores de sistemas coordenados de sinalizações semafóricas tiveram conhecimento das identificações dos agentes embutidos nas sinalizações semafóricas integrantes de corredores e das vias em que estes agentes se encontravam. Após a identificação dos corredores, estes foram separados em grupos, que são: • Grupo Leste-Oeste-Leste: formado pelos corredores A e B; • Grupo Norte-Sul-Norte: formado pelos corredores C e D. Além dessas desses parâmetros, os agentes Sinalização Semafórica controladores de um sistema coordenado de sinalizações semafóricas também tiveram outros que necessitaram de configuração. Tais parâmetros são listados na Tabela 9.8. Os valores desses parâmetros foram obtidos por meio dos experimentos relativos ao sistema multiagente de controle de tráfego. Por fim, foram criados três experimentos para cada um dos cenários. Cada um destes experimentos teve uma entrada de veículos específica, levando em consideração as primeiras vias imediatamenteà frente das vias de entrada da grade 10 x 10. As configurações de fluxos de veículos para as entradas na grade manhattan 10 x 10 são listados na Tabela 9.10. Análise dos Resultados do Cenário 1 Esta seção tem como objetivo apresentar uma análise comparativa entre HRAdNet-VE, RAdNet, CCN R e CCN P , tendo como base os resultados obtidos nos experimentos 1, 2 e 3 do cenário 1. Experimento 1 com Grupo Reativo A seguir, as Tabelas 9.11, 9.12 e 9.13 apresentam os resultados do grupo reativo e, em seguida, a Tabela 9.14 apresenta a análise comparativa destes. Descrição dos Cenários para os Experimentos Para a obtenção dos resultados referentes ao sistema multiagente de controle de tráfego, foram criados dois cenários: operação do sistema multiagente de controle de tráfego com sinalizações semafóricas em total funcionamento; e operação do sistema de controle de tráfego com sinalizações semafóricas apresentando ausência de funcionamento. Para cada um destes cenários, foram criados dois subcenários, a saber: controle de tráfego em interseções isoladas (SMER I ); e controle de tráfego envolvendo interseções isoladas mais controle de sistemas coordenados de sinalizações semafóricas (SMER I+C ). Em ambos os cenários, foram utilizados os seguintes agentes definidos nesta tese: Veículo, Sinalização Semafórica e Centro de Controle de Tráfego. Com estes cenários, pretendeu-se avaliar não somente o desempenho das estratégias de controle de tráfego definidas anteriormente, mas também comparar os resultados obtidos por meio dos experimentos realizados com elas. Neste sentido, no primeiro cenário tanto SMER I quanto SMER I+C tiveram seus desempenhos comparados contra um sistema de controle de tráfego baseado em sinalizações semafóricas. Em seguida, os resultados obtidos no primeiro cenário, foram comparados com os resultados do segundo cenário, a fim de comparar o desempenho do sistema multiagente de controle de tráfego em dois cenários distintos, ou seja, comparar os resultados obtidos com sinalizações semafóricas em total funcionamento contra os obtidos com sinalizações semafóricas apresentando ausências de funcionamento. Para os dois cenários, foram utilizadas a grades manhattan 10 x 10, que foram utilizadas nos experimentos com a HRAdNet. Estas grades podem ser vistas nas Configurações dos Experimentos Análise dos Resultados do Cenário 1 Esta seção tem como objetivo apresentar os resultados obtidos por meio dos experimentos 1, 2 e 3 do cenário 1, assim como, as análises comparativas dos mesmos. Experimento 1 A seguir, a Tabela 9.59 apresenta os resultados dos experimento 1 do cenário 1 e, em seguida, a Tabela 9.60 apresenta a análise dos mesmos. Para os dois cenários, foram utilizadas a grades manhattan 10 x 10, que foram utilizadas nos experimentos com a HRAdNet. Estas grades podem ser vistas nas Figuras 9.1(a) e 9.1(b). Além disto, Para cada um destes cenários, foram criados dois subcenários, a saber: controle de tráfego em interseções isoladas (SMER I ); e controle de tráfego envolvendo interseções isoladas mais controle de sistemas coordenados de sinalizações semafóricas (SMER I+C ). Configurações dos Experimentos As configurações adotadas nos experimentos relativos ao sistema multiagente de planejamento e orientação de rotas foram as mesmas adotadas nos experimentos com a HRAdNet-VE. Além disto, o parâmetro penalidade por número de veículos foi configurado com o valor 3,5, que foi o mesmo valor de penalidade adotado por FARIA [45]. Além disto, o parâmetro de tolerância de rota foi configurado com o valor zero. Análise dos Resultados do Cenário 1 Esta seção tem como objetivo apresentar os resultados obtidos por meio dos experimentos 1, 2 e 3 do cenário, assim como, as análises comparativas dos mesmos. Experimento 1 A seguir, a Tabela 9.71 apresenta os resultados dos experimento 1 do cenário 1 e, em seguida, a Tabela 9.72 apresenta a análise dos mesmos. Esta seção tem como objetivo apresentar os resultados obtidos com o ROOV no cenário 2. Além disto, ela também visa apresentar uma comparação dos desempenhos do ROOV no cenário 1 (ROOV 1 ) contra os desempenhos do ROOV no cenário 2 (ROOV 2 ). As apresentações dos resultados e análises serão feitas de acordo com os experimentos 1, 2 e 3. Experimento 1 A seguir, a Tabela 9.77 apresenta os resultados dos experimento 1 do cenário 2 e, em seguida, a Tabela 9.78 apresenta a análise dos mesmos. Embora o protocolo de comunicação da HRAdNet-VE tenha fornecido altas taxas de entrega de dados por meio de interfaces de acessoà comunicação sem fio baseadas nos padrões IEEE 802.11n e LTE, ele não forneceu altas taxas de entrega de dados com interfaces baseadas no padrão IEEE 802.11p, quando as aplicações operaram em modo reativo. As baixas taxas de entrega de dadosé uma consequência do alto número de mensagens produzidas pelo modo de comunicação do tipo requisição-resposta e as altas densidades de nós dentro dos alcances de comunicação das interfaces baseadas no padrão IEEE 802.11p. Embora os nós tenham trafegado em diferentes vias, suas interfaces de acessoà comunicação sem fio compartilharam o mesmo meio. Por isto, o desempenho do protocolo de comunicação foi fortemente afetado. Por esta razão, neste trabalho, argumenta-se que interfaces de acesso a comunicação sem fio baseadas no padrão IEEE 802.11p não devem ser usadas para fornecer comunicações baseadas em comunicações do tipo requisição-resposta em ambientes com altas densidades de nós. Além disso, tambémé importante fazer uma discussão dos protocolos de comunicação da RAdNet-VE e HRAdNet-VE em torno dos requisitos de comunicação das categorias de aplicações para VANETs [43]. Embora ZHENG et al. [30] tenha definidos os requisitos de comunicação de aplicações de serviços de sistemas inteligentes de transporte, observa-se que estes estão inclusos nas definições de requisitos de comunicação de aplicações para VANETs, como pôde ser observado em WILLKE et al. [43]. Quando aplicações precisam de comunicações com baixa latência, o protocolo de comunicação deve permitir que os nós se comunicação com o menor atraso possível [43]. De acordo com os resultados apresentados nas seções anteriores, os protocolos de comunicação da RAdNet-VE e da HRAdNet-VE forneceram comunicações com baixo atraso. Tanto na RAdNet-VE quanto na HRAdNet-VE não sofreram com o dinamismo topológico inerenteàs redes veiculares, pois o mecanismo de comunicação centrada em interesse não leva em conta a topologia da rede. Além disto, os protocolos de comunicação da RAdNet-VE e da HRAdNet-VE não usam mensagens de controle para manter ou atualizar dados de roteamento de mensagens. Por este motivo, um número menor de mensagens trafegadas foi produzido durante as comunicações entre os nós. Segundo WILLKE et al. [43], aplicações precisam de um protocolo que entregue mensagens a um grupo de nós. Tanto o protocolo da RAdNet-VE quanto o da HRAdNet-VE, satisfazem parte deste requisito por meio do mecanismo de comunicação centrada em interesses herdado do protocolo de comunicação da RAdNet [7]. Porém, o protocolo deve assegurar uma alta probabilidade de entrega de mensagens [43]. Para tanto, os protocolos de comunicação da RAdNet-VE e da HRAdNet-VE usam dois campos presentes em seus cabeçalhos de mensagens para encaminhar mensagens, usando os nós mais distantes da origem das mensagens e direções para propagações de mensagens, que são definidas pelas aplicações. Os benefícios disto foram a redução do custo de mensagens trafegadas e redução do tempo de propagação de mensagens em longas distâncias. Outro campo importante no processo de encaminhamento de mensagensé o identificador de via. Por meio deste campo, foi possível limitar o escopo de comunicação nas vias. Segundo WILLKE et al. [43], aplicações para controlar movimentos individuais (por exemplo, controle adaptativo e cooperativo de cruzeiro) operam em um escopo bem definido, que pode ser uma vizinhaça de veículos ou uma pequena região dentro de uma rede. Portanto, o protocolo de comunicação deve assegurar a entrega seletiva de mensagens, que pode ser baseada em trajetória, proximidade de veículo ou identificação do veículo [43]. Além disto, aplicações de serviços de sistemas inteligentes de transporte podem necessitar de escopos bem definidos de comunicação, pois os nós de infraestrutura precisam se comunicar uns com os outros para capturar, processar e distribuir informações de segurança e dados relativosàs condições de tráfego. Para tanto, esses nós precisam estabelecer comunicações de um salto. Com base no registro do número máximo de saltos juntamente com os interesses, foi possível estabelecer um escopo de comunicação limitado na RAdNet-VE e na HRAdNet-VE. Os benefícios destas estratégias puderam ser observados nos experimentos do segundo cenário de avaliação da HRAdNet-VE, pois foi possível observar que o custo de mensagens aumentou muito pouco, quando comparado com os experimentos do primeiro cenário. No que tange o baixo custo de mensagens para comunicações de estrutura de grupos, aplicações para controlar movimentos de grupo precisam de um protocolo que as permitam manter e atualizar estruturas persistentes de grupos [43]. Além disto, aplicações de serviços de sistemas inteligentes de transporte para controle de tráfego emáreas compartilhadas entre duas ou mais vias baseiam-se em comunicações de estrutura de grupos para capturar dados de condições de tráfego. Neste caso, cada via forma uma estrutura persistente de grupo. Tanto a RAdNet-VE quanto a HRAdNet-VE são redes centradas em interesses e, por isto, elas não precisam de mecanismos centralizados para gerenciar grupos. Por meio do mecanismo de comunicação centrada em interesses, essas redes implementam comunicações de estrutura de grupos de maneira distribuído e com um baixo custo de mensagens. Sistema Multiagente de Controle de Tráfego O sistema multiagente de controle de tráfego teve como ponto de partida o trabalho desenvolvido por PAIVA [2], que forneceu um estudo inicial acerca do uso do algoritmo de escalonamento distribuído SMER para controlar sinalizações semafóricas em interseções isoladas ou sistemas coordenados de sinalizações semafóricas. Esse trabalho, por sua vez, foi estendido por esta tese, introduzindo elementos relativos a comunicação veicular, a fim de substituir a leitura das flutuações de tráfego, que antes eram feitas por meio de sensores de pressão instalados nas entradas das vias controladas pelas sinalizações semafóricas, pela troca de mensagens de dados entre veículos conectados e sinalizações semafóricas inteligentes. Com base nesta extensão,é possível completar uma lacuna encontrada no trabalho de PAIVA [2], queé a contagem de veículos realizada somente, quando os veículos entram em uma via cujo fluxoé controlado por uma sinalização semafórica inteligente. Isto poderia comprometer o ajuste dos intervalos de indicações de luzes verdes nas sinalizações semafóricas, uma vez que alguns veículos poderiam ficar retidos na via, quando os mesmos não conseguissem atravessar a interseção durante o intervalo de indicação de luz verde dedicado para a via em que estão localizados. Nesta tese, essa deficiência foi corrigida por meio de trocas de mensagens dados, que permitiram as sinalizações semafóricas constantemente requisitarem a presença de veículos nas vias de entradas de interseções, onde elas foram instaladas. Devido ao tempo dedicado ao projeto, desenvolvimento e teste das redes veiculares centradas em interesses, não foi possível realizar experimentos com o sistema multiagente de controle de tráfego, utilizando tipos diferentes de veículos, tais como caminhões eônibus. De acordo com o estado atual deste trabalho, as leituras dos fluxos de tráfego levam somente em consideração a entrada de automóveis nas vias. Assim, em experimentos com tipos diferentes de veículos, as leituras dos fluxos de tráfego das vias de entrada das interseções serão equivocadas, no que tange a quantidade equivalente de veículos presentes nestas vias. Segundo [54], caminhões de dois eixos, caminhões de três eixos eônibus têm fatores de equivalência de tráfego iguais a dois, três e dois, respectivamente. Os fatores de equivalência de tráfego correspondem ao número de veículos que uma determinada classe de veículo corresponde. Outra lacuna relativa ao trabalho de PAIVA [2], que foi preenchida por por esta tese,é a definição de primitivas acerca do controle de interseções isoladas e do controle de sistemas coordenados de sinalizações semafóricas. Nesta tese, tais primitivas foram definidas na forma de interesses, que foram utilizados nas interações e trocas dados entre os agentes Sinalização Semafóricas. Juntamente com as primitivas de controle, também foram definidos os algoritmos para tratamento das mesmas. De acordo com os resultados obtidos, por meio dos experimentos com a HRAdNet-VE, foi possível constatar, durante a avaliação experimental do sistema multiagente de controle de tráfego, que as estratégias relativas ao controle de interseções isoladas e ao controle de sistemas coordenados de sinalizações semafóricas funcionaram corretamente em um ambiente de rede veicular heterogênea. Até a conclusão dos experimentos, existiu uma preocupação quantoàs operações do sistema multiagente de controle de tráfego sobre a HRAdNet, pois os agentes Sinalização Semafórica precisariam se adaptar rapidamenteàs flutuações de fluxos de tráfego. Para tanto, a periodicidade de obtenções de médias de quantidades de veículos nas vias de entrada das interseções deveria pequena. Isto poderia comprometer as operações do sistema multiagente de controle de tráfego. Embora tenha acontecido uma troca intensiva de mensagens de interação entre os agentes, o sistema multiagente de controle de tráfego operou sem apresentar qualquer problema sobre a HRAdNet-VE. Isto, por sua vez, levanta a possibilidade de desenvolvimento de protótipos futuramente, tendo em vista que a indústria local de sistemas inteligentes de transporteé verdadeiramente tímida, no que diz respeitoà inovação tecnológica. Quanto a operação do sistema multiagente de controle de tráfego, como pôde ser observado anteriormente, esta pode se dá tanto em condições favoráveis ou desfavoráveis, quando se trata do funcionamento das sinalizações semafóricas. Esta tese não somente estendeu e aperfeiçoou o trabalho de PAIVA [2], mas também propôs estratégias para o controle de interseções isoladas e o controle de sistemas coordenados de sinalizações semafóricas, utilizando a presença de veículos conectados nas vias cujas sinalizações semafóricas apresentaram ausência de funcionamento. Tal estratégia dependeu de um centro de controle de tráfego hipotético, queé capaz de manter um sistema supervisor, que, por sua vez,é alimentado com dados capturados pelo agente Centro de Controle de Tráfego. Embora um centro de controle de tráfego possa oferecer alta disponibilidade para recuperar dados de controle de interseções isoladas e interseções participantes de sistemas coordenados de sinalizações semafóricas, a ausência deste compromete a estratégia, pois veículos conectados e sinalizações semafóricas dependem do encaminhamento de mensagens da rede celular para que a estratégia funcionem corretamente. Uma maneira de resolver este problemaé a utilização de comunicação D2D em redes celulares LTE. No entanto, nesta tese, não foi possível tratar disto e, por isto, uma investigação nesta direção deve ser feita no futuro. Analisando os resultados obtidos por meio dos experimentos dos cenários definidos para avaliação, percebeu-se que o sistema multiagente de controle de tráfego cumpre o seu objetivo, pois ele foi capaz de melhorar a fluidez do tráfego, maximizando o número de veículos que chegam aos destinos de viagem e a velocidade média dos veículos. Além disto, o sistema multiagente de controle de tráfego também foi capaz de minimizar o tempo médio de espera e tempo médio de viagem. Mesmo em um cenário, utilizando interseções com sinalizações semafóricas com ausência de funcionamento, o sistema multiagente de controle de tráfego mostrou-se viável, uma vez que, ao se comparar os resultados obtidos em condições como esta, ele apresentou resultados numéricos próximos aos que foram obtidos nos experimentos do cenário em que todas as sinalizações semafóricas fucionam. Com isto, pode-se afirmar que as estratégias de controle, utilizando o arcabouço teórico do algoritmo distribuído SMER, são promissoras. No entanto,é importante que estas estratégias também sejam avaliadas em cenários cujos os mapas viários sejam diferentes de uma grade manhattan, a fim de aprimorá-las cada vez mais, de modo que elas possam estar preparadas para condições reais de tráfego. Embora o sistema multiagente de controle de tráfego tenha se saído melhor, quando comparado com um sistema de controle de tráfego baseado em sinalizações semafóricas pré-temporizadas, os resultados poderiam ter sido melhores, caso o sistema fosse imune ao desbalanceamento severo das densidades de veículos em algumas vias. Isto confirmou uma hipótese levantada na introdução deste trabalho. O desempenho de um sistema avançado de gerenciamento de tráfego cai, quando um desbalanceamento severo nas densidades das vias acontece. No mundo real, este desbalanceamento pode ser causado por escolhas equivocadas de rotas por parte dos motoristas ou o uso de sistemas de navegação baseados em mapas estáticos, que, por não terem ciência de rotas alternativas, acabam escolhendo rotas que levam ao aumento da concentração de veículos em determinadas vias, enquanto outras ficam 207 subutilizadas ou até mesmo ociosas. Sistema Multiagente de Planejamento e Orientação de Rotas O sistema multiagente de planejamento e orientação de rotas teve como base o trabalho desenvolvido por FARIA [45], que forneceu um estudo inicial sobre uma abordagem para planejamento e orientação de rotas. De acordo com a literatura de sistemas multiagentes, tal abordagem pode ser entendida como um sistema multiagente baseado em alocação de recursos. Portanto, a abordagem se baseia no compartilhamento dos planos de temporização das sinalizações semafóricas pertencentes a um sistema de controle de tráfego. No entanto, FARIA [45] não descreve como tal compartilhamento acontece, pois o mesmo parte do pressuposto de que exista uma agenda global de intervalos de luz verde, queé conhecida por todas as sinalizações semafóricas de um sistema avançado de controle de tráfego. Partindo de um ambiente suportado por uma rede veicular heterogênea, esta tese estendeu o trabalho de FARIA [45], adicionando um mecanismo de compartilhamento de dados de controle das interseções, que permitiu a cada agente Sinalização Semafórica gerar localmente entradas em sua visão da agenda global de intervalos de indicações de luzes verdes. Os dados de controle das interseções foram compostos dos valores de parâmetros das configurações de desempenho das sinalizações semafóricas e os multigrafos de controle utilizados pelo algoritmo de escalonamento distribuído SMER. Dessa forma, cada agente pôde ter sua visão particular sobre a agenda global produzida pelo sistema avançado de gerenciamento de tráfego. Nesta tese, o sistema gerenciamento de controle de tráfegoé o sistema multiagente de controle de tráfego. O maior benefício alcançado por esta técnicaé a dispensa do uso de uma infraestrutura computacional de alto custo. No entanto, mais estudos precisam ser realizados no futuro, pois os tamanhos das cópias das agendas crescem, de acordo com o tamanho da rede viária controlada por sinalizações semafóricas. Neste caso, precisam ser realizadas avaliações quanto ao armazenamento das agendas em sinalizações semafóricas inteligentes. Com base nas disponibilidades das entradas das agendas de intervalos de luz verde, foi possível construir um algoritmo de cálculo de rotasótimas, queé executado pelos agentes Sinalização Semafórica ou pelos agentes Veículo, quando estes estão controlando o tráfego em interseções. Este ponto põe uma luz sobre o trabalho de FARIA [45], havia uma indefinição acerca de quem era o responsável em calcular as rotas. Além disto, nesta tese, com as disponibilidades citadas acima, o mapa viário pôde ser visto como um grande sistema flexível de manufatura do tipo job-shop. Desta forma, o algoritmo de cálculo de rotas teve como base heurísticas para geração de regras de despacho. Este algoritmo tirou proveito dos espaços alocados nas vias para os veículos,à medida que estes requisitam cálculos de rotas aos responsáveis pelos controles das interseções. Nesta tese, os espaços são alocados conforme os tamanhos dos veículos e o tamanho das vias. Como só foram considerados automóveis nos experimentos, faz-se necessário investigações, utilizando diferentes classes de veículos. Nesta tese, sempre que um agente Veículo requisitou um replanejamento de rota, quando o veículo que o embute deixava uma interseção, o sistema de planeamento e orientação de rotas sofreu alterações, no que diz respeito a manutenção de rotas nas entradas das agendas de interlavos de luzes verdes. Com base nos experimentos com a HRAdNet-VE,é possível afirmar que as trocas de mensagens não afetaram o desempenho da rede veicular heterogênea. No entanto, alguns experimentos precisam ser realizados no futuro. Tais experimentos consistem em avaliar o tempo de resposta para os pedidos de cálculo de rotasótimas, pois os agentes responsáveis pelo controle das interseções precisam efetuar este cálculo localmente. Além disto, tambémé importante avaliar o tempo gasto para atualizar o estado do sistema de planejamento e orientação de rotas,à medida que novas alocações de rotas são feitas e desfeitas. Outro ponto importante a ser discutidoé o impacto das mudanças das agendas de intervalos de luzes verdes,à medida que os agentes responsáveis pelo controle das interseções mudam as configurações de controle das interseções em função das flutuações dos fluxos do tráfego de uma via. Tais mudanças não afetaram o desempenho da HRAdNet-VE, apesar do alto custo de comunicação gerado por elas. Nesta tese, foi introduzido o conceito de elemento urbano. Na prática, elementos urbanos podem enriquecer o processo de seleção de rotas para os veículos, pois eles foram capazes de usar a HRAdNet-VE para publicar dados acerca de suas localizações. Com base nestes dados, as camadas de rede dos veículos conectados, sinalizações semafóricas inteligentes e centro de controle de tráfego foram configuradas. Nesta tese, não foi considerado o custo de recuperação de interesses de baixa popularidade na rede centrada em interesses. Como mencionado anteriormente, os interesses com maior popularidade são mantidos em memória. Os interesses com baixa popularidade devem ficar armazenados em disco. Por isto, estudos futuros devem investigar o impacto do custo de recuperação de interesses de baixa popularidade durante a recepção e o encaminhamento de mensagens de rede. Analisando os resultados dos experimentos com o sistema de planejamento e orientação de rotas,é possível afirmar que o mesmo atingiu seus objetivos. Neste sentido, ele foi capaz de maximizar o número de veículos que chegam ao destino planejado, assim como, a velocidade média dos veículos. Além destas otimizações, o sistema também foi capaz de minimizar o tempo médio de espera, tempo médio 209 de viagem, consumo de combustível e emissões (CO, CO 2 , HC, NOx e PMx). Estes resultados só foram alcançados, pois o algoritmo de planejamento e roteamento orientado a ondas verde foi capaz de distribuir os volumes de tráfego ao longo de uma rede viária. Tal distribuição de volume de tráfego pôde ser observada nos três experimentos definidos no cenário 1. As figuras seguintes apresentarão as distribuições de volume de tráfego geradas pelo roteamento baseado em caminho espacialmente mais curto, roteamento baseado em caminho temporalmente mais curto e roteamento orientado a ondas verdes. As distribuições de volume de tráfego geradas durante o experimento 1 são apresentadas nesta ordem pelas Figuras 9.3, 9.4 e 9.5. As distribuições de volume de tráfego geradas durante o experimento 2 são apresentadas nesta ordem pelas Figuras 9.6, 9.7 e 9.8. As distribuições de volume de tráfego geradas durante o experimento 3 são apresentadas nesta ordem pelas Figuras 9.9, 9.10 e 9.11. Como pode ser observado nas figuras apresentadas anteriormente, o algoritmo de roteamento orientado a ondas verdes foi capaz de distribuir de maneira uniforme o volume de tráfego sobre o mapa viário utilizado nos experimentos, enquanto os demais algoritmos de roteamento acumularam veículos em determinadasáreas do mapa. Como pode ser observado nas Figuras 9.5, 9.8 e 9.11, as cores com maior predominância nos mapas são aquelas mais próximas do centro das escalas de cores. E importante perceber que o algoritmo de roteamento orientado a ondas verdeś e capaz de montar rotas que minimizam o tempo de espera do veículos, quando eles chegam em uma via, onde a sinalização semafórica indica luz vermelha. No entanto, os resultados numéricos apresentados anteriormente também foram obtidos com uso do mecanismo de controle de velocidade orientadoà ondas verdes proposto no trabalho de FARIA [45]. Nesta tese, o mecanismo de controle de velocidade orientado a ondas verdes foi viabilizado em conjunto com um controle adaptativo e cooperativo de cruzeiro. Embora FARIA [45] tenha proposto o mecanismo em questão, ele não foi testado em ambiente de rede veicular. Portanto, esta tese mostrou que a proposta de FARIA [45] funcionou adequadamente, quando esta foi executado sobre uma rede veicular centrada em interesses. Considerações Finais Este capítulo apresentou os procedimentos adotados durante o processo de avaliação experimental de cada uma das propostas apresentadas nesta tese. Na seção de metodologia, foram apresentadas as ferramentas utilizadas para no desenvolvimento e avaliação das propostas. Em seguida, foi descrito o ambiente computacional utilizado durante a realização dos experimentos. Após esta descrição, as seções subsequentes apresentaram as avaliações de cada uma das propostas apresentas por esta tese. Em cada uma das apresentações, foram descritos os cenários e configurações dos experimentos. Após isto, foram apresentados os resultados obtidos por meio dos experimentos. Com base nestes resultados, as avaliações terminaram com uma análise dos mesmos. 215 Capítulo 10 Conclusões e Trabalhos Futuros Este capítulo apresenta as conclusões e trabalhos futuros relacionadosà pesquisa desenvolvida nesta tese. Conclusões Esta tese apresentou um controle distribuído de tráfego baseado em veículos conectados. Devido aos requisitos de comunicação deste tipo de aplicação para sistemas inteligentes de transporte, tornou-se imperativo o desenvolvimento de uma rede ad hoc veicular cujo protocolo de comunicação fosse capaz de fornecer baixo custo de mensagens trafegadas, comunicações de baixa latência, altas taxas de entrega, escopo de comunicação bem definido e escalabilidade. Nesse sentido, este estudo propôs inicialmente uma rede ad hoc veicular centrada em interesses chamada RAdNet-VE, queé uma extensão da rede ad hoc móvel centrada em interesses para ambientes veiculares. Devidoà necessidade de realizar comunicações com diversos tipos de tecnologias de acessoà comunicação sem fio, o projeto da RAdNet-VE foi estendido, objetivando a criação de uma rede veicular heterogênea centrada em interesses, que foi chamada de HRAdNet-VE. Tanto a RAdNet-VE quanto a HRadNet-VE foram capazes de satisfazer os requisitos citados acima. Após a conclusão do projeto da HRAdNet-VE, deu-se início ao projeto de um sistema multiagente de controle de tráfego. As estratégias de controle distribuído propostas neste sistema, tiveram como base os algoritmos de escalonamento distribuído propostos por PAIVA [2]. Os resultados obtidos por meio dos experimentos mostraram que tal sistemaé capaz de melhorar a fluidez do tráfego em umaárea controlada por sinalizações semafóricas inteligentes. No entanto, tal sistema de controle de tráfego, assim como os existentes na literatura, não foi imune ao desbalanceamento na distribuição dos fluxos de tráfego. Para tratar este problema, este estudo propôs um sistema multiagente de planejamento e orientação de rotas. Tal sistema foi construído sobre o sistema multiagente de controle de tráfego, a fim de tirar proveito das disponibilidades de intervalos de indicações de luzes verdes das sinalizações semafóricas e, com isto, criar rotasótimas para o roteamento de veículos. Para lidar com o problema de roteamento de veículos, esta tese se apropriou das teorias e heurísticas de despacho de sistemas flexíveis de manufatura do tipo job-shop, assim como, das propostas apresentadas por FARIA [45]. Com isto, foi possível construir um algoritmo de roteamento de veículos orientado a ondas verdes, que tira proveito das disponibilidades de intervalos de luz verde e espaços nas vias de uma rede viária. Por meio do sistema multiagente de planejamento e orientação de rotas, e um mecanismo de controle de velocidade orientadoà ondas verdes, foi possível melhorar um pouco mais a fluidez do tráfego de veículos. Por fim, conclui-se que, de acordo com os resultados apresentados no capítulo anterior a este, esta pesquisa alcançou os objetivos traçados inicialmente na introdução deste trabalho. Além disto, até o término deste estudo, não foram encontradas abordagens similaresàs propostas aqui. Por isto, conclui-se que o controle distribuído de tráfego baseado em veículos conectados, utilizando comunicações centradas em interesses em uma rede heterogênea veicular,é inédito. Embora existam trabalhos relacionadosà redes centradas em informação/conteúdo, estratégias de controle distribuído de tráfego e estratégias distribuídas de planejamento e orientação de rotas, ainda não foram direcionados esforços na direção proposta neste estudo. Publicações e Submissões Durante a condução deste trabalho de doutorado, obteve-se uma publicação, queé a seguinte: Interest-Centric Vehicular Ad Hoc Network, aceito para publicação na 12th IEEE International Conference on Wireless and Mobile Computing, Networking and Communications, realizada em outubro de 2016. Este artigo apresenta a proposta da RAdNet-VE. Além disto, também foi submetido um artigo entitulado Heterogeneous Interest-Centric Vehicular Network para o periódico IEEE Transactions on Intelligent Transportation Systems. Segundo aúltima avaliação do Qualis, a conferência e o periódico foram avaliados como A2 e A1, respectivamente. Trabalhos Futuros As propostas de trabalhos futuros relacionados a este estudo foram agrupadas, de acordo com as propostas apresentadas nos Capítulos 5, 7 e 8. Com base nisto, seguem os trabalhos futuros: • Redes Veiculares Centradas em Interesses: -Pesquisar e desenvolver novos cenários relacionadosàárea de sistemas inteligentes de transporte, de modo que, com base nestes, sejam criados novos experimentos para realização de testes com a RAdNet-VE e a HRAdNet-VE; -Projeto e desenvolvimento de uma arquitetura de software cujo objetivoé servir como um framework para desenvolvimento de aplicações de serviços de sistemas inteligentes de transporte; -Projeto e desenvolvimento de um framework para desenvolvimento de cenários de avaliação de sistemas inteligentes de transporte sobre as redes veiculares centradas em interesses, estendendo os frameworks disponíveis para o Omnet++. Neste trabalho futuro, também deve ser considerada uma maneira de trabalhar com mapas do Open Street Map; -Investigar a possibilidade de utilização de comunicações centradas em interesses, utilizando comunicação D2D em redes celulares LTE; -Avaliar o impacto de interesses de baixa popularidade na latência de comunicação entre nós, uma vez que tais interesses não ficam constantemente disponíveis em memória. Para tanto, devem ser utilizados dispositivos que possam ser embarcados em veículos e sinalizações semafóricas; -Pesquisar e desenvolver estudos relacionadosà segurança das redes centradas em interesses, utilizando nomes auto-certificáveis; -Desenvolver cenários para avaliações experimentais, utilizando o controle de interseções por meio de veículos conectados, sem que exista um centro de controle de tráfego para manter dados de controle acerca de interseções. Neste cenário, os agentes Veículo devem ser capazes de negociar as passagens de seus veículos conectados pelas interseções, enquanto outros veículos esperam as liberações das mesmas, para, então, atravessálas; • de uma interseção de vias como um conjunto de recursos compartilhados entre os movimentos das vias de entrada da interseção.(a) pontos de conflito entre os movimentos da conflitantes da interseção; (b) mapeamento dos pontos de conflito na forma de recursos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 4.4 Grafos criados com base no mapeamento de pontos de conflito na forma de recursos: (a) um exemplo de um grafo criado para o algoritmo SER; (b) um exemplo de um multigrafo para o algoritmo SMER. Ambos os exemplos apresentam grafos com orientações iniciais acíclicas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 4.5 Controle de coordenação de redes de sinalizações semafóricas: (a) corredores e interseções como recursos compartilhados; (b) grafocriado inicialmente para mapear os corredores, na forma de vértices, e interseções, na forma de arestas, representando o compartilhamento das interseções entre os corredores; (c) multigrafo criado para controlar os corredores de acordo com as demandas de tráfego. . . . . . . . . . 69 5.1 Comparação entre as especificações dos Prefixos Ativos da RAdNet e a RAdNet-VE: (a) Prefixo Ativo da RAdNet; (b) Prefixo Ativo da RAdNet-VE. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84 5.2 Comparação entre as especificações dos cabeçalhos de mensagens da RAdNet e da RAdNet-VE: (a) cabeçalho de mensagens da RAdNet; (b) cabeçalho de mensagens da RAdNet-VE. . . . . . . . . . . . . . . 85 5.3 RVEP nas camadas de rede: (a) RVEP como um substituto do IP em nós equipados com rádios baseados no padrão IEEE 802.11; (b) modelo de referência OSI; (c) RVEP como um substituto do IP em nós equipados com rádios baseados no padrão IEEE 802.11p . . . . . 97 9.1 Grade manhattan 10 x 10: (a) grade utilizada no primeiro cenário; (b) grade utilizada no segundo cenário. . . . . . . . . . . . . . . . . . 171 9.2 Identificações dos agentes Sinalização Semafórica e corredores de sinalizações semafóricas. . . . . . . . . . . . . . . . . . . . . . . . . . . 175 9.3 Distribuição do volume de tráfego realizada pelo algoritmo de roteamento baseado no caminho espacialmente mais curto durante experimento 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210 x 9.4 Distribuição do volume de tráfego realizada pelo algoritmo de roteamento baseado no caminho temporalmente mais curto durante experimento 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211 9.5 Distribuição do volume de tráfego realizada pelo algoritmo de roteamento orientadoà ondas verdes mais curto durante experimento 1. . . 211 9.6 Distribuição do volume de tráfego realizada pelo algoritmo de roteamento baseado no caminho espacialmente mais curto durante experimento 2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212 9.7 Distribuição do volume de tráfego realizada pelo algoritmo de roteamento baseado no caminho temporalmente mais curto durante experimento 2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212 9.8 Distribuição do volume de tráfego realizada pelo algoritmo de roteamento orientadoà ondas verdes mais curto durante experimento 2. . . 213 9.9 Distribuição do volume de tráfego realizada pelo algoritmo de roteamento baseado no caminho espacialmente mais curto durante experimento 3. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213 9.10 Distribuição do volume de tráfego realizada pelo algoritmo de roteamento baseado no caminho temporalmente mais curto durante experimento 3. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214 9.11 Distribuição do volume de tráfego realizada pelo algoritmo de roteamento orientadoà ondas verdes mais curto durante experimento 3. . . 214 xi Lista de Tabelas 9.1 Identificação das aplicações desenvoldidas para os cenários com base na estrutura de nomes defina para as CCNs. . . . . . . . . . . . . . . 167 9.2 Configurações do IDM para os dois cenários. . . . . . . . . . . . . . . 168 9.3 Resultados dos experimentos do cenário 1 . . . . . . . . . . . . . . . 168 9.4 Análise comparativa entre o desempenho da RAdNet-VE e os das demais redes no cenário 1. . . . . . . . . . . . . . . . . . . . . . . . . 168 9.5 Resultados dos experimentos do cenário 2 . . . . . . . . . . . . . . . 169 9.6 Análise comparativa entre o desempenho da RAdNet-VE e os das demais redes no cenário 2. . . . . . . . . . . . . . . . . . . . . . . . . 169 9.7 Configuração padrão dos agentes Sinalização Semafórica. . . . . . . . 174 9.8 Configuração padrão dos agentes Sinalização Semafórica controladores de um sistema coordenado de sinalizações semafóricas. . . . . . . 174 9.9 Configurações para o Intelligent Driver Model (IDM) . . . . . . . . . 176 9.10 Configurações de fluxos de veículos para as entradas da grade manhattan 10 x 10. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176 9.11 Resultados do grupo reativo no experimento 1 do cenário 1, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão IEEE 802.11n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177 9.12 Resultados do grupo reativo no experimento 1 do cenário 1, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão IEEE 802.11p . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177 9.13 Resultados do grupo reativo no experimento 1 do cenário 1, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão LTE . 177 9.14 Análise comparativa entre o desempenho da HRAdNet-VE e os das demais redes do grupo reativo, utilizando os resultados do experimento 1 do cenário 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . 177 9.15 Resultados do grupo proativo no experimento 1 do cenário 1, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão IEEE 802.11n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178 xii 9.16 Resultados do grupo proativo no experimento 1 do cenário 1, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão IEEE 802.11p . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178 9.17 Resultados do grupo proativo no experimento 1 do cenário 1, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão LTE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178 9.18 Análise comparativa entre o desempenho da HRAdNet-VE e os das demais redes do grupo proativo, utilizando os resultados do experimento 1 do cenário 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . 178 9.19 Resultados do grupo reativo no experimento 2 do cenário 1, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão IEEE 802.11n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179 9.20 Resultados do grupo reativo no experimento 2 do cenário 1, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão IEEE 802.11p . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179 9.21 Resultados do grupo reativo no experimento 2 do cenário 1, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão LTE . 179 9.22 Análise comparativa entre o desempenho da HRAdNet-VE e os das demais redes do grupo reativo, utilizando os resultados do experimento 2 do cenário 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . 179 9.23 Resultados do grupo proativo no experimento 2 do cenário 1, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão IEEE 802.11n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180 9.24 Resultados do grupo proativo no experimento 2 do cenário 1, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão IEEE 802.11p . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180 9.25 Resultados do grupo proativo no experimento 2 do cenário 1, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão LTE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180 9.26 Análise comparativa entre o desempenho da HRAdNet-VE e os das demais redes do grupo proativo, utilizando os resultados do experimento 2 do cenário 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . 180 9.27 Resultados do grupo reativo no experimento 3 do cenário 1 utilizando interfaces de acessoà comunicação sem fio baseadas no padrão IEEE 802.11n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181 9.28 Resultados do grupo reativo no experimento 3 do cenário 1, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão IEEE 802.11p . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181 xiii 9.29 Resultados do grupo reativo no experimento 3 do cenário 1, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão LTE . 181 9.30 Análise comparativa entre desempenho da HRAdNet-VE e os das demais redes do grupo reativo, utilizando os resultados do experimento 3 do cenário 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181 9.31 Resultados do grupo proativo no experimento 3 do cenário 1, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão IEEE 802.11n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182 9.32 Resultados do grupo proativo no experimento 3 do cenário 1, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão IEEE 802.11p . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182 9.33 Resultados do grupo proativo no experimento 3 do cenário 1, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão LTE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182 9.34 Análise comparativa entre desempenho da HRAdNet-VE e os das demais redes do grupo proativo, utilizando os resultados do experimento 3 do cenário 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182 9.35 Resultados do grupo reativo no experimento 1 do cenário 2, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão IEEE 802.11n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183 9.36 Resultados do grupo reativo no experimento 1 do cenário 2, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão IEEE 802.11p . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183 9.37 Resultados do grupo reativo no experimento 1 do cenário 2, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão LTE . 183 9.38 Análise comparativa entre o desempenho da HRAdNet-VE e os das demais redes do grupo reativo, utilizando os resultados o experimento 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184 9.39 Resultados do grupo proativo no experimento 1 do cenário 2, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão IEEE 802.11n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184 9.40 Resultados do grupo proativo no experimento 1 do cenário 2, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão IEEE 802.11p . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184 9.41 Resultados do grupo proativo no experimento 1 do cenário 2, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão LTE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184 xiv 9 Figura 2 . 1 : 21Modelos de comunicação em redes ad hoc veiculares. de unidades de bordo e unidades de acostamento: (a) Unidade de Bordo; (b) Unidade de Acostamento. Fonte: COHDA WIRELESS [1] Figura 2 . 3 : 23Classificação hierárquica das vias urbanas. Figura 2 . 4 : 24Relação entre acessibilidade e mobilidade dos diferentes tipos de vias. né o número de veículos passando em uma seção de via, e t ié o tempo que o i-ézimo veículo leva para viajar através de uma seção de via. de uma interseção com doze vias de entrada com movimentos e grupos de movimentos identificados: (a) Enumeração de movimentos em uma interseção sinalizada; (b) Grupo de movimentos norte-sul-norte; (c) Grupo de movimentos leste-oeste-leste. Fonte: KYTE e TRIBELHORN[3]. de um grafo direcionado no contexto do SER. (a) Grafo com orientação acíclica; (b) Grafo em deadlock. Figura 2 . 8 : 28Exemplo de um período, onde p = 5, m = 2 e γ(G) = 2/5. Adaptado de BAROBOSA[4]. e 2, 3 3= r 2 + r 3 − mdc(r 2 , r 3 ) = 2 + 2 − 2 = 2 . Como pode ser visto na Figura 2.10, o SMER inicia sua execução a partir de um estado inicial em que o vértice umé o sumidouro. Após operar sobre os recursos compartilhados entre os vértices dois e três, o vértice um reverte r 1 arestas para os seus vizinhos. Uma vez que r 1é igual a um, o vértice um inicia novamente a operação sobre os recursos compartilhados com seus vizinhos, pois ainda restaram uma aresta em cada um dos arcos que interligam o vértice um aos vértices dois e três. Após o término desta segunda operação, o vértice um reverte novamente r 1 arestas para seus vizinhos. Neste momento, o vértice um se torna um vértice fonte e o vértice dois se torna um sumidouro, permitindo este operar sobre os recursos compartilhados com os vértices um e três. Ao findar a sua operação, o vértice dois reverte r 2 arestas para seus vizinhos, tornando-se um vértice fonte, pois não existem arestas direcionadas para ele. Após isto, o vértice três passa a ser o vértice sumidouro, permitindo-lhe operar sobre os recursos compartilhados com os vértices um e dois. Após o fim de sua operação, o vértice três reverte r 3 arestas, finalizando o período ω e dando início ao período ω . O problema de escalonamento em sistemas flexíveis de manufatura do tipo job-shop (Problema de Escalonamento Job-Shop) pode ser descrito como um conjunto de J de n jobs (j 1 , j 2 , j 3 , ..., j n ), queé processado em um conjunto M de m máquinas(m 1 , m 2 , m 3 , ..., m r ). O processamento do job j i na máquina m ré chamado de operação o ir . A operação o ir requer o uso exclusivo da máquina m r durante um período ininterrupto de tempo, queé o seu tempo de processamento p ir . Uma agendaé um conjunto C de tempos de conclusão c ir para cada operação. O tempo gasto para completar todos os jobsé chamado de makespan L. A solução ou a otimização para este tipo de problema tem como objetivo determinar uma agenda que minimize L. O Problema de Escalonamento Job-Shop pode ser formalmente descrito por um grafo disjunto G =(V, C∪D), onde Vé o conjunto de vértices, Cé o conjunto de arcos conjuntivos e Dé o conjunto de arcos disjuntivos. A Figura 2.13 ilustra um grafo com dez operações (em três jobs) e três máquinas. Os vértices de G correspondem Figura 2 . 13 : 213Grafo disjunto de um Problema Job-Shop 3 × 3. Adaptado de YA-MADA e NAKANO[6]. Figura 2 . 14 : 214Mapeamento de um Problema Job-Shop 3 × 3 em um Grafo de Gantt as operações (O vértice origem (0) e o sumidouro ( * ) são as operações de início e fim, respectivamente). Os arcos conjuntivos de C representam a sequências de máquinas das operações. Os arcos disjuntivos de D representam os pares de operações, que devem ser realizadas na mesma máquina. Para melhor ilustrar o mapeamento das operações nas máquinas, a Figura 2.14 apresenta o funcionamento o escalonamento de operações de um Sistema Flexível de Manufatura do tipo Job-Shop por meio de um gráfico de Gantt. Figura 4 . 1 : 41Especificação do Prefixo Ativo. Adaptado de DUTRA et al.[7,8]. casPrefixos = verdadeiro ∨ casInteresses = verdadeiro então 14 se msg j .limiteSaltos > 0 então 15 Enviar msg j para todos vizinhos i ; resultado do casamento de dados entre seus prefixos ativos e os valores de campos específicos dos cabeçalhos das mensagens recebidas. Estes campos específicos são o prefixo de origem e o interesse. O Algoritmo 1 descreve os processos envolvidos no encaminhamento de uma mensagem da RAdNet. De acordo com o Algoritmo 1, o receber uma mensagem (msg j ) de qualquer vizinho j, ele checa se o nó i já recebeu esta mensagem. Caso já tenha recebido, o nó i descarta msg j . Caso contrário, o algoritmo registra o valor do identificador da mensagem e o prefixo de origem da mensagem na tabela de identificadores (tabelaIds i ) do nó i. Em seguida, o algoritmo reduz em um o limite de saltos de msg j . Após isto, o algoritmo realiza a filtragem de mensagens. Primeiramente, ele checa se a tabela de interesses do nó i (tabelaInteresses i ) possui uma entrada igual ao interesse da mensagem recebida (msg j .interesse). Após esta checagem, ele também checa se o prefixo do nó i (pref ixo i ) e o prefixo de origem da mensagem recebida (msg j .pref ixoDestino) têm um ou mais pares de campos com o mesmo valor ou, se o valor de msg j .pref ixoDestinoé igual a nulo. Caso o resultado da primeira checagem dê verdadeiro, o algoritmo checa se o nó ié o destino de msg j . Se verdadeiro, o algoritmo cria uma cópia de msg j e, em seguida, a encaminha para aplicação associada ao interesse da mensagem recebida. Finalmente, se o resultado da primeira checagem (linha 6) ou o resultado da segunda checagem (linha 7) for verdadeiro e o limite de saltos da mensagem (msg j .limiteSaltos) for maior que zero, o nó i encaminha msg i para todos os seus vizinhos. Senão, msg jé descartada. Figura 4.4(b). Assim como na Figura 4.4(a), a Figura 4.4(b) Figura 4 . 3 : 43Modelagem de uma interseção de vias como um conjunto de recursos compartilhados entre os movimentos das vias de entrada da interseção.(a) pontos de conflito entre os movimentos da conflitantes da interseção; (b) mapeamento dos pontos de conflito na forma de recursos. Figura 4 . 4 : 44Grafos criados com base no mapeamento de pontos de conflito na forma de recursos: (a) um exemplo de um grafo criado para o algoritmo SER; (b) um exemplo de um multigrafo para o algoritmo SMER. Ambos os exemplos apresentam grafos com orientações iniciais acíclicas. apresenta um exemplo de uma orientação inicial acíclica para o multigrafo gerado com base no mapeamento dos pontos de conflito na forma de recursos. Figura 4 . 5 : 45Controle de coordenação de redes de sinalizações semafóricas: (a) corredores e interseções como recursos compartilhados; (b) grafo criado inicialmente para mapear os corredores, na forma de vértices, e interseções, na forma de arestas, representando o compartilhamento das interseções entre os corredores; (c) multigrafo criado para controlar os corredores de acordo com as demandas de tráfego. sido iniciadas. entre as especificações dos Prefixos Ativos da RAdNet e a RAdNet-VE: (a) Prefixo Ativo da RAdNet; (b) Prefixo Ativo da RAdNet-VE. Ao receber uma mensagem (msg j ), o nó i executa o Algoritmo 2. O algoritmo primeiro checa se o identificador da mensagem recebida (msg j .id) existe na tabela de prefixos de origens e identificadores de mensagens recebidas (tabelaIds i ). Se verdadeiro, o nó descarta msg j . Se falso, o nó registra msg j .id em tabelaIds i e, em seguida, incrementa o valor do campo limite de saltos (msg j .limSaltos). Se o valor do campo limite de saltosé igual a um, o algoritmo registra o prefixo e posição da origem da mensagem na tabela de posições relativas dos vizinhos (tabelaP os i ). Isto permite o nó atualizar as posições relativas dos vizinhos que estão a um salto de distância. Em seguida, o algoritmo checa se o valor do campo identificador de via (msg j .idV ia) existe na lista de identificadores de vias. Se não existir, o nó descarta msg j . Caso contrário, o nó calcula o seu posicionamento em relaçãoà origem da mensagem. O resultado deste cálculo deve ser -1 ou 1, tornando possível determinar se a fonte da mensagem está atrás ouà frente do nó. Baseado nas posições relativas em tabelaP os i , o nó pode determinar se ele ou qualquer outro vizinhoé o nó mais distante da origem da mensagem. O algoritmo extrai tal informação da tabelaP os i e a armazena em encP rf x. Nos dois próximos passos, o algoritmo realiza o processo de filtragem herdado do protocolo de comunicação da RAdNet. Primeiro, ele checa se a tabela de interesses do nó i (tabelaInt i ) tem uma entrada igual ao interesse contido na mensagem recebida (msg j .interesse). Após isto, o algoritmo checa se o prefixo da origem da mensagem (msg j .prf xOrg) tem um ou mais pares de campos com valores iguais. Se o resultado da checagem relacionada aos interesses for igual Algoritmo 2: Protocolo de comunicação da RAdNet-VE. Entrada: msg j 1 se msg j .id ∈ tabelaIds i [msg j .prf xOrg] então 2 Descartar msg j ; 3 senão 4 Inserir msg j .id em tabelaIds i [msg j .prfxOrg]; 5 msg j .limSaltos := msg j .limSaltos + 1; 6 se msg j .limSaltos = 1 então 7 Inserir msg j .posicao em tabelaPos i [msg j .prfxOrg]; 8 fim 9 se msg j .idVia ∈ lstIdVias i então 10 pos i := calcPos(posicao i , msg j .posicao, msg j .idVia); 11 prfxEnc := prfx i ; 12 dist := calcDist(posicao i , msg j .posicao, msg j .idVia); 13 para cada posicao ∈ tabelaPos i faça 14 se pos i = msg j .direcao então 15 distViz := calcDist(position, msg j .position, msg j .roadId); 16 se distViz > dist ∧ distViz ≤ diametroRadio/:= msg j .interesse ∈ tabelaInt i ; 23 casPrfx := |prefix i ∩ msg j .prfxOrg| > 0; 24 se casInt = verdadeiro ∧ (pos = msg j .direcao ∨ msg j .direcao = 0) então 25 se msg j .prfxDest = nulo ∨ msg j .prfxDest = prefix i então 26 Enviar uma cópia de msg j para aplicação; 27 fim 28 fim 29 se casPrfx = verdadeiro ∨ casInt = verdadeiro então 30 encMsg := msg j .prfxDest = nulo ∨ msg j .prfxDest = prefixo i ; 31 posNo := encPrfx = prefix0 i ∧ (pos = msg j .direcao ∨ msg j .direcao = 0); 32 encSaltos := falso; 33 se casInt = verdadeiro então 34 encSaltos := msg j .limSaltos < tabelaInt i [msg j .interesse]; 35 senão 36 encSaltos := msg j .limSaltos < limSaltosPadrao; 37 fim 38 se (encMsg ∧ posNo ∧ encSaltos) = verdadeiro então 39 Espere uniforme(0, 1)/dist; 40 Enviar msg j para todos vizinhos i ; a verdadeiro, o algoritmo checa se o nó ié o destino de msg j ou se o prefixo de destinoé nulo. Se verdadeiro, o algoritmo cria uma cópia de msg j e a encaminha para a aplicação subscritora do interesse contido na mensagem recebida. Antes de encaminhar as mensagens, o algoritmo checa se o casamento de campos dos prefixos e interesses ocorreu. Se falso, ele descarta msg j . Caso contrário, ele espera por um período de tempo antes de enviar msg j para todos os seus vizinhos. No entanto, três condições devem ser satisfeitas, são elas: 1. O nó i nãoé o destino de msg j ; 2. O nó ié o nó mais distante da origem da mensagem; 3. msg j não excedeu o número máximo de saltos. Se estas condições não são satisfeitas, o nó descarta msg j . Para a primeira condição, o algoritmo checa se o nó ié o destino de msg j . Quando esta condição nãoé satisfeita, uma aplicação associada a msg j .interesse recebeu uma cópia da mensagem recebida. Por isto, a mensagem deve ser descartada, pois ela alcançou o seu destino. Para a segunda condição, o algoritmo checa se o nó ié o nó mais distante da origem da mensagem e se seu posicionamento em relação a esta o permite encaminhar a mensagem para seus vizinhos. Se esta condição nãoé satisfeita,é devido a existência de um nó mais distante da origem da mensagem. Para a terceira condição, o algoritmo checa se a mensagem alcançou o número máximo de saltos. Quando o interesse contido na mensagem recebida existe na tabela de interesses, o algoritmo checa se o valor do limite de saltos (msg j .limSaltos)é menor que o número máximo de saltos registrado com o interesse. Caso contrário, o algoritmo checa se o valor do campo limite de saltosé menor que o número máximo de saltos padrão. Se uma destas condiçõesé falsa, msg jé descartada. 10 pos i,tac := calcPos(posicao i,tac , msg j,tac .posicao, msg j,tac .idVia); 11 prfxEnc := prfx i,tac ; 12 dist := calcDist(posicao i,tac , msg j,tac .posicao, msg j,tac .idVia); 13 para cada posicao ∈ tabelaPos i,tac faça 14 se pos i,tac = msg j,tac .direcao então 15 distViz := calcDist(position, msg j,tac .position, msg j,tac .roadId);16 se distViz > dist ∧ distViz ≤ diametroRadio tac /:= msg j .interesse ∈ tabelaInt i,tac ; 23 casPrfx := |prefix i,tac ∩ msg j,tac .prfxOrg| > 0; 24 se casInt = verdadeiro ∧ (pos = msg j,tac .direcao ∨ msg j,tac .direcao = 0) então 25 se msg j .prfxDest = nulo ∨ msg j .prfxDest = prefix i,tac então 26 Enviar uma cópia de msg j,tac para aplicação; 27 fim 28 fim 29 se casPrfx = verdadeiro ∨ casInt = verdadeiro então 30 encMsg := msg j .prfxDest = nulo ∨ msg j .prfxDest = prefixo i,tac ; 31 posNo := encPrfx = prefixo i,tac ∧ (pos = msg j,tac .direcao ∨ msg j,tac .direcao = 0); 32 encSaltos := falso; 33 se casInt = verdadeiro então 34 encSaltos := msg j,tac .limSaltos < tabelaInt i,tac [msg j .interesse]; 35 senão 36 encSaltos := msg j,tac .limSaltos < limSaltosPadrao; 37 fim 38 se (encMsg ∧ posNo ∧ encSaltos) = verdadeiro então 39Espere uniforme(0, 1)/dist;40 Enviar msg j,tac para todos vizinhos i,tac ; 1 . 1Acelerar o veículo conectado, caso esteja posicionado atrás do ponto de término do seguimento de onda verde, a fim de alcançá-lo; 2. Manter a velocidade permitida da via, caso o veículo conectado esteja posicionado entre os pontos de início e fim do seguimento de onda verde; 3. Reduzir a velocidade do veículo conectado, caso esteja posicionadoà frente do ponto de início do seguimento de onda verde, a fim de esperar esteúltimo, até que ele alcance o veículo. Esta ação pode levar a retirada de veículos sobre o fim do seguimento de onda verde. Após o início de sua operação, os agentes Veículo iniciam o monitoramento de faixas, tendo em vista que o agente deve ter ciência da via em que eles estão trafegando. Para tanto, eles escalonam periodicamente ações, de modo que eles possam detectar qualquer mudança de faixa ou via. Estas ações executam o Algoritmo 4. O algoritmo inicia obtendo o identificador da via (idV ia) onde o veículo conectado se encontra e, em seguida, verifica se houve uma mudança de faixa ou via. Se verdadeiro, o algoritmo remove o interesse vehicle out <id. da via>, antes que aconteça a atualização da via atual e anterior. Após isto, ele envia uma mensagem contendo o interesse vehicle out <id. da via>, incrementa o número de tentativas de notificacao de mudança de faixa ou via (numT entN otif M udanca i ) e inicia a espera de uma confirmação por parte de um agente Sinalização Semafórica. O algoritmo envia M sg i para frente, utilizando uma interface de acessoà comunicação do tipo IEEE 802.11, a fim de notificar o agente Sinalização Semafórica da via anterior. Além disto, o algoritmo reconfigura a camada de rede do ambiente, removendo a faixa ou via anterior e adicionando a faixa ou via atual. Além disto, o algoritmo reconfigura o registro de interesses, de acordo com a atualização da via atual e anterior. Embora o veículo possa ter mudado, ele precisa continuar enviando mensagens de notificação acerca da mudança de faixa ou via, caso algum agente Sinalização Semafórica não tenha tomada ciência desta mudança. Enquanto o número de tentativas de notificação mudança (numT entN otif M udanca i )for menor que o número máximo de tentativas de notificação de mudança (paramN umM axT entN otif M udanca i ), o algoritmo envia mensagens de notificação e, em seguida, incrementa o número de tentativas de notificação de mudança.Notificação de Presença de Veículo na ViàA medida que um veículo conectado entra nos seguimentos de via de uma rede viária, o agente Veículo inicia uma tentativa de interação com algum agente Sinalização Semafórica, executando uma ação escalonada, conforme o parâmetro relativo a periodicidade de notificação de um veículo em uma via. A execução da açãoé descrita pelo Algoritmo 5. O algoritmo inicia, verificando se a via possui sinalização semafórica. Se verdadeiro, ele verifica se o seu veículo conectado está dentro daárea de monitoramento de tráfego relacionada a sinalização semafórica da instalada na via. Se verdadeiro, o ele verifica se algum agente Sinalização Semafórica confirmou sua presença na via (presencaSinalizacao i ). Se falso, ele verifica o se o número de tentativas de notificação (numT entativasN otif icacao i )é menor que o parâmetro de configuração de performance (paramN umM axT entativasN otif icacao i ). Se falso, ele inicia o controle de interseção utilizando veículos conectados. Se verdadeiro, ele cria o interesse vehicle on <id. da via> e, em seguida, cria uma mensagem de interação com mesmo. Além do interesse, M sg i tambémé configurada com um destino igual a nulo, pois o agente Veículo não conhece a identificação do agente Sinalização Semafórica. Finalizando a configuração de M sg i , o agente indica a via por onde a mensagem de interação deve trafegar, assim como, a direção de propagação da mensagem, queé para frente, e a tecnologia de acessoà comunicação da interface de comunicação sem fio. A mensagem também deve conter um parâmetro posicao, contendo a posição geográfica atual do veículo. Por fim, o agente envia a mensagem e, em seguida, incrementa numT entativas i . Ao receber uma mensagem mensagem com o interesse vehicle on <id. da via>, o agente Sinalização Semafórica executa o Algoritmo 6. O algoritmo inicia, verificando se a origem da mensagem está atrás da sinalização semafórica e se está dentro daárea de monitoramento de tráfego da via. Se verdadeiro, ele verifica se o identificador da origem da mensagem (M sg j .origem) não existe no conjunto de veículos da via (veiculosV ia i ). Se verdadeiro, ele registra o identificador da origem da mensagem no conjunto de veículos da via. Em seguida, ele cria uma mensagem contendo o interesse roadway presence confirmation. Esta mensagem deve ser enviada diretamente para a origem da mensagem recebida (M sg j .origem). Por isto, ela tem seu campo destino cofigurado com M sg j .origem. A via indicada para envia de M sg i deve ser a mesma via da mensagem recebida (M sg j .via) e, por isto, a mensagem deve ser propagada para trás, fazendo com o campo direção seja configurado com o valor -1. Ao final da configuração da mensagem, ela configurada com a tecnologia de acessoà comunicação da mensagem recebida (M sg j .tac). Por fim, M sg ié enviada. Ao receber uma mensagem de interação, contendo o interesse roadway presenceconfirmation, o agente Veículo trata tal mensagem, executando o Algoritmo 11. O algoritmo inicia, verificando se o agenteé o destino da mensagem. Se verdadeiro, ele verifica qual a interface de acessoà comunicação encaminhou a mensagem. Se for uma interface baseada no padrão IEEE 802.11, o algoritmo verifica se a mensagem possui um parâmetro ctrlIntersecao. Se verdadeiro, o veículo inicia o processo de controle de intersecao com veículos e, em seguida, atribui o falsoà variável presencaSinalizacao i . Caso contrário, o algoritmo somente atribui verdadeiroà variável presencaSinalizacao i . Caso a mensagem de interação chegue por uma interface baseada no padrão LTE, o algoritmo atribui o falsoà variável presencaSinalizacao i . Por fim, o algoritmo atribui zeroà variável responsável em acumular o número de tentativas de notificação de presença (numTentativaNotificacao i o problema relacionadoà orientação de rotas, utilizando uma metodologia de sistemas multiagentes baseada em alocação de recursosé necessário o uso de uma abstração adequada para o tratamento deste problema. Neste sentido,é possível tratar o problema de orientação de rotas como um problema de Sistemas Flexíveis de Manufatura ou Flexible Manufacturing Systems (FMS). Figura 9.1: Grade manhattan 10 x 10: (a) grade utilizada no primeiro cenário; (b) grade utilizada no segundo cenário. Figura 9 . 2 : 92Identificações dos agentes Sinalização Semafórica e corredores de sinalizações semafóricas.Quando ao sistema multiagente de planejamento e orientação de rotas, o parâmetro penalidade por número de veículos foi configurado com o valor 3,5, que foi o mesmo valor de penalidade adotado por FARIA[45]. Além disto, o parâmetro de tolerância de rota foi configurado com o valor zero. Figura 9. 3 : 3Distribuição do volume de tráfego realizada pelo algoritmo de roteamento baseado no caminho espacialmente mais curto durante experimento 1. Figura 9 . 4 : 94Distribuição do volume de tráfego realizada pelo algoritmo de roteamento baseado no caminho temporalmente mais curto durante experimento 1. Figura 9 . 5 : 95Distribuição do volume de tráfego realizada pelo algoritmo de roteamento orientadoà ondas verdes mais curto durante experimento 1. Figura 9 . 6 : 96Distribuição do volume de tráfego realizada pelo algoritmo de roteamento baseado no caminho espacialmente mais curto durante experimento 2. Figura 9 . 7 : 97Distribuição do volume de tráfego realizada pelo algoritmo de roteamento baseado no caminho temporalmente mais curto durante experimento 2. Figura 9 . 8 : 98Distribuição do volume de tráfego realizada pelo algoritmo de roteamento orientadoà ondas verdes mais curto durante experimento 2. Figura 9 . 9 : 99Distribuição do volume de tráfego realizada pelo algoritmo de roteamento baseado no caminho espacialmente mais curto durante experimento 3. Figura 9 . 910: Distribuição do volume de tráfego realizada pelo algoritmo de roteamento baseado no caminho temporalmente mais curto durante experimento 3. Figura 9 . 911: Distribuição do volume de tráfego realizada pelo algoritmo de roteamento orientadoà ondas verdes mais curto durante experimento 3. -- 218 - 218Melhorar o mecanismo de leitura de fluxos de tráfego, de modo que ele possa utilizar dados microscópicos de veículos, tais como a classe dos mesmos. Com isto, o controle de tráfego passará a trabalhar com quantidades equivalentes de veículos; Melhorar o mecanismo de cálculo de demandas, de modo que ele possa considerar diferentes tamanhos vias; -Desenvolver novos cenários para avaliações experimentais, utilizando mapas viários cujas vias apresentam mais de uma faixa; -Desenvolver estudos, utilizando o sistema multiagente de controle de tráfego, em mapas viários do Open Street Map. Estes estudos devem utilizar dados realísticos de tráfego, de modo que seja possível avaliar o comportamento das estratégias de controle de tráfego em condições reais de tráfego; Estender o algoritmo SMER de controle de interseções isoladas, de modo que ele possa levar em consideração o fluxo de pedestres em interseções controladas por sinalizações semafóricas; 1 idVia := obterVia(posicaoGPS i ); 2 se idV ia = idV iaAtual i então 3 presencaSinalizacao i := falso; 4 removerInteresseCamadaRede( "vehicle out " + idViaAnterior i , "IEEE 802.11" Msg i := interesse, nulo, idViaAtual i , 1, "IEEE 802.11" ; 9 enviar Msg i ; 10 numTentNotifMudanca i = numTentNotifMudanca i + 1; 11 confirmacaoSaida i := falso; 12 removerViaCamadaRede(idViaAnterior i ); 13 adicionarViaCamadaRede(idViaAtual i ); 14 removerInteresseCamadaRede( "vehicle on " + idViaAnterior i , "IEEE 802.11" ); 15 adicionarInteresseCamadaRede( "vehicle on " + idViaAtual i , 8, "IEEE 802.11" ); 16 adicionarInteresseCamadaRede( "vehicle out " + idViaAtual i , 8, "IEEE 802.11" ); 17 desfazerConfiguracaoAgenteVeiculoComoLider(); 18 senão 19 se conf irmacaSaida i = falso então 20 se numT entN otif M udanca i < paramN umM axT entN otif M udanca i então 21 interesse := "vehicle out " + idViaAnterior; 22 se ctrlIntersecaoAtivo i = falso então 23 Msg i := interesse, nulo, idViaAnterior i , 1, "IEEE 802.11" ; 24 enviar Msg i ; 25 senão 26 params := { "idViaAnterior", idViaAnterior i }; 27Msg i := interesse, nulo, nulo, 0,"LTE", params ; ). Motivação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1.2 Objetivos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 1.3 Principais Contribuições . . . . . . . . . . . . . . . . . . . . . . . . . 6 1.4 Organização do Trabalho . . . . . . . . . . . . . . . . . . . . . . . . . 7 Redes Ad Hoc Veiculares . . . . . . . . . . . . . . . . . . . . . . . . . 8 2.1.1 Definição e Características . . . . . . . . . . . . . . . . . . . . 8 2.1.2 Modelos de Comunicação . . . . . . . . . . . . . . . . . . . . . 10 2.1.3 Tecnologias de Acessoà Comunicação Sem Fio . . . . . . . . . 12 2.1.4 Taxonomia de Aplicações para Redes Ad Hoc Veiculares . . . 14 2.1.5 Requisitos de Comunicação de Aplicações para Redes Ad Hoc Veiculares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 2.1.6 Técnicas de Roteamento em Redes Ad Hoc Veiculares . . . . . 18 2.2 Sistemas Inteligentes de Transporte . . . . . . . . . . . . . . . . . . . 20 2.3 Fundamentos de Engenharia de Tráfego . . . . . . . . . . . . . . . . . 22 2.3.1 Estrutura de Rede de Tráfego . . . . . . . . . . . . . . . . Agentes e Sistemas Multiagentes . . . . . . . . . . . . . . . . . . . . . 31 2.5 Escalonamento por Reversão de Arestas . . . . . . . . . . . . . . . . 32 2.5.1 SER . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 2.5.2 SMER . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 2.6 Escalonamento em Sistemas Flexíveis de Manufatura Job-Shop . . . . 40 8.1 Descrevendo o Problema de Planejamento e Orientação de Rotas . . . 142 8.2 Tratando o Problema de Planejamento e Orientação de Rotas . . . . 143 8.3 Sistema Multiagente de Planejamento e Orientação de Rotas . . . . . 146 8.3.1 Inicialização do Sistema Multiagente . . . . . . . . . . . . Alocando Espaços nas Vias . . . . . . . . . . . . . . . . . . . 155 8.3.6 Agendas de Intervalos de Indicações de Luzes Verdes e o Controle de Interseções com Veículos Conectados . . . . . . . . . . 156 8.3.7 Veículos Conectados Cientes de Intervalos de Indicações de Luzes Verdes . . . . . . . . . . . . . . . . . . . . . . . . . . . 156 8.4 Considerações Finais . . . . . . . . . . . . . . . . . . . . . . . . . . . 158 vi 9 Avaliação Experimental e Resultados 160 9.1 Metodologia Utilizada . . . . . . . . . . . . . . . . . . . . . . . . . . 160 9.2 Ambiente Computacional para Realização dos Experimentos . . . . . 163 9.3 Avaliando a Rede Ad Hoc Veicular Centrada em Interesses . . . . . . 163 9.3.1 Descrição dos Cenários para os Experimentos . . . . . . . Avaliando o Sistema Multiagente de Controle de Tráfego . . . . . . . 189 9.5.1 Descrição dos Cenários para os Experimentos . . . . . . . . . 189 9.5.2 Configurações dos Experimentos . . . . . . . . . . . . . . . . . 190 9.5.3 Análise dos Resultados do Cenário 1 . . . . . . . . . . . . . . 192 9.5.4 Análise dos Resultados do Cenário 2 . . . . . . . . . . . . . . 194 9.6 Avaliando o Sistema Multiagente de Planejamento e Orientação de Rotas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196 9.6.1 Descrição dos Cenários para os Experimentos . . . . . . . . . 196 9.6.2 Configurações dos Experimentos . . . . . . . . . . . . . . . . . 197 9.6.3 Análise dos Resultados do Cenário 1 . . . . . . . . . . . . . . 197 9.6.4 Análise dos Resultados do Cenário 2 . . . . . . . . . . . . . . 200 9.7 Discussão . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203 9.7.1 RAdNet-VE e HRAdNet-VE . . . . . . . . . . . . . . . . . . . 203 9.7.2 Sistema Multiagente de Controle de Tráfego . . . . . . . . . . 205 9.7.3 Sistema Multiagente de Planejamento e Orientação de Rotas . 208 9.8 Considerações Finais . . . . . . . . . . . . . . . . . . . . . . . . . . . 215 10 Conclusões e Trabalhos Futuros 216 10.1 Conclusões . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216 10.2 Publicações e Submissões . . . . . . . . . . . . . . . . . . . . . . . . . 217 10.3 Trabalhos Futuros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217 ] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 2.3 Classificação hierárquica das vias urbanas. . . . . . . . . . . . . . . . 23 2.4 Relação entre acessibilidade e mobilidade dos diferentes tipos de vias. 24 2.5 Diagrama fundamental de fluxo de tráfego. As partes tracejadas dos gráficos representam o regime de congestionamento. Os pontos de transição em cada curva são a densidade crítica e velocidade crítica. Fonte: [2]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 2.6 Exemplo de uma interseção com doze vias de entrada com movimen-TRIBELHORN [3]. . . . . . . . . . . . . . . . . . . . . . . . 29 2.7 Estados de um grafo direcionado no contexto do SER. (a) Grafo com orientação acíclica; (b) Grafo em deadlock. . . . . . . . . . . . . . . . 33 2.8 Exemplo de um período, onde p = 5, m = 2 e γ(G) = 2/5. Adaptado de BAROBOSA [4]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 2.9 Exemplo de um multigrafo no contexto do SMER. Adaptado de PAIVA [2]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 2.10 Exemplo de execução do SMER sobre um multigrafo com três vértices. Adaptado de PAIVA [2] . . . . . . . . . . . . . . . . . . . . . . . . . 35 2.11 Exemplo de uma orientação inicial de um multigrafo que leva a uma situação de deadlock. Adaptado de PAIVA [2]. . . . . . . . . . . . . . 38 2.12 Exemplo de uma execução do algoritmo SMER com o mecanismo de mudança de reversibilidade. Adaptado de [5] . . . . . . . . . . . . . . 39 2.13 Grafo disjunto de um Problema Job-Shop 3 × 3. Adaptado de YA-MADA e NAKANO [6]. . . . . . . . . . . . . . . . . . . . . . . . . . 42 2.14 Mapeamento de um Problema Job-Shop 3 × 3 em um Grafo de Gantt 42 ix 4.1 Especificação do Prefixo Ativo. Adaptado de DUTRA et al. [7, 8]. . . 61 4.2 Especificação do cabeçalho de mensagens da RAdNet. Adaptado de DUTRA et al. [7, 8]. . . . . . . . . . . . . . . . . . . . . . . . . . . .iii Sumário Lista de Figuras ix Lista de Tabelas xii Lista de Siglas e Abreviaturas xx 1 Introdução 1 1.1 2 Referencial Teórico 8 2.1 . . 22 2.3.2 Parâmetros Macroscópicos e Microscópicos de Tráfego . . . . . 24 2.3.3 Diagrama Fundamental de Fluxo de Tráfego . . . . . . . . . . 26 2.3.4 Controle de Tráfego por meio de Sinalização Semafórica . . . . 28 2.4 . . 147 8.3.2 Registrando Interesses Relacionados aos Elementos Urbanos . 148 8.3.3 Gerando Agendas de Intervalos de Indicações de Luzes Verdes 149 8.3.4 Calculando RotasÓtimas . . . . . . . . . . . . . . . . . . . . 153 8.3.5 . . 164 9.3.2 Configurações dos Experimentos . . . . . . . . . . . . . . . . . 166 9.3.3 Análise dos Resultados . . . . . . . . . . . . . . . . . . . . . . 168 9.3.4 Análise dos Resultados do Cenário 2 . . . . . . . . . . . . . . 168 9.4 Avaliando a Rede Veicular Heterogênea Centrada em Interesses . . . 169 9.4.1 Descrição dos Cenários para os Experimentos . . . . . . . . . 169 9.4.2 Configurações dos Experimentos . . . . . . . . . . . . . . . . . 170 9.4.3 Análise dos Resultados do Cenário 1 . . . . . . . . . . . . . . 176 9.4.4 Análise dos Resultados do Cenário 2 . . . . . . . . . . . . . . 182 9.5 Referências Bibliográficas 220 A Interesses do Controle de Tráfego 230 B Algoritmos do Controle de Tráfego 236 vii C Interesses do Planejamento e Orientação de Rotas 248 D Algoritmos do Planejamento e Orientação de Rotas 252 E Parâmetros de Rede para a HRAdNet-VE 258 F Configurações de Interesses Adotadas em Experimentos 261 viii Lista de Figuras 2.1 Modelos de comunicação em redes ad hoc veiculares. . . . . . . . . . 11 2.2 Exemplos de unidades de bordo e unidades de acostamento: (a) Uni- dade de Bordo; (b) Unidade de Acostamento. Fonte: COHDA WI- RELESS [1tos e grupos de movimentos identificados: (a) Enumeração de mo- vimentos em uma interseção sinalizada; (b) Grupo de movimentos norte-sul-norte; (c) Grupo de movimentos leste-oeste-leste. Fonte: KYTE e .42 Análise comparativa entre o desempenho da HRAdNet-VE e os das demais redes do grupo proativo, utilizando os resultados do experimento 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185 9.43 Resultados do grupo reativo no experimento 2 do cenário 2, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão IEEE 802.11n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185 9.44 Resultados do grupo reativo no experimento 2 do cenário 2, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão IEEE 802.11p . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185 9.45 Resultados do grupo reativo no experimento 2 do cenário 2, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão LTE . 185 9.46 Análise comparativa entre o desempenho da HRAdNet-VE e os desempenhos das demais redes do grupo reativo, utilizando os dados obtidos no experimento 2 do cenário 2. . . . . . . . . . . . . . . . . . 186 9.47 Resultados do grupo proativo no experimento 2 do cenário 2, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão IEEE 802.11n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186 9.48 Resultados do grupo proativo no experimento 2 do cenário 2, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão IEEE 802.11p . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186 9.49 Resultados do grupo proativo no experimento 2 do cenário 2, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão LTE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187 9.50 Análise comparativa entre o desempenho da HRAdNet-VE e os desempenhos das demais redes do grupo proativo, utilizando os dados obtidos no experimento 2 do cenário 2. . . . . . . . . . . . . . . . . . 187 9.51 Resultados do grupo reativo no experimento 3 do cenário 2, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão IEEE 802.11n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187 9.52 Resultados do grupo reativo no experimento 3 do cenário 2, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão IEEE 802.11p . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187 9.53 Resultados do grupo reativo no experimento 3 do cenário 2, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão LTE . 188 9.54 Análise comparativa entre o desempenho da HRAdNet-VE e os desempenhos das demais redes do grupo reativo, utilizando os dados obtidos no experimento 3 do cenário 2. . . . . . . . . . . . . . . . . . 188 xv 9.55 Resultados do grupo proativo no experimento 3 do cenário 2, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão IEEE 802.11n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188 9.56 Resultados do grupo proativo no experimento 3 do cenário 2, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão IEEE 802.11p . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188 9.57 Resultados do grupo proativo no experimento 3 do cenário 2, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão LTE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189 9.58 Análise comparativa entre o desempenho da HRAdNet-VE e os desempenhos das demais redes do grupo proativo, utilizando os dados obtidos no experimento 3 do cenário 2. . . . . . . . . . . . . . . . . . 189 9.59 Desempenhos do sistema de controle de tráfego baseado em sinalizações semafóricas pré-temporizadas, SMER I e SMER I+C no experimento 1 do cenário 1. . . . . . . . . . . . . . . . . . . . . . . . . . . 192 9.60 Comparação dos desempenhos de SMER I e SMER I+C contra o desempenho do sistema de controle de tráfego baseado em sinalizações semafóricas pré-temporizadas, utilizando os resultados obtidos no experimento 1 do cenário 1. . . . . . . . . . . . . . . . . . . . . . . . . . 192 9.61 Resultados obtidos com o sistema de controle de tráfego baseado em sinalizações semafóricas pré-temporizadas, SMER I e SMER I+C no experimento 2 do cenário 1. . . . . . . . . . . . . . . . . . . . . . . . 193 9.62 Comparação dos desempenhos de SMER I e SMER I+C contra o desempenho do sistema de controle de tráfego baseado em sinalizações semafóricas pré-temporizadas, utilizando os resultados obtidos no experimento 2 do cenário 1. . . . . . . . . . . . . . . . . . . . . . . . . . 193 9.63 Resultados obtidos com o sistema de controle de tráfego baseado em sinalizações semafóricas pré-temporizadas, SMER I e SMER I+C no experimento 3 do cenário 1. . . . . . . . . . . . . . . . . . . . . . . . 194 9.64 Comparação dos desempenhos de SMER I e SMER I+C contra o desempenho do sistema de controle de tráfego baseado em sinalizações semafóricas pré-temporizadas, utilizando os resultados obtidos no experimento 3 do cenário 1. . . . . . . . . . . . . . . . . . . . . . . . . . 194 9.65 Resultados obtidos com SMER 2 I e SMER 2 I+C no experimento 1 do cenário 2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195 9.66 Comparação dos desempenhos de SMER 2 I+C , utilizando os resultados obtidos no experimento 1 do cenário 1. . . . . . . . . . . . . . . . . . . . . . . 195 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195 9.68 Comparação dos desempenhos de SMER 2 I e SMER 2 I+C contra os desempenhos de SMER 1 I e SMER 1 I+C , utilizando os resultados obtidos no experimento 2 do cenário 1. . . . . . . . . . . . . . . . . . . . . . . 195 9.69 Resultados obtidos com SMER 2 I e SMER 2 I+C no experimento 3 do cenário 2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196 9.70 Comparação dos desempenhos de SMER 2 do cenário 1. . . . . . . . . . . . . . . . . . . . . . . 196 9.71 Resultados obtidos com o ROOV, RCEMC e RCTMC no experimento 1 do cenário 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198 9.72 Comparação do desempenho do ROOV contra os desempenhos do RCEMC e RCTMC, utilizando os dados obtidos no experimento 1 do cenário 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198 9.73 Resultados obtidos com o ROOV, RCEMC e RCTMC no experimento 2 do cenário 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199 9.74 Comparação do desempenho do ROOV contra os desempenhos do RCEMC e RCTMC, utilizando os dados obtidos no experimento 2 do cenário 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199 9.75 Resultados obtidos com o ROOV, RCEMC e RCTMC no experimento 3 do cenário 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200 9.76 Comparação do desempenho do ROOV contra os desempenhos do RCEMC e RCTMC, utilizando os dados obtidos no experimento 3 do cenário 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200 9.77 Resultados obtidos com ROOV nos experimentos 1 dos cenários 1 e 2. 201 9.78 Comparação dos desempenhos do ROOV 2 contra os do ROOV 1 , utilizando os resultados obtidos no experimento 1 do cenário 2. . . . . . 201 9.79 Resultados obtidos com ROOV nos experimentos 2 dos cenários 1 e 2. 201 9.80 Comparação dos desempenhos do ROOV 2 contra os do ROOV 1 , utilizando os resultados obtidos no experimento 2 do cenário 2. . . . . . 202 9.81 Resultados obtidos com ROOV nos experimentos 3 dos cenários 1 e 2. 202 9.82 Comparação dos desempenhos do ROOV 2 contra os do ROOV 1 , utilizando os resultados obtidos no experimento 3 do cenário 2. . . . . . 202 A.1 Interesses de registrados por um agente Centro de Controle de Tráfego e as ações executadas pelo agente e ou pelo ambiente. . . . . . . . . . 230 A.2 Interesses de registrados por um agente Veículo e as ações executadas pelo agente e ou pelo ambiente. . . . . . . . . . . . . . . . . . . . . . 232 xvii A.3 Interesses comuns entre agentes Sinalização Semafórica e as ações executadas pelo agente e ou pelo ambiente. . . . . . . . . . . . . . . . 233 A.4 Interesses registrados também em um agente Sinalização Semafórica participante de um sistema coordenado de sinalizações semafóricas e as ações executadas pelo agente e ou pelo ambiente. . . . . . . . . . . 233 A.5 Interesses registrados também em um agente Sinalização Semafórica líder de um sistema coordenado de sinalizações semafóricas e as ações executadas pelo agente e ou pelo ambiente. . . . . . . . . . . . . . . . 234 A.6 Interesses registrados também em um agente Sinalização Semafórica participante de um sistema coordenado de sinalizações semafóricas e as ações executadas pelo agente e ou pelo ambiente. . . . . . . . . . . 235 A.7 Interesses registrados também em um agente Sinalização Semafórica participante permanente ou temporário de operações de coordenação de sinalizações semafóricas e as ações executadas pelo agente e ou pelo ambiente. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235 C.1 Interesses registrados pelo agente Centro de Controle de Tráfego e as ações executadas pelo agente e ou pelo ambiente. . . . . . . . . . . . 248 C.2 Interesses registrados pelo agente Centro de Controle de Tráfego e as ações executadas pelo agente e ou pelo ambiente. . . . . . . . . . . . 249 C.3 Interesses registrados por um agente Sinalização Semafórica e as ações executadas pelo agente e ou pelo ambiente. . . . . . . . . . . . . . . . 249 C.4 Interesses registrados por um agente Veículo e as ações executadas pelo agente e ou pelo ambiente. . . . . . . . . . . . . . . . . . . . . . 250 C.5 Interesses registrados por um agente Sinalização Semafórica e as ações executadas pelo agente e ou pelo ambiente. . . . . . . . . . . . . . . . 250 C.6 Interesses registrados por um agente Veículo e as ações executadas pelo agente e ou pelo ambiente. . . . . . . . . . . . . . . . . . . . . . 251 E.1 Configurações da camada física relativas as interfaces de acessoà comunicação sem fio baseadas no padrão IEEE 802.11n. . . . . . . . . 258 E.2 Configurações do CSMA/CA na camada de enlace das interfaces de acessoà comunicação sem fio baseadas no padrão IEEE 802.11n. . . . 258 E.3 Configurações da camada física relativas as interfaces de acessoà comunicação sem fio baseadas no padrão IEEE 802.11p. . . . . . . . . 259 E.4 Configurações do CSMA/CA na camada de enlace das interfaces de acessoà comunicação sem fio baseadas no padrão IEEE 802.11p. . . . 259 E.5 Configurações das interfaces de acessoà comunicação sem fio baseadas no padrão LTE usadas pelos nós UE. . . . . . . . . . . . . . . . . . . 259 xviii E.6 Configurações das interfaces de acessoà comunicação sem fio baseadas no padrão LTE usadas pelo nó eNodeB. . . . . . . . . . . . . . . . . . 260 F.1 Identificação dos serviços de dados fornecidos pelas aplicações em experimentos com CCNs. . . . . . . . . . . . . . . . . . . . . . . . . . 261 F.2 Definição dos interesses registrados pelas aplicações em experimentos com a RAdNet-VE e RAdNet. . . . . . . . . . . . . . . . . . . . . . . 262 F.3 Definições de números máximos de saltos e direções de propagação de mensagens de rede para experimentos com RAdNet-VE. . . . . Dados) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 264 F.7 Configurações dos interesses registrados somente pelos agentes Sinalização Semafórica participantes de um sistema coordenado de sinalizações semafóricas, contendo tecnologia de acesso a comunicação (TAC), número máximo de saltos (NMS), direção de propagação da mensagem de rede (DIR) e o tipo do interesse (C -Controle ou D -Dados) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265 F.8 Configurações de interesses registrados pelo agente Centro de Con-HRAdNet-VE Heterogeneous InteRest-Centric Mobile Ad Hoc Network forI e SMER 2 I+C contra os de- sempenhos de SMER 1 I e SMER 1 xvi 9.67 Resultados obtidos com SMER 2 I e SMER 2 I+C no experimento 2 do cenário 2I e SMER 2 I+C contra os de- sempenhos de SMER 1 I e SMER 1 I+C , utilizando os resultados obtidos no experimento 3 . . 262 F.4 Configurações dos interesses registrados pelos agentes Veículo durante os experimentos, contendo tecnologia de acesso a comunicação (TAC), número máximo de saltos (NMS), direção de propagação da mensa- gem de rede (DIR) e o tipo do interesse (C -Controle ou D -Dados) 263 F.5 Configurações dos interesses registrados por todos os agentes Sina- lização Semafórica, contendo tecnologia de acesso a comunicação (TAC), número máximo de saltos (NMS), direção de propagação da mensa- gem de rede (DIR) e o tipo do interesse (C -Controle ou D -Dados) 264 F.6 Configurações dos interesses registrados somente pelos agentes Sina- lização Semafórica controladores de um sistema coordenado de sina- lizações semafóricas, contendo tecnologia de acesso a comunicação (TAC), número máximo de saltos (NMS), direção de propagação da mensagem de rede (DIR) e o tipo do interesse (C -Controle ou D - trole de Tráfego, contendo tecnologia de acesso a comunicação (TAC), número máximo de saltos (NMS), direção de propagação da mensa- gem de rede (DIR) e o tipo do interesse (C -Controle ou D -Dados) 265 xix Lista de Siglas e Abreviaturas 3GPP Third Generation Partnership Project AODV Ad Hoc On-Demand Distance Vector CCN Content-Centric Network D2D Device-to-Device DSR Dynamic Source Routing eNodeB Evolved Node B GPS Global Positioning System GPSR Greedy Perimeter Stateless Routing GSM Global System for Mobile Communications Vehicular Environments HRVEP HRAdNet-VE Protocol ICN Information-Centric Network LTE Long Term Evolution MFU Most Frequently Used MIMO Multiple Input Multiple Output OBU On-Board Unit RadNet InteRest-Centric Mobile Ad Hoc Network RadNet-VE InteRest-Centric Mobile Ad Hoc Network for Vehicular Environments RCEMC Roteamento Baseado em Caminho Espacialmente mais Curto RCTMC Roteamento Baseado em Caminho Temporalmente mais Curto ROOV Roteamento Orientadoà Ondas Verdes RSU Roadside Unit RVEP RadNet-VE Protocol SER Scheduling by Edge Reversal SMER Scheduling by Multiple Edge Reversal UE User Equipment UMTS Universal Mobile Telecommunication System URI Universal Resource Identifier VANET Vehicular Ad Hoc Networks WAVE Wireless Access Vehicular Environment WSA WAVE Service Advertisement WSM WAVE Short Message xx Capítulo 1 Introdução Demonstração da viabilidade da RAdNet-VE como uma VANET, utilizando simulações de ambientes de redes veiculares com nós equipados com interfaces de acessoà comunicação baseadas nos padrões IEEE 802.11n e IEEE 802.11p;• Proposta de uma nova ICN cuja troca de mensagensé baseada somente em interesses definidos por aplicações de serviços de sistemas inteligentes de trans- porte, operando em ambientes de redes veiculares heterogêneas. Esta proposta recebeu o nome de HRAdNet-VE, queé uma extensão da RAdNet-VE para ambientes veiculares heterogêneas; • Demonstração da viabilidade da HRAdNet-VE como uma rede veicular he- terogênea, utilizando simulações de ambientes de redes veiculares com nós equipados com interfaces de acessoà comunicação baseadas nos padrões IEEE 802.11n, IEEE 802.11p e LTE; 6 Para a elaboração da proposta desta tese, foi necessário realizar um estudo aprofundado acerca das teorias e conceitos que pudessem fundamentar este trabalho. Para tanto, foi realizado um levantamento bibliográfico sobre redes ad hoc veiculares, sistemas inteligentes de transporte e fundamentos de engenharia de tráfego. Para fins mais práticos, também foram realizados levantamentos bibliográficos a respeito dos seguintes assuntos: agentes e sistemas multiagentes, escalonamento por reversão múltipla de arestas e escalonamento em sistemas flexíveis de manufatura.A apresentação de cada um dos levantamentos bibliográficos para a composição deste capítuloé dada, de acordo com a disposição das seções que seguem abaixo.Os estudos, propostas e análises realizados durante este trabalho foram organizados como segue. O Capítulo 2 apresenta o referencial teórico. O Capítulo 3 apresenta duas propostas de redes veiculares centradas em interesses. O Capítulo 4 apresenta as definições dos agentes utilizados nos sistemas multiagentes propostos nesta tese. O Capítulo 5 apresenta uma proposta de sistema multiagente para controle inteligente de tráfego baseado em sinalizações semafóricas inteligentes e veículos conectados. O Capítulo 6 apresenta a proposta de um sistema multiagente de planejamento e orientação inteligentes de rota baseado nos interesses de motoristas. O Capítulo 7 apresenta as avaliações experimentais das propostas apresentadas nos Capítulos 3, 5 e 6. Por fim, o Capítulo 7 apresenta as conclusões e trabalhos futuros acerca das propostas apresentadas nesta tese. No entanto, em cenários onde veículos trafegam em alta velocidade, o curto alcance de comunicação desses dispositivos faz com que aconteçam desconexões constantes. Para evitar isto, muitos pontos de acesso precisam ser disponibilizados ao longo de rodovias, estradas e ruas. Porém, isto incorre em altos custos de implantação. Atualmente, o padrão IEEE 802.11 tem sido utilizado por meio da disponibilização de pontos de acesso em interseções de vias de redes viárias com intuito de fornecer acessoà Internet, capturar dados de tráfego ou obter dados que possam auxiliar no roteamento de mensagens ao longo de uma rede ad hoc formada pelos veículos nas vias.O padrão IEEE 802.11pé um padrão novo de comunicação sem fio, sendo ele pertencenteà família de padrões IEEE 802.11. Este padrão tem como objetivo fornecer acessoà comunicação sem fio em ambientes exclusivamente veiculares. O IEEE 802.11p foi criado a partir de melhorias feitas no padrão IEEE 802.11a, de modo que esteúltimo pudesse ser utilizado em aplicações de sistemas inteligentes de transporte. De acordo com MENOUAR et al.[51], tais melhorias advêm dos conceitos de segurança veicular ativa e dos requisitos de comunicação das categorias de aplicações para redes ad hoc veiculares. Com dispositivos de comunicação sem fio baseados em IEEE 802.11p, nós de rede são capazes de transmitir dados com taxas de transferência variando entre 6 a 27 Mbps, desde que os mesmos estejam a uma distância máxima de 1000m uns dos outros. Atualmente, dispositivos de comunicação baseados no padrão em discussão já podem ser encontrados no mercado, tais como os fornecidos pela Qualcomm e Codah Wireless. Isto tem possibilitado o desenvolvimento de uma gama de aplicações de sistemas inteligentes de transporte[50].O padrão IEEE 802.11eé o padrão de acessoà comunicação sem fio de banda larga móvel do WiMax e permite a convergência de redes de banda larga móveis e fixas. Este padrão tem como características: altas taxas de transferência de dados e inclusão de técnicas MIMO (Multiple Input Multiple Output) com antenas, usando tecnologia de diversidade espacial em conjunto com esquemas de subcanalização, codificação e modulação, que permitem alcançar taxas de transferência de dados entre 28 e 63 Mbps por setor. A mobilidade do IEEE 802.16e suporta velocidades 13 superiores a 160 km/h, além de fornecer esquemas otimizados de handover com latências menores que 50ms, a fim de satisfazer requisitos de tempo real. Além disto, o padrão adota diferentes possibilidades de faixas de frequência entre 1,25 a 20 MHz. Isto permite que o padrão se adapteàs diferentes realidades mundiais de alocação de frequências. • Controle de movimento de grupo: nesta categoria, as aplicações estão envolvidas na coordenação de movimento de grupo entre veículos. Para tanto, os veículos se comunicam com sua vizinhança de veículos e usam técnicas de controle distribuído, a fim de se deslocarem, com pequenas proximidades uns dos outros, sem colidir. Para regular o movimento dos grupos de veículos, podem ser utilizados modelos de regulação de movimentos. Dentre estes, se destacam o planejamento de grupo com regulação individual, regulação de movimento baseada em líder e regulação de movimento baseada em líder virtual. Em planejamento de grupo com regulação individual, comunicação veículoa-veículo pode ser usada para otimizar os planos de trajetória de veículos, interseções de vias e outros recursos. Em regulação de movimento baseada em líder, um veículo transmite a referência de movimento e comandos para o grupo. Cada veículo combina esta informação do líder com dados de movimentos de outros veículos próximos a ele, a fim de determinar seu próprio curso de ação. Por fim, em regulação de movimento baseada em líder virtual, para coordenar o movimento de veículos, diretivas comuns devem ser transmitidas entre os veículos. Estas diretivas podem ser definidas a partir de um processo de consenso distribuído. Aplicações de líder virtual podem usar comunicação veículo-a-veículo para realizar manobras de grupo relativamente complexas e manter uma distância segura entre os veículos. e da quarta seção do segundo capítulo do livro de CHOWDHURY e SADEK[52]. parâmetros são: fluxo, velocidade e densidade. O fluxo (q)é um parâmetro macroscópico de tráfego, queé o número de veículos passando em um determinado ponto de uma via durante um determinado período de tempo, que geralmenteé uma hora. O fluxoé frequentemente expressado em veículos por hora. Um parâmetro importante derivado do fluxoé o valor de fluxo máximo, queé frequentemente referenciado como a capacidade (q m ) de uma via. O fluxo pode ser determinado por:, onde né o número de veículos passando em um determinado ponto de uma via em T segundos.A velocidade claramenteé um parâmetro microscópico de cada veículo. Assim, um valor de velocidade média (u) pode ser associado a um fluxo de tráfego, fazendo com que a velocidade se torne um parâmetro macroscópico na perspectiva de um fluxo de tráfego. A velocidade média horária (u t )é a média aritmética das velocidades dos veículos passando em um determinado ponto de uma via durante um período de tempo. A velocidade média horáriaé frequentemente expressada em milhas por hora (nos Estados Unidos), quilômetros por hora, metros por segundo ou pés por segundo. A velocidade média horáriaé calculada a partir de número de veículos presentes sobre uma unidade de tamanho de uma via em um determinado instante no tempo. A densidadeé tipicamente expressada em veículos por milha (nos Estados Unidos) ou veículos por quilômetro. Existem dois parâmetros importantes derivados a partir da densidade: a densidade de congestionamento (k j ) e a densidadeótima (k o ). A densidade de congestionamento ocorre sob condições extremas de congestionamento, quando o fluxo e a velocidade do tráfego se aproximam de zero. A densidadeótima ocorre sob condições de fluxo máximo.A densidade está também relacionada a dois parâmetros microscópicos de tráfego, que são: o intervalo de tempo entre veículos (headway) e o espaçamento entre veículos (gap). O intervalo de tempo entre veículos (h)é definido como a diferença de tempo entre o momento em que a frente de um veículo chega em um determinado ponto de uma via e o momento em que a frente do próximo veículo atinge o mesmo ponto da via. Este parâmetroé tipicamente expresso em segundos. O espaçamento entre veículos (d)é definido como a distância entre a frente de um veículo e a frente do veículo imediatamente atrás. Este parâmetroé tipicamente expresso em metros.Por fim,é importante ressaltar que, a medição de cada um destes parâmetrosé influenciada por fatores como características das vias, características dos veículos, características dos motoristas e fatores ambientais, tais como condições climáticas de uma região geográfica.q = n × ×3600 T (2.1) u t = 1 n n i=1 u i (2.2) , onde né o número de veículos passando em um determinado ponto de uma via, e u ié a velocidade do i-ézimo veículo. A velocidade média espacial (u s )é a média harmônica das velocidades dos veículos passando em um determinado ponto de uma via durante um período de tempo. Elaé obtida a partir da divisão da distância total viajada por dois ou mais veículos pelo tempo gasto por estes veículos para viajar esta distância. Estaé a velocidade que está envolvida nos relacionamentos entre fluxo e densidade. A velocidade média espacialé calculada a partir de u s = nL n i=1 t i (2.3) , onde né o número de veículos passando em um determinado ponto de uma via, t ié o tempo que o i-ézimo veículo leva para viajar através de seção de via, e Ĺ e o tamanho da seção de via. A velocidade média horáriaé sempre maior que a velocidade média espacial. A diferença entre estas velocidades tende a diminuir,à medida que os valores absolutos de velocidades aumentam. A densidade (k)é um parâmetro macroscópico de tráfego, que pode ser definido como o Um regime de fluxo livreé um regime em que cada veículo viaja na velocidade desejada do motorista. Este fluxo ocorre quando poucos veículos estão na via e existem faixas suficientes para permitir ultrapassagens sem qualquer atraso. Além disto, a velocidade neste regime de tráfegoé denotada por u f . Com o aumento na densidade de veículos, os motoristas começam a ter dificuldades de manter suas velocidades desejadas, devido a uma redução de velocidade causado por veículos mais lentos a frente de seus veículos. Isto resulta em uma diminuição contínua da velocidade média. Por isto, este regimeé chamado de parcialmente restrito, pois nem todos os veículos conseguem se mover na velocidade desejada por seus motoristas e, tão pouco, realizar ultrapassagens. Quando as ultrapassagens não são possíveis, os veículos começam a viajar em pelotões cuja velocidadeé determinada pelos veículosà frente destes. Neste caso,é dito que o regime de fluxó e restrito. A transição do regime de tráfego parcialmente restrito para o restritoé claramente observada no relacionamento entre velocidade e fluxo (ver Figura 2.5). Esta transição ocorre no ponto de máximo da curva em que o diagrama fundamental apresenta o relacionamento entre o fluxo e a velocidade. A velocidade neste pontó e denotada por u o , uma vez que a via está sob condições de fluxo máximo. O relacionamento densidade-velocidade reflete o comportamento dos motoristas, pois estes ajustam as velocidades de seus veículos a partir da percepção da proximidade de outros veículos e seus conceitos sobre segurança em determinadas condições de tráfego. Dessa forma, a densidadeé criada a partir do ajuste da velocidade do veículo de cada um dos motoristas na via.d = u s × h (2.9) , onde hé a média de intervalos de tempo entre veículos, que pode ser obtida a partir de h = t × d (2.10) . Com base no relacionamento entre a densidade e o fluxo (veja Figura 2.5), as seguintes hipóteses podem ser feitas acerca deste relacionamento: 1. Quando a densidadeé zero, o fluxo tambémé zero, pois não existem veículos na via; 2. Quando a densidade cresce, o fluxo também cresce, pois a quantidade de veículos trafegando na via também aumenta; 3. Quando a densidade atingir o seu valor máximo (densidade de engarrafamento, Figura 2.5: Diagrama fundamental de fluxo de tráfego. As partes tracejadas dos gráficos representam o regime de congestionamento. Os pontos de transição em cada curva são a densidade crítica e velocidade crítica. Fonte: [2]. k j ), o fluxo deve ser zero, uma vez que os veículos se encontram parados na via; 4. Baseando-se em 2 e 3, conclui-se que,à medida que a densidade cresce, o fluxo inicialmente cresce até atingir um valor máximo. Aumentos adicionais na densidade levam a redução do fluxo, que poderá chegar a zero, caso a densidade atinja o seu valor máximo. O diagrama fundamental de fluxo de tráfegoé usado para caracterizar diferentes regimes de fluxo. em que o vértice um tem uma frequência de execução duas vezes maior que os seus vizinhos. As reversibilidades dos vértices são calculadas com base nas demandas d i de cada vértice i, que são: d 1 = 2, d 2 = 1 e d 3 = 1. Além disto, o cálculo das reversibilidades de cada um dos vértices teve como base a Equação 2.12.60] propuseram a Equação 2.11. e i,j = r i + r j − mdc(r i , r j ) (2.11) , onde mdc(r i , r j )é o máximo divisor comum entre as reversibilidades dos vértices i e j. Por fim, para qualquer par de vértices i e j em M , a razão entre o número de vezes que i tem prioridade sobre jé dada por r j /r i , queé a taxa relativa de execução entre dois vértices. Assim, o SER passa a ser um caso particular do SMER, em que todos os vértices possuem a mesma reversibilidade, uma vez que a razão entre as reversibilidades de cada par de vérticesé igual a um, fazendo vigorar a justiça desta forma. A Figura 2.10 exibe um exemplo de execução do SMER sobre um multigrafo com três vértices, r i = mmc(d 1 , d 2 , ..., d n ) d i (2.12) Com base nas demandas, primeiramente calcula-se o mínimo múltiplo comum entre d 1 , d 2 e d 3 (mmc(d 1 , d 2 , d 3 ) = 2). Em seguida, calcula-se as reversibilidades como se segue: onde té o instante em que o veículo e a onda verde se encontrarão, a vé a aceleração calculada pelo IDM, v 0vé a velocidade instantânea do veículo, v wé a velocidade constante da onda verde, s 0vé a posição instantânea da frente do veículo e s 0wé a posição instantânea da cauda da onda verde. Em FARIA [45], a aceleração calculada do IDMé usada no lugar do limite de aceleração do veículo na Equação 4.5, de modo que seja garantido que o veículo responderá ao comportamento do veículoà frente. Isto, segundo FARIA [45], garante que não haja colisões entre veículos. Com base na Equação 4.5, a posição em que o veículo e a onda verde se encontrarão se dá por s = a v t 2 + v 0v t + s 0v (4.6) . No entanto, segundo FARIA [45],é importante verificar se o veículo não excederá o limite de velocidade da via,à medida que este acelera a a v m/s 2 durante t segundos. A velocidade final do veículo durante este trajeto pode ser dada por No entanto,é necessário considerar que o veículo não poderá ultrapassar o limite de velocidade da via em o mesmo está trafegando. O tempo necessário para que o limite de velocidade seja atingido pelo veículoé dado por Por fim, dado que a via estará livre para que o veículo possa acelerar na sua velocidade máxima e que o limite de velocidade da via será respeitado, o tempo mínimo de viagem até a interseçãoà frente pode ser calculado por meio da Equação 4.18. e a Rede Ad Hoc Veicular Heterogênea Centrada em Interesses. Este capítulo apresenta as duas primeiras contribuições desta tese, que são a Rede Ad Hoc Veicular Centrada em Interesses [44] e a Rede Ad Hoc Veicular Heterogênea Centrada em Interesses.79 Capítulo 5 Redes Veiculares Centradas em Interesses 5.1.2 Descrição das Extensões das Estruturas de Dados e Mecanismos da RAdNet A proposta da RAdNet-VE estende certas estruturas de dados e mecanismos da RAdNet. No que tangeàs estruturas de dados, a proposta da RAdNet-VE altera os tamanhos dos campos do Prefixo Ativo, assim como, estende e modifica os tamanhos dos campos do cabeçalho de mensagens da RAdNet. No projeto da RAdNet, os campos prefixo do nó e interesse têm tamanhos de 24 bits, como pode ser visto na Figura 5.1(a). Devidoàs modificações dos tamanhos dos campos do cabeçalho de mensagens da RAdNet, os tamanhos dos campos prefixo do nó e interesse aumentaram de 24 bits para 32 bits, como pode ser visto na Figura 5.1(b). Acerca das alterações de tamanho de alguns campos do cabeçalho de mensagem da RAdNet e extensões do mesmo, ambas procederam como segue: • Um aumento de 24 bits para 32 bits no tamanho dos seguintes campos do cabeçalho de mensagens da RAdNet: identificador de mensagem, prefixo de destino, prefixo de origem e interesse. A decisão de aumentar os tamanhos destes campos teve como objetivo padronizá-los com tamanhos cujos valores são de base dois. Estas alterações são ilustradas na Figura 5.2(b). • A adição de três campos ao cabeçalho de mensagem da RAdNet: posição relativa da origem de mensagem (96 bits), direção de encaminhamento de mensagens (8 bits) e o identificador de via (32 bits). Estes novos campos e seus respectivos tamanhos são exibidos pela Figura 5.2(b). Nesta tese, assumese que todos os nós são equipados com dispositivos GPS e que as aplicações que executam sobre estes nós podem acessar bancos de dados de mapas, tais como Open Street Maps e Google Maps. Além disto, a posição relativa da origem da mensagem deve armazenar três valores de 32 bits, que são: longitude, latitude e altitude; No que diz respeitoàs extensões dos mecanismos da RAdNet, estas procederam Figura 5.2: Comparação entre as especificações dos cabeçalhos de mensagens da RAdNet e da RAdNet-VE: (a) cabeçalho de mensagens da RAdNet; (b) cabeçalho de mensagens da RAdNet-VE. da seguinte forma: • Registro dos interesses com seus respectivos números máximos de saltos na camada de rede do nó: Esta extensão apenas realiza um mapeamento entre um interesse e um número máximo de saltos.É importante salientar que um interesse só pode mapear um e somente um número máximo de saltos. No entanto, isto não impede que as aplicações para redes ad hoc veiculares possam usar uma mesma identificação de interesse. Para resolver este problema, recomenda-se especificar os interesses usando a seguinte estrutura: radnet-ve://user service bundle/user service/application name/interest, tal que user bundleé um agrupamento lógico de serviços de sistemas inteligentes de transporte, user serviceé o tipo de serviço de usuário de sistema inteligente de transporte, application nameé o nome da aplicação pertencente ao tipo de serviço de usuário de sistemas inteligentes de transporte e, por fim, interesté o interesse no qual a aplicaçãoé uma subscritora. Os componentes desta URI se baseiam na especificação da National ITS Architecture 7.1 do United States Department of Transportation [84]. Com base nesta estruturá e possível não somente identificar os interesses por aplicações, mas tambémé possível identificar unicamente as aplicações instaladas nos nós. Portanto, um interesse pode ser identificado de acordo com a seguinte URI, por exemplo: radnet://avss/safety readiness/obstacle notifier/obstacle on road. Por fim, o mecanismo de registro de interesses deve ser capaz de manter em memória os interesses mais utilizados,à medida que os nós se comunicam uns com os outros. Isto deve permitir que muitos interesses sejam registrados na camada de rede do nó. No entanto, somente os mais utilizados são mantidos em memória, a fim de facilitar a consulta por interesses, nos quais os nós são subscritores. Para tanto, o mecanismo de registro de interesses deve ser implementado, levando em consideração um algoritmo MFU (Most Frequently Used ).(a) (b) 1. O identificador da via em que os nós (veículos e unidades de acostamento) estejam operando; 2. O resultado do casamento de dados entre o prefixo do nó e o prefixo da origem da mensagem; 3. O resultado do casamento de dados entre os interesses registrados nos nós e aqueles contidos nas mensagens; 4. A distância entre um nó e a origem da mensagem; 5. A posicionamento do nó em relaçãoà origem da mensagem; 6. O número máximo de saltos registrado juntamente com o interesse na camada de rede do nó ou um número máximo de saltos padrão, queé somente usado, se os interesses contidos nas mensagens não existirem no registro de interesses na camada de rede do nó. 1 . 1Configura o campo versão com a versão atual do protocolo; 2. Configura o campo limite de saltos com o valor zero, de modo que este valor incremente,à medida que a mensagem for encaminhada por outros nós; 3. Configurar o campo tamanho do cabeçalho com o valor inteiro correspondente; 4. Configurar o campo identificador da mensagem com o valor atual do contador de mensagens enviadas; 5. Configurar o campo prefixo de destino com o dado de entrada correspondente; 6. Configurar o campo prefixo de origem com o prefixo do nó; 7. Configurar o campo interesse com o dado de entrada correspondente; 8. Configurar o campo posição com o dado obtido por meio do dispositivo GPS instalado no nó; 9. Configurar o campo direção com o dado de entrada correspondente; 10. Configurar o campo identificador de via com o dado de entrada correspondente. Algoritmo 3 : 3Protocolo de comunicação da HRAdNet-VE. : msg j,tac 1 se msg j,tac .id ∈ tabelaIds i,tac [msg j,tac .prf xOrg] então Descartar msg j,tac ; 3 senão Inserir msg j,tac .id em tabelaIds i,tac [msg j,tac .prfxOrg]; msg j,tac .limSaltos := msg j,tac .limSaltos + 1; se msg j,tac .limSaltos = 1 então Inserir msg j,tac .posicao em tabelaPos i,tac [msg j,tac .prfxOrg];Entrada2 4 5 6 7 8 fim 9 -VE e HRAdNet-VE com as Tecnologias de Acessoà Comunicação Sem Fio Em [44, 83], o protocolo de comunicação da RAdNet-VE ou RVEP (RAdNet-VE Protocol) foi projetado para executar sobre nós com umaúnica interface de acessoà comunicação sem fio, sendo esta do tipo IEEE 802.11n ou IEEE 802.11p. Além disto, a proposta de GONÇ ALVES et al. [83] visou atender os requisitos de comunicação das categorias de aplicações para redes ad hoc veiculares, criando o RVEP, de modo que este fosse um protocolo de comunicação mais genérico possível. Portanto, a relação do RVEP com as tecnologias de acessoà comunicação sem fio baseadas em comunicação dedicada de curto alcanceé exibida na Figura 5.3. RVEP como um substituto do IP em nós equipados com rádios baseados no padrão IEEE 802.11p Como pode ser visto, o RVEP foi projetado para ser um protocolo de camada de rede, a fim de substituir o IP ou compensar alguma deficiência deste. Neste sentido, o RVEP substitui o IP tanto na Figura 5.3(a) quanto na Figura 5.3(c). Como pode ser visto na Figura 5.3(c), o RVEP divide a camada de rede do nó com um componente definido pelo padrão IEEE 1609.3. Segundo [31], o padrão IEEE 1609.3 foi desenvolvido para dar suporte acerca do fornecimento e uso de serviços em múltiplos canais, além de ser parte do padrão IEEE 1609. O padrão IEEE 1609é chamado de Wireless Access Vehicular Environments (WAVE). Além disto, o padrão também define uma pilha completa de protocolos para sistemas inteligentes de transporte sobre o IEEE 802.11p. Apesar disto, esta tese não aborda assuntos relacionadosà disseminação de WAVE Service Advertisements (WSA) e trocas de dados por meio de WAVE Short Messages (WSMs), embora seja possível usar o RVEP como umúnico protocolo para a camada de rede sobre o IEEE 802.11p. Com a criação da HRAdNet-VE e seu protocolo de comunicação, o HRVEP, este não somente herda completamente as estruturas de dados e mecanismos do RVEP, mas também o estende, na direção de fazer com que a HRAdNet-VE seja uma proposta de uma rede veicular heterogênea centrada em interesses, tendo em vista que este assunto aindaé pouco explorado na comunidade de redes veiculares [30]. Portanto, o HRVEP interage com as tecnologias de acessoà comunicação sem fio baseada em comunicação dedicada de curto alcance como o RVEP. No entanto, o nó não precisa possuir somente umaúnica interface de acessoà comunicação sem fio, ele pode ser equipado com múltiplas interfaces. Além de redes formadas por dispositivos de comunicação dedicada de curto alcance, o HRVEPé capaz de lidar com redes celulares, conforme detalhado na seção anterior. Portanto, o HRVEP atua como um substituto do IP na camada de rede dos nós equipados simultaneamente com interfaces de acessoà comunicação sem fio baseadas nos padrões IEEE 802.11, IEEE 802.11p e LTE.(a) (b) (c) Figura 5.3: RVEP nas camadas de rede: (a) RVEP como um substituto do IP em nós equipados com rádios baseados no padrão IEEE 802.11; (b) modelo de referência OSI; (c) execução deste algoritmoé definida pelo parâmetro de periodicidade de obtenção de quantidades de veículos. O Algoritmo 10 tem como objetivo requisitar que os veículos dentro daárea de monitoramento de tráfego reenviem suas notificações de presença. Este algoritmo envia para trás da sinalização semafórica uma mensagem com interesse roadway presence request por meio de uma interface de comunicação baseada no padrão IEEE 802.11. Ao receber uma mensagem de interação, contendo o interesse roadway presencerequest, um agente Veículo trata esta mensagem, executando o Algoritmo 11. O algoritmo inicia, verificando se a via da origem da mensagemé igual a via onde o veículo está trafegando. Se verdadeiro, ele verifica qual a tecnologia de acessoà comunicação foi utilizada pela origem, quando esta enviou M sg j . De acordo com a tecnologia de acessoà comunicação, o agente Veículo configura uma mensagem de resposta e, em seguida, a envia para a origem da mensagem recebida. Ao receber a mensagem de interação , contendo o interesse roadway vehicleamount, um agente Sinalização Semafórica trata a mensagem, executando o Algoritmo 12. O algoritmo inicia, incrementando o número de médias de quantidades de veículos recebidas (numM ediasQtdeV eiculos i ). Logo após, ele registra o valor do parâmetro mediaQtdeVeiculos com o identificador do agente origem da mensagem (M sg j .origem). Em seguida, ele verifica se o número de medias de quantidades de veículos recebidasé menor que o número de sinalizações semafóricas da interseção. Se verdadeiro, ele verifica se o agente recebeu as médias das quantidades de veículos de todos os seus vizinhos. Se verdadeiro, ele calcula a demanda de cada um dos agentes do multigrafo utilizado pelo algoritmo SMER para controle de interseções (multigraf oSM ERIntrsc i ). Para tanto, ele utiliza o mesmo cálculo proposto por PAIVA [2]. Por fim, o algoritmo atribui zero ao número de médias de quantidades de veículos recebidas e calcula o mínimo múltiplo comum entre as demandas. Controle e Ajuste de Intervalos de Indicações de Sinalizaçãò A medida que o intervalo de indicação de luz verde termina, uma ação escalonada para indicação do intervalo de indicação de luz amarela entra em execução. Esta ação, portanto, executa o Algoritmo 14. O algoritmo inicia, verificando se o agente está participando de um sistema coordenado de sinalizações semafóricas ativo. Caso não esteja, ele reverte as arestas do agente no multigrafo (multigrafoSMERIntrsc i ) utilizado pelo algoritmo SMER de controle de interseções isoladas, utilizando seu identificador (idAgente i ) e a sua reversibilidade revAgentesIntrsc i [idAgente i ]. Logo após, na Linha 27, o algoritmo verifica se a sinalização semafórica poderá trocar a indicação. Para tanto,é verificado se o agente não possui quantidades de arestas orientadas para ele maiores ou iguais a reversibilidade do mesmo. Se verdadeiro, o algoritmo acende a luz amarela e, em seguida, escalona o acendimento da luz vermelha no mecanismo de planejamento do agente, utilizando o parâmetro de intervalo de indicação de luz amarela. Caso contrário, o algoritmo escalona novamente o acendimento da luz amarela no mecanismo de planejamento do agente, utilizando o intervalo mínimo de indicação de luz verde. Por fim, ele envia uma mensagem de interação, contendo o interesse edge reversal, para os demais agentes da interseção por meio de uma interface de acessoà comunicação baseada no padrão IEEE 802.11. As demais partes do Algoritmo 14 serão explicadas na Seção . O escalonamento da ação relativa ao acendimento da luz vermelha tem como 132 objetiva finalizar o processo de reversão de arestas durante a execução do algoritmo SMER para controle de interseções. Para tanto, a ação executa o Algoritmo 13. O algoritmo inicia, acendendo a luz vermelha da sinalização semafórica e, em seguida, ele finaliza, enviando uma mensagem de interação , contendo o interesse edgereversal, para os demais agentes da interseção por meio de uma interface de acessò a comunicação baseada no padrão IEEE 802.11. Ao receber uma mensagem , contendo o interesse edge reversal, um agente Sinalização Semafórica excuta uma ação, a fim de tratar tal mensagem recebida. Esta ação executa o Algoritmo 15. O algoritmo inicia, verificando se a origem da mensagem (M sg j .origem)é um vizinho de interseção. Se verdadeiro, ele reverte as arestas referentesà origem da mensagem no multigrafo, utilizando a reversibilidade da origem da mensagem (revAgentesIntrsc i [M sg j .origem] ). Em seguida, se o agente tiver quantidades de arestas revertidas para ele maiores ou iguais a sua reversibilidade, o algoritmo escalona para execução imediata a ação para acendimento da luz verde. A partir do escalonamento da ação de acendimento imediato da luz verde, o Algoritmo 16é executado. O algoritmo inicia, acendendo a luz verde da sinalização semafórica. Em seguida, ele escalona a ação para acendimento da luz amarela no mecanismo de planejamento de ações do agente, utilizando o parâmetro de intervalo mínimo de indicação de luz verde (paramIntMinIndLuzVerde i ). Após isto, o algoritmo verifica se o agente está participando de um sistema coordenado de sinalizações semafóricas. Se falso, o algoritmo verifica se existe demanda calculada para a interseção (Linha 32). Se verdadeiro, ele calcula uma reversibilidade para o agente (revAgente) e, em seguida, compara a reversibilidade calculada com a mantida pelo agente (revAgentesIntrsc i [idAgente i ]). Se forem diferentes, o algoritmo ajusta o número de arestas em cada um dos arcos entre o agente e um vizinho. No próximo passo, o algoritmo envia uma mensagem de interação (M sg Intrsc i ), contendo o interesse reversibility change, para os agentes da interseção por meio de uma interface de acessoà comunicação baseado no padrão IEEE 802.11. Por fim, o algoritmo envia uma mensagem de interação (M sg cor i ) para o agente Centro de Controle de Tráfego, contendo o mesmo interesse da mensagem anteriormente enviada. Está ultima mensagemé enviada por meio da interface de acessoà comunicação baseada no padrão LTE. Neste algoritmo,é método para ajuste de reversibilidades proposto por SANTOS [5]é aplicado. Ao receber uma mensagem M Sg j , contendo o interesse reversibility change, a partir de um vizinho de interseção, um agente Sinalização Semafórica trata a mensagem, executando o Algoritmo 17. O algoritmo inicia, verificando se a origem da mensagem (M sg j .origem)é vizinho na interseção. Se verdadeiro, o algoritmo calcula a reversibilidade para a origem da mensagem (revAgente) e, em seguida, verifica se a reversibilidade calculadaé diferente da reversibilidade conhecida pelo agente (revAgentesIntrsc i [M sg j .origem]). Se verdadeiro, o algoritmo atualiza a reversibilidade da origem da mensagem e, por fim, ele ajusta o número de arestas nos arcos entre a origem e seus vizinhos.). Quando um agente Sinalização Semafórica recebe uma mensagem de interação, contendo o interesse vehicle out <id. da via>, ele executa o Algoritmo 8. O algo- ritmo inicia verificando se a origem da mensagem está atrás da sinalização semafória e se está dentro daárea de monitoramento de tráfego da via. Se verdadeiro, ele veri- fica se o identificador da origem da mensagem (M sg j .origem) existe no conjunto de veículos da via (veiculosV ia i ). Se verdadeiro, ele remove o identificador da origem da mensagem no conjunto de veículos da via. Em seguida, ele cria uma mensagem contendo o interesse roadway left confirmation. Esta mensagem deve ser enviada diretamente para a origem da mensagem recebida (M sg j .origem). Por isto, ela tem seu campo destino configurado com M sg j .origem. A via indicada para envia de M sg i deve ser a mesma via da mensagem recebida (M sg j .via) e, por isto, a mensagem deve ser propagada para trás, fazendo com que o campo direção seja configurado com o valor -1. Ao final da configuração da mensagem, ela configurada com a tecnologia de acessoà comunicação da mensagem recebida (M sg j .tac). Por fim, M sg ié enviada. Ao receber esta mensagem, um agente Veículo atribui o va- lor verdadeiro para a variável confirmacaSaida i e atribui o valor zeroà variável numTentNotifMudanca i (veja Algoritmo 4). Isto acontece indenpedente da tecnolo- gia de acessoà comunicação utilizada para transmitir a mensagem. Obtenção de Quantidades de Veículos em Vias Para obter a quantidade de veículos de uma via, um agente Sinalização Semafórica precisa periodicamente acumular as quantidades de veículos que trafegaram na via durante intervalos de tempo para obtenção de tal dado. Após um determinado número de obtenções de quantidades de veículos, o agente precisa realizar uma agregação destes dados e, em seguida, compartilhar a sua demanda com outros agentes do sistema multiagente de controle de tráfego. Para tanto, de acordo com o valor do parâmetro de periodicidade de obtenção da quantidade de veículos de uma via, o agente escalona ações que executam o Algoritmo 9. Neste algoritmo, o agente Sinalização Semafórica compartilha a média das quantidades de veículos com seus vizinhos de interseção (Linha 10) e agente Centro de Controle de Tráfego (Linha 12). Além disso, o agente Sinalização Semafórica periodicamente o Algoritmo 10. A periodicidade de Ao iniciar sua operação, um agente Sinalização Semafórica líder de um sistema coordenado de sinalizações semafóricas deve verificar o estado inicial do multigrafo utilizado no controle de sistemas coordenados de sinalizações semafóricas. Esta verificação tem como objetivo saber se o agente poderá ativar o seu sistema coordenado de sinalizações semafóricas. Se verdadeiro, ele executa o Algoritmo 18. O algoritmo inicia, atribuindo verdadeiroà variável para ativação e desativação de coordenação de sinalizações semafóricas (coordenacaoAtiva i ). Em seguida, o algoritmo envia uma mensagem de interação (Msg Intrsc i ), contendo o interesse participation intraffic light coordination, a fim de fazer com que as sinalizações semafóricas de uma interseção participem da coordenação de sinalizações semafóricas. Esta mensageḿ e enviada por meio de interface de acessoà comunicação sem fio baseada no padrão IEEE 802.11. Após isto, o algoritmo inicializa o número de ciclos do sistema coordenado de sinalizações semafóricas (numeroCiclos i ). Em seguida, o algoritmo inicializa as variáveis de controle referentes aos offsets do sistema coordenado de sinalizações semafóricas (somaOffSets), instante do escalonamento para ação de participação da coordenação das sinalizações semafóricas (instanteEscAcao) e o tempo acumulado durante a ativação do sistema coordenado de sinalizações semafóricas (instanteAtual ). Nos passos seguintes, o algoritmo atualiza a reversibilidade do corredor, caso exista uma demanda calculada. Além disto, ele também ajusta a quantidade de arestas em cada arco entre o corredor e um vizinho. Para atualizar a reversibilidade em outros agentes controladores de sistemas coordenados de sinalizações semafóricas, o algoritmo envia uma mensagem de interação, contendo o interesse corridor reversibility change, utilizando uma interface de acessoà comunicação baseada no padrão LTE. Depois disto, o algoritmo simula a execução do algoritmo SMER para controle de tráfego. Durante esta simulação, o algoritmo reverte as arestas do agente 134 líder do sistema coordenado de sinalizações semafóricas e, após isto, ele envia uma mensagem de interação (Msg agente i ), contendo o interesse traffic light coordination, para cada agente cuja sinalização semafóricaé parte do sistema coordenado de sinalizações semafóricas. Para cada mensagem enviada, o algoritmo calcula o offset de cada segmento de via do corredor, de modo que ele seja utilizado para dar precisão ao instante em que as sinalizações de semafóricas iniciarão seus intervalos de indicação de luz verde, após a primeira onda verde ter sido gerada. No próximo passo, o algoritmo calcula a duração da ativação do sistema coordenado de sinalizações semafóricas. O valor desta variávelé utilizado durante o envio de mensagem para cada agente, de modo que uma nova coordenação de sinalizações semafóricas possa ocorrer, caso ainda existam arestas direcionadas para o agente líder do sistema coordenado de sinalizações semafóricas. Por fim, o algoritmo reverte todas as arestas para o agente, noâmbito do controle da interseção, onde sua sinalização semafórica se encontra.Ao receber uma mensagem de interação , contendo o interesse participationin traffic light coordination, um agente Sinalização Semafórica trata a mensagem, executando o Algoritmo 19. O algoritmo inicia, verificando se o agenteé vizinho da origem da mensagem. Se verdadeiro, o agente coopera com a coordenação de sinalizações semafóricas, atribuindo verdadeiroà variável coordenacaoAtiva i e, em seguida, reverte todas as arestas para o agente origem da mensagem. Após isto, a variável de controle de número de ciclos (numeroCiclos i )é inicializada. Por uma questão de segurança, o algoritmo verifica qual a indicação atual da sinalização semafórica. Se a indicação da sinalização semafóricaé verde, as seguintes ações são executadas: a luz amarelaé acesa; ação de acendimento de luz amarela escalonada anteriormenteé cancelada; e o acendimento da luz vermelhaé escalonado, utilizando o parâmetro de intervalo de indicação de luz amarela. Se a indicação da sinalização semafóricaé amarela, as seguintes ações são executadas: o acendimento da luz vermelhaé cancelado; e um novo acendimento da luz vermelhaé escalonado, utilizando o parâmetro de intervalo de indicação de luz amarela. Ao final, o algoritmo envia uma mensagem de interação, contendo o interesse confirmation in traffic light coordination, para a origem da mensagem recebida.Ao receber uma mensagem de interação , contendo o interesse confirmationin traffic light coordination, um agente Sinalização Semafórica trata a mensagem, executando o Algoritmo 20. O algoritmo inicia, verificando se a origem da mensagem (M sg j .origem)é um vizinho de interseção. Se verdadeiro, ele incrementa a variável número de vizinhos participantes da interseção (numeroVizinhosParticipantes i ). Em seguida, ele cancela qualquer escalonamento de ação relativo ao acendimento de luzes da sinalização semafórica. Por fim, ele acende a luz verde da sinalização semafórica e, em seguida, escalona acendimento da luz amarela, tendo como base o parâmetro de intervalo de indicação de luz verde (paramIntervaloIndLuzVerde i ).Ao receber uma mensagem de interação , contendo o interesse traffic lightcoordination, um agente Sinalização Semafórica trata a mensagem, executando o Algoritmo 21. O algoritmo inicia, verificando se o valor do parâmetro corredor (Msg j .parametros["corredor"]) pertence ao conjunto de identificadores de corredores (idCorredores i ) e se o identificador da origem pertence ao conjunto de identificadores de controladores de sistemas coordenados de sinalizações semafóricas (idControladores i ). Se verdadeiro, o algoritmo escalona uma ação no mecanismo de planejamento do agente, a fim de iniciar a participação da sinalização semafórica na coordenação de sinalizações semafóricas. Uma vez que o tempo de escalonamento desta açãoé atingido, o Algoritmo 22é executado. O algoritmo inicia, inicializando as váriáveis de controle de coordenação (coordenacaoAtiva i e numeroCiclos i ). Após isto, ele inicializa com zero a variável número de vizinhos participantes da interseção (numeroVizinhosParticipantes i ) e, em seguida, reverte todas as arestas para o agente. Por fim, uma mensagem de interação (Msg i ), contendo o interesse participation in traffic light coordination,é enviada para os agentes da interseção por meio de uma interface de acessoà comunicação baseada no padrão IEEE 802.11. Quando os agentes da interseção recebem M sg i , eles executam o Algoritmo 19. dos de sinalizações semafóricas concorrentes. Esta mensagemé enviada, utilizando uma interface de acessoà comunicação baseada no padrão LTE. Vale ressaltar que, a execução do Algoritmo 28 se dá de maneira periódica, tal comoé para o Algoritmo 26. Porém, o valor do parâmetro de periodicidade de execução do Algoritmo 28 deve ser maior que o do Algoritmo 26. Ao receber uma mensagem de interação , contendo o interesse corridor vehicle amount, um agente Sinalização Semafórica líder de um sistema coordenado de sinalizações semafóricas trata a mesma, executando o Algoritmo 29. O algoritmo inicia, verificando se o valor do parâmetro corredor corresponde a um identificador de corredor vizinho. Se verdadeiro, o algoritmo apenas associa o valor do parâmetro mediaQtdeVeiculos ao identificador do corredor cujo agenteé a origem da mensagem recebida. Com as médias das quantidades de veículos de todos os corredores, cada agente Sinalização Semafórica líder de um sistema coordenado de sinalizações semafóricas pode atualizar o conhecimento das demandas dos corredores dos sistemas coordenados de sinalizações semafóricas. Para tanto, o agente executa periodicamente o Algoritmo 30. O Algoritmo 30 inicia, verificando se o agenteé um líder de sistema coordenado de sinalizações semafóricas. Se verdadeiro, ele calcula a soma de todas as médias de quantidades de veículos. Após isto, ele calcula a demanda de cada corredor do multigrafo utilizado pelo algoritmo SMER para controle de sistemas coordenados de sinalizações semafóricas. Em seguida, o mínimo múltiplo comum entre as demandas dos corredoresé calculado e, por fim, a variável calculadaDemandaCor i recebe o valor verdadeiro. A partir disto, de acordo com o Algoritmo 18, um agente Sinalização Semafórica líder de um sistema coordenado de sinalizações semafóricas pode reajustar a reversibilidade do corredor e, consequentemente, o número de arestas dos arcos entre o corredor e os vizinhos deste. Se isto acontecer, uma mensagem de interação, contendo o interesse corridor reversibility change,é enviada. Ao receber uma mensagem de interação , contendo o interesse corridor reversibility change, um agente Sinalização Semafórica líder de um sistema coordenado de sinalizações semafóricas trata esta mensagem, executando o Algoritmo 32. O algoritmo inicia, inicializando a reversibilidade do corredor com o valor um. Em seguida, ele verifica se a reversibilidade do corredoré igual a zero. Se verdadeiro, a reversibilidade do corredor recebe o valor do mínimo múltiplo comum calculado a partir das demandas dos corredores. Caso contrário, uma nova reversibilidadeé calculada. No próximo passo, se a reversibilidade calculada for diferente da reversibilidade atual do corredor, a reversibilidade do corredoré atualizada e, em seguida, os números de arestas nos arcos entre o corredor e seus vizinhos são atualizados. 7.3.4 Notificando o Funcionamento das Sinalizações Semafóricas Nesta tese, periodicamente, os agentes Sinalização Semafórica precisam enviar mensagens de interação, contendo o interesse traffic light, para o agente Centro de Controle de Tráfego, a fim de que este fique ciente do funcionamento das sinalizações semafóricas de uma interseção.À medida que o agente Centro de Controle de Tráfego recebe mensagens com este interesse, ele atualiza o tempo de vida da sinalização semafórica. Caso um agente Sinalização Semafórica pare de enviar tais mensagens, o tempo de vida deste chegará a zero. Desta forma, o agente Centro de Controle de Tráfego pode identificar a ausência de funcionamento das sinalizações semafóricas, em específico, aquelas responsáveis pelo controle de um sistema coordenado de sinalizações semafóricas. Sempre que isto acontece, o agente Centro de Controle de Tráfego assume o controle dos sistemas coordenados de sinalizações semafóricas cujo os agentes Sinalização Semafórica líder deste apresentam ausência de funcionamento. Quando um agente Sinalização Semafórica, responsável pelo controle de um sistema coordenado de sinalizações semafóricas, volta a operar, o agente Centro de Controle de Tráfego devolve o controle para o agente e os dados relacionados ao controle do sistema coordenado de sinalizações semafóricas. 7.3.5 Controlando Interseções com Veículos Conectados De acordo com o Algoritmo 5, quando um agente Veículo detecta a ausência de funcionamento de uma sinalização semafórica na via onde ele trafega, ele inicia um controle de interseções utilizando veículos conectados. Para tanto, o agente Veículo precisa interagir com o agente Centro de Controle de Tráfego, a fim de obter os dados de controle das sinalizações semafóricas da interseção. Então, esta interação se dá, quando o agente Veículo envia uma mensagem de interação com o interesse intersection control data request. Tal mensagem contém um parâmetro idIntersecao eé enviada por meio de uma interface de acessoà comunicação baseada no padrão LTE. Ao receber uma mensagem de interação , contendo o interesse intersection control data request, o agente Centro de Controle de Tráfego trata a mesma, executando o Algoritmo 33. O algoritmo inicia, verificando a existência do identificador da interseção na base de dados se interseções (intersecoes i ). Se verdadeiro, o algoritmo obtém os dados de controle da interseção. Estes dados contêm todos os parâmetros relativosàs sinalizações semafóricas, o modo de controle da interseção, o estado atual das indicações das sinalizações semafóricas, que, por sua vez,é dado pelo estado do multigrafo utilizado pelo algoritmo SMER para controle de interseções isoladas. Vale ressaltar que, o estado do controle da interseçãoé fornecido por uma simulação do sistema de controle de tráfego real, queé mantida pelo sistema su-pervisório. Após os dados de controle da interseção terem sido obtidos, estes são enviados para o agente Veículo que os requisitou. Para tanto, o algoritmo cria uma mensagem de interação com o interesse intersection control data e destino igualà origem da mensagem recebida (M sg j .origem). Por fim, a mensagemé enviada por meio da interface de acessoà comunicação baseada no padrão LTE. Ao receber uma mensagem de interação , contendo o interesse intersectioncontrol data, um agente Veículo a trata, executando o Algoritmo 34. O algoritmo inicia, obtendo a identificação interseção por meio da identificação da via onde o veículo está trafegando. Em seguida, ele compara esta identificação com o valor do parâmetro idIntersecao, queé obtido a partir da mensagem recebida. Se os valores forem iguais, o algoritmo obtém os dados de controle de interseção (dadosContro-leIntrsc) e, a partir deles, criar uma sinalização semafórica virtual (sinSemaforica i ), que, por sua vez, possui as estruturas de dados necessárias tanto para executar localmente os algoritmos de controle de interseção quanto aquelas necessárias para interação com outros agentes. Uma vez criada a sinalização semafórica virtual, esta entra em operação. Se a indicação da sinalização semafórica for diferente de verde para via atual do veículo, por fim, ele inicia a identificação de líder. O processo de identificação de líder em uma via dura até a sinalização semafórica virtual indicar luz verde para via. Enquanto isto não acontece, um agente Veículo executa a cada segundo o Algoritmo 35. O algoritmo inicia, verificando se a indicação da sinalização semafórica virtualé diferente de verde. Se verdadeiro, uma mensagem de interação com o interesse vehicle positioné enviada para todas as direções da via, utilizando uma interface de acessoà comunicação baseada no padrão IEEE 802.11. Ao receber uma mensagem de interação , contendo o interesse vehicle position, o agente Veículo trata a mesma, executando o Algoritmo 36. O algoritmo inicia, verificando se a indicação da sinalização semafórica virtual (sinSemaforica i .indicacao) e diferente de verde. Se verdadeiro, o algoritmo prossegue, calculando a distância geométrica entre o veículo conectado do agente e a faixa de retenção da via. A partir disto, ele compara tal dado com as distâncias de todos os veículos conectados conhecidos. Se a distância de um veículoé menor, este passa a ser o líder. Ao final do algoritmo, ele compara se o identificador do líderé o mesmo identificador do agente Veículo. Se verdadeiro, o veículo conectado do agenteé o líder e, por isto, precisa ser configurado como tal. Caso contrário, a configuração de líderé desfeita. A configuração de um agente Veículo como um líder se dá por meio da associação de açõesà interesses já registrados na camada de rede do ambiente, tais como vehicle on <id da via> e vehicle out <id da via>. Dessa forma, o líder pode registrar a presença de veículos conectados na via onde ele está trafegando. No entanto, o líder precisa ter ciência da quantidade de veículos de outras vias de entrada da interseção. Para tanto, o agente também registra os seguintes os interesses citados na interface de acessoà comunicação baseada no padrão LTE, adotando um número máximo de saltos igual a um. Ao fazer isto, o líder interage com o agente Centro de Controle de Tráfego, de modo que esteúltimo torne o agente Veículo responsável pela interseção, registre os mesmos interesses e, finalmente, associe ações aos mesmos, a fim de que as mensagens de interação enviadas por agentes Veículo, em outras vias de entrada da interseção, possam ser direcionadas para o líder. Além disto, o agente Centro de Controle tira proveito destes dados, a fim de atualizar o estado do controle da interseção na simulação mantida pelo sistema supervisório.Quando o agente Veículo, queé líder em uma via, recebe uma mensagem de interação, contendo o interesse intersection control data request, isto significa que, as sinalizações semafóricas virtuais em uma via de movimento conflitante em relação ao da via do líder estão indicando amarelo. Logo, um novo líder foi identificado. Por isto, o agente receptor desta mensagem deve repassar todos os dados de controle da interseção para o novo líder, enviando uma mensagem de interação com o interesse intersection control data. Durante a criação desta mensagem, o agente líder introduz dois parâmetros, que são: dadosControleIntrsc e idAgenteLider. Ao primeiro parâmetro, são atribuídos todos os dados relativos ao controle de da interseção. Ó ultimo parâmetro mantém o identificador do novo líder, que, por sua vez,é a origem da mensagem de interação recebida pelo agente. Quando o agente Centro de Controle de Tráfego recebe a mensagem de interação, contendo o interesse intersection control data, ele atualiza os dados de controle da interseção e, em seguida, encaminha a mensagem para o novo líder da interseção. Este, então, realiza todo o processo descrito anteriormente. Tabela 9.1: Identificação das aplicações desenvoldidas para os cenários com base na estrutura de nomes defina para as CCNs.Tanto a RAdNet quanto a RAdNet-VE usam somente um tipo de mensagem de rede e ambas as redes foram projetadas com base no modelo de arquitetural Publisher/Subscriber. Portanto, para comparar o desempenho destas redes contra os das CCNs, foi necessário criar dois interesses para cada nome de serviço de dados listado na Tabela F.1. Com isto, nos experimentos com as redes RAdNet-VE e RAd-Net, messagens com interesses terminados com a palavra req atuaram como pacotes de Interesse e as mensagens com interesses terminados com a palavra data atuaram como pacote de Dados. A Tabela F.2 lista os serviços de dados e os interesses relativos a tais serviços. Vale ressaltar que os interesses não foram definidos com base na estrutura de nomes para as CCNs. Neste caso, os interesses foram definidos apenas como termos. Com base nos interesses listados na Tabela F.2, foram definidos seus números máximos de saltos, bem como, as direções de propagação das mensagens de rede que os contiveram. Estas definições foram exclusivas do protocolo de comunicação da RAdNet-VE e são listadas juntamente com seus interesses na Tabela F.3. Por fim, no que diz respeito aos números máximos de saltos adotados nos experimentos com a RAdNet, CCN R e CCN P , foram adotados um número máximo de cinco saltos para o primeiro cenário e um número máximo de 50 saltos para segundo cenário. Além disto, foi também definido um número máximo de saltos padrão para o protocolo de comunicação da RAdNet-VE, sendo este igual a 50 saltos.Para finalizar as configurações das simulações, foram definidos os valores dos parâmetros das configurações de tráfego e de comportamento dos veículos. No primeiro cenário, a grade manhattan 3 x 3 recebeu em cada uma das suas oito entradas 1500 veículos/hora. No que diz respeitoàs configurações dos intervalos de tempo dos 32 semáforos presentes neste cenário, foram as seguintes: 40s para intervalos de verde, 5s para intervalos de amarelo e 1s para intervalos de vermelho total. No segundo cenário, o segmento de estrada recebeu 1500 veículos/hora. Além disto, a unidade de acostamento foi posicionada 500m antes do obstáculo. Aárea relativa ao obstáculo teve 10m de comprimento e velocidade máxima permitida de 20 Km/h. Para configurar o comportamento dos veículos, foi adotado Intelligent Driver Mo-Tabela 9.2: Configurações do IDM para os dois cenários. os cenários se dá com base dos comportamentos dos agentes Veículo, Sinalização Semafórica e Centro de Controle de Tráfego, quando as sinalizações semafóricas instaladas sobre as interseções da rede viária apresentam ausência de funcionamento. Nesta situação, os agentes passam a exigir mais da rede heterogênea onde estão operando. Portanto, pretende-se avaliar não somente o desempenho da HRAdNet-VE contra os desempenhos da RAdNet, CCN R e CCN P , mas também avaliar o desempenho da HRAdNet-VE nestes dois cenários.Aplicação Identificação da Aplicação Assistente de Direção (AD) uri://vehicle/geolocation/da/ Controlador de Sinalizações Semafóricas (CSS) uri://semaphore/geolocation/tlc/ Notificador de Obstáculos (NO) uri://roadsidesig/geolocation/on/ Controle Adaptativo e Cooperativo de Cruzeiro (CACC) uri://vehicle/geolocation/ccac/ Parâmetro Cenário 1 Cenário 2 Velocidade desejada (v 0 ) 60 Km/h 80 Km/h Tempo de reação do motorista (T) 1.2s 1.2s Espaçamento mínimo entre veículos (s 0 ) 2.0m 2.0m Aceleração (a) 1 m/s 2 1 m/s 2 Desaceleração (b) 3 m/s 2 3 m/s 2 delo (IDM) [79]. Os valores dos parâmetros em cada um dos cenários são listados na Tabela 9.2. 9.3.3 Análise dos Resultados A seguir, a Tabela 9.3 apresenta os resultados dos experimentos do cenário 1 e, em seguida, a Tabela 9.6 apresenta a análise dos mesmos. Tabela 9.3: Resultados dos experimentos do cenário 1 Métricas RAdNet-VE RAdNet CCN R CCN R CMT (msgs.) 2,19 ×10 5 1,12 ×10 6 5,44 ×10 6 1,49 ×10 7 LCN (ms) 20,4 ±0, 05 29,92 ±0, 05 26,24 ±0, 06 46,69 ±0, 08 TED (%) 83,25 ±0, 25 79,19 ±0, 65 84,9 ±0, 54 73,09 ±1, 57 NS (saltos) 4 5 4 4 AM (m) 305,92 ±79, 58 576,39 ±113, 6 293,99 ±42, 87 429,39 ±110, 67 TPM (ms) 229 ±40, 00 231 ±40, 00 237 ±30, 00 252 ±30, 00 Tabela 9.4: Análise comparativa entre o desempenho da RAdNet-VE e os das demais redes no cenário 1. Métricas RAdNet CCN R CCN R CMT (msgs.) <80,44% <95,97% <98,53% LCN (ms) <31,81% <22,25% <56,3% TED (%) >5,12% <1,11% >13,9% NS (saltos) <20,00% = = AM (m) <46,92% >4,05% <28,75% TPM (ms) <0,08% <3,37% <9,12% 9.3.4 Análise dos Resultados do Cenário 2 A seguir, a Tabela 9.3 apresenta os resultados dos experimentos do cenário 2 e, em seguida, a Tabela 9.6 apresenta a análise dos mesmos. Tabela 9.5: Resultados dos experimentos do cenário 2 Métricas RAdNet-VE RAdNet CCN R CCN R CMT (msgs.) 7,86 ×10 6 1,06 ×10 8 2,01 ×10 7 1,97 ×10 7 LCN (ms) 2,87 ±0, 1 36,52 ±4, 0 20,01 ±1, 0 23,04 ±4, 0 TED (%) 88,95 ±0, 4 16,81 ±0, 4 18,21 ±1, 0 35,59 ±0, 15 NS (saltos) 28 30 29 29 AM (m) 9957,62 ±7, 87 9983,73 ±28, 14 9932,73 ±28, 14 9937,73 ±37, 78 TPM (ms) 140 ±30, 00 1290 ±210, 00 640 ±226, 00 730 ±209, 00 Tabela 9.6: Análise comparativa entre o desempenho da RAdNet-VE e os das demais redes no cenário 2. Métricas RAdNet CCN R CCN R CMT (msgs.) <92,58% <60,89% <60,1% LCN (ms) <92,14% <85,65% <87,54% TED (%) >429% >388% >149% NS (saltos) <6,66% <3,44% <3,44% AM (m) <0,02% >0,02% >0,02% TPM (ms) <89,14% <78,12% <80,82% 9.4 Avaliando a Rede Veicular Heterogênea Cen- trada em Interesses Nesta seção,é apresentada a avaliação experimental da HRadNet-VE. Esta avaliação experimental consiste em dois cenários de avaliação, que foram criados com o intuito de comparar o desempenho da HRAdNet-VE contra o da RAdNet-VE, CCN R e CCN P . Após a descrição dos cenários de avaliação, são apresentadas as configurações adotadas nos experimentos. Em seguida, são apresentadas as análises comparativas dos resultados obtidos por meio das simulações do primeiro cenário (Cenário 1). Por fim, são apresentadas as análises comparativas dos resultados obtidos por meio das simulações do segundo cenário (Cenário 2). 9.4.1 Descrição dos Cenários para os Experimentos Para obtenção dos resultados da HRAdNet-VE, foram criados dois cenários: coo- peração entre sistema multiagente de controle de tráfego e sistema multiagente de planejamento e orientação de rotas; e cooperação entre o sistema multiagente de controle de tráfego e sistema multiagente de planejamento e orientação de rotas com sinalizações semafóricas apresentando ausência de funcionamento. Em ambos os cenários, são utilizados os agentes definidos nesta tese. A principal diferença entre Tabela 9.7: Configuração padrão dos agentes Sinalização Semafórica.Parâmetro Valor Periodicidade de obtenção de quantidade de veículos 10s Número de obtenções de quantidade de veículos 30 Comprimento daárea de monitoramento de fluxo de tráfego 100m Tabela 9.8: Configuração padrão dos agentes Sinalização Semafórica controladores de um sistema coordenado de sinalizações semafóricas. Parâmetro Valor Número mínimo de ciclos 10 ciclos Número máximo de ciclos 30 ciclos Periodicidade de compartilhamento de médias de quantidade de veículos 300s Periodicidade de atualização de demandas de corredores 300s Tabela 9.9: Configurações para o Intelligent Driver Model (IDM) Assim como nos experimentos com a RAdNet-VE, o IDM também foi utilizado na definição do comportamento dos veículos durante a simulação. A Tabela 9.9 lista os valores para cada um dos parâmetros do desse. Esses valores podem ser encontrados em http://sumo.dlr.de/wiki/Vehicle Type Parameter Defaults. Os destinos das viagens realizadas pelos veículos conectados foram escolhidos aleatoriamente e o algoritmo de roteamento de veículos adotados nos experimentos foi o algoritmo de roteamento proposto nesta tese. Tabela 9.10: Configurações de fluxos de veículos para as entradas da grade manhattan 10 x 10.Parameter Value Velocidade desejada (v 0 ) 60 km/h Tempo de reação do motorista (T) 1.2 s Espaçamento mínimo entre veículos (s 0 ) 2.5 m Aceleração (a) 2.9 m/s 2 Desaceleração (b) 7.5 m/s 2 Experimento Coletoras Corredores 1 200 veículos/h 300 veículos/h 2 300 veículos/h 450 veículos/h 3 400 veículos/h 600 veículos/h Tabela 9.11: Resultados do grupo reativo no experimento 1 do cenário 1, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão IEEE 802.11n Tabela 9.36: Resultados do grupo reativo no experimento 1 do cenário 2, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão IEEE 802.11p Tabela 9.37: Resultados do grupo reativo no experimento 1 do cenário 2, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão LTE Tabela 9.38: Análise comparativa entre o desempenho da HRAdNet-VE e os das demais redes do grupo reativo, utilizando os resultados o experimento 1. Experimento 1 com Grupo Proativo A seguir, as Tabelas 9.39, 9.40 e 9.41 apresentam os resultados do grupo proativo e, em seguida, a Tabela 9.42 apresenta a análise comparativa destes. Tabela 9.39: Resultados do grupo proativo no experimento 1 do cenário 2, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão IEEE 802.11n Tabela 9.40: Resultados do grupo proativo no experimento 1 do cenário 2, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão IEEE 802.11p Tabela 9.41: Resultados do grupo proativo no experimento 1 do cenário 2, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão LTE Tabela 9.42: Análise comparativa entre o desempenho da HRAdNet-VE e os das demais redes do grupo proativo, utilizando os resultados do experimento 1. Tabela 9.43: Resultados do grupo reativo no experimento 2 do cenário 2, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão IEEE 802.11n Tabela 9.44: Resultados do grupo reativo no experimento 2 do cenário 2, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão IEEE 802.11p Tabela 9.45: Resultados do grupo reativo no experimento 2 do cenário 2, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão LTE Tabela 9.46: Análise comparativa entre o desempenho da HRAdNet-VE e os desempenhos das demais redes do grupo reativo, utilizando os dados obtidos no experimento 2 do cenário 2. Experimento 2 com Grupo Proativo A seguir, as Tabelas 9.47, 9.48 e 9.49 apresentam os resultados do grupo proativo e, em seguida, a Tabela 9.50 apresenta a análise comparativa destes. Tabela 9.47: Resultados do grupo proativo no experimento 2 do cenário 2, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão IEEE 802.11n Tabela 9.48: Resultados do grupo proativo no experimento 2 do cenário 2, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão IEEE 802.11p Tabela 9.49: Resultados do grupo proativo no experimento 2 do cenário 2, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão LTE Tabela 9.50: Análise comparativa entre o desempenho da HRAdNet-VE e os desempenhos das demais redes do grupo proativo, utilizando os dados obtidos no experimento 2 do cenário 2.Experimento 3 com Grupo ReativoA seguir, as Tabelas 9.51, 9.52 e 9.53 apresentam os resultados do grupo reativo e, em seguida, a Tabela 9.54 apresenta a análise comparativa destes. Tabela 9.51: Resultados do grupo reativo no experimento 3 do cenário 2, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão IEEE 802.11n Tabela 9.52: Resultados do grupo reativo no experimento 3 do cenário 2, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão IEEE 802.11p Tabela 9.53: Resultados do grupo reativo no experimento 3 do cenário 2, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão LTE Tabela 9.54: Análise comparativa entre o desempenho da HRAdNet-VE e os desempenhos das demais redes do grupo reativo, utilizando os dados obtidos no experimento 3 do cenário 2.Experimento 3 com Grupo ProativoA seguir, as Tabelas 9.55, 9.56 e 9.57 apresentam os resultados do grupo reativo e, em seguida, a Tabela 9.58 apresenta a análise comparativa destes.Tabela 9.55: Resultados do grupo proativo no experimento 3 do cenário 2, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão IEEE 802.11n Tabela 9.56: Resultados do grupo proativo no experimento 3 do cenário 2, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão IEEE 802.11p Tabela 9.57: Resultados do grupo proativo no experimento 3 do cenário 2, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão LTE Tabela 9.58: Análise comparativa entre o desempenho da HRAdNet-VE e os desempenhos das demais redes do grupo proativo, utilizando os dados obtidos no experimento 3 do cenário 2. 93% <0,25,83% <60,57% <22,45% <33,71% <10,84% 9.5 Avaliando o Sistema Multiagente de Controle de TráfegoNesta seção,é apresentada a avaliação experimental acerca do sistema multiagente de controle de tráfego. Para tanto, primeiramente,é realizada uma descrição dos cenários adotados utilizados para os experimentos. Em seguida, são apresentadas as configurações adotadas nos experimentos. Por fim, são apresentados os resultados e as análises comparativas sobre estes.Métricas HRAdNet-VE RAdNet CCN R CMT (msgs.) 8,52 ×10 8 1,309 ×10 9 1,020 ×10 9 LCN (ms) 24,14 ±0, 32 44,44 ±0, 39 39,53 ±0, 58 TED (%) 92,95 ±0, 11 91,71 ±0, 1 90,46 ±0, 1 NS (saltos) 7 7 7 AM (m) 1346 ±17, 63 1343 ±18, 61 1344 ±18, 29 TPM (ms) 175 ±18, 61 338 ±49, 65 289 ±31, 03 Tabela 9.12: Resultados do grupo reativo no experimento 1 do cenário 1, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão IEEE 802.11p Métricas HRAdNet-VE RAdNet CCN R CMT (msgs.) 8,3 ×10 8 1,963 ×10 9 1,513 ×10 9 LCN (ms) 18,9 ±0, 48 25,5 ±0, 68 20,74 ±0, 55 TED (%) 62,44 ±1, 29 47,76 ±0, 98 30,72 ±0, 65 NS (saltos) 4 4 4 AM (m) 1977 ±7, 51 1976 ±7, 83 1977 ±7, 51 TPM (ms) 122 ±12, 08 447 ±45, 07 299 ±30, 05 Tabela 9.13: Resultados do grupo reativo no experimento 1 do cenário 1, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão LTE Métricas HRAdNet-VE RAdNet CCN R CMT (msgs.) 1,33 ×10 7 2,82 ×10 7 1,36 ×10 7 LCN (ms) 43,3 ±0, 32 44,36 ±0, 58 43,9 ±0, 58 TED (%) 99,79 ±0, 13 99,66 ±0, 003 99,71 ±0, 003 NS (saltos) 1 1 1 AM (m) 2500 2500 2500 TPM (ms) 43,3 ±0, 32 44,36 ±0, 58 43,9 ±0, 58 Tabela 9.14: Análise comparativa entre o desempenho da HRAdNet-VE e os das demais redes do grupo reativo, utilizando os resultados do experimento 1 do cenário 1. IEEE 802.11n IEEE 802.11p LTE Métricas RAdNet CCN R RAdNet CCN R RAdNet CCN R CMT <34,9% <16,47% <57,7% <45,14% <52,83% <2,2% LCN <45,67% <38,9% <25,8% <8,87% <2,38% <0,013% TED >1,35% >2,75% >30,73% >103,25% >1,07% >0,008% NS = = = = = = AM >0,02% >0,01% >0,005% = = = TPM <48,22% <39,44% <72,7% <59,19% <1,38% <0,002% Experimento 1 com Grupo Proativo A seguir, as Tabelas 9.15, 9.16 e 9.17 apresentam os resultados do grupo proativo e, em seguida, a Tabela 9.18 apresenta a análise comparativa destes. Tabela 9.15: Resultados do grupo proativo no experimento 1 do cenário 1, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão IEEE 802.11n Métricas HRAdNet-VE RAdNet CCN P CMT (msgs.) 7,14 ×10 8 7,79 ×10 8 7,34 ×10 8 LCN (ms) 9,03 ±0, 06 38,73 ±0, 39 15,5 ±0, 13 TED (%) 98,84 ±0, 11 98,78 ±0, 11 97,79 ±0, 11 NS (saltos) 7 7 7 AM (m) 1348 ±16, 98 1343 ±18, 61 1347 ±17, 31 TPM (ms) 78,00 ±3, 91 301,00 ±41, 48 113,4 ±12, 08 Tabela 9.16: Resultados do grupo proativo no experimento 1 do cenário 1, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão IEEE 802.11p Métricas HRAdNet-VE RAdNet CCN P CMT (msgs.) 3,51 ×10 8 7,54 ×10 8 6,39 ×10 8 LCN (ms) 13,93 ±0, 32 22,8 ±0, 62 15,12 ±0, 39 TED (%) 86,38 ±1, 72 65,91 ±1, 07 81,94 ±1, 63 NS (saltos) 4 4 4 AM (m) 1978 ±7, 18 1976 ±7, 83 1978 ±7, 18 TPM (ms) 92,94 ±9, 14 178,27 ±17, 96 96,48 ±9, 79 Tabela 9.17: Resultados do grupo proativo no experimento 1 do cenário 1, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão LTE Métricas HRAdNet-VE RAdNet CCN P CMT (msgs.) 1,21 ×10 7 1,69 ×10 7 1,32 ×10 7 LCN (ms) 43,1 ±0, 58 44,8 ±0, 58 44,00 ±0, 32 TED (%) 99,99 ±0, 006 99,91 ±0, 003 99,84 ±0, 03 NS (saltos) 1 1 1 AM (m) 2500 2500 2500 TPM (ms) 43,1 ±0, 58 44,8 ±0, 58 44,00 ±0, 32 Tabela 9.18: Análise comparativa entre o desempenho da HRAdNet-VE e os das demais redes do grupo proativo, utilizando os resultados do experimento 1 do cenário 1. IEEE 802.11n IEEE 802.11p LTE Métricas RAdNet CCN P RAdNet CCN P RAdNet CCN P CMT <8,34% <2,72% <53,44% <45,07% <28,4% <8,33% LCN <76,68% <41,74% <38,9% <7,87% <3,79% <2,04% TED >0,005% >0,015% >31,05% >5,41% >0,008% >0,01% NS = = = = = = AM >0,03% >0,007% >0,01% = = = TPM <74,08% <30,97% <47,89% <3,66% <1,82% <0,071% Experimento 2 com Grupo Reativo A seguir, as Tabelas 9.19, 9.20 e 9.21 apresentam os resultados do grupo reativo e, em seguida, a Tabela 9.22 apresenta a análise comparativa destes. Tabela 9.19: Resultados do grupo reativo no experimento 2 do cenário 1, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão IEEE 802.11n Métricas HRAdNet-VE RAdNet CCN R CMT (msgs.) 1,142 ×10 9 3,09 ×10 9 3,02 ×10 9 LCN (ms) 25,31 ±0, 44 41,12 ±0, 65 37,39 ±0, 71 TED (%) 91,61 ±0, 14 87,5 ±0, 13 82,73 ±0, 12 NS (saltos) 7 7 7 AM (m) 1346 ±17, 63 1344 ±18, 29 1344 ±18, 29 TPM (ms) 190 ±22, 21 329 ±33, 97 301 ±35, 27 Tabela 9.20: Resultados do grupo reativo no experimento 2 do cenário 1, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão IEEE 802.11p Métricas HRAdNet-VE RAdNet CCN R CMT (msgs.) 1,738 ×10 9 5,93 ×10 9 2,797 ×10 9 LCN (ms) 23,02 ±0, 58 35,88 ±0, 58 37,39 ±0, 48 TED (%) 49,31 ±1, 04 42,12 ±0, 89 28,84 ±0, 61 NS (saltos) 4 4 4 AM (m) 1976 ±7, 83 1974 ±8, 49 1976 ±7, 83 TPM (ms) 152 ±8, 81 766 ±68, 27 690 ±22, 53 Tabela 9.21: Resultados do grupo reativo no experimento 2 do cenário 1, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão LTE Métricas HRAdNet-VE RAdNet CCN R CMT (msgs.) 2,59 ×10 7 6,04 ×10 7 2,87 ×10 7 LCN (ms) 49,1 ±0, 68 52,58 ±0, 65 50,24 ±0, 68 TED (%) 99,24 ±0, 25 99,16 ±0, 002 98,83 ±0, 002 NS (saltos) 1 1 1 AM (m) 2500 2500 2500 TPM (ms) 49,1 ±0, 68 52,58 ±0, 65 50,24 ±0, 68 Tabela 9.22: Análise comparativa entre o desempenho da HRAdNet-VE e os das demais redes do grupo reativo, utilizando os resultados do experimento 2 do cenário 1. IEEE 802.11n IEEE 802.11p LTE Métricas RAdNet CCN R RAdNet CCN R RAdNet CCN R CMT <63,04% <62,18 <70,69% <37,86% <57,11% <9,75% LCN <38,44% <32,3% <35,84% <12,5% <6,66% <2,26% TED >4,69% >10,73% >17,70% >70,15% >0,008% >0,04% NS = = = = = = AM >0,01% >0,01% >0,01% = = = TPM <42,24% <36,87% <80,15% <77,97% <6,61% <2,26% Experimento 2 com Grupo Proativo A seguir, as Tabelas 9.23, 9.24 e 9.25 apresentam os resultados do grupo proativo e, em seguida, a Tabela 9.26 apresenta a análise comparativa destes. Tabela 9.23: Resultados do grupo proativo no experimento 2 do cenário 1, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão IEEE 802.11n Métricas HRAdNet-VE RAdNet CCN P CMT (msgs.) 1,076 ×10 9 1,21 ×10 9 1,115 ×10 9 LCN (ms) 9,09 ±0, 06 11,12 ±0, 006 10,7 ±0, 16 TED (%) 98,83 ±0, 15 98,72 ±0, 15 96,56 ±0, 14 NS (saltos) 7 7 7 AM (m) 1349 ±16, 65 1348 ±16, 98 1348 ±16, 98 TPM (ms) 75 ±3, 26 95 ±13, 39 86 ±9, 79 Tabela 9.24: Resultados do grupo proativo no experimento 2 do cenário 1, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão IEEE 802.11p Métricas HRAdNet-VE RAdNet CCN P CMT (msgs.) 7,49 ×10 8 1,858 ×10 9 1,013 ×10 9 LCN (ms) 12,23 ±0, 32 16,68 ±0, 42 14,29 ±0, 37 TED (%) 84,41 ±1, 79 66,65 ±1, 41 67,15 ±1, 41 NS (saltos) 4 4 4 AM (m) 1978 ±7, 18 1977 ±7, 51 1978 ±7, 18 TPM (ms) 89 ±8, 81 178 ±17, 96 105 ±10, 45 Tabela 9.25: Resultados do grupo proativo no experimento 2 do cenário 1, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão LTE Métricas HRAdNet-VE RAdNet CCN P CMT (msgs.) 1,57 ×10 7 1,9 ×10 7 1,7 ×10 7 LCN (ms) 43,2 ±0, 58 45 ±0, 68 44,6 ±0, 78 TED (%) 99,99 ±0, 03 99,97 ±0, 009 99,93 ±0, 02 NS (saltos) 1 1 1 AM (m) 2500 2500 2500 TPM (ms) 43,2 ±0, 58 45 ±0, 68 44,6 ±0, 78 Tabela 9.26: Análise comparativa entre o desempenho da HRAdNet-VE e os das demais redes do grupo proativo, utilizando os resultados do experimento 2 do cenário 1. IEEE 802.11n IEEE 802.11p LTE Métricas RAdNet CCN P RAdNet CCN P RAdNet CCN P CMT <11,07% <3,49% <59,14% <25,07% <17,36% <11,29% LCN <18,25% <15,04% <26,67% <14,41% <4,22% <3,36% TED >0,01% >2,35% >26,64% >25,70% >0,002% >0,006% NS = = = = = = AM >0,007% >0,007% >0,005% = = = TPM <21,05% <9,47% <50% 15,23% <4,22% <3,36 Experimento 3 com Grupo Reativo A seguir, as Tabelas 9.27, 9.28 e 9.29 apresentam os resultados do grupo reativo e, em seguida, a Tabela 9.30 apresenta a análise comparativa destes. 180 Tabela 9.27: Resultados do grupo reativo no experimento 3 do cenário 1 utilizando interfaces de acessoà comunicação sem fio baseadas no padrão IEEE 802.11n Métricas HRAdNet-VE RAdNet CCN R CMT (msgs.) 1,981 ×10 9 4,209 ×10 9 3,17 ×10 9 LCN (ms) 27,99 ±0, 49 47,7 ±0, 89 41,12 ±0, 71 TED (%) 91,95 ±0, 14 90,77 ±0, 13 88,83 ±0, 13 NS (saltos) 7 7 7 AM (m) 1566 ±11, 1 1563 ±12, 08 1564 ±11, 75 TPM (ms) 188 ±21, 88 465 ±56, 83 410 ±48, 01 Tabela 9.28: Resultados do grupo reativo no experimento 3 do cenário 1, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão IEEE 802.11p Métricas HRAdNet-VE RAdNet CCN R CMT (msgs.) 4,115 ×10 9 6,417 ×10 9 4,496 ×10 9 LCN (ms) 21,12 ±0, 52 43,61 ±0, 68 39,61 ±0, 48 TED (%) 49,35 ±1, 04 31,7 ±0, 74 20,41 ±0, 43 NS (saltos) 4 4 4 AM (m) 1987 ±4, 24 1983 ±5, 55 1984 ±5, 22 TPM (ms) 160 ±11, 1 947 ±8, 16 781 ±6, 85 Tabela 9.29: Resultados do grupo reativo no experimento 3 do cenário 1, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão LTE Métricas HRAdNet-VE RAdNet CCN R CMT (msgs.) 3,89 ×10 7 8,19 ×10 7 4,28 ×10 7 LCN (ms) 51,4 ±0, 78 54,6 ±0, 65 52,28 ±0, 65 TED (%) 97,95 ±0, 32 96,91 ±0, 32 97,86 ±0, 32 NS (saltos) 1 1 1 AM (m) 2500 2500 2500 TPM (ms) 51,4 ±0, 78 54,6 ±0, 65 52,28 ±0, 65 Tabela 9.30: Análise comparativa entre desempenho da HRAdNet-VE e os das demais redes do grupo reativo, utilizando os resultados do experimento 3 do cenário 1. IEEE 802.11n IEEE 802.11p LTE Métricas RAdNet CCN R RAdNet CCN R RAdNet CCN R CMT <52,93% <37,50% <35,87% <8,47% <52,5% <9,11% LCN <41,03% <31,93% <51,57% <46,68% <5,86% <1,68% TED >1,29% >3,51% >55,67% >141,79% >1,07% >0,009% NS = = = = = = AM >0,01% >0,01% >0,02% >0,01% = = TPM <61,23% <54,14% <83,10% <79,51% <0,003% <0,03% Experimento 3 com Grupo Proativo A seguir, as Tabelas 9.31, 9.32 e 9.33 apresentam os resultados do grupo proativo e, em seguida, a Tabela 9.34 apresenta a análise comparativa destes. Tabela 9.31: Resultados do grupo proativo no experimento 3 do cenário 1, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão IEEE 802.11n Métricas HRAdNet-VE RAdNet CCN P CMT (msgs.) 1,806 ×10 9 2,064 ×10 9 2,046 ×10 9 LCN (ms) 9,1 ±0, 13 11,17 ±0, 19 11,03 ±0, 45 TED (%) 98,36 ±0, 15 97,82 ±0, 15 96,38 ±0, 14 NS (saltos) 7 7 7 AM (m) 1569 ±10, 12 1568 ±10, 45 1568 ±10, 45 TPM (ms) 94 ±10, 77 159 ±18, 61 97 ±11, 1 Tabela 9.32: Resultados do grupo proativo no experimento 3 do cenário 1, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão IEEE 802.11p Métricas HRAdNet-VE RAdNet CCN P CMT (msgs.) 1,657 ×10 9 3,506 ×10 9 2,106 ×10 9 LCN (ms) 14,16 ±0, 35 23,18 ±0, 58 19,85 ±0, 48 TED (%) 83,39 ±1, 77 66,88 ±1, 42 72,63 ±1, 54 NS (saltos) 4 4 4 AM (m) 1988 ±3, 91 1986 ±4, 57 1987 ±14, 24 TPM (ms) 74,11 ±6, 53 188 ±16, 55 95,67 ±8, 49 Tabela 9.33: Resultados do grupo proativo no experimento 3 do cenário 1, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão LTE Métricas HRAdNet-VE RAdNet CCN P CMT (msgs.) 3,63 ×10 7 4,83 ×10 7 4,02 ×10 7 LCN (ms) 43,6 ±0, 58 47,8 ±0, 78 44,3 ±0, 65 TED (%) 99,96 ±0, 03 99,87 ±0, 03 99,89 ±0, 03 NS (saltos) 1 1 1 AM (m) 2500 2500 2500 TPM (ms) 43,6 ±0, 58 47,8 ±0, 78 44,3 ±0, 65 Tabela 9.34: Análise comparativa entre desempenho da HRAdNet-VE e os das demais redes do grupo proativo, utilizando os resultados do experimento 3 do cenário 1. IEEE 802.11n IEEE 802.11p LTE Métricas RAdNet CCN P RAdNet CCN P RAdNet CCN P CMT <12,5% <11,73% <52,73% <21,32% <24,84% <9,7% LCN <18,53% <17,49% <38,91% <28,66% <8,78% <1,58% TED >0,05% >2,05% >24,68% >14,81% >0,009% >0,007% NS = = = = = = AM <0,006% <0,006% <0,001% <0,005% = = TPM <40,88% <3,09% <60,57% <22,53 <24,93 <10% 9.4.4 Análise dos Resultados do Cenário 2 Esta seção tem como objetivo apresentar uma análise comparativa entre HRAdNet- VE, RAdNet, CCN R e CCN P , tendo como base os resultados obtidos nos experi- mentos 1, 2 e 3 do cenário 2. Experimento 1 com Grupo Reativo A seguir, as Tabelas 9.35, 9.36 e 9.37 apresentam os resultados do grupo reativo e, em seguida, a Tabela 9.38 apresenta a análise comparativa destes. Tabela 9.35: Resultados do grupo reativo no experimento 1 do cenário 2, utilizando interfaces de acessoà comunicação sem fio baseadas no padrão IEEE 802.11n Métricas HRAdNet-VE RAdNet CCN R CMT 9,5 ×10 8 1,772 ×10 9 1,245 ×10 9 LCN 28,53 ±0, 32 97,04 ±0, 39 65,88 ±0, 58 TED 91,95 ±0, 1 85,6 ±0, 1 88,19 ±0, 1 NS 7 7 7 AM 1346 ±17, 63 1335 ±21, 23 1340 ±19, 59 TPM 197 ±18, 61 800 ±85, 91 487 ±52, 26 Métricas HRAdNet-VE RAdNet CCN R CMT (msgs.) 8,35 ×10 8 1,963 ×10 9 1,513 ×10 9 LCN (ms) 18,93 ±0, 52 25,5 ±0, 68 21,05 ±0, 62 TED (%) 61,63 ±1, 3 46,85 ±0, 93 30,22 ±0, 6 NS (saltos) 4 4 4 AM (m) 1977 ±7, 51 1976 ±7, 83 1977 ±7, 51 TPM (ms) 122 ±12, 41 447 ±45, 07 300 ±31, 68 Métricas HRAdNet-VE RAdNet CCN R CMT (msgs.) 1,53 ×10 7 3,6 ×10 7 1,74 ×10 7 LCN (ms) 43,56 ±0, 32 54,03 ±0, 58 51,18 ±0, 58 TED (%) 98,81 ±0, 13 98,68 ±0, 003 98,73 ±0, 003 NS (saltos) 1 1 1 AM (m) 2500 2500 2500 TPM (ms) 43,56 ±0, 32 54,03 ±0, 58 51,18 ±0, 58 IEEE 802.11n IEEE 802.11p LTE Métricas RAdNet CCN R RAdNet CCN R RAdNet CCN R CMT <46,38% <23,69% <57,89% <44,81% <57,5% <12,06% LCN <70,59% <56,69% <25,76% <10,07% <19,37% <14,88% TED >7,41% >4,26% >31,54% >103,93% >0,01% >0,008% NS = = = = = = AM >0,08% >0,04% >0,005% = = = TPM <75,37% <59,54% <72,7% <59,33% <9,12% <4,06% Métricas HRAdNet-VE RAdNet CCN P CMT (msgs.) 8,23 ×10 8 9,14 ×10 8 7,34 ×10 8 LCN (ms) 9,4 ±0, 06 55,9 ±0, 97 23,57 ±0, 19 TED (%) 97,55 ±0, 11 90,73 ±0, 1 90,27 ±0, 1 NS (saltos) 7 7 7 AM (m) 1349 ±16, 51 1341 ±19, 27 1346 ±17, 63 TPM (ms) 98,62 ±10, 45 403 ±43, 11 176,4 ±18, 94 Métricas HRAdNet-VE RAdNet CCN P CMT (msgs.) 3,52 ×10 8 7,58 ×10 8 6,39 ×10 8 LCN (ms) 14,33 ±0, 39 22,9 ±0, 62 16,49 ±0, 42 TED (%) 85,51 ±1, 7 63,24 ±1, 23 80,94 ±1, 6 NS (saltos) 4 4 4 AM (m) 1978 ±7, 18 1976 ±7, 83 1977 ±7, 51 TPM (ms) 93,23 ±9, 47 180 ±18, 61 97,33 ±9, 79 Métricas HRAdNet-VE RAdNet CCN P CMT (msgs.) 1,5 ×10 7 2,1 ×10 7 1,6 ×10 7 LCN (ms) 43,44 ±0, 58 44,96 ±0, 58 43,48 ±0, 65 TED (%) 99 ±0, 3 98,92 ±0, 3 98,85 ±0, 3 NS (saltos) 1 1 1 AM (m) 2500 2500 2500 TPM (ms) 43,44 ±0, 58 44,96 ±0, 58 43,48 ±0, 65 184 IEEE 802.11n IEEE 802.11p LTE Métricas RAdNet CCN P RAdNet CCN P RAdNet CCN P CMT <9,95% >12,12% <53,56% <44,91% <57,5% <12,06% LCN <83,18% <60,11% <37,42% <13,09% <3,38% <0,009% TED >7,51% >8,06% >35,21% >5,64% >0,008% >0,01% NS = = = = = = AM >0,05% >0,02% >0,01% >0,005% = = TPM <75,52% <44,09% <48,2% <4,21% <3,38% <1,06% Experimento 2 com Grupo Reativo A seguir, as Tabelas 9.43, 9.44 e 9.45 apresentam os resultados do grupo reativo e, em seguida, a Tabela 9.46 apresenta a análise comparativa destes. Métricas HRAdNet-VE RAdNet CCN R CMT (msgs.) 1,286 ×10 9 6,31 ×10 9 6,12 ×10 9 LCN (ms) 29,95 ±0, 52 112 ±1, 95 88,21 ±0, 71 TED (%) 90,75 ±0, 13 80,7 ±0, 12 80,89 ±0, 12 NS (saltos) 7 7 7 AM (m) 1345 ±17, 96 1333 ±21, 88 1336 ±20, 9 TPM (ms) 239 ±27, 76 898 ±105, 18 682 ±80, 68 Métricas HRAdNet-VE RAdNet CCN R CMT (msgs.) 1,738 ×10 9 5,93 ×10 9 2,797 ×10 9 LCN (ms) 23,02 ±0, 58 35,88 ±0, 58 26,31 ±0, 48 TED (%) 49,31 ±1, 04 42,12 ±0, 89 28,84 ±0, 61 NS (saltos) 4 4 4 AM (m) 1976 ±7, 83 1974 ±8, 49 1976 ±7, 83 TPM (ms) 152 ±8, 81 766 ±68, 27 690 ±22, 53 Métricas HRAdNet-VE RAdNet CCN R CMT (msgs.) 3,22 ×10 7 8,02 ×10 7 3,4 ×10 7 LCN (ms) 50,4 ±0, 68 61,34 ±0, 65 52,6 ±0, 65 TED (%) 98,14 ±0, 03 97,97 ±0, 03 98,01 ±0, 03 NS (saltos) 1 1 1 AM (m) 2500 2500 2500 TPM (ms) 50,4 ±0, 68 61,34 ±0, 65 52,6 ±0, 65 IEEE 802.11n IEEE 802.11p LTE Métricas RAdNet CCN R RAdNet CCN R RAdNet CCN R CMT <79,61% <78,98% <70,79% <37,86% <59,85% <5,29% LCN <73,25% <66,04% <35,84% <12,5 <17,83% <4,18% TED >12,45% >12,21% >17,07% >70,97% >0,01% >0,01% NS = = = = = = AM >0,09% >0,06% >0,01% = = = TPM <73,38% <64,95% <80,15% <77,97% <17,83% <4,18% Métricas HRAdNet-VE RAdNet CCN P CMT (msgs.) 1,121 ×10 9 1,493 ×10 9 1,235 ×10 9 LCN (ms) 9,6 ±0, 16 60,24 ±1, 04 25,00 ±0, 42 TED (%) 97,94 ±0, 15 92,61 ±0, 14 96,56 ±0, 14 NS (saltos) 7 7 7 AM (m) 1349 ±16, 65 1341 ±19, 27 1346 ±17, 63 TPM (ms) 96,2 ±4, 63 450 ±52, 59 196 ±1, 95 Métricas HRAdNet-VE RAdNet CCN P CMT (msgs.) 7,49 ×10 8 1,858 ×10 9 1,013 ×10 9 LCN (ms) 12,4 ±0, 32 16,69 ±0, 42 15,18 ±0, 39 TED (%) 84,31 ±1, 79 66,48 ±1, 41 96,56 ±1, 41 NS (saltos) 4 4 4 AM (m) 1978 ±7, 18 1977 ±7, 51 1978 ±7, 18 TPM (ms) 89 ±8, 85 178 ±18, 29 105 ±10, 45 186 Métricas HRAdNet-VE RAdNet CCN P CMT (msgs.) 1,94 ×10 7 2,25 ×10 7 2,07 ×10 7 LCN (ms) 46,2 ±0, 65 60 ±0, 68 51 ±0, 71 TED (%) 99,00 ±0, 03 98,94 ±0, 03 98,98 ±1, 41 NS (saltos) 1 1 1 AM (m) 2500 2500 2500 TPM (ms) 46,2 ±0, 65 60 ±0, 68 51 ±0, 71 IEEE 802.11n IEEE 802.11p LTE Métricas RAdNet CCN P RAdNet CCN P RAdNet CCN P CMT <24,9% <9,23% <59,68% <26,06% <13,77% <6,28% LCN <84,06% <61,6% <25,7% <25,68% <23% <9,41% TED >5,53% >1,22% >26,82% >20,43% >0,006% >0,002% NS = = = = = = AM >0,005% >0,02% >0,005% = = = TPM <78,62% <50,91% <50% <15,23% <23% <9,41% Métricas HRAdNet-VE RAdNet CCN R CMT (msgs.) 2,288 ×10 9 8,439 ×10 9 5,83 ×10 9 LCN (ms) 33,08 ±0, 58 128 ±2, 28 64,43 ±1, 11 TED (%) 91,12 ±0, 14 86,64 ±0, 13 84,96 ±0, 13 NS (saltos) 7 7 7 AM (m) 1575 ±8, 16 1560 ±13, 06 1570 ±9, 79 TPM (ms) 193 ±22, 53 1115 ±130, 33 592 ±69, 25 Métricas HRAdNet-VE RAdNet CCN R CMT (msgs.) 4,115 ×10 9 6,417 ×10 9 4,496 ×10 9 LCN (ms) 21,12 ±0, 52 43,61 ±0, 58 39,61 ±0, 48 TED (%) 49,35 ±0, 96 31,5 ±0, 71 20,41 ±0, 43 NS (saltos) 4 4 4 AM (m) 1987 ±4, 24 1983 ±5, 55 1984 ±5, 22 TPM (ms) 160 ±11, 1 974 ±8, 16 781 ±6, 85 187 Métricas HRAdNet-VE RAdNet CCN R CMT (msgs.) 4,69 ×10 7 1,09 ×10 8 5,91 ×10 7 LCN (ms) 64,71 ±0, 97 79,38 ±0, 97 69,53 ±0, 97 TED (%) 97,93 ±0, 32 97,86 ±0, 32 97,23 ±0, 32 NS (saltos) 1 1 1 AM (m) 2500 2500 2500 TPM (ms) 64,71 ±0, 97 79,38 ±0, 97 69,53 ±0, 97 IEEE 802.11n IEEE 802.11p LTE Métricas RAdNet CCN R RAdNet CCN R RAdNet CCN R CMT <72,88% <60,75% <35,87% <8,47% <52,5% <9,32% LCN <74,15% <48,65% <51,57% <46,68% <18,48% <6,93% TED >5,17% >7,25% >56,66% >141,17% >0,007% >0,07% NS = = = = = = AM >0,09% >0,03% >0,02% >0,01% = = TPM <82,69% <67,39% <83,1% <79,51% <18,48% <6,93% Métricas HRAdNet-VE RAdNet CCN P CMT (msgs.) 4,69 ×10 9 1,09 ×10 9 5,91 ×10 9 LCN (ms) 9,21 ±0, 13 95,82 ±1, 66 40,47 pm0, 71 TED (%) 97,02 ±0, 14 77,65 ±0, 11 79,29 ±0, 11 NS (saltos) 7 7 7 AM (m) 1579 ±6, 85 1565 ±11, 43 1574 ±8, 49 TPM (ms) 116 ±13, 39 825 ±96, 69 449 ±52, 59 Métricas HRAdNet-VE RAdNet CCN P CMT (msgs.) 1,657 ×10 9 3,506 ×10 9 2,106 ×10 9 LCN (ms) 14,36 ±0, 37 23,68 ±0, 58 18,85 ±0, 48 TED (%) 83,39 ±1, 75 66,71 ±1, 41 72,63 ±1, 5 NS (saltos) 4 4 4 AM (m) 1988 ±3, 91 1986 ±4, 57 1987 ±4, 24 TPM (ms) 74,11 ±6, 53 188 ±16, 65 95,97 ±8, 49 Métricas HRAdNet-VE RAdNet CCN P CMT (msgs.) 3,63 ×10 7 6,31 ×10 7 4,72 ×10 7 LCN (ms) 44,32 ±0, 58 66,86 ±0, 78 49,71 ±0, 658 TED (%) 98,95 ±0, 03 97,88 ±0, 03 97,93 ±0, 03 NS (saltos) 1 1 1 AM (m) 2500 2500 2500 TPM (ms) 44,32 ±0, 58 66,86 ±0, 78 49,71 ±0, 658 IEEE 802.11n IEEE 802.11p LTE Métricas RAdNet CCN P RAdNet CCN P RAdNet CCN P CMT <27,52% <25,96% <52,73% <21,32% <27,57% <3,17% LCN <90,38% <77,24% <39,35% <27,65% <33,71% <10,84% TED >24,94% >22,36% >25% >14,81% >1,09% >1,04% NS = = = = = = AM >0,08% >0,03% >0,01% >0,005% = = TPM <85, Os tempos de simulação dos cenários descritos na seção anterior foram fixados em 3600s. No dois cenários, os veículos conectados e sinalizações semafóricas foram equipados com interfaces de acessoà comunicação sem fio baseadas no padrão IEEE 802.11n. Estas interfaces foram configuradas, seguindo os valores dos parâmetros listados nas Tabelas E.1 e E.2. Além disto, veículos conectados, sinalizações semafóricas e o centro de controle de tráfego foram equipadas com interfaces de acessò a comunicação sem fio baseadas no padrão LTE. De acordo com as definições anteriores, veículos conectados e sinalizações semafóricas são nós UE. Por isto, suas interfaces de acesso a comunicação sem fio baseadas no padrão LTE foram configuradas, de acordo com os valores dos parâmetros listados na Tabela E.5. No que diz respeito ao centro de controle de tráfego, este atuou como um nó eNodeB. Portanto, sua interface de acesso a comunicação sem fio baseada no padrão LTE foi configurada, de acordo com os valores dos parâmetros listados na Tabela E.6. No que tange as configurações da camada de rede, todos os nós foram configuradas com o protocolo de comunicação da HRAdNet-VE. Por esta razão, as configurações de interesses utilizadas nesses cenários foram aquelas definidas no Capítulo 7.Para os dois subcenários, foram adotadas as mesmas configurações dos agentes Sinalização Semafórica descritas na seção anterior, ou seja, eles foram configurados com os mesmos tamanhos de intervalos de indicações de luzes das sinalizações semafóricas e os valores dos parâmetros listados na Tabela 9.7. Em específico, no subcenário 2, os agentes Sinalização Semafórica também foram identificados unicamente, conforme explicado na seção anterior, assim como, os corredores e grupos de corredores. Conforme a Figura 9.2, os agentes sinalizações semafóricas foram enumerados de 0 a 199 e os corredores foram identificados de A a D. Todos os agentes Sinalização Semafórica controladores de um sistema coordenado de sinalizações semafóricas foram configurados com tais identificadores de corredor. Além destes agentes, aqueles cujas sinalizações semafóricas integraram corredores também tiveram conhecimento das identificações de corredores. Todos os agentes controladores de sistemas coordenados de sinalizações semafóricas tiveram conhecimento das identificações dos agentes embutidos nas sinalizações semafóricas integrantes de corredores e as vias onde estes agentes se encontravam. A identificação dos grupos de corredores seguiu a mesma lógica descrita na seção anterior. No que diz respeito aos parâmetros exclusivos dos agentes Sinalização Semafórica controladores de um sistema coordenado de sinalizações semafóricas, os números mínimo e máximo e ciclos foram 10 e 30, respectivamente.No que diz respeitoà configuração do comportamento dos veículos, em ambos os cenários o IDM também foi utilizado e teve seus parâmetros configurados com os mesmos valores utilizados nos experimentos descritos na seção anterior. Tais valores foram listados na Tabela 9.2. Além disto, os destinos das viagens realizadas pelo veículos foram escolhidos aleatoriamente e o algoritmo de roteamento de veículos adotado foi o algoritmo de caminho mínimo espacialmente mais curto.Para cada um dos cenários e seus subcenários, foram criados três experimentos. Em cada um destes experimentos, as grades manhattam receberam diferentes fluxos de veículos em suas vias de entrada. Estes fluxos de veículos foram definidos, de acordo com as primeiras vias imediatamenteà frente das vias de entrada existentes nas grades. As definições de fluxos de veículos nas vias de entrada das grades manhattan 10 x 10 seguiram os valores listados pela Tabela 9.10.Para encontrar o melhor valor para o parâmetro número de obtenções de quantidade de veículos, no cenário 1, para cada experimento, variou-se o valor desse parâmetro, utilizando três valores: 18, 24 e 30. Dessa forma, com o valor do parâmetro periodicidade de obtenção de quantidade de veículos sendo 10s, os agentes Sinalização Semafórica atualizaram as demandas de suas vias de entrada a cada 3, 4 e 5 minutos. Esses três valores também influenciaram na configuração de parâmetros exclusivos dos agentes Sinalização Semafórica controladores de um sistema coordenado de sinalizações semafóricas. Dessa forma, de acordo com os valores citados anteriormente, os parâmetros periodicidade de compartilhamento de médias de quantidades de veículos e periodicidade de atualização de demandas de corredores foram configurados com os seguintes valores: 180, 240 e 300.Com base nos resultados obtidos com as variações de valores dos parâmetros citados acima, foi possível escolher o melhor valor para a realização dos experimentos do cenário 2. Tabela 9.59: Desempenhos do sistema de controle de tráfego baseado em sinalizações semafóricas pré-temporizadas, SMER I e SMER I+C no experimento 1 do cenário 1. Tabela 9.60: Comparação dos desempenhos de SMER I e SMER I+C contra o desempenho do sistema de controle de tráfego baseado em sinalizações semafóricas pré-temporizadas, utilizando os resultados obtidos no experimento 1 do cenário 1. 08%<7,43% <14,04% <4,49% <10,7% <16,76% TMV >1,52% >1,11% <0,04% <1,19% <2,26% <3,38% VM <0,04% <1,71% >0,08% >0,09% >4,99% >9,32%A seguir, a Tabela 9.61 apresenta os resultados dos experimento 2 do cenário 1 e, em seguida, a Tabela 9.62 apresenta a análise dos mesmos.Tabela 9.61: Resultados obtidos com o sistema de controle de tráfego baseado em sinalizações semafóricas pré-temporizadas, SMER I e SMER I+C no experimento 2 do cenário 1. Tabela 9.62: Comparação dos desempenhos de SMER I e SMER I+C contra o desempenho do sistema de controle de tráfego baseado em sinalizações semafóricas pré-temporizadas, utilizando os resultados obtidos no experimento 2 do cenário 1. A seguir, a Tabela 9.63 apresenta os resultados dos experimento 3 do cenário 1 e, em seguida, a Tabela 9.64 apresenta a análise dos mesmos. Tabela 9.63: Resultados obtidos com o sistema de controle de tráfego baseado em sinalizações semafóricas pré-temporizadas, SMER I e SMER I+C no experimento 3 do cenário 1. Tabela 9.64: Comparação dos desempenhos de SMER I e SMER I+C contra o desempenho do sistema de controle de tráfego baseado em sinalizações semafóricas pré-temporizadas, utilizando os resultados obtidos no experimento 3 do cenário 1. Analisando as Tabelas 9.60, 9.62 e 9.62, foi possível identificar que os melhores resultados de SMER I e SMER I+C foram obtidos, utilizando números de obtenções de quantidade de veículos iguais a 30. Este resultados, por sua vez, serão comparados com os resultados dos experimentos 1, 2 e 3 do cenário 2. Para evitar qualquer dúvida na leitura dos resultados, os mesmos foram separados, de acordo com os cenários em que foram obtidos. Para tanto, os nomes SMER I e SMER I+C receberam sobrescritos, que são os números de cada um dos cenários definidos para a avaliação do sistema multiagente de controle de tráfego. A seguir, a Tabela 9.65 apresenta os resultados dos experimento 1 do cenário 2 e, em seguida, a Tabela 9.66 apresenta a análise dos mesmos. Tabela 9.65: Resultados obtidos com SMER 2 I e SMER 2 I+C no experimento 1 do cenário 2. I+C , utilizando os resultados obtidos no experimento 1 do cenário 1. A seguir, a Tabela 9.67 apresenta os resultados dos experimento 2 do cenário 2 e, em seguida, a Tabela 9.68 apresenta a análise dos mesmos. Tabela 9.68: Comparação dos desempenhos de SMER 2 I e SMER 2 I+C contra os desempenhos de SMER 1 I e SMER 1 I+C , utilizando os resultados obtidos no experimento 2 do cenário 1.A seguir, a Tabela 9.69 apresenta os resultados dos experimento 3 do cenário 2 e, em seguida, a Tabela 9.70 apresenta a análise dos mesmos. I+C , utilizando os resultados obtidos no experimento 3 do cenário 1.Nesta seção,é apresentada a avaliação experimental acerca do sistema multiagente de planejamento e orientação de rotas.9.6.1 Descrição dos Cenários para os ExperimentosPara a obtenção dos resultados referentes ao sistema multiagente de planejamento e orientação de rotas, foram criados dois cenários: operação do sistema multiagente de planejamento e rotas sobre o sistema multiagente de controle de tráfego com sinalizações semafóricas em total funcionamento; e operação do sistema multiagente de planejamento e rotas sobre o sistema multiagente de controle de tráfego com sinalizações semafóricas apresentando ausência de funcionamento.Em ambos os cenários, foram utilizados todos os agentes definidos nesta tese. Com esses cenários, pretendeu-se avaliar o desempenho do algoritmo de roteamento orientado a ondas verdes (ROOV), comparando-os com os desempenhos de dois algoritmos de roteamento. O primeiro foi um algoritmo de roteamento de caminho espacialmente mais curto (RCEMC). O segundo foi um algoritmo de roteamento de caminho temporalmente mais curto (RCTMC). Essa comparação de desempenho foi realizada com os resultados do cenário 1.SMER I SMER I+C Métricas Pré-Temp. 18 24 30 18 24 30 TVS (veic./h) 3969 4163 4175 4200 4243 4262 4280 TME (s) 14,67 ±0, 55 14,55 ±0, 51 13,58 ±0, 51 12,61 ±0, 49 14,01 ±0, 48 13,1 ±0, 48 12,21 ±0, 47 TMV (s) 262,91 ±9, 89 266,92 ±7, 74 265,83 ±7, 51 261,8 ±7, 42 259,77 ±6, 8 257,23 ±6, 79 254,00 ±6, 62 VM (km/h) 21,01 ±0, 32 20,92 ±0, 32 20,65 ±0, 32 21,18 ±0, 32 21,21 ±0, 48 22,06 ±0, 48 22,97 ±0, 48 SMER I SMER I+C Métricas 18 24 30 18 24 30 TVS >4,88% >5,19% >5,82% >6,9% >7,38% >7,83% TME <0,SMER I SMER I+C Métricas Pré-Temp. 18 24 30 18 24 30 TVS (veic./h) 5378 5531 5545 5735 5958 5973 6024 TME (s) 29,12 ±2, 11 28,09 ±1, 92 26,33 ±1, 88 24,59 ±1, 85 26,02 ±1, 86 25,24 ±1, 83 23,85 ±1, 79 TMV (s) 392,04 ±36, 32 361,61 ±25, 15 354,3 ±23, 51 347,00 ±22, 43 370,8 ±26, 47 350,2 ±24, 26 340,00 ±21, 93 VM (Km/h) 14,24 ±1, 21 14,17 ±1, 08 14,82 ±1, 07 15,53 ±1, 05 15,45 ±1, 1 15,82 ±1, 08 16,01 ±1, 07 SMER I SMER I+C Métricas 18 24 30 18 24 30 TVS >2,84% >3,1% >6,63% >10,04% >11,06% >12,01% TME <3,35% <9,58% <15,55% <10,64% <13,32% <18,09% TMV <7,76% <9,03% <11,48% <5,4% <10,66% <13,26% VM >0,04% >4,07% >9,05% >8,49% >11,09% <12,42% Experimento 3 SMER I SMER I+C Métricas Pré-Temp. 18 24 30 18 24 30 TVS (veic./h) 4404 4852 5087 5557 5252 5482 5805 TME (s) 39,28 ±4, 65 29,62 ±1, 07 26,84 ±1, 05 25,17 ±1, 03 24,35 ±1, 13 21,62 ±1, 11 20,08 ±1, 07 TMV (s) 670,50 ±73, 82 533,14 ±44, 75 522,96 ±42, 46 509,20 ±40, 5 533,86 ±44, 09 518,62 ±41, 81 500,11 ±39, 85 VM (Km/h) 9,06 ±1, 3 12,29 ±1, 3 12,41 ±1, 3 12,91 ±1, 3 13,05 ±1, 63 13,17 ±1, 63 13,43 ±1, 63 SMER I SMER I+C Métricas 18 24 30 18 24 30 TVS >10,17% >15,5% >26,18% >19,25% >24,47% >31,81% TME <24,59% <31,67% <35,92% <38,00% <44,95% <48,87% TMV <20,48% <22,00% <24,05% <20,37% <22,65% <25,41% VM >35,65% >36,97% >42,49% >44,03% >45,36% >48,23% 9.5.4 Análise dos Resultados do Cenário 2 Experimento 1 Cenário 1 Cenário 2 Métricas SMER 1 I SMER 1 I+C SMER 2 I SMER 2 I+C TVS (veic./h) 4200 4280 3853 4116 TME (s) 12,61 ±0, 49 12,21 ±0, 47 14,89 ±0, 65 13,13 ±0, 5 TMV (s) 261,96 ±7, 42 254,00 ±6, 62 288,69 ±8, 51 284,01 ±6, 88 VM (Km/h) 21,18 ±0, 38 22,97 ±0, 48 19,93 ±0, 48 20,73 ±0, 68 Tabela 9.66: Comparação dos desempenhos de SMER 2 I e SMER 2 I+C contra os de- sempenhos de SMER 1 I e SMER 1 Métricas SMER 2 I SMER 2 I+C TVS <8,26% <3,83% TME >18,08% >7,53% TMV >10,20% >11,81% VM <5,90% <9,75% Experimento 2 Tabela 9.67: Resultados obtidos com SMER 2 I e SMER 2 I+C no experimento 2 do cenário 2. Cenário 1 Cenário 2 Métricas SMER 1 I SMER 1 I+C SMER 2 I SMER 2 I+C TVS (veic./h) 5735 6024 5382 5662 TME (s) 24,59 ±1, 85 23,85 ±1, 79 29 ±1, 99 25,05 ±1, 96 TMV (s) 347,00 ±22, 33 340,00 ±21, 93 374,86 ±24, 01 353,5 ±23, 19 VM (Km/h) 15,53 ±1, 05 16,01 ±1, 07 14,91 ±1, 3 15,18 ±1, 27 Métricas SMER 2 I SMER 2 I+C TVS <6,15% <6,39% TME >17.93% >5,03% TMV >8,02% >3,97% VM <3,99% <5,18% Experimento 3 Tabela 9.69: Resultados obtidos com SMER 2 I e SMER 2 I+C no experimento 3 do cenário 2. Cenário 1 Cenário 2 Métricas SMER 1 I SMER 1 I+C SMER 2 I SMER 2 I+C TVS (veic./h) 5557 5805 5065 5375 TME (s) 25,17 ±1, 03 20,8 ±1, 07 30,7 ±1, 43 27,63 ±1, 7 TMV (s) 509,86 ±40, 5 500,17 ±39, 85 561,79 ±42, 46 536,4 ±39, 85 VM (Km/h) 12,91 ±1, 3 12,95 ±1, 63 10,52 ±1, 3 12,5 ±1, 63 Tabela 9.70: Comparação dos desempenhos de SMER 2 I e SMER 2 I+C contra os de- sempenhos de SMER 1 I e SMER 1 Métricas SMER 2 I SMER 2 I+C TVS <8,85% <8,0% TME >21,97% >32,83% TMV >10,18% >7,24% VM <18,51% <3,47% 9.6 Avaliando o Sistema Multiagente de Planeja- mento e Orientação de Rotas Tabela 9.71: Resultados obtidos com o ROOV, RCEMC e RCTMC no experimento 1 do cenário 1. Tabela 9.72: Comparação do desempenho do ROOV contra os desempenhos do RCEMC e RCTMC, utilizando os dados obtidos no experimento 1 do cenário 1. A seguir, a Tabela 9.73 apresenta os resultados dos experimento 2 do cenário 1 e, em seguida, a Tabela 9.74 apresenta a análise dos mesmos. Tabela 9.73: Resultados obtidos com o ROOV, RCEMC e RCTMC no experimento 2 do cenário 1. Tabela 9.74: Comparação do desempenho do ROOV contra os desempenhos do RCEMC e RCTMC, utilizando os dados obtidos no experimento 2 do cenário 1. A seguir, a Tabela 9.75 apresenta os resultados dos experimento 3 do cenário 1 e, em seguida, a Tabela 9.76 apresenta a análise dos mesmos. Tabela 9.75: Resultados obtidos com o ROOV, RCEMC e RCTMC no experimento 3 do cenário 1. Tabela 9.76: Comparação do desempenho do ROOV contra os desempenhos do RCEMC e RCTMC, utilizando os dados obtidos no experimento 3 do cenário 1.SMER I SMER I+C Métricas ROOV RCEMC RCTMC ROOV RCEMC RCTMC TVS (veic./h) 4291 4200 4227 4400 4280 4400 TME (s) 5,6 ±0, 57 12,61 ±0, 49 14,89 ±0, 46 5 ±0, 39 12,21 ±0, 47 14,25 ±0, 44 TMV (s) 257 ±7, 51 261,8 ±7, 51 221,09 ±7, 83 224 ±6, 53 254 ±7, 18 212 ±8, 16 VM (Km/h) 22,29 ±0, 42 21,18 ±0, 39 24,22 ±0, 65 26,65 ±1, 45 22,97 ±0, 39 25,93 ±0, 65 CMC (ml) 416,49 417,21 339,00 432,28 481,3 351,74 CO(g) 12,75 13,84 11,06 13,57 15,86 11,48 CO 2 (g) 1044,67 1094,46 850,23 1086,25 1262,83 869,61 HC(g) 0,367 0,3918 0,2994 0,372 0,481 0,309 NOx(g) 2,08 2,201 1,729 2,21 2,44 1,46 PMx(g) 0,1277 0,1351 0,106 0,139 0,143 0,109 SMER I SMER I+C Métricas RCEMC RCTMC RCEMC RCTMC TVS (veic./h) >2,16% >1,51% >2,80% = TME (s) <55,59% <62,39% <59,04% <64,91% TMV (s) <1,83% >16,24% <11,81% >5,66% VM (Km/h) >5,24% <7,96% >16,02% >2,77% CMC (ml) <0,017% >22,85% <10,18% >22,89% CO(g) <7,87% >15,28% <14,43% >18,20% CO 2 (g) <4,54% >22,86% <13,98% >24,91% HC(g) <6,13% >22,74% <22,66% >20,38% NOx(g) <5,49% >20,30 <9,42% >51,36% PMx(g) <5,47% >20,47% <2,79% >27,52% Experimento 2 SMER I SMER I+C Métricas ROOV RCEMC RCTMC ROOV RCEMC RCTMC TVS (veic./h) 6254 5735 5871 6600 6024 6155 TME (s) 5,68 ±0, 47 24,59 ±1, 85 14,96 ±0, 59 5 ±0, 39 23,85 ±1, 79 14,78 ±0, 59 TMV (s) 299,06 ±14, 37 347,09 ±22, 33 322,71 ±21, 88 288,11 ±13, 71 340,86 ±22, 86 313,88 ±23, 19 VM (Km/h) 20,06 ±0, 65 14,53 ±1, 05 16,40 ±0, 84 21,15 ±0, 65 16,01 ±1, 05 17,21 ±0, 88 CMC (ml) 575,19 646,67 590,69 624,76 669,21 637,35 CO(g) 16,87 22,53 18,23 18,52 23,44 18,7 CO 2 (g) 1362,25 1613,81 1481,45 1479,54 1669,96 1507,97 HC(g) 0,527 0,616 0,553 0,570 0,640 0,561 NOx(g) 2,81 3,01 2,88 3,06 3,11 2,94 PMx(g) 0,164 0,154 0,164 0,179 0,160 0,169 SMER I SMER I+C Métricas RCEMC RCTMC RCEMC RCTMC TVS (veic./h) >9,04% 6,52% >9,56% >7,22% TME (s) <76,90% <62,03% <79,03% <66,17% TMV (s) <13,83% <7,32% <15,47% <8,21% VM (Km/h) >29,16% >22,31% >32,1% >22,89% CMC (ml) <11,05% <2,62% <6,64% <1,97% CO(g) <25,12% <7,46% <20,98% <0,09% CO 2 (g) <15,58% <8,04% <11,40% <1,88% HC(g) <14,44% <4,70% <10,93% >1,60% NOx(g) <6,64% <2,43% <1,60% >4,08% PMx(g) >6,49% = >11,87% >5,91% Experimento 3 SMER I SMER I+C Métricas ROOV RCEMC RCTMC ROOV RCEMC RCTMC TVS (veic./h) 6970 5557 4347 7057 5806 4506 TME (s) 9,22 ±0, 87 25,17 ±1, 03 38,78 ±5, 63 9,00 ±0, 89 20,08 ±1, 07 37,87 ±5, 5 TMV (s) 368,1 ±17, 96 509,20 ±40, 5 749,00 ±106, 81 365,92 ±18, 29 500,11 ±40, 17 733,64 ±104, 53 VM (Km/h) 16,95 ±1, 3 12,91 ±1, 3 13,43 ±1, 63 16,98 ±1, 3 12,95 ±1, 3 13,98 ±1, 63 CMC (ml) 917,55 599,35 513,06 917,83 622,00 537,99 CO(g) 27,02 16,66 14,99 27,25 25,18 15,42 CO 2 (g) 2138,40 1503,41 1286,58 2139,02 1560,20 1409,96 HC(g) 0,777 0,631 0,544 0,779 0,657 0,564 NOx(g) 4,83 2,66 2,3 4,27 2,77 1,22 PMx(g) 0,257 0,130 0,114 0,259 0,136 0,119 SMER I SMER I+C Métricas RCEMC RCTMC RCEMC RCTMC TVS (veic./h) >25,42% >60,34% >21,54% >56,61% TME (s) <63,36% <23,77% <55,17% <76,23% TMV (s) <27,77% <50,85% <26,83% <50,12% VM (Km/h) >31,29% >26,20% >31,11% >21,45% CMC (ml) >53,09% >78,83% >47,56% >70,60% CO(g) >62,18% >80,25% >8,22% >76,71% CO 2 (g) >42,23% >66,20% >37,09% >51,70% HC(g) >23,13% >42,83% >18,56% >38,12% NOx(g) >81,57% >110% >54,15% >250% PMx(g) >97,69% >125,43% >90,44% >117,64% 9.6.4 Análise dos Resultados do Cenário 2 Tabela 9.77: Resultados obtidos com ROOV nos experimentos 1 dos cenários 1 e 2. Tabela 9.78: Comparação dos desempenhos do ROOV 2 contra os do ROOV 1 , utilizando os resultados obtidos no experimento 1 do cenário 2.A seguir, a Tabela 9.79 apresenta os resultados dos experimento 2 do cenário 2 e, em seguida, a Tabela 9.80 apresenta a análise dos mesmos. Tabela 9.79: Resultados obtidos com ROOV nos experimentos 2 dos cenários 1 e 2. Tabela 9.80: Comparação dos desempenhos do ROOV 2 contra os do ROOV 1 , utilizando os resultados obtidos no experimento 2 do cenário 2.A seguir, a Tabela 9.81 apresenta os resultados dos experimento 3 do cenário 2 e, em seguida, a Tabela 9.82 apresenta a análise dos mesmos. Tabela 9.81: Resultados obtidos com ROOV nos experimentos 3 dos cenários 1 e 2. Tabela 9.82: Comparação dos desempenhos do ROOV 2 contra os do ROOV 1 , utilizando os resultados obtidos no experimento 3 do cenário 2.Nesta seção, são apresentadas as discussões acerca da RAdNet-VE e HRAdNet-VE. Além destas discussões, também são apresentadas as discussões em torno do sistema multiagente de controle de tráfego e do sistema multiagente de planejamento e orientação de rotas. Essas discussões são apresentadas nas próximas seções.No que diz respeitoà RAdNet-VE eà HRAdNet-VE, percebe-se que o baixo custo de mensagem trafegadas foi consequência do mecanismo de encaminhamento de mensagens. Tal mecanismo fez uso dos campos posição relativa da origem da mensagem de rede, direção de propagação de mensagens e identificador de via para filtrar mensagens. Este baixo custo de mensagens trafegadas também resultou também da estratégia adotada no mecanismo de registro de interesses. Tal mecanismo registrou os interesses definidos pelas aplicações e limitou o número de saltos que as mensagens puderam alcançar,à medida que eram encaminhadas pelos nós. Com isto, os nós transmitiram mensagens dentro de um escopo bem definido, resultando na redução do custo de mensagens trafegadas. Devido ao baixo custo de mensagens trafegadas, as mensagens não congestionaram os canais de comunicação dos nós. Consequentemente, isto levou a uma baixa latência de comunicação entre os nós da rede. Com o baixo custo de mensagens trafegadas e uma baixa latência de comunicação entre os nós, foi possível alcançar altas taxas de entrega de dados. Essas mesmas características puderam também ser observadas nos resultados da HRAdNet-VE.SMER I SMER I+C Métricas ROOV 1 ROOV 2 ROOV 1 ROOV 2 TVS (veic./h) 4291 4157 4400 4400 TME (s) 5,6 ±0, 57 5,71 ±0, 85 5,00 ±0, 39 5,26 ±0, 87 TMV (s) 257,00 ±7, 51 263,98 ±7, 51 224,00 ±6, 53 233,03 ±7, 18 VM (Km/h) 22,29 ±0, 39 21,40 ±0, 48 26,65 ±0, 42 24,9 ±0, 48 CMC (ml) 416,49 405,42 432,28 416,61 CO(g) 12,75 13,11 13,57 14,08 CO 2 (g) 1044,67 1040,35 1086,25 1062,04 HC(g) 0,367 0,362 0,372 0,360 NOx(g) 2,08 2,13 2,21 2,25 PMx(g) 0,127 0,134 0,139 0,143 Métricas ROOV 2 SM ER I ROOV 2 SM ER I+C TVS <3,12% = TME >1,96% >5,20% TMV >2,71% >4,03% VM <3,99% <6,56% CMC <2,65% <3,62% CO >2,82% >3,75% CO 2 <0,04% <2,22% HC <1,36% <3,22% NOx >2,40% >1,80% PMx >5,51% >0,01% Experimento 2 SMER I SMER I+C Métricas ROOV 1 ROOV 2 ROOV 1 ROOV 2 TVS (veic./h) 6254 6254 6600 6557 TME (s) 5,68 ±0, 57 6,18 ±0, 47 5 ±0, 39 6,10 ±0, 46 TMV (s) 299,06 ±14, 37 300,52 ±9, 47 288,11 ±13, 71 292,30 ±9, 14 VM (Km/h) 20,06 ±0, 65 19,93 ±0, 65 21,15 ±0, 65 20,92 ±0, 65 CMC (ml) 575,19 660,43 624,76 612,00 CO(g) 18,87 18,70 18,52 19,18 CO 2 (g) 1362,25 1446,64 1479,54 1472,53 HC(g) 0,527 0,535 0,570 0,542 NOx(g) 2,81 3,10 3,06 3,16 PMx(g) 0,164 0,189 0,179 0,193 Métricas ROOV 2 SM ER I ROOV 2 SM ER I+C TVS = <0,06% TME >8,80% >22,00% TMV >0,04% >1,45% VM <0,06% >1,08% CMC >14,81% <3,64% CO <0,09% <3,64% CO 2 >6,19% <0,04% HC >1,51% <4,91% NOx >10,32% >3,26% PMx >15,24% >7,82% Experimento 3 SMER I SMER I+C Métricas ROOV 1 ROOV 2 ROOV 1 ROOV 2 TVS (veic./h) 6970 6603 7057 6899 TME (s) 9,22 ±0, 87 10,71 ±0, 86 9 ±0, 89 10,33 ±0, 89 TMV (s) 368,1 ±18, 29 379,25 ±18, 61 365,92 ±17, 96 376,16 ±18, 29 VM (Km/h) 16,95 ±1, 3 14,44 ±1, 3 16,98 ±1, 3 14,49 ±1, 3 CMC (ml) 917,55 948,95 917,83 914,381 CO(g) 27,02 32,99 27,25 46,89 CO 2 (g) 2138,4 2333,79 2139,02 2421,95 HC(g) 0,777 0,859 0,779 0,895 NOx(g) 4,83 4,82 4,27 5,02 PMx(g) 0,257 0,307 0,259 0,322 Métricas ROOV 2 SM ER I ROOV 2 SM ER I+C TVS <5,26% <2,22% TME >16,16% >14,77% TMV >3,02% >2,79% VM <14,80% <14,66% CMC >3,42% <0,03% CO >22,09% >72,07% CO 2 >9,13% >13,22% HC >10,55% >14,89% NOx <0,02% >17,56% PMx >19,45% >24,32% 202 9.7 Discussão 9.7.1 RAdNet-VE e HRAdNet-VE Planejamento e Orientação Inteligente de Rotas Baseados em Interesses de Motoristas: -Avaliar o impacto do número de sinalizações semafóricas no crescimento das agendas de intervalos de luzes verdes; -Avaliar o impacto de diferentes classes de veículos, utilizando o algoritmo de planejamento e orientação de rotas orientadoà ondas verdes; -Avaliar o tempo de resposta do algoritmo de planejamento e orientação de rotas em mapas viários cujas vias possuem mais de uma faixa; -Avaliar o tempo de atualização do estado global do sistema multiagente de planejamento e orientação de rotas em função da quantidade de veículos presentes no mapa viário;-Utilizar os dados publicados por elementos urbanos, de modo que possam ser utilizados para ponderar dinamicamente as vias. Isto seria um recurso bastanteútil, pois, em um ambiente urbano, existemáreas, tais como as proximidades de hospitais e escolas, onde o fluxo de veículos precisa ser gerenciado com maiores cuidados. Outra possibilidade seria o uso destes dados em eventos, tais como shows, jogos de futebol, entre outros;-Desenvolver cenários para avaliações experimentais, envolvendo atividades de sensoriamento urbano. Com isto, dispositivos móveis utilizados por pedestres ou sensores instalados em dispositivos computacionais poderiam ser utilizados para alimentar o sistema. Com base nisto, novos critérios de para o cálculo de rotasótimas poderiam ser explorados.Interesses do Controle de TráfegoTabela A.1: Interesses de registrados por um agente Centro de Controle de Tráfego e as ações executadas pelo agente e ou pelo ambiente. Atualiza a quantidade de veículos de uma via no sistema supervisório e encaminha a mensagem para as sinalizações semafóricas. tema coordenado de sinalizações semafóricas no sistema supervisório e encaminha a mensagem para as sinalizações semafóricas. nalizações semafóricas. No entanto, se estiver controlando sistemas coordenados de sinalizações semafóricas, também age como um líder destes sistemas. nalizações semafóricas. No entanto, se estiver controlando sistemas coordenados de sinalizações semafóricas, também age como um líder destes sistemas. nalizações semafóricas. No entanto, se estiver controlando sistemas coordenados de sinalizações semafóricas, também age como um líder destes sistemas. dos agentes Sinalização Semafórica, bem como, os parâmetros de configuração de performance informados pelo engenheiro de tráfego. intersection control data request 1 LTE O agente fornece os dados de controle de uma interseção, caso não exista um agente Veículo sendo responsável pelo controle da interseção. Se houver um agente com tal responsabilidade, a mensagem de interaçãoé encaminhada para o mesmo. intersection control data 1 LTE O agente atualiza os dados de controle de uma interseção e encaminha a mensagem para um agente Veículo que esteja sendo responsável pelo controle de uma interseção. Tabela A.2: Interesses de registrados por um agente Veículo e as ações executadas pelo agente e ou pelo ambiente. Ativa notificação da presença de veículo na via. Registra posição de um veículo da via e, em seguida, reexecuta a eleição de líder. Se o veículo conectado for líder, registra presença de um veículo conectado em uma via. Caso contrário, o agente não executa qualquer ação, mas o ambiente somente coopera com a HRAdNet-VE. Se for o destino da mensagem de interação, interrompe notificação da presença do veículo na via. Caso contrário, o agente não executa qualquer ação, mas o ambiente somente coopera com a HRAdNet-VE. Se o veículo conectado for líder, remove presença de um veículo conectado em uma via. Caso contrário, o agente não executa qualquer ação, mas o ambiente somente coopera com a HRAdNet-VE. Se for o destino da mensagem de interação, interrompe notificação da presença do veículo na via. Caso contrário, o agente não executa qualquer ação, mas o ambiente somente coopera com a HRAdNet-VE. uma interseção, caso as sinalizações semafóricas desta apresentem ausência de funcionamento. Tabela A.3: Interesses comuns entre agentes Sinalização Semafórica e as ações executadas pelo agente e ou pelo ambiente. Registra presença de um veículo conectado em uma via. Atualiza a quantidade de veículos conectados obtida por um agente no multigrafo utilizado no controle de uma interseção isolada. Tabela A.4: Interesses registrados também em um agente Sinalização Semafórica participante de um sistema coordenado de sinalizações semafóricas e as ações executadas pelo agente e ou pelo ambiente. Reverte todas as arestas de um agente, fazendo o algoritmo SMER para controle de interseções isoladas se comportar como o algoritmo SER. líder de um sistema coordenado de sinalizações semafóricas. Tabela A.5: Interesses registrados também em um agente Sinalização Semafórica líder de um sistema coordenado de sinalizações semafóricas e as ações executadas pelo agente e ou pelo ambiente. LTE Registra a demanda de um agente em um agrupamento de sistemas coordenados de sinalizações semafóricas. Reverte todas as arestas de um agente, fazendo o algoritmo SMER para controle de interseções isoladas se comportar como o algoritmo SER. assim como, dados relativos ao seguimento de via deste participante. um membro do mesmo grupo de sistemas coordenados de sinalizações semafóricas. Tabela A.6: Interesses registrados também em um agente Sinalização Semafórica participante de um sistema coordenado de sinalizações semafóricas e as ações executadas pelo agente e ou pelo ambiente. Tabela A.7: Interesses registrados também em um agente Sinalização Semafórica participante permanente ou temporário de operações de coordenação de sinalizações semafóricas e as ações executadas pelo agente e ou pelo ambiente. Reverte todas as arestas de um agente, fazendo o algoritmo SMER para controle de interseções isoladas se comportar como o algoritmo SER. Algoritmos do Controle de Tráfego Algoritmo 4: Monitoramento de mudança de faixa ou via.219 Apêndice A Interesse NMS TAC Ação Executada roadway vehicle amount 1 LTE corridor vehicle amount 1 LTE Atualiza a demanda de um sis- corridor reversibility - change 1 LTE Encaminha a mensagem para as si- corridor edge reversal 1 LTE Encaminha a mensagem para as si- group member vehicle - amount 1 LTE Encaminha a mensagem para as si- roadway segment vehicle - amount 1 LTE Encaminha a mensagem para as si- nalizações semafóricas. No entanto, se estiver controlando sistemas coor- denados de sinalizações semafóricas, também age como um líder destes sistemas. traffic light coordination 1 LTE Encaminha a mensagem para as si- nalizações semafóricas. traffic light 1 LTE O agente registra os identificadores Interesse NMS TAC Ação Executada roadway presence request 8 IEEE 802.11 roadway leader location 8 IEEE 802.11 vehicle on <id. da via> 8 IEEE 802.11 roadway presence confirma- tion 8 IEEE 802.11 vehicle out <id. da via> 8 IEEE 802.11 roadway ou confirmation 8 IEEE 802.11 intersection control data 1 LTE Obtém os dados de controle de intersection control data re- quest 1 LTE Fornece dados de controle de uma interseção, caso o agente Veículo seja o líder de uma via. Interesse NMS TAC Ação Executada vehicle on <id. da via> 1 IEEE 802.11 vehicle out <id. da via> 1 IEEE 802.11 Remove presença de um veículo em uma via. reversibility change 1 IEEE 802.11 Atualiza reversibilidade de um agente no multigrafo utilizado no controle de uma interseção isolada. edge reversal 1 IEEE 802.11 Reverte arestas de um agente no multigrafo utilizado no controle de uma interseção isolada. roadway vehicle amount 1 IEEE 802.11 Interesse NMS TAC Ação Executada traffic light coordination 1 LTE Escalona ação para participação no sistema coordenado de sinalizações semafóricas. reversal of all edges 1 IEEE 802.11 corridor controller traffic - light 1 LTE O agente registra o identificador do 233 Interesse NMS TAC Ação Executada corridor reversibility - change 1 LTE Atualiza a reversibilidade de um agente no multigrafo de controle de sistemas coordenados de sina- lizações semafóricas. corridor edge reversal 1 LTE Reverte arestas de um agente no multigrafo utilizado no controle de sistemas coordenados de sina- lizações semafóricas. corridor vehicle amount 1 LTE Atualiza a demanda de um agente no multigrafo utilizado no controle de sistemas coordenados de sina- lizações semafóricas. group member vehicle - amount 1 roadway segment vehicle - amount 1 LTE Registra a demanda de um dos seg- mentos de via componentes de um corredor. reversal of all edges 1 IEEE 802.11 corridor participant traffic - light 1 LTE O agente registra o identificador de uma participante do sistema coor- denado de sinalizações semafóricas, group member 1 LTE O agente registra o identificador de 234 Interesse NMS TAC Ação Executada traffic light coordination 1 LTE Escalona ação para participação no sistema coordenado de sinalizações semafóricas. reversal of all edges 1 IEEE 802.11 Reverte todas as arestas de um agente, fazendo o algoritmo SMER para controle de interseções isola- das se comportar como o algoritmo SER. corridor controller traffic - light 1 LTE O agente registra o identificador do líder de um sistema coordenado de sinalizações semafóricas. Interesse NMS TAC Ação Executada participation in traffic - light coordination 1 IEEE 802.11 Prepara o agente para cooperar em interseções partipantes de um ou mais sistemas coordenados de sina- lizações semafóricas. confirmation in traffic - light coordination 1 IEEE 802.11 Confirma a participação de um agente na coordenação de sina- lizações semafóricas. reversal of all edges 1 IEEE 802.11 Apêndice B Tabela C.1: Interesses registrados pelo agente Centro de Controle de Tráfego e as ações executadas pelo agente e ou pelo ambiente. los de indicações de luzes verdes de uma interseção. Em seguida, encaminha a mensagem para os agentes responsáveis pelos controles de interseções. roadway space allocation 1 LTE Atualiza alocações de espaços nas vias. Após isto, encaminha a mensagem para os agentes responsáveis pelos controles de interseções. Tabela C.2: Interesses registrados pelo agente Centro de Controle de Tráfego e as ações executadas pelo agente e ou pelo ambiente. los de indicações de luzes verdes de uma interseção. Em seguida, encaminha a mensagem para os agentes responsáveis pelos controles de interseções. vias. Após isto, encaminha a mensagem para os agentes responsáveis pelos controles de interseções. Tabela C.3: Interesses registrados por um agente Sinalização Semafórica e as ações executadas pelo agente e ou pelo ambiente. encaminha a mensagem de interação para os veículos conectados da via, utilizando uma interface de acessò a comunicação baseada no padrão IEEE 802.11p. new traffic light schedule 1 LTE Gera uma nova agenda de intervalos de indicações de luzes verdes de uma interseção. Em seguida, encaminha a mensagem de interação para os veículos conectados da via, utilizando uma interface de acessò a comunicação baseada no padrão IEEE 802.11p. Fornece dados acerca da onda verde da via. Tabela C.4: Interesses registrados por um agente Veículo e as ações executadas pelo agente e ou pelo ambiente. Extrai e registra interesses relativos a um elemento urbano. Além disto, o ambiente coopera com a HRAdNet-VE. Envia uma mensagem de interação, requisitando um novo cálculo de rotaótima. Além disto, o ambiente coopera com a HRAdNet-VE. Se o agente for o destino da mensagem de interação, ele toma ciência da onda verde. Caso contrário, o agente não executa qualquer ação, mas o ambiente somente coopera com a HAdNet-VE. Registra a presença de um veículo próximo ao veículo conectado do agente. Tabela C.5: Interesses registrados por um agente Sinalização Semafórica e as ações executadas pelo agente e ou pelo ambiente. Calcula uma rotaótima até a via de um elemento urbano. Calcula uma rotaótima até a via de um elemento urbano. route to <id. da via> 1 LTE Calcula uma rotaótima até a via de um elemento urbano. Tabela C.6: Interesses registrados por um agente Veículo e as ações executadas pelo agente e ou pelo ambiente. O agente realiza não qualquer ação, mas o ambiente coopera com a HAdNet-VE. Caso o agente seja o destino da mensagem, ele informa a rota ao motorista. Caso contrário, o agente não qualquer ação, mas o ambiente somente coopera com a HAdNet-VE. Caso o agente seja o destino da mensagem, ele informa a rota ao motorista. Caso contrário, o agente não qualquer ação, mas o ambiente somente coopera com a HAdNet-VE. calculated route to <id. da via> 1 LTE O agente informa a rota ao motorista. Caso contrário, o agente não qualquer ação, mas o ambiente somente coopera com a HAdNet-VE. Algoritmo 37: Enviando mensagens de interação com o interesse urban element data. Tabela E.1: Configurações da camada física relativas as interfaces de acessoà comunicação sem fio baseadas no padrão IEEE 802.11n. Tabela E.2: Configurações do CSMA/CA na camada de enlace das interfaces de acessoà comunicação sem fio baseadas no padrão IEEE 802.11n. Tabela E.3: Configurações da camada física relativas as interfaces de acessoà comunicação sem fio baseadas no padrão IEEE 802.11p. Tabela E.4: Configurações do CSMA/CA na camada de enlace das interfaces de acessoà comunicação sem fio baseadas no padrão IEEE 802.11p. Tabela E.5: Configurações das interfaces de acessoà comunicação sem fio baseadas no padrão LTE usadas pelos nós UE. Tabela E.6: Configurações das interfaces de acessoà comunicação sem fio baseadas no padrão LTE usadas pelo nó eNodeB. Tabela F.1: Identificação dos serviços de dados fornecidos pelas aplicações em experimentos com CCNs. Nome do Serviço de Dados Descrição AD vehicle entering in <id. da Via> Fornece dados acerca da entrada de veículos em uma via de entrada de uma interseção. vehicle leaving <id. da Via> Fornece dados acerca de quais veículos estão deixando uma via de entrada de uma interseção. CSS ack vehicle entering in <id. da Via> Fornece o reconhecimento do recebimento dos dados acerca da entrada de veículos em uma via de entrada de uma interseção. ack vehicle leaving <id. da Via> Fornece o reconhecimento do recebimento dos dados relativos aos veículos que deixam uma via de entrada de uma interseção. Tabela F.2: Definição dos interesses registrados pelas aplicações em experimentos com a RAdNet-VE e RAdNet. do Serviço de Dados Interesse vehicle entering in <id. da Via> vehicle entering in <id. da Via> req vehicle entering in <id. da Via> data vehicle leaving <id. da Via> vehicle leaving <id. da Via> req vehicle leaving <id. da Via> data ack vehicle entering in <id. da Via> ack vehicle entering in <id. da Via> req ack vehicle entering in <id. da Via> data ack vehicle leaving <id. da Via> ack vehicle leaving <id. da Via> req ack vehicle leaving <id. da Via> data Tabela F.3: Definições de números máximos de saltos e direções de propagação de mensagens de rede para experimentos com RAdNet-VE. ack vehicle entering in <id. da Via> req 5 1 ack vehicle entering in <id. da Via> data Tabela F.4: Configurações dos interesses registrados pelos agentes Veículo durante os experimentos, contendo tecnologia de acesso a comunicação (TAC), número máximo de saltos (NMS), direção de propagação da mensagem de rede (DIR) e o tipo do interesse (C -Controle ou D -Dados) calculated route to <id. da via> IEEE 802.11n 8 -1 C calculated route to <id. da via> IEEE 802.11p Tabela F.5: Configurações dos interesses registrados por todos os agentes Sinalização Semafórica, contendo tecnologia de acesso a comunicação (TAC), número máximo de saltos (NMS), direção de propagação da mensagem de rede (DIR) e o tipo do interesse (C -Controle ou D -Dados) Tabela F.6: Configurações dos interesses registrados somente pelos agentes Sinalização Semafórica controladores de um sistema coordenado de sinalizações semafóricas, contendo tecnologia de acesso a comunicação (TAC), número máximo de saltos (NMS), direção de propagação da mensagem de rede (DIR) e o tipo do interesse (C -Controle ou D -Dados) Tabela F.7: Configurações dos interesses registrados somente pelos agentes Sinalização Semafórica participantes de um sistema coordenado de sinalizações semafóricas, contendo tecnologia de acesso a comunicação (TAC), número máximo de saltos (NMS), direção de propagação da mensagem de rede (DIR) e o tipo do interesse (C -Controle ou D -Dados) Tabela F.8: Configurações de interesses registrados pelo agente Centro de Controle de Tráfego, contendo tecnologia de acesso a comunicação (TAC), número máximo de saltos (NMS), direção de propagação da mensagem de rede (DIR) e o tipo do interesse (C -Controle ou D -Dados)Interesse NMS TAC Ação Executada urban element data 1 LTE Encaminha a mensagem para os agentes responsáveis pelos controles de interseções. new traffic light schedule 1 LTE Gera uma nova agenda de interva- 248 Interesse NMS TAC Ação Executada urban element data 1 LTE Encaminha a mensagem para os agentes responsáveis pelos controles de interseções. new traffic light schedule 1 LTE Gera uma nova agenda de interva- roadway space allocation 1 LTE Atualiza alocações de espaços nas Interesse NMS TAC Ação Executada urban element data 1 LTE Extrai e registra interesses relativos a um elemento urbano. Em seguida, roadway space allocation 1 LTE Atualiza alocações de espaços nas vias. green wave request 1 IEEE 802.11 249 Interesse NMS TAC Ação Executada urban element data 4 IEEE 802.11p new traffic light schedule 4 IEEE 802.11p green wave request 8 IEEE 802.11 O agente não executa qualquer ação, mas o ambiente somente coopera com a HAdNet-VE. green wave 8 IEEE 802.11 hello 1 IEEE 802.11 Interesse NMS TAC Ação Executada route to <id. da via> 1 IEEE 802.11 route to <id. da via> 1 IEEE 802.11p 250 Interesse NMS TAC Ação Executada route to <id. da via> 8 IEEE 802.11 route to <id. da via> 4 IEEE 802.11p O agente realiza não qualquer ação, mas o ambiente coopera com a HAdNet-VE. calculated route to <id. da via> 8 IEEE 802.11 calculated route to <id. da via> 4 IEEE 802.11p Apêndice D Algoritmos do Planejamento e Orientação de Rotas Parâmetros de Rede para a HRAdNet-VE Parâmetro Valor Potência de transmissão 158.48mW Limite de atenuação de sinal -90dBm Frequência 5.0 GHz Ruído térmico -160dbm Sensibilidade da antena -87dBm Tamanho do cabeçalho 128 bits Alcance de comunicação 200m Parâmetro Valor Tamanho da fila 100 Duração do slot 0.0005s Difs 0.00011s Número de tentativas de retransmissão 14 Taxa de transmissão 11.35 Mbps Tamanho da janela de contenção 20 Tamanho do cabeçalho MAC 256 bits 258 Parâmetro Valor Potência de transmissão 20mW Limite da atenuação de sinal -89dBm Frequência 5.89 GHz Ruído térmico -110dbm Sensibilidade da camada física -89dBm Tamanho do cabeçalho PHY 46 bits Alcance do rádio 500m Parâmetro Valor Duração do slot 0.00013s Difs 0.00032s Taxa de transmissão 18 Mbps Tamanho da janela de contenção 15s Tamanho do cabeçalho MAC 256 bits Parâmetro Valor Potência de transmissão 251,18mW Modelo de macrocélula RURAL MACROCELL [92] Frequência 2.1 GHz Largura de banda 10 MHz BLER (Block Error Rate) 0.001 Redução HARQ 0.2 Ruído térmico -104.5 dBm Figura de ruído 7 dB Sensibilidade da antena -107.5 dBm Alcance de comunicação 5000m 259 Parâmetro Valor Potência de transmissão 10W Modelo de macrocélula RURAL MACROCELL [92] Frequência 2.1 GHz Largura de banda 10 MHz BLER (Block Error Rate) 0.001 Redução HARQ 0.2 Ruído térmico -118.4 dBm Figura de ruído 2 dB Sensibilidade da antena -123.4 dBm Ganho da antena 18 dBi Perda do cabo 2 dB Alcance de Comunicação 5000m Altura 170m Apêndice F Configurações de Interesses Adotadas em Experimentos Aplicação NO obstacle Fornece dados relativos ao obstáculo no segmento de estrada. CACC presence Fornece dados sobre a presença de veículos em uma vizinhança. state Fornece dados relativos a veículos conectados posicionados imediatamenteà frente em uma via. 261 Nome obstacle obstacle req obstacle data presence presence req presence data state state req state data Interesse Número Máximo de Saltos Direção vehicle entering in <id. da Via> req 5 -1 vehicle entering in <id. da Via> data 5 1 vehicle leaving <id. da Via> req 5 1 vehicle leaving <id. da Via> data 5 -1 5 -1 ack vehicle leaving <id. da Via> req 5 -1 ack vehicle leaving <id. da Via> data 5 1 obstacle req 50 1 obstacle data 50 -1 presence req 1 0 presence data 1 0 state req 1 1 state data 1 -1 262 Interesse TAC NMS DIR Tipo hello IEEE 802.11n 1 0 D hello IEEE 802.11p 1 0 D vehicle on <id. da via> IEEE 802.11n 8 1 D vehicle out <id. da via> IEEE 802.11n 8 -1 D roadway presence request IEEE 802.11n 8 1 e -1 D roadway presence confirmation IEEE 802.11n 8 1 D roadway left confirmation IEEE 802.11n 8 -1 D urban element data IEEE 802.11n 8 -1 C urban element data IEEE 802.11p 4 -1 C route to <id. da via> IEEE 802.11n 8 1 C route to <id. da via> IEEE 802.11p 4 1 C 4 -1 C calculated route to <id. da via> LTE 1 0 C new traffic light schedule IEEE 802.11n 8 -1 C new traffic light schedule IEEE 802.11p 4 -1 C green wave request IEEE 802.11n 8 1 C green wave IEEE 802.11n 8 -1 C intersection control data LTE 1 0 C vehicle position IEEE 802.11n 8 0 D intersection control data request LTE 1 0 C Interesse TAC NMS DIR Tipo vehicle on <id. da via> IEEE 802.11n 1 1 D vehicle out <id. da via> IEEE 802.11n 1 -1 D reversibility change IEEE 802.11n 1 0 C edge reversal IEEE 802.11n 1 0 C roadway vehicle amount IEEE 802.11n 1 0 D urban element data LTE 1 0 C route to <id. da via> IEEE 802.11n 1 1 C route to <id. da via> IEEE 802.11p 1 1 C route to <id. da via> LTE 1 0 C new traffic light schedule LTE 1 0 C roadway space allocation LTE 1 0 C Interesse TAC NMS DIR Tipo corridor reversibility change LTE 1 0 C corridor edge reversal LTE 1 0 C corridor vehicle amount LTE 1 0 C group member vehicle amount LTE 1 0 D roadway segment vehicle amount LTE 1 0 D group member LTE 1 0 D reversal of all edges IEEE 802.11n 1 0 C 264 Interesse TAC NMS DIR Tipo traffic light coordination LTE 1 0 C participation in traffic light coordination IEEE 802.11n 1 0 D confirmation in traffic light coordination IEEE 802.11n 1 0 D corridor controller traffic light LTE 1 0 D reversal of all edges IEEE 802.11n 1 0 C Interesse TAC NMS DIR Tipo urban element data LTE 1 0 C corridor reversibility change LTE 1 0 C corridor edge reversal LTE 1 0 C corridor vehicle amount LTE 1 0 C group member vehicle amount LTE 1 0 D roadway segment vehicle amount LTE 1 0 D group member LTE 1 0 D traffic light coordination LTE 1 0 C corridor controller traffic light LTE 1 0 D intersection control data request LTE 1 0 C intersection control data LTE 1 0 C calculated route to <id. da via> LTE 1 0 C route to <id. da via> LTE 1 0 C new traffic light schedule LTE 1 0 C roadway space allocation LTE 1 0 C traffic litht LTE 1 0 C . Criar um protocolo de comunicação para ambientes de redes veiculares heterogêneas, a fim de satisfazer os requisitos de comunicação de aplicações de serviços de sistemas inteligentes de transporte, que são: baixa latência de comunicação entre nós, altas taxas de entrega de dados, escopos de comunicação bem definidos, escalabilidade e baixo custo de comunicação de estruturas de grupos[43][30].3. Controlar interseções de uma rede viária por meio de sinalizações semafóricas, utilizando uma estratégia de controle distribuído, que faz uso de cooperações entre veículos conectados e sinalizações semafóricas em um ambiente veicular, a fim de detectar flutuações de tráfego nas vias de entrada das interseções e, com base nestas flutuações, realizar os ajustes dos tamanhos dos intervalos de luzes de maneiraótima;4. Controlar interseções compartilhadas entre sistemas coordenados de sinalizações semafóricas, utilizando uma estratégia de controle distribuído baseada na cooperação entre as sinalizações semafóricas pertencentesà infraestrutura de controle de controle de tráfego de uma rede viária, a fim de fornecer acesso ininterrupto a pelotões de veículos em interseções participantes de corredores, onde as sinalizações semafóricas têm seus intervalos de luzes verdes sincronizados uns com os outros; encaminhamento[7,8]. Na RAdNet, os nós não precisam determinar qual vizinho deve receber mensagens. Antes de encaminhar mensagens, cada nó toma sua própria decisão de encaminhamento de mensagem, usando critérios definidos em um filtro de casamento de dados.4.1.2 Estruturas de Dados da RAdNetNa RAdNet, cada nó define seu Prefixo Ativo, queé uma estrutura de dados simples, implementada na camada de rede de cada nó. Esta, por sua vez,é dividida em dois campos, como pode ser visto na Figura 4.1. O primeiro campoé o Prefixo do Nó, queé composto por campos escolhidos probabilisticamente. O Prefixo do Nesta seção, são apresentados brevemente os detalhes acerca do trabalho desenvolvido por FARIA[45]. Inicialmente,é descrito um algoritmo de cálculoótimo de rotas que tira proveito dos planos de temporização das sinalizações semafóricas, a fim de determinar a rota temporalmente mais curta entre uma interseção de origem até uma interseção de destino. Após isto,é apresentado um mecanismo de alocação de espaços nas vias de entrada de interseções sinalizadas. Este mecanismoé utilizado para estender o algoritmo de cálculo de rotasótimas apresentado inicialmente. Por fim,é apresentada uma extensão do modelo Intelligent Driver Model. Por meio desta extensão, veículos podem alterar seus comportamentos em função da presença de ondas verdes nas vias em que eles estão trafegando. RAdNet-VE seja utilizado em uma rede ad hoc veicular heterogênea,é necessário inicialmente identificar as tecnologias de acessoà comunicação sem fio, para que o protocolo de comunicação da RAdNet-VE tenha que lidar somente com mensagens de rede, sem conhecer qualquer detalhe tecnológico acerca do envio e recebimento de mensagens. Para tanto, o cabeçalho de mensagens da RAdNet-VE deve sofrer uma extensão, de modo que um cabeçalho de rede específico para a HRAdNet-VE seja criado. Portanto, esta extensão consiste na adição de um campo cujo nomeé tecnologia de acessoà comunicação the (8 bits). O campo tecnologia de acessoà comunicação deve ser utilizado para identificar a tecnologia de acessoà comunicação sem fio de uma interface de comunicação.Uma vez que as tecnologias de acessoà comunicação sem fio tenham sido identificadas,é possível isolar os detalhes de cada em componentes de software de responsabilidades bem definida. Tais responsabilidades estão relacionadas ao envio e recebimento de mensagens por meio das interfaces de acessoà comunicação sem fio instaladas nos nós. Para tanto, a camada de rede do nó deve ser capaz de instanciar tais componentes, conforme a disponibilidade das interfaces de acessoà comunicação sem fio. Tais componentes devem ser construídos a partir do uso de padrões de pro- identificação da interseção, periodicidade de obtenção de dados, quantidade de obtenções de dados, tempo mínimo do intervalo de verde, tempo máximo do intervalo de verde, tempo do intervalo de amarelo, tempo de vermelho geral, via de entrada da interseção, grafo de controle utilizado durante a execução do algoritmo SMER para controle de interseções isoladas, comprimento daárea para monitoramento fluxo de tráfego, e número de sinalizações semafóricas da interseção. Após isto, a atenção do engenheiro de tráfego deve se voltar para a atribuição de valores dos parâmetros de configuração de performance dos agentes Sinalização Semafórica controladores de sistemas coordenados de sinalizações semafóricas. Neste sentido, ele deve atribuir valores aos seguintes parâmetros: identificador do corredor contendo as sinalizações semafóricas, grafo de controle utilizado pelo algoritmo SMER para controle de sistemas coordenados de sinalização semafórica, número mínimo de ciclos por operação de coordenação de sinalizações semafóricas e número máximo de ciclos operação de coordenação de sinalizações semafóricas, periodicidade de compartilhamento de médias de quantidades veículos de um grupo de sistemas coordenados de sinalizações semafóricas e periodicidade de atualização de demandas de corredores de sistemas coordenados de sinalizações semafórica. No que tange lista de participantes do sistema coordenado de sinalizações semafóricas, seguimentos de via componentes do corredor, e lista de identificações de corredores agrupados, estes são configurados automaticamente,à medida que os agentes envia mensagens de interação, contendo os interesses corridor participant traffic light e group member. Por fim, o engenheiro de tráfego finaliza a etapa de atribuição de valores de parâmetros de configuração de performance, atribuindo os valores dos parâmetros relativos aos agentes Sinalização Semafórica participantes de sistemas coordenados de sinalizações semafóricas. Sendo assim, o engenheiro de tráfego atribui valores ao atributo identificador do corredor. Os identificadores dos controladores dos sistemas coordenados de sinalização semafóricas são registrados automaticamente,à medida que os agentes controladores de sistemas coordenados de sinalizações semafóricas enviam mensagens de interação, contendo o interesse corridor controller traffic light. Por fim, os agentes Sinalização Semafórica interagem com o agente Centro de Controle de Tráfego, enviando mensagens de interação com o interesse traffic light, a fim No Capítulo 7, foi apresentada uma proposta de controle de interseções por meio de veículos conectados, quando as sinalizações destas apresentarem uma ausência de funcionamento. Nesta proposta, um veículo conectadoé escolhido como o líder na via onde ele e outros veículos estão trafegando. Com base nisto, o agente deste veículo conectado assume a responsabilidade de controlar a interseção durante um intervalo de tempo. Após a sinalização semafórica virtual indicar luz verde, tal responsabilidadeé transferido para outro agente Veículo, que, por sua vez, está em um veículo conectado cuja via está recebendo luz vermelha da sinalização virtual. Quando isto acontece, os agentes veículo conectado interagem, compartilhando os dados de controle da interseção, de modo que o próximo agente responsável pelo controle da interseção possa mantê-los, enquanto a sinalização semafórica virtual estiver indicando luz vermelha. Juntamente com os dados de controle da interseção, o agente veículo conectado também compartilha as agendas de intervalos de indicações de luzes verdes mantidas por ele. Desta forma, as agendas de intervalos de luzes verdes podem ser mantidas, sem necessariamente ter uma um agente Sinalização Semafórica responsável em mantê-las.8.3.7 Veículos Conectados Cientes de Intervalos de Indicações de Luzes VerdesUma vez que os agentes responsáveis pelo controle de uma interseção são cientes dos estados de controle da interseção, eles podem tornar os agentes Veículos cientes dos estados dos intervalos de indicações de luzes verdes. Em outras palavras, os agentes Veículos podem saber quanto tempo falta para terminar ou iniciar um intervalo de indicação de luz verde na via em que ele está. Com esta informação, os agentes Veículo podem orientar os motoristas de seus veículos conectados, quanto a tomada de decisão, no que diz respeito a aumentar ou diminuir a velocidade destes, a fim de alcançar a janela de tempo definida por um intervalo de indicação de luz verde para uma via. Segundo PAIVA[2], tal janela de tempo define uma onda verde.Para representar esta onda verde, os agentes responsáveis pelo controle de uma interseção usam os seguintes dados: posições geográficas do início das ondas verdes (posição do início dasáreas de monitoramento de tráfego) (posInicioOndasVerdes i ), sinais de x (sinaisX i ), sinais de y (sinaisY i ) eângulos das vias (angulosVias i ). Com .4 Considerações FinaisEste capítulo apresentou a estratégia, proposta por esta tese, para tratar o problema de planejamento e orientação de rotas, bem como, os detalhamentos acerca de sua implementação sobre uma rede ad hoc veicular heterogênea centrada em interesses. Tal estratégiaé capaz de criar agendas globais de intervalos de indicações de intervalos de luzes verdes. Estes intervalos indicam a disponibilidade das vias de interesse := "urban element data"; 2 params := { "interessesUsuario", listaIntUsuarios i , "idVia", idVia i }; 3 Msg i := interesse, nulo, nulo, 0, "LTE", params ; 4 enviar Msg i ; . Cohda Wireless, COHDA WIRELESS. "Hardware". Disponível em: http://cohdawireless.com/Products/Hardware.aspx. Acessado em: 3 de junho de 2017, 2016. Controle Distribuído de Tráfego com Fluxos Heterogêneos. L M Paiva, BrasilTese de Mestrado, Universidade Federal do Rio de Janeiro, Rio de JaneiroPAIVA, L. M. Controle Distribuído de Tráfego com Fluxos Heterogêneos. Tese de Mestrado, Universidade Federal do Rio de Janeiro, Rio de Janeiro, Brasil, 2012. Operation, Analysis, and Design of Signalized Intersections: A Module for the Introductory Course in Transportation Engineering. M Kyte, M Tribelhorn, Midletown, USAKYTE, M., TRIBELHORN, M. Operation, Analysis, and Design of Signalized Intersections: A Module for the Introductory Course in Transportation Engineering. Midletown, USA, 2014. An Introduction to Distributed Algorithms. V C Barobosa, Massachussets. MIT PressBAROBOSA, V. C. An Introduction to Distributed Algorithms. Massachussets, USA, MIT Press, 2016. Escalonamento Distribuído Livre de Colisões para Redes de Sensores sem Fio com Múltiplas Fontes. Tese de Doutorado. A A D Santos, BrasilUniversidade Federal do Rio de Janeiro, Rio de JaneiroSANTOS, A. A. D. Escalonamento Distribuído Livre de Colisões para Redes de Sensores sem Fio com Múltiplas Fontes. Tese de Doutorado, Universidade Federal do Rio de Janeiro, Rio de Janeiro, Brasil, 2012. Genetic Algorithms in Engineering Systems, The Institution of Electrical Engineers. T Yamada, R Nakano, Zalzala, A., Fleming, P.Job-Shop SchedulingYAMADA, T., NAKANO, R. "Job-Shop Scheduling". In: Zalzala, A., Fleming, P. (Eds.), Genetic Algorithms in Engineering Systems, The Institution of Electrical Engineers, pp. 134-160, 1997. ISBN: 0 85296 902 3. Interest-Centric Mobile Ad Hoc Networks. R C Dutra, H F Moraes, C L Amorim, Proceedings of the 11th IEEE International Symposium on Network Computing and Applications. the 11th IEEE International Symposium on Network Computing and ApplicationsCambridge, MA, USADUTRA, R. C., MORAES, H. F., AMORIM, C. L. "Interest-Centric Mobile Ad Hoc Networks". In: Proceedings of the 11th IEEE International Sympo- sium on Network Computing and Applications, pp. 130-138, Cambridge, MA, USA, August 2012. REPI: Rede de Comunicação Endereçada por Interesses. R C Dutra, R S Granja, H F Moraes, Anais do VI Workshop de Redes Dinâmicas e Sistemas Peer-to-Peer. Gramado, RG, Brasil, MaioDUTRA, R. C., GRANJA, R. S., MORAES, H. F., et al. "REPI: Rede de Comunicação Endereçada por Interesses". In: Anais do VI Workshop de Redes Dinâmicas e Sistemas Peer-to-Peer, pp. 99-112, Gramado, RG, Brasil, Maio 2010. Introduction to Intelligent Systems in Traffic and Transportation. A L C Bazzan, F Klügl, Lexington, KY, USA, Morgan & ClaypoolBAZZAN, A. L. C., KLÜGL, F. Introduction to Intelligent Systems in Traffic and Transportation. Lexington, KY, USA, Morgan & Claypool, 2014. Research on Red Wave and Green Wave Coordinated Control Model in Arterial Road for Different Traffic Demands. S Zheng, J Xu, Proceedings of the International Conference on Multimedia Technology. the International Conference on Multimedia TechnologyGuangzhou, ChinaZHENG, S., XU, J. "Research on Red Wave and Green Wave Coordinated Control Model in Arterial Road for Different Traffic Demands". In: Pro- ceedings of the International Conference on Multimedia Technology, pp. 1661-1664, Guangzhou, China, 2011. Opportunities for Multiagent Systems and Multiagent Reinforcement Learning in Traffic Control. A L Bazzan, Autonomous Systems and Multiagent Systems, v. 18BAZZAN, A. L. C. "Opportunities for Multiagent Systems and Multiagent Reinforcement Learning in Traffic Control", Autonomous Systems and Multiagent Systems, v. Vol. 18, n. 3, pp. 342-375, 2009. Using Cooperative Mediation ro Coordinate Traffic Lights: A case study. D De Oliveira, A Bazzan, V Lesser, Proceedings of the International Joint Conference on Autonomous Agents and Multiagent Systems. the International Joint Conference on Autonomous Agents and Multiagent SystemsUtrechtDE OLIVEIRA, D., BAZZAN, A., LESSER, V. "Using Cooperative Media- tion ro Coordinate Traffic Lights: A case study". In: Proceedings of the International Joint Conference on Autonomous Agents and Multiagent Systems, pp. 463-470, Utrecht, 2005. CoSIGN: A Parallel Algorithm for Coordinated Traffic Signal Control. S Cheng, M Epelman, R Smith, IEEE Transactions on Intelligent Transportation Systems, v. 74CHENG, S., EPELMAN, M., SMITH, R. "CoSIGN: A Parallel Algorithm for Coordinated Traffic Signal Control", IEEE Transactions on Intelligent Transportation Systems, v. Vol. 7, n. 4, pp. 551-564, 2006. Bilevel Programming in Traffic Planning: Models, Methods and Challenge. A Migdalas, Journal of Global Optimization, v. 7MIGDALAS, A. "Bilevel Programming in Traffic Planning: Models, Methods and Challenge", Journal of Global Optimization, v. Vol. 7, pp. 381-405, 1995. Theory of Self-Organized Traffic at Signal Light. B S Kerner, KERNER, B. S. "Theory of Self-Organized Traffic at Signal Light". Disponível em: http://arxiv.org/abs/1211.2535. Acessado em: 3 de junho de 2017, 2012. Platoon-Based Sef-Scheduling for Real Time Traffic Signal Control. X.-F Xie, G J Barlow, S F Smith, Proceedings of 14th International Conference on Intelligent Transportation Systems. 14th International Conference on Intelligent Transportation SystemsWashington, DC, USAXIE, X.-F., BARLOW, G. J., SMITH, S. F., et al. "Platoon-Based Sef- Scheduling for Real Time Traffic Signal Control". In: Proceedings of 14th International Conference on Intelligent Transportation Systems, pp. 879- 884, Washington, DC, USA, October 2011. Sef-Scheduling Agents for Real Time Traffic Signal Control. X.-F Xie, G J Barlow, S F Smith, CMU-RI-TR-11-06PA, USARobotics Institute -Carnegie Mellon University, PitsburgRelatório Técnico Technical ReportXIE, X.-F., BARLOW, G. J., SMITH, S. F., et al. Sef-Scheduling Agents for Real Time Traffic Signal Control. Relatório Técnico Technical Report CMU-RI-TR-11-06, Robotics Institute -Carnegie Mellon University, Pits- burg, PA, USA, 2011. Self-Organizing Traffic Lights. C Gerhenson, Complex Systems, v. 16GERHENSON, C. "Self-Organizing Traffic Lights", Complex Systems, v. Vol. 16, pp. 29-53, 2005. An Evaluation of the Efficiency of Self-Organizing versus Fixed Traffic Signalling Paradigms. M D Einhorn, Tese de Mestrado, Stellenbosch University. EINHORN, M. D. An Evaluation of the Efficiency of Self-Organizing versus Fixed Traffic Signalling Paradigms. Tese de Mestrado, Stellenbosch Uni- versity, Stellenbosch, South Africa, 2012. Urban Traffic Control System Using Self-Organizing. G Slager, M Milano, Proceedings of the IEEE International Conference on Intelligent Transportation Systems. the IEEE International Conference on Intelligent Transportation SystemsMadeira IslandPortugalSLAGER, G., MILANO, M. "Urban Traffic Control System Using Self- Organizing". In: Proceedings of the IEEE International Conference on Intelligent Transportation Systems, pp. 255-260, Madeira Island, Portu- gal, 2010. Operation Regimes and Slower-Faster Effect in the Control of Traffic Intersections. D Helbing, A Mazloumian, European Physical Journaul B, v. 702HELBING, D., MAZLOUMIAN, A. "Operation Regimes and Slower-Faster Effect in the Control of Traffic Intersections", European Physical Journaul B, v. Vol. 70, n. 2, pp. 257-274, 2009. Self-Control of Traffic Lights and Vehicle Flows in Urban Road Networks. S Lämmer, D Helbing, Journal of Statistical Mechanic: Theory and Expirement. LÄMMER, S., HELBING, D. "Self-Control of Traffic Lights and Vehicle Flows in Urban Road Networks", Journal of Statistical Mechanic: Theory and Expirement, pp. 4-19, 2008. A study on gossiping in transportation networks. S Kraus, R Parshani, Y Shavit, IEEE Transactions on Vehicular Technology, v. 574KRAUS, S., PARSHANI, R., SHAVIT, Y. "A study on gossiping in transpor- tation networks", IEEE Transactions on Vehicular Technology, v. Vol. 57, n. 4, pp. 2602-2607, 2008. On the effectiveness of an opportunistic traffic management system for vehicular networks. I Leontiadis, G Marfia, D Mack, IEEE Transactions on Intelligent Transportation Systems, v. 124LEONTIADIS, I., MARFIA, G., MACK, D., et al. "On the effectiveness of an opportunistic traffic management system for vehicular networks", IEEE Transactions on Intelligent Transportation Systems, v. Vol. 12, n. 4, pp. 1537-1548, 2011. V2x-based traffic congestion recognition and avoidance, year =2009. B Schünemman, J W Wedel, I Radush, Proceedings of 10th International Symposium on Pervasive Systems, Algorithms, and Networks, address = Kaohsiung. 10th International Symposium on Pervasive Systems, Algorithms, and Networks, address = KaohsiungTaiwanSCHÜNEMMAN, B., WEDEL, J. W., RADUSH, I. "V2x-based traffic con- gestion recognition and avoidance, year =2009, booktitle = Proceedings of 10th International Symposium on Pervasive Systems, Algorithms, and Networks, address = Kaohsiung, Taiwan, pages = 637-641". . BeeJamA: A Distributed, Self-Adaptive Vehicle Routing Guidance Approach. H F Wedde, S Senge, IEEE Transactions on Intelligent Transportation Systems, v. 144WEDDE, H. F., SENGE, S. "BeeJamA: A Distributed, Self-Adaptive Vehicle Routing Guidance Approach", IEEE Transactions on Intelligent Trans- portation Systems, v. Vol. 14, n. 4, pp. 1882-1895, 2013. A Decentralized Approach for Anticipatory Vehicle Routing Using Delegate Multiagent Systems. R Claes, T Holvoet, D Weyns, Transactions on Intelligent Transportation Systems, v. 122CLAES, R., HOLVOET, T., WEYNS, D. "A Decentralized Approach for An- ticipatory Vehicle Routing Using Delegate Multiagent Systems", Tran- sactions on Intelligent Transportation Systems, v. 12, n. 2, pp. 364-373, 2011. 802.11: Wireless LANs. Ieee, Standards Association, IEEE STANDARDS ASSOCIATION. "802.11: Wireless LANs". Disponível em: http://standards.ieee.org/about/get/802/802.11.html. Acessado em: 3 de junho de 2017, 2012a. . Ieee, Standards Association, 802IEEE STANDARDS ASSOCIATION. "802.11p-2010". Disponível em: http://standards.ieee.org/findstds/standard/802.11p-2010.html. Aces- sado em: 3 de junho de 2017, 2010. Heterogeneous Vehicular Networking: A Survey on Architecture, Challenges and Solutions. K Zheng, Q Zheng, P Chatzimisios, IEEE Communications & Tutorials, v. 17ZHENG, K., ZHENG, Q., CHATZIMISIOS, P., et al. "Heterogeneous Vehicular Networking: A Survey on Architecture, Challenges and Solutions", IEEE Communications & Tutorials, v. Vol. 17, pp. 2377-2396, 2015. . C Sommer, F Dressler, Vehicular, Networking, Cambridge University PressCambridge, UKSOMMER, C., DRESSLER, F. Vehicular Networking. Cambridge, UK, Cam- bridge University Press, 2015. Exploiting the wisdom of the crowd: localized, distributed information-centric VANETs. F Bai, B Krishnamachari, Communications Magazine. 5IEEETopics in Automotive NetworkingBAI, F., KRISHNAMACHARI, B. "Exploiting the wisdom of the crowd: lo- calized, distributed information-centric VANETs [Topics in Automotive Networking]", Communications Magazine, IEEE, v. 48, n. 5, pp. 138- 146, May 2010. A survey of information-centric networking. B Ahlgren, C Dannewitz, C Imbrenda, IEEE Communications Magazine, v. 50, n. 7AHLGREN, B., DANNEWITZ, C., IMBRENDA, C., et al. "A survey of information-centric networking", IEEE Communications Magazine, v. 50, n. 7, pp. 26-36, July 2012. A Self-organizing Content Centric Network Model for Hybrid Vehicular Ad-hoc Networks. G Arnould, D Khadraoui, Z Habbas, http:/doi.acm.org/10.1145/2069000.2069004Proceedings of the First ACM International Symposium on Design and Analysis of Intelligent Vehicular Networks and Applications, DIVA-Net '11. the First ACM International Symposium on Design and Analysis of Intelligent Vehicular Networks and Applications, DIVA-Net '11New York, NY, USAACMDisponível em: <httpARNOULD, G., KHADRAOUI, D., HABBAS, Z. "A Self-organizing Con- tent Centric Network Model for Hybrid Vehicular Ad-hoc Networks". In: Proceedings of the First ACM International Symposium on Design and Analysis of Intelligent Vehicular Networks and Applications, DIVA- Net '11, pp. 15-22, New York, NY, USA, 2011. ACM. ISBN: 978-1- 4503-0904-2. doi: 10.1145/2069000.2069004. Disponível em: <http: . // Doi, http:/doi.acm.org/10.1145/2069000.2069004//doi.acm.org/10.1145/2069000.2069004>. CRoWN: Content-Centric Networking in Vehicular Ad Hoc Networks. M Amadeo, C Campolo, A Molinaro, 10.1109/LCOMM.2012.072012.120282Communications Letters. 9IEEEAMADEO, M., CAMPOLO, C., MOLINARO, A. "CRoWN: Content-Centric Networking in Vehicular Ad Hoc Networks", Communications Letters, IEEE, v. 16, n. 9, pp. 1380-1383, September 2012. ISSN: 1089-7798. doi: 10.1109/LCOMM.2012.072012.120282. Enhancing content-centric networking for vehicular environments. M Amadeo, C Campolo, A Molinaro, Computer Networks, v. 57, n. 16AMADEO, M., CAMPOLO, C., MOLINARO, A. "Enhancing content-centric networking for vehicular environments", Computer Networks, v. 57, n. 16, pp. 3222 -3234, 2013. ISSN: 1389-1286. Data naming in Vehicleto-Vehicle communications. L Wang, R Wakikawa, R Kuntz, Computer Communications Workshops (INFOCOM WKSHPS), 2012 IEEE Conference on. WANG, L., WAKIKAWA, R., KUNTZ, R., et al. "Data naming in Vehicle- to-Vehicle communications". In: Computer Communications Workshops (INFOCOM WKSHPS), 2012 IEEE Conference on, pp. 328-333, March 2012. Rapid Traffic Information Dissemination Using Named Data. L Wang, A Afanasyev, R Kuntz, http:/doi.acm.org/10.1145/2248361.2248365Proceedings of the 1st ACM Workshop on Emerging Name-Oriented Mobile Networking Design -Architecture, Algorithms, and Applications, NoM '12. the 1st ACM Workshop on Emerging Name-Oriented Mobile Networking Design -Architecture, Algorithms, and Applications, NoM '12New York, NY, USAWANG, L., AFANASYEV, A., KUNTZ, R., et al. "Rapid Traffic Infor- mation Dissemination Using Named Data". In: Proceedings of the 1st ACM Workshop on Emerging Name-Oriented Mobile Networking De- sign -Architecture, Algorithms, and Applications, NoM '12, pp. 7-12, New York, NY, USA, 2012. ACM. ISBN: 978-1-4503-1291-2. doi: 10.1145/2248361.2248365. Disponível em: <http://doi.acm.org/10. 1145/2248361.2248365>. Highly dynamic Destination-Sequenced Distance-Vector routing (DSDV) for mobile computers. C E Perkins, P Baghwat, Proceedings of the Conference on Communications architectures, Protocols and Applications. the Conference on Communications architectures, Protocols and ApplicationsNew York, NY, USAPERKINS, C. E., BAGHWAT, P. "Highly dynamic Destination-Sequenced Distance-Vector routing (DSDV) for mobile computers". In: Proceedings of the Conference on Communications architectures, Protocols and Appli- cations, pp. 234-244, New York, NY, USA, August 1994. Dynamic Source Routing in Ad Hoc Networks. D B Jhonson, D A Maltz, 353Mobile Computing, vJHONSON, D. B., MALTZ, D. A. "Dynamic Source Routing in Ad Hoc Networks", Mobile Computing, v. 353, pp. 153-181, 1996. GPSR: Greedy Perimeter Stateless Routing for Wireless Networks. B Karp, H Kung, Proceedings of the 6th Annual International Conference on Mobile Computing and Networking, MobiCom '00. the 6th Annual International Conference on Mobile Computing and Networking, MobiCom '00New York, NY, USAKARP, B., KUNG, H. T. "GPSR: Greedy Perimeter Stateless Routing for Wi- reless Networks". In: Proceedings of the 6th Annual International Confe- rence on Mobile Computing and Networking, MobiCom '00, pp. 243-254, New York, NY, USA, 2000. ISBN: 1-58113-197-6. Scalable VANET content routing using hierarchical bloom filters. Y.-T Yu, X Li, M Gerla, Wireless Communications and Mobile Computing Conference (IWCMC). 9th InternationalYU, Y.-T., LI, X., GERLA, M., et al. "Scalable VANET content routing using hierarchical bloom filters". In: Wireless Communications and Mo- bile Computing Conference (IWCMC), 2013 9th International, pp. 1629- 1634, July 2013. A Survey of Inter-Vehicule Communication Protocols and Their Applications. T L Willke, P Tientrakool, N F Maxemchuk, IEEE Communications Surveys and Tutorials, v. 112WILLKE, T. L., TIENTRAKOOL, P., MAXEMCHUK, N. F. "A Survey of Inter-Vehicule Communication Protocols and Their Applications", IEEE Communications Surveys and Tutorials, v. Vol. 11, n. 2, pp. 3-20, 2009. Interestcentric vehicular ad hoc network. F B Gonç Alves, F M G Franç A, C L De Amorim, 10.1109/WiMOB.2016.7763222Proceedings of the 12th IEEE International Conference on Wireless and Mobile Computing, Networking and Communications (WiMob). the 12th IEEE International Conference on Wireless and Mobile Computing, Networking and Communications (WiMob)NY, NY, USAGONÇ ALVES, F. B., FRANÇ A, F. M. G., DE AMORIM, C. L. "Interest- centric vehicular ad hoc network". In: Proceedings of the 12th IEEE In- ternational Conference on Wireless and Mobile Computing, Networking and Communications (WiMob), pp. 1-10, NY, NY, USA, Oct 2016. doi: 10.1109/WiMOB.2016.7763222. Roteamento Ecológico de Veículos Orientados a Ondas Verdes. F A R Faria, Tese de Mestrado. Universidade Federal do Rio de Janeiro, Rio de JaneiroFARIA, F. A. R. Roteamento Ecológico de Veículos Orientados a Ondas Verdes. Tese de Mestrado, Universidade Federal do Rio de Janeiro, Rio de Janeiro, Brasil, 2013. Routing in Vehicular Ad Hoc Networks: A Survey. F Li, Y Wang, IEEE Vehicular Technology Magazine. LI, F., WANG, Y. "Routing in Vehicular Ad Hoc Networks: A Survey", IEEE Vehicular Technology Magazine, pp. 12-22, 2007. Optimal roadside units placement in urban areas for vehicular networks. B Aslam, F Amjad, C C Zou, Proceedings of the 7th IEEE Symposium on Computers and Communications. the 7th IEEE Symposium on Computers and CommunicationsTurkeyASLAM, B., AMJAD, F., ZOU, C. C. "Optimal roadside units placement in urban areas for vehicular networks". In: Proceedings of the 7th IEEE Symposium on Computers and Communications, pp. 423-429, Cappado- cia, Turkey, July 2012. Inter-Vehicle Communication Systems: A Survey. M L Sichitiu, M Kihl, IEEE Communications Surveys and Tutorials, v. 102SICHITIU, M. L., KIHL, M. "Inter-Vehicle Communication Systems: A Sur- vey", IEEE Communications Surveys and Tutorials, v. Vol. 10 (2), pp. 88- 105, 2008. Ieee, Standards Association, 802.16: Broadband Wireless Metropolitan Area Networks (MANs). IEEE STANDARDS ASSOCIATION. "802.16: Broadband Wi- reless Metropolitan Area Networks (MANs)". Disponível em: http://standards.ieee.org/about/get/802/802.16.html. Acessado em: 3 de junho de 2017, 2012b. Vehicular Telematics over Heterogeneous Wireless Networks: A survey. E Hossain, G Chow, V C M Leung, Computer Communications, v. 33HOSSAIN, E., CHOW, G., LEUNG, V. C. M., et al. "Vehicular Telematics over Heterogeneous Wireless Networks: A survey", Computer Communi- cations, v. Vol. 33, pp. 775-793, 2010. A Survey and Qualitative Analysis of MAC Protocols for Vehicular Ad Hoc Networks. H Menouar, F Filali, M Lenardi, IEEE Wireless Communications13MENOUAR, H., FILALI, F., LENARDI, M. "A Survey and Qualitative Analy- sis of MAC Protocols for Vehicular Ad Hoc Networks", IEEE Wireless Communications, v. Vol. 13, n. 5, pp. 30-35, 2006. Fundamentals of Intelligent Transportation Systems Planning. M A Chowdhury, A Sadek, Artech House PublishersBoston, USACHOWDHURY, M. A., SADEK, A. Fundamentals of Intelligent Transportation Systems Planning. Boston, USA, Artech House Publishers, 2003. Traffic & Highway Engineering. N J Garber, L A Hoel, Toronto, Canada4th edition edGARBER, N. J., HOEL, L. A. Traffic & Highway Engineering. 4th edition ed. Toronto, Canada, 2009. . &quot;manual Brasileiro De Sinalização De Trânsito Volume V -Sinalização Denatran, Semafórica, DENATRAN. "MANUAL BRASILEIRO DE SINALIZAÇÃO DE TRÂNSITO VOLUME V -SINALIZAÇÃO SEMAFÓRICA". Disponível em: http://www.denatran.gov.br/download/Resolucoes/Resolucao4832014 - Anexo.pdf. Acessado em: 3 de junho de 2017, 2014. Código Brasileiro de Trânsito. Presidência Da República, PRESIDÊNCIA DA REPÚBLICA. "Código Brasileiro de Trânsito". Disponível em: http://www.planalto.gov.br/ccivil 03/leis/L9503Compilado.htm. Acessado em: 3 de junho de 2017, 1997. Agentes e Sistemas Multiagentes. A C B Garcia, J S Sichman, Sistemas Inteligentes: Fundamentos e Aplicações, Manole. Rezende, S. O.Barueri, SPGARCIA, A. C. B., SICHMAN, J. S. "Agentes e Sistemas Multiagentes". In: Rezende, S. O. (Ed.), Sistemas Inteligentes: Fundamentos e Aplicações, Manole, cap. 11, pp. 269-306, Barueri, SP, 2005. Multi-Agent Systems: An Introduction to Distributed Artificial Inteligence. J Ferber, Addison-Wesley Publishing CoReading, MAFERBER, J. Multi-Agent Systems: An Introduction to Distributed Artificial Inteligence. Reading, MA, Addison-Wesley Publishing Co., 1999. Readings in Agents. M Humns, M Singh, Morgan Kaufmann Publishers IncSan Mateo, CAHUMNS, M., SINGH, M. Readings in Agents. San Mateo, CA, Morgan Kauf- mann Publishers Inc., 1998. Concurrency in Heavily Loaded Neighborhoodconstrained Systems. V C Barbosa, E Gafni, http:/doi.acm.org/10.1145/69558.69560ACM Trans. Program. Lang. Syst. 11BARBOSA, V. C., GAFNI, E. "Concurrency in Heavily Loaded Neighborhood- constrained Systems", ACM Trans. Program. Lang. Syst., v. 11, n. 4, pp. 562-584, out. 1989. ISSN: 0164-0925. doi: 10.1145/69558.69560. Disponível em: <http://doi.acm.org/10.1145/69558.69560>. Sharing Resources at Nonuniform Access Rates. V C Barbosa, M R F Benevides, F M Franç A, Theory of Computing Systems. 34BARBOSA, V. C., BENEVIDES, M. R. F., FRANÇ A, F. M. G. "Sharing Resources at Nonuniform Access Rates", Theory of Computing Systems, v. 34, pp. 13-26, 2001. Classification Of Flexible Manufacturing Systems. J Browne, D Dubois, K Rathmill, The FMS Magazine. BROWNE, J., DUBOIS, D., RATHMILL, K., et al. "Classification Of Flexible Manufacturing Systems", The FMS Magazine, pp. 114-117, 1984. Advance Driver Information Systems. J H Rillings, R J Sold, IEEE Transactions on Vehicular Technology, v. 401RILLINGS, J. H., SOLD, R. J. "Advance Driver Information Systems", IEEE Transactions on Vehicular Technology, v. Vol. 40, n. 1, pp. 31-40, 1991. Uma Arquitetura Mecatrônica de Navegação para Veículos com Reboques Guiados Automaticamente em Ambientes Flexíveis de Manufatura. O L Pérez, BrasilUniversidade Federal do Rio de Janeiro, Rio de JaneiroTese de DoutoradoPÉREZ, O. L. Uma Arquitetura Mecatrônica de Navegação para Veículos com Reboques Guiados Automaticamente em Ambientes Flexíveis de Manufa- tura. Tese de Doutorado, Universidade Federal do Rio de Janeiro, Rio de Janeiro, Brasil, 2010. Traffic Message Channel (TMC). Disponível emVOLKSWAGEN. "Traffic Message Channel (TMC)". Disponível em: http://www.volkswagen.co.uk/technology/glossary/traffic-message- channel-tmc. Acessado em: 3 de junho de 2017, 2016. Equipamento de Navegação. TOMTOM. "Equipamento de Navegação". Disponível em: https://www.tomtom.com/pt br/drive/car/. Acessado em: 3 de ju- nho de 2017, 2016. Waze. Google, GOOGLE. "Waze". Disponível em: https://www.waze.com/pt-BR/. Acessado em: 3 de junho de 2017, 2016. A novel method for reducing road traffic congestion using vehicular communication. A Lakas, M Chaqfeh, Proceedings of the 6th International Wireless Communications and Mobile Computing Conference. the 6th International Wireless Communications and Mobile Computing ConferenceCaen, FranceLAKAS, A., CHAQFEH, M. "A novel method for reducing road traffic conges- tion using vehicular communication". In: Proceedings of the 6th Interna- tional Wireless Communications and Mobile Computing Conference, pp. 16-20, Caen, France, July 2010. A Multi-Agent Based Vehicles Rerouting System for Unexpected Traffic Congestion Avoidance. S Wang, S Djahel, J Mcmains, Proceedings of 17th International Conference on Intelligent Transportation Systems. 17th International Conference on Intelligent Transportation SystemsQuingdao, ChinaWANG, S., DJAHEL, S., MCMAINS, J. "A Multi-Agent Based Vehicles Re- routing System for Unexpected Traffic Congestion Avoidance". In: Pro- ceedings of 17th International Conference on Intelligent Transportation Systems, pp. 2541-2548, Quingdao, China, October 2014. Selforganizing congestion evasion strategies using ant-based pheromones. W Narzt, U Wilflingseder, G Pomberger, IEEE Transactions on Intelligent Transportation Systems, v. 41NARZT, W., WILFLINGSEDER, U., POMBERGER, G., et al. "Self- organizing congestion evasion strategies using ant-based pheromones", IEEE Transactions on Intelligent Transportation Systems, v. Vol. 4, n. 1, pp. 93-102, 2010. A computational market distributed control of urban road traffic systems. M Vasirani, S Ossowski, IEEE Transactions on Intelligent Transportation Systems, v. 122VASIRANI, M., OSSOWSKI, S. "A computational market distributed control of urban road traffic systems", IEEE Transactions on Intelligent Trans- portation Systems, v. Vol. 12, n. 2, pp. 313-321, 2011. A market-inspired approach for intersection management in urban traffic networks. M Vasirani, S Ossowski, Journal of Artificial Intelligence Research, v. 431VASIRANI, M., OSSOWSKI, S. "A market-inspired approach for intersection management in urban traffic networks", Journal of Artificial Intelligence Research, v. Vol. 43, n. 1, pp. 621-659, 2011. CARAVAN: Congestion Avoidance and Route Allocation Using Virtual Agent Negotiation. P Desai, S W Loke, A Desai, IEEE Transactions on Intelligent Transportation Systems, v. 143DESAI, P., LOKE, S. W., DESAI, A., et al. "CARAVAN: Congestion Avoi- dance and Route Allocation Using Virtual Agent Negotiation", IEEE Transactions on Intelligent Transportation Systems, v. Vol. 14, n. 3, pp. 1197-1207, 2013. Content-centric Networking: Is That a Solution for Upcoming Vehicular Networks?. M Amadeo, C Campolo, A Molinaro, http:/doi.acm.org/10.1145/2307888.2307906In: Proceedings of the Ninth ACM International Workshop on Vehicular Inter-networking, Systems, and Applications, VANET '12. New York, NY, USAAMADEO, M., CAMPOLO, C., MOLINARO, A. "Content-centric Networ- king: Is That a Solution for Upcoming Vehicular Networks?" In: Proceedings of the Ninth ACM International Workshop on Vehicular Inter-networking, Systems, and Applications, VANET '12, pp. 99-102, New York, NY, USA, 2012. ACM. ISBN: 978-1-4503-1317-9. doi: 10.1145/2307888.2307906. Disponível em: <http://doi.acm.org/10. 1145/2307888.2307906>. GeoZone: Um Framework Eficiente de Difusão de Interesses em Redes Veiculares Orientadas a Conteúdo. A Prates, I Moraes, Anais do XXXII Simpósio Brasileiro de Redes de Computadores e Sistemas Distribuídos. Florianópolis, SC, BrasilPRATES, A., MORAES, I. "GeoZone: Um Framework Eficiente de Difusão de Interesses em Redes Veiculares Orientadas a Conteúdo". In: Anais do XXXII Simpósio Brasileiro de Redes de Computadores e Sistemas Dis- tribuídos, pp. 163-176, Florianópolis, SC, Brasil, 2014. F Buschmann, R Meunier, H Rohnert, System of Patterns. Chichester, UKWiley1BUSCHMANN, F., MEUNIER, R., ROHNERT, H., et al. Pattern-Oriented Software Architecture, Volume 1: A System of Patterns. Chichester, UK, Wiley, 1996. Ad-hoc on-demand distance vector routing. C E Perkins, E Royer, Proceedings of the Second IEEE Workshop on Mobile Computing Systems and Applications. the Second IEEE Workshop on Mobile Computing Systems and ApplicationsNew Orleans, LA, USAPERKINS, C. E., ROYER, E. M. "Ad-hoc on-demand distance vector routing". In: Proceedings of the Second IEEE Workshop on Mobile Computing Sys- tems and Applications, pp. 90 -100, New Orleans, LA, USA, February 1999. Dynamic Source Routing in Ad Hoc Wireless Networks. D Johnson, D Maltz, 10.1007/978-0-585-29603-6_5978-0-7923-9697-0. doi: 10.1007/ 978-0-585-29603-6 5Mobile Computing. Imielinski, T., Korth, H.Springer US353JOHNSON, D., MALTZ, D. "Dynamic Source Routing in Ad Hoc Wireless Networks". In: Imielinski, T., Korth, H. (Eds.), Mobile Computing, v. 353, The Kluwer International Series in Engineering and Computer Science, Springer US, pp. 153-181, 1996. ISBN: 978-0-7923-9697-0. doi: 10.1007/ 978-0-585-29603-6 5. Disponível em: <http://dx.doi.org/10.1007/ 978-0-585-29603-6_5>. . I B Soares, BrasilControle Distribuído da Sinalização de Interseções e do Fluxo de Tráfego. Tese de Mestrado, Universidade Federal do Rio de Janeiro, Rio de JaneiroSOARES, I. B. Controle Distribuído da Sinalização de Interseções e do Fluxo de Tráfego. Tese de Mestrado, Universidade Federal do Rio de Janeiro, Rio de Janeiro, Brasil, 2007. Congested Traffic States in Empirical Observations and Microscopic Simulations. M Treiber, A Hennecke, D Helbing, TREIBER, M., HENNECKE, A., HELBING, D. "Congested Traffic States in Empirical Observations and Microscopic Simulations". Disponível em: https://arxiv.org/abs/cond-mat/0002177. Acessado em: 3 de junho de 2017, 200. SUMO: Simulation of Urban Mobility. Institute German Aerospace Center, Of, Systems, GERMAN AEROSPACE CENTER, INSTITUTE OF TRANSPORTATION SYSTEMS. "SUMO: Simulation of Urban Mobility". Disponível em: http://sumo-sim.org/. Acessado em: 3 de junho de 2017, 2014. OMNeT++ Network Simulation Framework. Open Sim, OPEN SIM. "OMNeT++ Network Simulation Framework". Disponível em: http://www.omnetpp.org/. Acessado em: 3 de junho de 2017, 2014. Veins. C Sommer, SOMMER, C. "Veins". Disponível em: http://veins.car2x.org/. Acessado em: 3 de junho de 2017, 2014. Rede Ad hoc Veicular Centrada em Interesses. F B Gonç Alves, F M G Franç A, C L Amorim, Anais do Workshop de Redes P2P. Salvador, BA, BR, MaioDinâmicas, Sociais e Orientadas a ConteúdoGONÇ ALVES, F. B., FRANÇ A, F. M. G., AMORIM, C. L. "Rede Ad hoc Veicular Centrada em Interesses". In: Anais do Workshop de Redes P2P, Dinâmicas, Sociais e Orientadas a Conteúdo, pp. 61-74, Salvador, BA, BR, Maio 2016. User Service Bundles and User Services. Department, Transportation, DEPARTMENT OF TRANSPORTATION. "User Ser- vice Bundles and User Services". Disponível em: http://local.iteris.com/itsarch/html/user/userserv.htm. Acessado em: 3 de junho de 2017, 2016. Padrões de Projeto: Soluções reutilizáveis de software orientado a objetos. E Gamma, R Helm, R Jhonson, Porto Alegre, Brasil, BookmanGAMMA, E., HELM, R., JHONSON, R., et al. Padrões de Projeto: Soluções reutilizáveis de software orientado a objetos. Porto Alegre, Brasil, Book- man, 2000. Pattern-Oriented Software Architecture: Patterns for concurrent and networked objects. D Schmidt, M Stal, H Rohnert, Wileyv. 2. NJ, USASCHMIDT, D., STAL, M., ROHNERT, H., et al. Pattern-Oriented Software Architecture: Patterns for concurrent and networked objects, v. 2. NJ, USA, Wiley, 2001. Self-organized Traffic Control. M Ferreira, R Fernandes, H Conceição, http:/doi.acm.org/10.1145/1860058.1860077Proceedings of the Seventh ACM International Workshop on VehiculAr InterNETworking. the Seventh ACM International Workshop on VehiculAr InterNETworkingNew York, NY, USAACMFERREIRA, M., FERNANDES, R., CONCEIÇÃO, H., et al. "Self-organized Traffic Control". In: Proceedings of the Seventh ACM International Workshop on VehiculAr InterNETworking, VANET '10, pp. 85-90, New York, NY, USA, 2010. ACM. ISBN: 978-1-4503-0145-9. doi: 10.1145/1860058.1860077. Disponível em: <http://doi.acm.org/10. 1145/1860058.1860077>. Naming in Content-oriented Architectures. A Ghodsi, T Koponen, J Rajahalme, http:/doi.acm.org/10.1145/2018584.2018586Proceedings of the ACM SIG-COMM Workshop on Information-centric Networking, ICN '11. the ACM SIG-COMM Workshop on Information-centric Networking, ICN '11New York, NY, USAACMGHODSI, A., KOPONEN, T., RAJAHALME, J., et al. "Naming in Content-oriented Architectures". In: Proceedings of the ACM SIG- COMM Workshop on Information-centric Networking, ICN '11, pp. 1- 6, New York, NY, USA, 2011. ACM. ISBN: 978-1-4503-0801-4. doi: 10.1145/2018584.2018586. Disponível em: <http://doi.acm.org/10. 1145/2018584.2018586>. LTE User Plane Simulation Model for INET & OMNeT++. G Nardini, G Stea, A Virdis, NARDINI, G., STEA, G., VIRDIS, A. "LTE User Plane Simulation Model for INET & OMNeT++". Disponível em: http://simulte.com/. Acessado em: 3 de junho de 2017, 2016. Vehicle Control Algorithms for Cooperative Driving With Automated Vehicles and Intervehicle Communications. S Kato, M Sadayuki Tsugawa, K Tokuda, IEEE TRANSACTIONS ON INTELLIGENT TRANSPORTATION SYSTEMS, v. 33KATO, S., SADAYUKI TSUGAWA, M., TOKUDA, K., et al. "Vehicle Control Algorithms for Cooperative Driving With Automated Vehicles and Inter- vehicle Communications", IEEE TRANSACTIONS ON INTELLIGENT TRANSPORTATION SYSTEMS, v. Vol. 3, n. 3, pp. 155-161, 2002. Connect & Drive: design and evaluation of cooperative adaptive cruise control for congestion reduction. J Ploeg, A F A Serrarens, G J Heijenk, 10.1007/BF03325760Journal of Modern Transportation. v. 19, n. 3PLOEG, J., SERRARENS, A. F. A., HEIJENK, G. J. "Connect & Drive: design and evaluation of cooperative adaptive cruise control for conges- tion reduction", Journal of Modern Transportation, v. 19, n. 3, pp. 207- 213, 2013. ISSN: 2095-087X. doi: 10.1007/BF03325760. Disponível em: <http://dx.doi.org/10.1007/BF03325760>. 3rd Generation Partnership Project. 3GPP. 3GPP. "3rd Generation Partnership Project". Available in: http://www.qtc.jp/3GPP/Specs/36814-900.pdf. Accessed in: 3 de junho de 2017, 2017. Entrada: multiplicador 1 periodObtQtdeVeic := dadosControleIntrsc.paramPerObtQtdeVeiculos; 2 numObtQtdeVeic := dadosControleIntrsc.paramNumObtQtdeVeiculos; 3 tempo := (periodObtQtdeVeic * numObtQtdeVeic) * multiplicador. Geração de agendas de intervalos de indicação de luzes verde. 38Algoritmo 38: Geração de agendas de intervalos de indicação de luzes verde. Entrada: multiplicador 1 periodObtQtdeVeic := dadosControleIntrsc.paramPerObtQtdeVeiculos; 2 numObtQtdeVeic := dadosControleIntrsc.paramNumObtQtdeVeiculos; 3 tempo := (periodObtQtdeVeic * numObtQtdeVeic) * multiplicador; 8 limparAlocEspacosVias(alocacoesEspacosVias i , viasEntradaIntrsc i ). 8 limparAlocEspacosVias(alocacoesEspacosVias i , viasEntradaIntrsc i ); 16 multigrafo := multigrafoSMER i ; 17 reversibilidades := revAgentes i ; 18 intMinIndVerdes := intMinIndVerdes i ; 19 intIndAmarelos := intIndAmarelos i ; 20 mapVerticesVias := mapVerticesVias i. 16 multigrafo := multigrafoSMER i ; 17 reversibilidades := revAgentes i ; 18 intMinIndVerdes := intMinIndVerdes i ; 19 intIndAmarelos := intIndAmarelos i ; 20 mapVerticesVias := mapVerticesVias i ; Entrada: Msg j := Msg i , se M sg i .interesse = new traffic light schedule 1 dadosControleIntrsc := Msg j .parametros. Geração de agendas de intervalos de indicações de luzes verde baseada nos dados de controle de outras interseções. 39Algoritmo 39: Geração de agendas de intervalos de indicações de luzes verde baseada nos dados de controle de outras interseções. Entrada: Msg j := Msg i , se M sg i .interesse = new traffic light schedule 1 dadosControleIntrsc := Msg j .parametros["dadosControleIntrsc"]; 2 periodObtQtdeVeic := dadosControleIntrsc.paramPerObtQtdeVeiculos; 3 numObtQtdeVeic := dadosControleIntrsc.paramNumObtQtdeVeiculos; 4 tempo := (periodObtQtdeVeic * numObtQtdeVeic) * 1000. 2 periodObtQtdeVeic := dadosControleIntrsc.paramPerObtQtdeVeiculos; 3 numObtQtdeVeic := dadosControleIntrsc.paramNumObtQtdeVeiculos; 4 tempo := (periodObtQtdeVeic * numObtQtdeVeic) * 1000; tempoInicial := tempoAtualGPS i. tempoInicial := tempoAtualGPS i ; 8 vias := obterViasEntrada(dadosControleIntsrc). 8 vias := obterViasEntrada(dadosControleIntsrc); limparAlocEspacosVias(alocacoesEspacosVias i , vias). limparAlocEspacosVias(alocacoesEspacosVias i , vias); 16 vertices := obterVertices(dadosControleIntrsc.multigrafoSMER). 16 vertices := obterVertices(dadosControleIntrsc.multigrafoSMER); 17 multigrafo := dadosControleIntrsc.multigrafoSMER; 18 reversibilidades := dadosControleIntrsc.revAgentes; 19 intMinIndVerdes := dadosControleIntrsc.intMinIndVerdes; 20 intIndAmarelos := dadosControleIntrsc.intIndAmarelos; 21 mapVerticesVias := dadosControleIntrsc.mapVerticesVias. 17 multigrafo := dadosControleIntrsc.multigrafoSMER; 18 reversibilidades := dadosControleIntrsc.revAgentes; 19 intMinIndVerdes := dadosControleIntrsc.intMinIndVerdes; 20 intIndAmarelos := dadosControleIntrsc.intIndAmarelos; 21 mapVerticesVias := dadosControleIntrsc.mapVerticesVias; Envio mensagem cujo interesseé calculated route to <id. da via> Entrada: rota, instantes, Msg j 1 destino := Msg j .parametros. Algoritmo. 43Algoritmo 43: Envio mensagem cujo interesseé calculated route to <id. da via> Entrada: rota, instantes, Msg j 1 destino := Msg j .parametros["destino"]; 2 interesse := "calculated route to" + destino. 2 interesse := "calculated route to" + destino; 3 params := { "rota. rota , "instantes. instantes }3 params := { "rota", rota , "instantes", instantes }; IEEE 802.11" ∨ Msg j .tac = "IEEE 802. Msg J .Tac =, 5Msg j .tac = "IEEE 802.11" ∨ Msg j .tac = "IEEE 802.11p" então 5 . Msg J Msg I := Interesse, Origem, Msg j .tac, paramsMsg i := interesse, nulo, Msg j .origem, -1, Msg j .tac, params ; params := params ∪{ "origemMsg. Msg i .origem }params := params ∪{ "origemMsg", Msg i .origem }; Msg i := interesse, nulo, nulo, 0, Msg j .tac, params. Msg i := interesse, nulo, nulo, 0, Msg j .tac, params ;
sample_4783
0.8983
arxiv
Extraction du solvant d'un hydrogel par des gouttes de bactéries B. subtilis Marc Hennes Laboratoire Matière et Systèmes Complexes (MSC) UMR CNRS 7057 University Paris Diderot 75205Paris cedex 13France Julien Tailleur Laboratoire Matière et Systèmes Complexes (MSC) UMR CNRS 7057 University Paris Diderot 75205Paris cedex 13France Gaëlle Charron Laboratoire Matière et Systèmes Complexes (MSC) UMR CNRS 7057 University Paris Diderot 75205Paris cedex 13France Adrian Daerr Laboratoire Matière et Systèmes Complexes (MSC) UMR CNRS 7057 University Paris Diderot 75205Paris cedex 13France Extraction du solvant d'un hydrogel par des gouttes de bactéries B. subtilis Nous observons que de petites gouttes de suspension de la bactérie B. subtilis, déposées sur un gel d'agar, décuplent leur volume en une dizaine d'heures, alors que le volume de gouttes sans bactérie reste inchangé. L'augmentation de la biomasse due à la croissance des bactéries est trop faible pour expliquer le gonflement constaté des gouttes, comme le prouve une mesure directe de la concentration bactérienne au cours de l'expérience et à plusieurs hauteurs au sein de la goutte. Nous montrons que le gonflement est provoqué par la présence d'un surfactant produit par les bactéries, la surfactine, lequel induit un pompage d'eau de l'environnement vers la goutte par un effet osmotique capillaire. La concentration requise est très faible (< 1 mM), environ quatre ordres de grandeur plus faible par exemple que la concentration de glucose produisant le même gonflement. Cette capacité de B. subtilis à extraire de l'eau de l'environnement contribue probablement à certains modes de migration collective comme le mass swarming. Elle donne également lieu à un mode de déplacement original, indépendant de la motilité cellulaire: en associant les effets osmotiques et de mouillage du surfactant, B. subtilis parvient à faire activement glisser la colonie sur des substrats inclinés d'à peine quelques dixièmes de degrés. Introduction Les micro-organismes ont développé d'innombrables mécanismes pour faciliter leur prolifération [1] et la colonisation de nouveaux environnements [2][3][4]. La raison est sans doute à chercher dans la complexité et la variabilité spatiale et temporelle de leur environnement. Que ce soit dans un intestin ou dans le sol, les bactéries se déplacent dans un mélange de phases solide, liquide et de gaz et leur motilité dépendra grandement de l'interaction avec les nombreuses surfaces et d'interfaces présentes. À côté de cette complexité, les études en laboratoire de la motilité de bactéries se limitent à peu d'environnements simples et artificiels. En dehors de la nage en milieu liquide [5], on ne trouve presque que des études à la surface d'hydrogels. Il est donc important de comprendre les mécanismes physiques en jeu pour pouvoir se prononcer sur l'importance d'une expérience de laboratoire dans un contexte plus complexe. Ici, nous décrivons pour la premiere fois un mécanisme physico-chimique par lequel la bactérie Bacillus subtilis, piegée dans une petite goutte deposée sur la surface de l'hydrogel Agar, est capable d'extraire une quantité importante de solvant, multipliant ainsi le volume de la goutte jusqu'à atteindre 15 fois le volume initial. Ce gonflement est proportionnel à la concentration initiale de bactéries au sein de la goutte, mais est absolument indépendant de leur capacité à s'auto-propulser. Bien qu'on puisse s'interroger sur la contribution de la division des bactéries à une certaine augmentation du volume, nous montrons que dans les conditions expérimentales présentes, cet effet est négligeable et le gonflement s'explique par la production d'un tensio-actif sécrété par les bactéries, la surfactine. Pour des gouttes de bactéries mutantes incapables de produire ce surfactant, aucun gain n'est visible. Le taux de gonflement dépend fortement des conditions expérimentales et de la préparation du gel, où l'humidité à disposition dans l'entourage agit comme facteur limitant. Grâce à des mesures de chromatographie liquide à haute performance, nous montrons que la concentration molaire de surfactine dans les gouttes est cent à mille fois plus faible que la concentration d'autres espèces moléculaires, ce qui soulève la question de ce qui rend la surfactine si efficace pour le pompage osmotique. Nous terminons par une discussion de l'importance de ce mécanisme pour les modes migratoires de B. subtilis. Résultats Description du gonflement de goutte Une goutte de 2 µL provenant d'une culture liquide de B. subtilis (densité optique OD ≈ 0.27, souche OMG 930 [6]) est déposée à la surface d'un gel d'Agar à 0.7 % contenant des nutriments (milieu synthétique B), séché brièvement (2 min) et incubé dans une chambre climatique à température et humidité fixe (T = 30 • C, RH = 70 %). Pendant la première heure, un léger étalement radial est visible [7,8], typique pour une solution aqueuse de surfactant -comportement attendu car notre souche B. subtilis produit de la surfactine, un lipopeptide cyclique amphiphile [9,10]. Le volume de la goutte 1 augmente dès le moment du dépôt, de manière monotone et atteint une valeur maximale de sept à huit fois le volume initial après ≈ 350 min ( Fig. 1 (a)). En variant la concentration initiale de bactéries (OD pour optical density) jusqu'à la concentration de saturation de croissance des bactéries OD ≈ 1.5, le gonflement peut atteindre une valeur de 15 V i . Si les bactéries sont enlevées de la solution par centrifugation et filtrage, et que seul le surnageant SN est déposé sur le gel, on mesure une augmentation plus faible du volume de la goutte V SN max ≈ 3V i . Quand le temps de séchage du gel est augmenté (de 1 min à 30 min), l'effet de pompage est affaibli et la quantité de solvant extrait diminue ( Fig. 1 (b)). Sur un gel séché pendant t sec = 30min, une goutte de bactérie (OD ≈ 0.27) ne gonfle plus du tout. Ceci s'explique par le fait qu'un tel gel a perdu environ 100 V i d'eau par évaporation et n'est donc plus à l'équilibre: le réseau de polymères devrait être en compression et la pression dans la phase liquide négative. Pour des gouttes d'eau ou de milieu nutritif B, une augmentation du volume n'est jamais observée, et un taux d'évaporation faible dans les coupelles, plus petit que le taux d'évaporation de séchage, fait lentement disparaître ces gouttes. L'autopropulsion et la biomasse n'influencent pas le gonflement Le gonflement étant absent pour des gouttes d'eau ou de nutriments, la présence des bactéries est nécessaire pour une augmentation continue du volume de la goutte. Pour vérifier une éventuelle contribution de la motilité individuelle, cruciale pour le mode de migration de swarming [3,6,11], nous comparons les courbes de volume pour des souches motiles (OMG 930) et non motiles (OMG 954 [11]) (cf. Fig. 2 (a)). La deuxième souche ne se distingue génétiquement de la première que par l'absence d'un gène qui la rend incapable d'exprimer la protéine flagelline nécessaire au développement des flagelles. Pour différentes concentrations initiales (OD = 0.27 et OD = 1.5) nous observons que les courbes de volume, à nouveau mesurées sur 500 min, ne diffèrent pas significativement d'une souche à l'autre, montrant ainsi que la motilité ne joue aucun rôle dans le mécanisme d'accroissement de volume. Une explication serait alors que l'amassement de bactéries par division cellulaire est responsable de l'augmentation en volume. En conditions idéales (T ≈ 40 • C, milieu LB riche en nutriments), le temps de division peut être de 30 minutes [12] ou moins, obtenant ainsi 14 à 15 cycles de réplication pendant le temps de gonflement (t ≈ 400min) d'une goutte. Le nombre absolu de bactéries augmenterait d'un facteur 2 15 , correspondant à un volume final de 3.5 V i [13]. Pour déterminer la contribution biomassique au gonflement, nous enreg-istrons la goutte à fort grossissement (40×, Fig. 2 (b), haut) pendant 400 min à différentes hauteurs et calculons le pourcentage surfacique et volumique à travers la goutte. Nous trouvons que ce pourcentage volumique après 7 heures ne dépasse jamais 2 % au sein de la goutte et 8 % proche de la ligne de contact de bord 2 . De plus, nous mesurons directement la concentration bactérienne en solution liquide dans le milieu nutritif minimal B à 30 • C. Ici, nous déterminons un temps de doublage de 90 à 120 minutes ( Fig. 2 (b)), donnant ainsi 4 cycles de croissance en 400 min et un volume final de bactéries de N × V Bact V i largement inférieur au volume initial de la goutte. Détermination et quantification de la surfactine comme agent principal Le comportement de la souche OMG 168 de B. subtilis, qui ne produit pas de surfactine [14], permet d'identifier ce surfactant comme premier responsable du mécanisme de pompage: dans le cas de gouttes de OMG 168, les courbes de volume ne montrent aucun gonflement et se rapprochent des courbes d'eau pure ou de solution de nutriment B (cf. Fig. 3 (a)). Nous nous attendons donc à ce que des gouttes de surfactine pure (surfactine de B. subtilis, 98 % pure, Sigma-Aldrich) affichent une croissance de volume similaire aux gouttes de bactéries produisant de la surfactine. Effectivement, nous observons pour de telles gouttes un gonflement de magnitude proche des gouttes bactériennes pour des concentrations entre 0.1 g/L et 0.5 g/L. Ici, une goutte de surfactine se comporte comme une goutte de surnageant: dans les premières 100 à 150 minutes, le gain en volume est proche de celui d'une goutte de bactéries, puis s'atténue lentement pour atteindre une valeur 3 à 4 fois au-dessus du volume initial. Afin de vérifier si la quantité de surfactine produite par les bactéries est dans la plage de concentrations dans laquelle les gouttes de surfactines gonflent, nous l'avons quantifié par HPLC (high precision liquid profilometry). Cette méthode spectrographique permet d'identifier et de mesurer les pics d'absorbtion caractéristiques d'une molécule pour remonter à sa concentration (dans un premier temps en unités arbitraires AU). Un étalonnage par des gouttes de concentration connue est nécessaire pour calculer une concentration absolue. La figure 3 (b) montre que la concentration de surfactine dans la goutte bactérienne est initialement proche de 0.1 g/L pour une OD ≈ 0.27 et de 0.25 g/L pour une OD ≈ 1.5, avec une marge d'erreur de 0.05 g/L. Une concentration autour de 0.3 g/L dans les gouttes de bactéries correspond à une concentration molaire de 0.3 mM, largement en dessous de la concentration molaire de 5 M nécessaire pour induire un effet de gonflement comparable avec des gouttes de glucose (50 %) déposées sur le même gel (la molécule de glucose est environ cinq fois plus petite que la molécule de surfactine). Un simple gradient de concentrationentre la goutte contenant de la surfactine et le gel agar n'en contenant pas -avec l'interface gel-eau agissant comme une membrane semi-perméable ne semble pas suffire pour expliquer le mécanisme de pompage car dans ce cas la théorie prédit que la pression osmotique ne dépend que marginalement de l'espèce chimique et principalement de sa concentration molaire. Il est possible que le pompage fasse intervenir une interaction spécifique entre les molécules de surfactine et la matrice de gel d'agar, capable de libérer le solvant et d'induire un accroissement du volume de gouttes deposées en surface. Une observation qui va dans le sens d'une telle interaction est que quand la surfactine ou les bactéries en produisant sont ajoutées directement au gel, celui-ci, soit ne se solidifie plus, soit se liquéfie après quelque temps. Discussion Dans cet article, nous avons etudié un nouveau mécanisme physico-chimique permettant à des gouttes de bactéries en milieu partiellement humide de croître en volume. Parmi les divers molécules produites et exportées par les bactéries, nous avons identifié la surfactine, un tensio-actif puissant, comme étant responsable de cet effet. Nous pensons que ce mécanisme peut avoir un rôle immense pour B. subtilis dans son environnement naturel comme les sols non saturés [18], d'une part en lui permettant en cas de sécheresse d'extraire de l'eau de l'environnement, et d'autre part en lui permettant de mieux migrer. Vitesses et distances de migra- tion sont susceptibles d'augmenter avec la quantité d'eau disponible, que ce soit dans les milieux poreux [19] ou à la surface d'un substrat comme l'agar [15][16][17]. Pour les gouttelettes étudiées ici, le volume gagné augmente la traction gravitationelle par rapport au forces capil-laires et permet de franchir le seuil d'étalement ou de dévalement sur des substrats non horizontaux. Sur des gels d'agar, les gouttes de bactéries glissent ainsi sur des pentes de l'ordre du degré (cf. Fig. 4), quand des gouttes d'eau de même volume initial restent accrochées même à la verticale, piégées par les forces capillaires. FIG. 1 . 1(a) Le volume total de gonflement est une fonction de la concentration initiale (OD) de bactéries dans la goutte. Aucun gonflement n'est observable pour des gouttes d'eau pure ou de milieu nutritif B (OD = 0). (b) Le gonflement diminue et disparaît entièrement si le gel est séché plus longtemps à l'air libre avant l'expérience. FIG. 2 . 2(a) La motilité bactérielle, évaluée entre la souche OMG 930 motile et la souche OMG 954 non motile, n'influence pas l'accroissement du volume durant les 500 minutes de l'expérience. (b) L'enregistrement des gouttes bactérielles au microscope optique à fort grossissement montre que le pourcentage surfacique des bactéries est très faible. L'augmentation de la biomasse (avec un temps de doublage de 103 min à 30 • C dans un milieu liquide B, en bas) n'explique donc pas le gonflement des gouttes. FIG. 3 . 3(a) Des gouttes de surfactine pure d'une concentration entre 0.1 et 0.5 g/L (0.1-0.5 mM pour une masse molaire de 1030 g/mol) affichent un gonflement similaire aux gouttes de bactéries d'une OD de 0.27. Une augmentation de volume est observable pour des gouttes de glucose (50 %) à une concentration molaires dix mille fois plus grande (5 M). (b) La concentration en surfactine des gouttes de bactéries est estimée à 0.1-0.3 g/L par spectrométrie HPLC. La concentration est obtenue en calculant la superficie en unités arbitraires (AU) des pics caractéristiques d'absorbtion de la surfactine dans le spectre. FIG. 4. Pour une goutte de bactéries (OD = 0.27, Vi = 2 µL) déposée sur un gel d'agar légèrement incliné (1 • ), l'accroissement du volume en combinaison avec les propriétés tensio-actifs de la surfactine permet à celle-ci de dévaler le plan 7 à 8 heures après dépôt. Le volume est mesuré grâce à une méthode de profilométrie de projection de Moiré[8]. Un pourcentage plus élevé proche de la ligne triple/ligne de contact de la goutte est probablement dû aux flux convectionnels d'évaporation dans la goutte, entraînant les bactéries vers son bord. . L Hall-Stoodley, J. William Costerton & P.L. Hall-Stoodley, J. William Costerton & P. Bacterial biofilms: from the natural environment to infectious diseases. Stoodley, Nature Rev. Microbiol. 2Stoodley, Bacterial biofilms: from the natural environ- ment to infectious diseases, Nature Rev. Microbiol., 2, 95-108 (2004). Generic modelling of cooperative growth patterns in bacterial colonies. E Ben-Jacob, Nature. 368E. Ben-Jacob et al., Generic modelling of cooperative growth patterns in bacterial colonies, Nature, 368, 46- 49 (1994). Fractal growth of Bacillus subtilis on agar plates. H Fujikawa, &amp; M Matsushita, J. Phys. Soc. Jpn. 58H. Fujikawa & M. Matsushita, Fractal growth of Bacillus subtilis on agar plates, J. Phys. Soc. Jpn., 58, 3875-3878 (1989). Bacterial motility on a surface: Many ways to a common goal. R M Harshey, Ann. Rev. Microbiol. 57R. M. Harshey, Bacterial motility on a surface: Many ways to a common goal, Ann. Rev. Microbiol., 57, 249- 273 (2003). Bacterial swimming and oxygen transport near contact lines. I , Proc. Natl. Acad. Sci. U.S.A. 102I. Tuval et al., Bacterial swimming and oxygen trans- port near contact lines, Proc. Natl. Acad. Sci. U.S.A., 102, 2277-2282 (2005). Single-cell analysis in situ in a Bacillus subtilis swarming community identifies distinct spatially separated subpopulations differentially expressing hag (flagellin), including specialized swarmers, Microbiol. K Hamze, 157K. Hamze et al., Single-cell analysis in situ in a Bacil- lus subtilis swarming community identifies distinct spa- tially separated subpopulations differentially expressing hag (flagellin), including specialized swarmers, Micro- biol., 157, 2456-2469 (2011). Kinetics of wetting and spreading by aqueous surfactant solutions. K S Lee, Adv. Colloid Interface Sci. 144K. S. Lee et al., Kinetics of wetting and spreading by aqueous surfactant solutions, Adv. Colloid Interface Sci., 144, 54-65 (2008). Spreading of liquid drops on agar gels. M Banaha, A Daerr, &amp; L Limat, Eur. Phys. J. Spec. Top. 166M. Banaha, A. Daerr & L. Limat, Spreading of liquid drops on agar gels, Eur. Phys. J. Spec. Top., 166, 185- 188 (2009). Surfactin, a crystalline peptidelipid surfactant produced by Bacillus subtilis: Isolation, characterization and its inhibition of fibrin clot formation. K Arima, A Kakinuma, &amp; G Tamura, Biochem. Biophys. Res. Commun. 31K. Arima, A. Kakinuma & G. Tamura, Surfactin, a crystalline peptidelipid surfactant produced by Bacillus subtilis: Isolation, characterization and its inhibition of fibrin clot formation, Biochem. Biophys. Res. Commun., 31, 488-494 (1968). Recent trends in the biochemistry of surfactin. F Peypoux, J M Bonmatinm, &amp; J Wallach, Appl. Microbiol. Biotechnol. 51F. Peypoux, J. M. Bonmatinm & J. Wallach, Re- cent trends in the biochemistry of surfactin, Appl. Mi- crobiol. Biotechnol., 51, 553-563 (1999). Identification of genes required for different stages of dendritic swarming in Bacillus subtilis, with a novel role for phrC. K Hamze, 155K. Hamze et al., Identification of genes required for different stages of dendritic swarming in Bacillus subtilis, with a novel role for phrC, Microbiol., 155, 398-412 (2009). Localization of the Bacillus subtilis murB Gene within the dcw Cluster is important for growth and sporulation. G O Real &amp; A, Henriques, J. Bacteriol. 188G. Real & A. O. Henriques, Localization of the Bacil- lus subtilis murB Gene within the dcw Cluster is impor- tant for growth and sporulation, J. Bacteriol., 188, 1721-1732 (2006). Monitoring bacterial growth using tunbale resistive pulse sensing with a pore-based technique. A C Yu, J F Loo, S K F Kong &amp; T, Chan, Appl. Microbiol. Biotechnol. 98A. C. Yu, J. F. Loo, S. K. Kong & T. F. Chan, Monitoring bacterial growth using tunbale resistive pulse sensing with a pore-based technique, Appl. Microbiol. Biotechnol., 98, 855-862 (2014). Purification and preliminary characterization of the extracellular lipase of Bacillus subtilis 168, an extremely basic pHtolerant enzyme. E Lesuisse, K Schanck, &amp; C Colson, FEBS J. 216E. Lesuisse, K. Schanck & C. Colson, Purifica- tion and preliminary characterization of the extracellular lipase of Bacillus subtilis 168, an extremely basic pH- tolerant enzyme, FEBS J., 216, 155-160 (1993). The lipopeptides mycosubtilin and surfactin enhance spreading of Bacillus subtilis strains by their surface-active properties. V Leclère, Arch. Microbiol. 186V. Leclère et al., The lipopeptides mycosubtilin and surfactin enhance spreading of Bacillus subtilis strains by their surface-active properties, Arch. Microbiol., 186, 475-483 (2006). Comparative analysis of the development of swarming communities of Bacillus subtilis 168 and a natural wild type: Critical effects of surfactin and the composition of the medium. D Julkowska, J. Bacteriol. 187D. Julkowska et al., Comparative analysis of the de- velopment of swarming communities of Bacillus subtilis 168 and a natural wild type: Critical effects of surfactin and the composition of the medium, J. Bacteriol., 187, 65-76 (2005). Bacterial surface translocation: A survey and a classification. J Henrichsen, Bacteriol. Rev. 36J. Henrichsen, Bacterial surface translocation: A sur- vey and a classification, Bacteriol. Rev., 36, 478-503 (1972). Physical constraints affecting bacterial habitats and activity in unsaturated porous media -A review. D Or, Adv. Water Resour. 30D. Or et al., Physical constraints affecting bacterial habitats and activity in unsaturated porous media -A review, Adv. Water Resour., 30, 1505-1527 (2007). Scaling theory for spontaneous imbibition in random networks of elongated pores. Z Sadjadi, &amp; H Rieger, Phys. Rev. Lett. 110144502Z. Sadjadi & H. Rieger, Scaling theory for sponta- neous imbibition in random networks of elongated pores, Phys. Rev. Lett., 110, 144502 (2013).
sample_4786
0.8485
arxiv
Learning Inter-Annual Flood Loss Risk Models From Historical Flood Insurance Claims and Extreme Rainfall Data Joaquin Salas CICATA Querétaro Instituto Politécnico Nacional Cerro Blanco 141 Colinas del Cimatario QuerétaroQuerétaroMéxico. 76090 Earth, Atmospheric and Planetary Sciences Earth Signals and Systems Group Massachusetts Institute of Technology 77 Massachusetts Avenue02139-4307CambridgeMA Anamitra Saha Earth, Atmospheric and Planetary Sciences Earth Signals and Systems Group Massachusetts Institute of Technology 77 Massachusetts Avenue02139-4307CambridgeMA Sai Ravela Earth, Atmospheric and Planetary Sciences Earth Signals and Systems Group Massachusetts Institute of Technology 77 Massachusetts Avenue02139-4307CambridgeMA Learning Inter-Annual Flood Loss Risk Models From Historical Flood Insurance Claims and Extreme Rainfall Data 1Generative Adversarial NetworksExtreme Gradient BoostingGaussian ProcessesFeature SelectionFlood LossNFIP datasetBias CorrectionNatural Hazards Flooding is one of the most disastrous natural hazards responsible for substantial economic losses. A predictive model for flood-induced financial damages is helpful for many applications, such as climate change adaptation planning and insurance underwriting. This research assesses the predictive capability of regressors constructed on the National Flood Insurance Program (NFIP) dataset using neural networks (Conditional Generative Adversarial Networks), decision trees (Extreme Gradient Boosting), and kernel-based regressors (Gaussian Process). The assessment highlights the most informative predictors for regression. A Burr distribution with a bias correction scheme to increase the regressor's predictive capability effectively enables inference for claim amount distributions. Aiming to study the impact of physical variables, we incorporate Daymet rainfall estimation to NFIP as an additional predictor. A study of the coastal counties in the eight US South-West states resulted in an R 2 = 0.807. Further analysis of 11 counties with a significant number of claims in the NFIP dataset reveals that Extreme Gradient Boosting provides the best results, that bias correction significantly improves the similarity with the reference distribution, and that adding the rainfall predictor strengthens the regressor performance. Introduction Between 1998 and 2017, climate-related disasters caused economic losses of USD 2,245 trillion, affecting an estimated 4.4 billion people (CRED, 2018). While 43.4% of the disaster events corresponded to flooding, making them the most significant natural hazard to people's lives and properties (Hallegatte et al., 2016), the expectation is that the cost associated with them will grow. In its latest assessment, the United Nations (UN) Intergovernmental Panel on Climate Change (IPCC) (2021) concludes that the responsibility for climate change resides in human activity. Furthermore, it notices that nothing is arresting the planet from warming 1.5 • C above pre-industrial levels in the next two decades, not even stopping greenhouse gas emissions right now. As a result, we anticipate more significant weather events, including extreme droughts, heatwaves, and floods (Frame et al., 2020). Therein lies the need to improve flood loss risk modeling to enable rapid, up-to-date, and reliable projections for adaptation and mitigation strategies, reduce human vulnerability, and advance sustainable decision-making. Even at a shorter time scale, for example, underwriting insurance at interannual timescales, it has been argued that it is essential to account for climate change 1 that has already occurred. This paper's approach to the problem involves learning an adaptive flood loss model from historical claims and meteorological data. As time evolves, so does the model; thus, a static model does not forecast the distant future. Results indicate that the dynamic data-driven modeling strategy is quite effective at short interannual horizons. At longer time horizons, e.g., decadal time scales, using numerical climate model projections is arguably essential for modeling flood loss risk. In September 1965, Hurricane Betsy hit the US on the coast of Louisiana after traveling around the Florida peninsula, where it caused catastrophic damage in the Florida Keys (Perkins and Enos, 1968). The USD 8.5 billion (in the year 2000 dollars) in estimated costs (Emanuel, 2005) prompted the US Congress to create the National Flood Insurance Program (NFIP) in 1968 (Elliott, 2021). The program, run by the US government, permits homeowners to buy flood insurance at reduced premiums. The insurance is required for all the buildings receiving a loan and located in a Special Flood Hazard Area (SFHA), an area with a one percent chance of flooding in a given year (Lea and Pralle, 2022). Recently, NFIP released a censored dataset containing 2,546,311 claims and 4,034,086 policies (FEMA, 2019), providing a rich source of valuable information. The claims may be geospatially aggregated by latitude and longitude up to 0.1 • or politically by county. The dataset offers a glimpse into a vast market to learn about the financial impacts of flooding events. In particular, this research studies the capacity of the dataset to support the construction of flood loss risk models based on machine learning (ML) to predict the amount paid on flooding claims using the NFIP dataset. In this study (see Figure 1), we utilize the NFIP dataset to evaluate different regressors in counties with many claims. Among the regressors, we include neural networks ( Conditional Generative Adversarial Networks), decision trees (Extreme Gradient Boosting), and kernel-based regressors (Gaussian Processes). Also, we identify the most significant features for estimating claims' cost and introduce a scheme to improve the predictability power of the ML regressors through bias correction in the resulting distributions. The contributions of this research include the following: • Evaluation of the predictive skill of ML regressors to infer the amount paid on building flooding claims using the NFIP dataset. That includes a benchmark with a battery of regressors, including neural network, kernel, and decision tree-based methods. • A distribution bias correction scheme is introduced, which boosts the resulting determination coefficient inference on the amount paid on building flooding claims. • A study is conducted on the benefit of including rainfall as a meteorological variable. That includes information on the expected improvements in inference from an extension of NFIP to external variables, including hydrological, geological, and social. • For interannual flood loss modeling, assess the performance of using the entire historical record vis a vis the record at only a fixed lag relative to the present time. Does forgetting the past improve effectiveness in the face of the already-changed climate? The rest of this document develops as follows: We provide an overview of the literature related to flood cost assessment. After describing the NFIP dataset, we detail the benchmarked ML algorithms. After that, we explain how to postprocess the results of the regression prediction to correct for estimation bias, incorporate the rainfall and evaluate the performance. Finally, we present and discuss the approach's experimental outcomes and summarize the contributions and delineate future lines of research. Related Literature This section reviews related literature on flood-risk assessment, NFIP data analysis, characterizing flooding using ML, and established approaches to predicting flood loss. Statistical-Physical Flood Risk Assessment In contrast to event-wise flood forecasting (Basha et al., 2008) using real-time data, long-term flood risk assessment is a relatively well-developed approach in certain areas. Our prior work, for example, downscales reanalysis and climate models simulated under various scenarios (IPCC, 2021) to produce a synthetic catalog of extreme events. This includes tropical cyclones (Emanuel et al., 2006;Ravela and Emanuel, 2010;Emanuel and Ravela, 2012) and, more recently precipitation extremes (Saha and Ravela, 2022). The winds and rain from synthetic events then drive storm surge and flood inundation models that predict water depths (heights). The vulnerability of exposed regions to the flood hazard projections calculates damage and loss distributions using characteristic damage and loss curves (FEMA, 2022;Scawthorn et al., 2006). The methodology has been used to estimate economic impacts and adaptation strategies (Neumann et al., 2015a,b). Although flood risk projections are rapidly maturing through modeling, there is a substantial gap in carrying forward to projecting loss distributions. This gap is largely due to the difficulty of scaling damages and losses, and direct data at scale appears essential. The role of artificial intelligence (AI) has been highlighted in addressing problems relating to geosciences (Gil et al., 2018;Karpatne et al., 2019), even in data paucity regimes. Here we use ML approaches with NFIP to construct a loss model. Although NFIP is a redacted and granular data set, it still provides a vast trove of data for constructing time-dependent dynamic data-driven loss models (Blasch et al., 2018). When paired with short-term or long-term climate projections and downscaling (Saha and Ravela, 2022), the corresponding short-and long-term risks can be estimated for various applications beyond insurance. Analysis of the NFIP Dataset Sun et al. (2020) present an overview of AI applications in disaster management, particularly during the phases of mitigation, preparedness, response, and recovery. They highlight the availability of datasets for analysis, including the NFIP dataset (FEMA, 2019). Dombrowski et al. (2021) explore this dataset and integrate it with Zillow and American Community Survey data to research factors leading to flooding insurance take-up. Some of the NFIP dataset's current uses include assessing flood probability. For instance, Mobley et al. (2021) introduce a Random Forest (RF) classifier that predicts flood probability along the Texas Gulf Coast. They employ the NFIP dataset to obtain insured flood loss and high-resolution geospatial topography and hydrology data at 10 m resolution. Similarly, Zarekarizi et al. (2021) produces continuous probabilities for flooding improving over the FEMA discrete assessments. Yang et al. (2021) present an RF regressor that predicts the number of claims in 589 flooding events. Besides the NFIP dataset, they employ satellite-based flood extent, precipitation, coastal weather, building location, land use, topography, geomorphology, and policy count. Similarly, Lin and Cha (2021) develop a neural network and gradient boosting-based statistical model to predict hurricane freshwater flood loss. Their model predicts flood depth, which they input to stage damage curves to estimate the loss by aggregating over the census tracts for the hurricane event and the residential categories. Flooding Characterization through ML Some research effort has focused on predicting flood susceptible areas. For instance, employing Landsat satellite images, Wang et al. (2021) assess hybridized Multi-Linear Perceptrons (MLP) to construct a flood susceptibility map. They identify the elevation, slope angle, and soil as important features. Saha et al. (2021) propose an ensemble of "hyper-pipes" and support vector regression (SVR) to infer flood susceptibility from satellite images, from which they extract topography and hydro-climatological predictors. Also, Janizadeh et al. (2021) identify areas prone to flooding by comparing Bayesian Additive Regression Trees, Naive Bayes, and RF. Siam et al. (2021a) perform a comparison between MIKE (Patro et al., 2009), a hydrodynamic model for flood forecasting, and hybridized SVR optimized with Genetic Algorithms, extracting important features with RF. Lin and Billa (2021) implement a predictor of flood-prone areas employing Geographically Weighted Regression (GWR). Feature selection results in stream order, drainage texture, relief ratio, bifurcation ratio, and topographic wetness position indices. Lee and Kim (2021) predict in real-time the flood extent by estimating the amount of runoff caused by rainfall. Using past precipitation and rainfall-runoff inundation data, they employ the return period, duration, and time distribution and predict whether each grid point will flood for the simulated or observed runoff amount based on logistic regression. Finally, Persiano et al. (2021) compare generalized least squares (GLS) regression and top-kriging (TK) to predict at-site flood quantiles. They use the maximum annual flood in 20 catchments. Ramasamy et al. (2022) compare the Linear Log Regression (LLRM) and Gumbel's Analytical (GAM) methods to assess the flood magnitude at a given return period. Their data correspond to 24 years of annual daily peak flood flow value at the Vaigai reservoir gauging station from 1995 to 2018. Parizi et al. (2021) study the driver factors of discharges (FPD) at different return periods. Their analysis of more than 30 years of data from 206 gauging stations indicates that FPD increases with drainage area, heavy precipitation, and slope while decreasing with elevation and NDVI. Costache et al. (2021) identify slope surfaces with potential for flash flooding. Their approach ensemble techniques include deep learning neural networks, naive Bayes, gradient boosting, and classification and regression trees. Choi (2021) study the construction of flood damage risk assessment using the rainfall for 6 and 24 hours as the input for four types of nonlinear functions. Choi regresses over two rainfall datasets, including district size, topographic features, and urbanization rate. Meanwhile, Siam et al. (2021b) study the effect of noise in the labels employed for regression with ML algorithms to map the spatial flood susceptibility. They examine different kinds of noise and explore the optimal hyper-parameter values for different hybridized ML algorithms relevant to model spatial flood susceptibility. Predicting Flood Loss The relationship between flooding and climate change is of interest. For instance, Liu et al. (2021) combined future climate scenarios with a quantitative assessment model of natural disaster risk to obtain the response to flooding events in China to 1.5 and 2 • C of global warming assessing socio-economic risks of the floods, and determining the integrated risk levels. Hu et al. (2021) identifies the influence of precipitation on economic flood risk by developing a linear regression model to predict precipitation patterns. They estimate financial loss risk several months in advance. Economic loss analysis further segregates into urban and rural sectors. For instance, Basnayake et al. (2021) assess flood loss and damage in agricultural fields by evaluating the farmers' crop production outcome. Their results are robust across crop types and flood severity and independent of household characteristics. Mohammadi et al. (2021) studied water loss in agricultural products after damage by flooding by employing water footprint and farming statistics. In urban settings, Schoppa et al. (2021) use a dataset corresponding to company loss data for 545 buildings to construct multivariate flood loss models. They tried RF, Bayesian networks, and Bayesian regression, with the first one outperforming the others. Mohor et al. (2021) introduce a Bayesian multilevel model to estimate residential flood loss based on a dataset of 1,812 observations. Also, Nofal et al. (2021) model the impact of early warning systems on the reduction of flood loss. They evaluate building-level flood mitigation measures by constructing fragility functions, , i.e., relationships that allow the propagation of uncertainty over the damage modeling process. Finally, Chen et al. (2021a) fit diverse actuarial models to insurance claims data on flood damage in Taiwan transportation construction projects. Chen et al. (2021b) present a systematic analysis of whether risk analysis translated to loss in flood cost assessment in southern China. Maiwald et al. (2021) extend the Earthquake Damage Analysis Center (EDAC) flood damage model refining the description and analysis over inundation level, flow velocities, building type, and the number of building floors. To assess flood risk, Scawthorn et al. (2006) proposed to employ the flood loss rate function, with the inundated depth and loss rate as the independent and dependent variables, respectively. For places for which there is not enough data, Lv et al. (2021) introduce a method to transfer the flood loss rate data from cities with models constructed with enough information to others lacking data. NFIP Dataset The NFIP dataset (FEMA, 2019) consists of 2,547,311 records, from which we utilize 22 discrete and nine continuous variables (see Table A.3). As a response variable, we use the amount paid on building claims. Missing Data in the NFIP Dataset The NFIP database has missing data in some of its records. For instance, out of its original 40 features, three predictors have between 15% and 55% of their entries with missing values, while seven have more than 55%. The field about the amount paid on the increased cost of compliance has 97.42% of missing values across the dataset. Only seven of the variables have no missing values. Overall, each record in the data set has an average number of missing fields of about 6.7, with one standard deviation of about 2.53. Figure 2 illustrates the distribution of missing data across features. For this research, we separately imputed the dataset for each county before using it as input for the regression models. We employed a different strategy depending on whether the variable was continuous, categorical, or a date-type. For continuous variables, we used Expectation-Maximization (EM) to fill the missing values because it has proved to be an effective method in different tasks (Malan et al., 2020;Taghavi-Shahri et al., 2020). The EM algorithm (Moon, 1996) obtains maximum likelihood parameter estimators in probabilistic models using hidden variables. Incorporating them as observable in the EM algorithm's expectation stage (step E) generates the likelihood expectation. The maximization step (step M) maximizes the likelihood parameters obtained in the E-step. The parameters from the M-step start a new E-step, and the procedure repeats itself until convergence or for an arbitrary maximum number of iterations. For categorical variables, we defined a new category for the missing values. We impute date fields by splitting them into year and day of the year, a numeric value ranging from 1 to 365 (or 366 in leap-years). Afterward, we filled in the missing values with the records median for the year and day of the year and converted the completed values to a date format. Preprocessing We adjust for inflation the amounts in dollars for the monetary features considering the Consumer Price Index from the US Bureau of Labor Statistics (U.S. Bureau of Labor Statistics, 2021) and express them in 2020 dollars. Similarly, we create a time index variable that counts the months since January 1, 1960. Using the date of loss and original construction date to estimate the house age at the event may be interesting. However, NFIP contains some erroneous entries where the date of loss occurs before the date of construction. In this study, we subtracted 100 years from the construction date whenever this case occurred. Before constructing the regressors, we expand categorical variables using a one-hot representation. That is, discrete values transform into binary variables where the value one indicates its presence and a zero of absence. The incorporation of dummy variables results in a dataset of 332 predictors. The dataset splits into learning (70%) and testing (30%) subsets. Continuous predictors are normalized using the learning dataset to have zero mean and unitary variance. Inferring Flood Loss We investigate representative regressors by studying the inference capability embedded in the NFIP dataset. Ensuing, we introduce a scheme for bias correction of the resulting inference distribution. ML Regressors To assess the amenability of the NFIP data set for predicting the amount paid on building claims, we tried kernel, decision trees, and neural networks-based methods. Here, we describe the ML regression algorithms employed in the benchmarking. Gaussian Processes (GP) is a type of stochastic process relying on the assumption that every subset of the collection of random variables follows a multivariate normal distribution, starting from a dataset of observations X n×m = [x 1 , . . . , x n ] T , x i ∈ R m , containing n observations of m variables, and the corresponding responses y = [y 1 , . . . , y n ] T . The problem is to compute the parameters φ= {φ 1 , . . . , φ κ }, including the model's variance σ 2 , which best map the observations with the response variable. GP is a Bayesian approach that estimates the parameters φ as P (φ | X, y) = P (y | X, φ)P (φ) P (y | X) .(1) Once the parameters are estimated, for each new observation x * , we could estimate the response variable y * marginalizing over the parameters as P (y * | x * , X, y) = φ P (y * | x * , φ)P (φ | X, y)dφ.(2) The assumption about a Gaussian nature of the individual components in (2) permits obtaining the result in closed form. Furthermore, the inverse in the mean value and the variance can be expressed in a computationally amenable form employing the Sherman-Morrison-Woodbury relationship (Guttman, 1946). In addition, once we use a nonlinear transformation z = f (x) on the input data, we may express the result with kernels as (Prince, 2012) P (y * | x * , X, y) = N   σ 2 p σ 2 K[x * , X]y − σ 2 p σ 2 K[x * , X] K[X, X] + σ 2 σ 2 p I −1 K[X, X]y, σ 2 p K[x * , x * ] − σ 2 p K[x * , X] K[X, X] + σ 2 σ 2 p I −1 K[X, x * ] + σ 2   ,(3) where σ 2 p is the prior covariance, I is the identity matrix, and K[x, x], an entry in the kernel matrix, computes implicitly the product f (x) T f (x), and can be chosen among the expressions meeting the Mercer criteria (Ghojogh et al., 2021). Extreme Gradient Boosting (XGB) is constructed as a forest of decision trees. Given a loss function, such as (Chen and Guestrin, 2016) L(F ) = n i=1 (y i − F (x i )) 2 + M m=1 Ω(F m ), where Ω(F m ) = γT m + 1 2 λ || ω m || 2 .(4) Here y i is one of the n reference values, F (x i ) = M m=1 F m (x i ) represents the outcome of the tree ensemble model, for F m (x i ) being one of the M regression trees with T m leaves and ω m leave weights, and Ω(F m ) is a regularization term that penalizes the complexity of the model with corresponding weights γ and λ. Gradient boosting creates incremental models based on previous iterations and focuses on the most challenging examples. That is, given a model prior, F m , the new approximation to y can be achieved by incorporating a new function h m such that F m+1 (x) = F m (x) + h m (x) = y,(5) is employed, i.e., h m can be expressed as h m (x) = y − F m (x).(6) Residuals h m (x) keep some resemblance to the negative of the gradient h m (x) ∝ − ∂L ∂F = 2 n (y − F m (x)) + ∂ ∂F Ω(F m ).(7) Furthermore, XGB computes a measure of importance for each feature by estimating its contribution to the overall performance. The importance measure considers how each attribute split point improves each tree's performance. The final estimation of importance is the average over all the decision trees in the model. Conditional Generative Adversarial Networks (CGAN) extend the capability of generative adversarial network models. CGAN typically produce data with similar characteristics to the training data by utilizing the response variable y as input, along with a random variable z, for both the generator G(z | y) and the discriminator D(x | y). For regression, the predictor X is employed instead of the response variable. During training, the discriminator updates its parameters using the gradient of the cross-entropy. In CGAN regression, the generator and discriminator functions are optimized by gradient descent using expressions to modify the parameters as (Goodfellow et al., 2020) θ + d ← θ − d − ρ d ∇ θ d    1 m m i=1 log D x i | y i + log 1 − D G z i | y i | y i    ,(8) while the generator employs just the portion affected by the random variable z i , as (Goodfellow et al., 2020) θ + g ← θ − g − ρ g ∇ θg    1 m m i=1 log 1 − D G z i | y i | y i    ,(9) for suitable learning rates ρ d and ρ g . Bias Correction Once observations infer response values, a parametric model fit to the distribution extracts the properties embedded in the predictions, which may be critical for assessing flood loss. As it is common in econometrics and risk statistics analysis, we approximate the distribution of the resulting predictions of the regression models using Burr (otherwise known as Burr Type XII, Burr, or Singh-Maddala) (Chen et al., 2021a). The Burr distribution has a probability density function (pdf) given as f (y; c, k, λ) = ck λ y λ c−1 1 + y λ c −k−1 ,(10) with parameters k, c for shape and λ for scale. Given the Burr's cumulative probability function (CDF) F for the predicted values F (y p ; c p , k p , λ p ) = 1 − 1 + y cp λ p −kp ,(11) one could approximate a reference distribution F (y g ; c g , k g , λ g ) by assuming equality for corresponding response values y p and y g as F (y g ; c g , k g , λ g ) = F (y p ; c p , k p , λ p ). One may correct for bias using the expression y g = λ g 1 − F (y p ; c p , k p , λ p ) −1/kg − 1 1/cg ,(12) for predicted and reference values, y p and y g , respectively. The parameters for the Burr distribution may be fit using Maximum-Likelihood. When Maximum-Likelihood fails to converge, a Weibull distribution is fit instead. The definition of Weibull distribution is g(y; k, λ) = k λ y λ k−1 e −(y/α) k ,(13) with parameters k for shape and λ for scale. Given the Weibull's CDF G p for the predicted values G(y p ; k p , λ p ) = 1 − e −(yp/λp) kp ,(14) one can approximate a reference distribution G(y g ; k g , λ g ) by assuming equality for corresponding response values y p and y g as G(y g ; k g , λ g ) = G(y p ; k p , λ p ). Using that assumption, one may correct for bias using the following closed-form expression y g = α g − log 1 − G(y p ; k p , λ p ) 1/kg ,(15) for predicted and reference values, y p and y g , respectively. Experimental Setup We analyze the NFIP by shifting and expanding periods to assess the regressors developed. We also study how significant physical variables could enrich NFIP. Finally, we detail the performance metric employed for assessment. Analysis Periods In many applications of ML regression, we start with a dataset split into training and testing partitions. The assumption is that the elements in the test split constitute a faithful representation of the data distribution where the learning has to occur, i.e., the task of the ML method is to perform well within the distribution defined by the dataset. This approach is not practical for predicting losses in general. In this problem, we want to learn from the past and assess events in the future. Thus, simulating flooding and claims can generate inferences about these possible scenarios. To build a regressor for a county, we train with the claims covering the period from years b + δ to b + o + k − 1, inclusive, and test with claims from year b + o + k, the immediate next one. Here, b represents a baseline year, o is an offset, and k is an iterator for integer variables where k ≥ 0 and o ≥ 1. The variable δ has two possible values. For shifting periods of analysis, δ = k, meaning that the period of o years employed for training shifts with new intervals. For expanding analysis periods, δ = 0, the claims considered start on year b and end on year b + o + k, for the k-th iteration considered. Incorporating Physical Variables Rainfall may strongly influence economic loss (Hu et al., 2021), which we aim to quantify within the context of NFIP. To that end, we incorporated the Daymet (Thornton et al., 2020) dataset, a daily estimation from 1980 to 2021 of weather and climatology variables. The variables are available in a 1 km × 1 km regular grid (see Figure 5). They include the maximum and minimum temperature, precipitation, shortwave radiation, vapor pressure, snow water, and day length. Since NFIP has a lower resolution, we incorporate the Daymet precipitation by aggregating the estimates around the geolocation of the claim at ±0.05 • of longitude and ±0.05 • of latitude. We tried six aggregation schemes, including Σ 3 , Σ 5 , Σ 7 , max 3 , max 5 , and max 7 , corresponding to the sum of rain two, four, and six days before, and the maximum for the two, four and six days earlier, in all cases including the day of the event. Once added to the predictors, the precipitation is normalized to have zero mean and unitary variance, just as the other continuous variables. Performance Evaluation To assess the performance of the different ML regressors, we utilize metrics reflecting the pointwise evaluation of inferences and the results we obtain by modeling the distributions of predictions. Pointwise Performance Evaluation To measure the pointwise similarity between the predictions for the response variable and the corresponding reference values, we employ indicators including the root-mean-squared error (RMSE), the RMSE divided by the standard deviation σ of the response value, and the coefficient of determination. Given a data set {X, y}, the unbiased estimation for the variance of the ground truth response variable is given by σ 2 = 1 n − 1 (y − µ) T (y − µ),(16) where µ is its mean value and n the number of elements in y. In regression, a common metric is RMSE, which measures the difference between the predicted values y p and the reference values y g using RMSE = 1 n (y p − y g ) T (y p − y g ).(17) Since the RMSE corresponding to different counties may result in a wide range of values, it is convenient to RMSE relative to the standard deviation as RMSE/σ. If this ratio is more than one, using the mean as the resulting inference would result in better performance than the outcome of the ML algorithm, while if it is below one, it is better to use the ML method. Comparison between Distributions Once a parametric continuous distribution approximates the data, there is a need to verify the goodness of fit. Among the several options available (Rayner et al., 2009), we select the Kolmogorov-Smirnov (K-S) test because it can be applied to continuous distributions and works best when the number of observations is in the order of thousands. For two CDFs P r and Q p , corresponding to the reference and prediction CDFs, the test employs the supreme of the difference to construct its test statistic, i.e., D n = max x | P r (x) − Q p (x) | . In the K-S test, the null hypothesis H 0 claims that the observations under consideration come from the same underlying distribution. One rejects the null hypothesis whenever √ nD n is larger than a certain critical value K α , where n is the number of samples, and α reflects a level of confidence, i.e., the area of the Kolmogorov pdf p K beyond the threshold K α is smaller than α. Otherwise, we are assuming that p K √ nD n ≤ K α = 1 − α. In practice, one rejects the null hypothesis when the p-value of the test is smaller than the significance level α. After testing the goodness of fit of the parametric pdf, we assess the difference between the reference and prediction distributions using the Kullback-Leibler (KL) divergence as D(p || q) = x p r (x) log p r (x) q p (x) dx,(18) where p r (x) and q p (x) correspond to the reference and inferred pdfs. Another performance measure consists of constructing a classifier to distinguish the distributions as considered different classes. Let the classification space C = {P, Q} for the reference and the prediction classes, respectively, with corresponding characterization p r (x) and q p (x). In the classification problem, given the observation of the predictor x, the objective is to assign it to the right class. In general, the classifier has to define whether an observation belongs to class P with probability p or to class Q with probability 1 − p. To indicate similarity between the distributions, we rely on regression gradient boosting trees (Friedman, 2001). Another insightful measure of performance is the determination coefficient R 2 , representing the proportion of the variability of the independent variable that is explainable in terms of the dependent ones. After bias correction, when there is a parametric representation of the reference p r (x) and prediction q p (x) distributions, we express R 2 as R 2 = 1 − S r S v = 1 − x p r (x) − q p (x) 2 dx x p r (x) − µ r 2 dx ,(19) where S r is the difference between the reference and prediction distributions, and S v is the deviation of the reference distribution from its mean value µ r . Chicco et al. (2021) argue that since the interval [0, 1] bounds the range of R 2 and because its value reflects the number of correctly-predicted elements, its use should be preferred based on its informative capability. Results To assess the predictive capabilities of the NFIP dataset, we implemented the method described in the previous sections and tested them on several scenarios. We standardized the continuous predictors using the training dataset, dividing the difference from its mean by the standard deviation, and created one-hot representations of the categorical variables. To assess the different regressors, we selected 11 US counties with many claims in the NFIP dataset for comparison (see Table 1). Fig. 3: Dataset protocol. The dataset partitions into training (70%) and testing (30%) partitions. The training dataset further has a learning (70%) and validation partition (30%). The first split is employed to fine-tune the hyperparameters. After training, performance results p i are obtained using the testing partition. Repeating this exercise 30 times estimates performance statistics. Setting Up, Fine Tuning and Comparing the Regressors Initially, we compared the regressors using the claims dataset corresponding to each of the counties under analysis. In this stage (see Figure 3), we took 70% of the data for training and 30% for testing. Then, we split the training dataset into learning (70%) and validation (30%) subsets. After evaluating the testing split, we obtained a performance assessment p i for this partition. After repeating this procedure 30 times, we estimated the performance statistics for each regressor in each county. XGB. For this regressor, we used the XGBoost version 1.4.1.1 in R. The parameters to fine-tune include 1. η ∼ U(0.0001, 1), the information from a new tree employed during boosting. 2. c s ∼ U(0.1, 1), the fraction of the variables considered during branch splitting. 3. d m ∼ U(2, 10), the maximum depth of the trees; 4. s s ∼ U(0.1, 1), the percentage of the data employed to grow the tree, in what is known as stochastic boosting; and 5. γ ∼ U(0.01, 100), the minimum reduction in the loss function that is needed to create a tree. We find these hyperparameters via a uniform random search over a range. Using a particular set of parameters, we trained an XGB regressor using the first split of the training/testing datasets taking 70% of the training samples for learning and validating with the remaining 30%. We kept the parameters for which, after 50 rounds, the root-meansquare error was relatively insignificant. A random search for the best parameters during 1,000 cycles for each county. Afterward, we trained for 100 iterations with the hyperparameters providing the best performance. GP. In this case, we optimized the hyperparameter using the Matlab fitrgp method, selecting the basis function among a constant, linear, and quadratic. We sought the optimal kernel scale between r · (10 −3 , 1), where r is the maximum predictor range. The value of sigma was sought in the range (10 −4 , max(10 −3 , 10 · σ y )), for σ y being the standard deviation of the response. Also, we determined whether to standardize or not. In the former case, we divided the difference between the predictor and its mean by standard deviation. For the optimization, we employed five-fold cross-validation on the training dataset. CGAN. We defined a fixed learning rate for the discriminator and generator of 0.001, trained with Adam the latter and Stochastic Gradient Descend the former. We employed the Exponential Linear Unit (ELU) as the activation function, training for 20 epochs with a batch size of 128. The stochastic input has a length of one. Our discriminator receives as input the predictors and is fully connected to a layer with 100 units, as does the stochastic value. Then, there are four fully connected layers, each with 50 units, ending with a single output with a sigmoid activation function. The generator and discriminator use a cross-validation loss function. The generator has the same architecture except for a linear output layer. After training the regressors, we computed the prediction for the elements in the training set and assessed the performance using the testing partition (see Figure 4). We notice that the XGB was the only regressor consistently providing results below one for the ratio RMSE/σ for almost all the counties under consideration. The exceptions were Fig. 4: Comparison of regressor performance. XGB generated regressors with a ration RMSE/σ below 1.0, albeit with at least one partition above it for Ocean and Nassau counties. The shaded area delimits the best and worst performance observed during the 30 dataset splits. GP and CGAN produced regressors with RMSE/σ ratios above 1.0, except for Broward and Miami-Dale, for which counties the methods did not converge to create a regressor. Ocean (NJ) and Nassau (NY) counties, for which XGB obtained a mean value of 0.8147 and 0.9382 but a maximum of 1.1227 and 2.4937. On the contrary, neither CGAN nor GP converged to a value smaller than one for the ratio RMSE/σ. Furthermore, they could not converge on a solution for Broward and Miami-Dade. For instance, the best results for GP were Jefferson Parish, Ocean, Nassau, and Suffolk, with an RMSE/σ ratio of 1.0. Based on these results, for the rest of the article, we will focus on the description of the predictive capabilities of the XGB regressor. Bias Correction During bias correction, we aim to fit a Burr distribution to the set of predictions, trying a Weibull when the minimization procedure fails to converge. In Figure 7, the method is illustrated for Harris county (48201) using the shifting period between 2000 and 2009, where the test dataset corresponded to 2010. For the predictions resulting from the evaluation of the training dataset, containing 47,160 claims, we fit a Burr distribution to the reference and predicted resulting in parameters α = 444, 293, c = 0.99, and k = 10.42 and α = 31, 832.9, c = 6.18, and k = 0.47. With a p-value of 6.5 × 10 −35 and 1.37 × 10 −19 , we reject the null hypothesis between the parametric model and the data distribution using the K-S test. We estimated the transformation between the reference and prediction-adjusted parametric distributions using the CDF and transformed the predicted values. Again, we fit a Burr distribution to these values, resulting in the parameters α = of 9, 294, c = 1.00, and k = 6.38. In this case, the K-S test resulted in a p-value of 5.43 × 10 −15 . During testing, with a dataset of 297 claims, we modeled the reference and prediction distribution, finding the parameters A = 28, 570.6, B = 0.78 and α = 36, 950.7, c = 6.87, and k = 1.04. Note that for the reference distribution, a Weibull distribution was fit. The function learned during training transforms observations corresponding to the predictions. The resulting distribution was fit using a Burr distribution with parameters α = 131, 763, c = 1.37, and k = 7.68. This time the K-S test resulted in a p-value of 0.83. Hence, we did not reject the null hypothesis. The initial distribution had a KL divergence of 0.0123, while the final distribution had a KL divergence of 0.0015. Similarly, the initial ROC AUC had a value of 0.85, while the final ROC AUC had a value of 0.58. Analysis Periods We studied the behavior of the XGB regressor under shifting and expanding periods. In both cases, 2000 was the baseline employed, while 2020 was the last analysis year. For expanding periods, we initially took ten years, i.e., used the period from 2000 to 2009 for training and 2010 for testing. Then, we selected the period from 2000 to 2010 for training and 2011 for testing. We kept doing this until we ultimately chose the period from 2000 to 2019 for training and tested with the claims in 2020. We repeated this exercise for the 11 counties under study. For shifting periods, we initially took the period from 2000 to 2009 for training and tested it in 2010. Contrasting with expanding periods, in the next iteration, we took from 2001 to 2010 for training and tested it in 2011. In the last iteration, we trained with data from (a) Daymet geospatial coverage (b) NFIP (blue) and Daymet (red) geolocations for Cook county, IL (black polygonal shape). Shifting and Expanding Periods with Rainfall. To study the incorporation of Daymet, we obtained the rain for two, four, and six days before, including the date of loss for Cook county (17031), and characterized it with their sum and the maximum over the period. To aggregate rainfall, we incorporated Daymet rainfall for the area, including ±0.05 • in latitude and longitude around the NFIP claim location. Then, we constructed six regressors, incorporating rain's corresponding characterization as a predictor. For the sums, we obtain an R 2 = 0.516, and for the maximums, R 2 = 0.515. Thus, we arbitrarily decided to use the sum of the millimeters of rain falling around the claim's location for the two days before, including the date of loss. Then, we decided to study the implications of using the rainfall information for the other counties under study. Figures A.8 A.9 illustrate the results. For shifting periods, XGB could fit a regressor with a ration RMSE/σ for all the test years in Orlean Parish county. Although it fit ten regressors for three counties, it fit nine regressors for nine counties. Using the weighted with the claims R 2 values, we obtain a linear correlation coefficient of 0.096 between the shifting and expanded periods of analysis with Daymet information included; a correlation of 0.056 between the shifting without Daymet and expanding with it; and a correlation of -0.215 between the shifting periods with Daymet and expanding periods without it. The p-value was generally good, with few cases per county rejecting the null hypothesis of the goodness of fit with the parametric Burr distribution. In the case of the shifting period plus Daymet, the only exception was Jefferson Parish (22051), where the p-value was larger than 0.05 through the analysis period. In the case of expanding periods plus Daymet, we observed p-values below 0.05 for Nassau (36059), Suffolk (36103), Galveston (48167), and Harris (48201) counties. Weighting by the number of claims for each county in a given year, the R 2 value for the shifting and expanding period with Daymet information included was 0.61 and 0.7, respectively. Comparing with Alternatives Research on the NFIP dataset to predict loss has been scarce. An exception is a work by Lin and Cha (Lin and Cha, 2021). In their approach, Lin and Cha start simulating hurricane storm tracks. Then, they use a rainfall prediction model to simulate rainfall intensity, predicting the stream stage increment and the flood depth at the centroid of census tracts. Finally, they aggregate flood loss using stage-damage curves, obtaining an R 2 value of 0.3382. To assess, they employ FEMA-classified significant flooding events, those generating at least 1,500 claims, in the eight coastal states in the US South-West, from Texas to North Carolina for the period from 1980 (hurricane Allen) to 2017 (hurricane Maria) (see Figure 6 (a)). These eight states include 121 counties on the shoreline generating 1,246,888 claims on NFIP. Tracing the trajectories of hurricanes, we detected the counties affected by significant flooding events. Using a leave-one-out (LOO) training strategy with cross-validation (CV), we took one storm for testing and the remaining for training. Thus, the number of claims for testing varies for each county regressor, depending on the hurricane employed. Figure 6(b) shows the maximum, minimum and average number of claims used for testing. We observe a surge of claims in Orlean Parish (22071) and Harris (48201) counties originating from Katrina (2005) and Harvey (2017) (see Figure 6(c)). Considering the number of claims, the average R 2 after bias correction is 0.807 (see Figure 6(d)). Feature Importance An important by-product of regressors such as XGB is their ability to rank importance for the employed variables. Table 2 depicts the results for the counties under analysis. Most counties' predictors, such as BFE (base flood elevation), rank high, but it is only sometimes the most important. It stands out that each county has a particular set of essential features with different relative importance. Also, most of the highest-ranked features are continuous, but some discrete features, such as RM (rate method) with value 5, are the second most important feature for the county with code 36103 (Suffolk, NY). 2: Ten most important features by county, as estimated by XGB. The value represents the fractional gain of a feature concerning the total gain of the feature's split (Chen and Guestrin, 2016). Acronyms stand for BFE (baseFloodElevation), ED (elevationDifference), PC (policyCount), TCI (totalContentsInsuranceCoverage), LAG (lowestAdjacentGrade), LFE (lowestFloorElevation), LAT (latitude), MO (months), LON (longitude), CI (condominiumIndicator), RZ (reportedZipcode), RM (rateMethod), OT (occupancyType), BE (basementEn-closureCrawlspace), ECI (elevationCertificateIndicator), EBI (elevatedBuildingIndicator), CRS (communityRatingSystemDiscount), NFB (numberOfFloorsInTheInsuredBuilding), OT (obstructionType Discussion As the effects of climate change spread across the globe Hu et al., 2021), the occurrence of more frequent and extreme flood events is anticipated, which will cause a significant economic (Basnayake et al., 2021) set back in urban (Mohor et al., 2021;Nofal et al., 2021) and rural (Mohammadi et al., 2021) settings. Thus, there is a need for novel models to estimate flood risk (Chen et al., 2021a) and estimate loss (Maiwald et al., 2021). This research sheds light on a data-driven estimation of flood loss in the US, where a considerable data-gathering infrastructure is readily available, as opposed to other nations where this effort still needs to take place (Lv et al., 2021). This research on the NFIP dataset (FEMA, 2019) shows that it is possible to construct regressors to infer the amount paid on building claims. This work adds to the current body of research on NFIP, enriching it to produce continuous probability for flooding (Zarekarizi et al., 2021), predict the number of claims (Yang et al., 2021) and in general assess risk (Lin and Cha, 2021). The regression results show significant progress over the employment of flood depth and damage curves (Lin and Cha, 2021), while the bias correction stage improves the overall estimation of the amount paid distribution, extending Chen et al. (2021a) analysis on risk models. The assessment of classic decision tree, kernel, and neural networks-based nonlinear regression methods highlights the potential of ML techniques and is similar to current efforts aimed to assess susceptibility Saha et al., 2021;Janizadeh et al., 2021;Siam et al., 2021a;, estimate the spatial extent (Lin and Billa, 2021;Lee and Kim, 2021), compare flood regions (Persiano et al., 2021). NFIP is a challenging dataset offering ample opportunities for ML techniques, e.g., consider the uncertainty quantification in the labeling process for predictors (Siam et al., 2021b). An emerging argument is that the already-changed climate renders the extended historical record ineffective for modeling future risk. To make matters worse, since extremes are rare, a short history is also insufficient. Thus, the argument goes, we may no longer rely on the historical record to assess risk, even in the near future! Figures A.8 A.9 show models with considerable skill at projecting interannual flood loss risk using the historical record. We posit that this is primarily because they adapt in a dynamic data-driven manner. The model adapts faster as the horizon of future interest shrinks. Further, performance is similar between the expanding and shifting window modes of adaptation. This empirical evidence implies that it is neither true that the record is too short for the present flood loss modeling problem nor that using the entire history per se makes risk assessment less skillful. We posit that accelerating climate change at longer horizons will require better models through physics, but the issue remains unsettled at short horizons. (a), we obtain the distribution of its outputs and fit a parametric probability density function (pdf). We adjust the distribution to match the reference and training output prediction (b). The alignment relies in the inverse cumulative density function method (c). The method is then applied to the test split of the dataset (d)-(e). A possible form to assess the resulting match is by constructing a classifier to distinguish between the populations before (f) and after (g) bias correction. Conclusion The evaluation of flood risk is complex due to its multidimensionality characteristics that touch social, economic, political, territorial, and scientific dimensions (Elliott, 2021). Nevertheless, the quantitative assessment of the amount paid on insurance claims offers a glimpse of the challenges ahead and could serve as a solid guide for decision-making. This research explores the censored NFIP dataset by studying diverse classic ML techniques covering kernel, neural network, and decision tree-based approach. For a sample of some counties with the most significant number of claims, we demonstrate that it is possible to construct regressors that offer a critical predictive ability beyond the conventional approach of water depth and damage risk maps. Furthermore, we showed that incorporating meteorological variables can enhance performance. We also demonstrate that feature importance varies by county, which justifies the need for regional analysis. We will incorporate relevant predictors into the regressor mix, as the related literature has highlighted their relevance. These include digital elevation maps, slopes, and climatological variables. Furthermore, current advances in ML techniques, such as oblique decision trees (Carreira-Perpiñán and Hada, 2021), are interesting to study in the light of the NFIP dataset. Data Availability Statement The data and code generated or used during the study are available upon request. Appendix A. The NFIP Dataset Fig. 1 : 1Predicting flood loss. Using the NFIP dataset, we construct and compare regressors based on decision trees, kernels, and neural networks to predict the flooding loss and select the most critical variables for estimation. Fig. 2 : 2Visual representation of the missing values in the NFIP dataset. Columns and rows represent features and records, respectively. Gray spaces represent missing values. Fig. 5 : 5Daymet is a dataset with daily weather parameters for North America, Hawaii (not shown), and Puerto Rico (not shown) (a). The resolution for Daymet is 1 km × 1 km, while NFIP has a resolution of 0.1 • (b). We incorporate Daymet precipitation by aggregating within non-overlapping squares around the NFIP location.2010 to 2019 and tested with 2020. To assess the R 2 performance of the XGB regressor, we weighted the value of the performance indicator by the number of claims employed for testing.Shifting and Expanding Periods. For shifting periods (seeFigure A.8 in the additional material section), the combination of XGB and bias correction produced regressors most of the time except in 2012 for Orlan Parish (22071). For five counties, they fail to generate a regressor for one year, different in each case. R 2 varies within a county. It can be as low as 0.15 for Cook county in 2014 or as high as 0.98 in 2015 for Nassan (36059). Correspondingly, the parametric fit was, in general adequate. For instance, the p-value did not fall below α = 0.05 for Jefferson Parish (22051), Orlean Parish (22071), and St Tammany Parish (22103), but it fell below α = 0.05 for Harris county (48201). The performance for expanding periods was lower (seeFigure A.9 in the additional material section). For instance, Jefferson Parish (22051) had only five useful regressors in the analysis period. The resulting values are uncorrelated with a linear correlation coefficient of -0.064 between the corresponding R 2 values of shifting and expanding periods. However, weighting by the number of claims per county in a given year, the R 2 value for the shifting and expanding window was 0.61 and 0.7, respectively. Maximum, minimum and average number of claims in the LOO-CV construction of regressors. (c) Maximum, minimum and average R 2 in the LOO-CV construction of regressors (d) R 2 by county and hurricane. The circled cells signal places that lack a useful regressor. Fig. 6 : 6Construction of regressors by the county during the analysis of significant flooding events due to hurricanes. Hurricanes affect shoreline counties (a) and generate significant flooding events (b). Using Leave-One-Out (LOO) Cross-Validation (CV), we selected one hurricane affecting a county and the remaining ones for testing (c). The resulting mean R 2 value is 0.807 (d). Fig. A. 9 : 9Expanding Window. Resulting in R 2 (*.1) and corresponding p-value (*.2) for the counties under analysis for the testing period between 2010 and 2020. For the p-value figures, the horizontal dotted line signals the reference value for α = 0.05, rejecting values below the null hypothesis of suitable goodness of fit. The blue line shows the results for NFIP, and the red line for the combination NFIP+Daymet. Table 1 : 1Counties employed in assessing ML regressors because of their large number of claims.n code name claims n code name claims 1 12011 Broward, FL 31,059 7 34029 Ocean, NJ 52,436 2 12086 Miami-Dade, FL 61,197 8 36059 Nassau, NY 50,067 3 17031 Cook, IL 15,180 9 36103 Suffolk, NY 33,130 4 22051 Jefferson Parish, LA 133,162 10 48167 Galveston, TX 60,224 5 22071 Orlean Parish, LA 126,405 11 48201 Harris, TX 171,202 6 22103 St Tammany Parish, LA 37,514 Table ).county 1 2 3 4 5 6 7 8 9 10 1 12011 BFE TBI ED PC LAG MO TCI RZ.33009 LFE PR.1 1.00 0.90 0.49 0.41 0.34 0.29 0.21 0.19 0.16 0.14 2 12086 TBI BFE PC MO LFE ED LON LAG TCI FZ.A14 1.00 0.92 0.59 0.39 0.37 0.29 0.16 0.16 0.13 0.13 3 17031 BFE TCI MO CI.A TBI OT.4 LAT LAG ECI.1 ED 1.00 0.13 0.10 0.08 0.07 0.05 0.03 0.03 0.02 0.02 4 22051 TBI BFE MO LFE TCI RZ.70006 LAG ED PC LAT 1.00 0.94 0.68 0.28 0.17 0.14 0.11 0.10 0.10 0.09 5 22071 BFE TBI MO ED PC TCI LAG LFE BE.4 LON 1.00 0.89 0.57 0.27 0.27 0.25 0.21 0.14 0.03 0.03 6 22103 MO TBI BFE LAT LAG TCI LFE ED LON RZ.70461 1.00 0.93 0.82 0.40 0.37 0.35 0.31 0.31 0.07 0.07 7 34029 BFE LAG MO TBI LFE ED TCI LAT PC CRS.5 1.00 0.40 0.38 0.37 0.36 0.34 0.27 0.20 0.13 0.07 8 36059 PC RM.5 BFE TBI LAG MO ED TCI LFE NFB.6 1.00 0.76 0.48 0.39 0.21 0.16 0.10 0.04 0.03 0.03 9 36103 BFE MO LFE TBI TCI ED LAG LAT LON RM.1 1.00 0.57 0.43 0.37 0.20 0.19 0.18 0.10 0.09 0.06 10 48167 TBI BFE TCI MO PC LAG ED LFE EBI.1 LON 1.00 0.44 0.33 0.31 0.25 0.22 0.20 0.19 0.14 0.12 11 48201 BFE TBI MO LAG PC TCI ED LFE LAT LON 1.00 0.55 0.35 0.23 0.18 0.15 0.06 0.05 0.04 0.03 Fig. 7: Bias Correction. Once the regressor trains(a) XGB initial (b) XGB final (c) CDF matching (d) XGB test initial (e) XGB test final (f) ROC initial (g) ROC final Table A . A3 describes the structure of the NFIP dataset, while Figures A.8 and A.9 provide further detail for the results of fitting regressors to each county. Table A . A3: NFIP dataset. Here, we describe the 22 discrete and nine continuous variables employed in this research and the range of values each takes in the dataset. A01,. . . , A30, A99, A; AE, A1 . . . A30; A99 AH, AHB, AO,AOB,X, B,X, C ; D; V; VE, V1-V30; AE, VE, X, V1-V30, B,C; AR; AHB, AOB, ARE, ARH, ARO, and ARA12 Number of Floors in the Insured Building Y, N 13 Non Profit Indicator Y, N 14 Obstruction Type 10, . . . , 98 15 Occupancy Type 1, . . . , 4 16 Original Construction Date 1950.01.01 to 2048.07.25 17 Post-FIRM Construction Indicator Y, N 18 Rate Method 1,. . . , 9, A, B, E, F, G, P,. . .Fig. A.8: Shifting Window. Resulting in R 2 (*.1) and corresponding p-value (*.2) for the counties under analysis for the testing period between 2010 and 2020. For the p-value figures, the horizontal dotted line signals the reference value for α = 0.05, rejecting values below the null hypothesis of suitable goodness of fit. The blue line shows the results for NFIP and the red line for the combination NFIP+Daymet.Discrete Continuous 1 Agriculture Structure Indica- tor Y, N 23 Amount Paid On Building Claim R ≥ 0 2 Basement Enclosure Crawlspace Type 0, . . . , 4 24 Base Flood Eleva- tion elevation feet for a 1% chance/year of flooding 3 Community Rating System Discount 1,. . . , 10 25 Elevation Differ- ence R 4 Condominium Indicator N, U, A, H, L, T; 26 Latitude −90 • ≤ R ≤ 90 • 5 Date Of Loss 1970-08-31, . . . , 2021-09-08 27 Longitude −180 • ≤ R ≤ 180 • 6 Elevated Building Indicator Y, N 28 Lowest Adjacent Grade R 7 Elevation Certificate Indica- tor Y, N 8 Flood Zone A, 29 Lowest Floor Ele- vation R 9 House of Worship Y, N 30 Policy Count 1, . . . , Z 10 Location Of Contents 1, . . . , 7 31 Total Building In- surance Coverage R ≥ 0 11 Lowest Adjacent Grade 1, . . . , 6 32 Total Contents In- surance Coverage R ≥ 0 , T, W 19 Primary Residence Y, N 20 Small Business Indicator Building Y, N 21 Year of Loss 1970, . . . , 2021 22 Zip Code 5-digit Postal Zip Code (a.1) 12011 (b.1) 12086 (c.1) 17031 (d.1) 22051 (e.1) 22071 (f.1) 22103 (g.1) 34029 (h.1) 36059 (i.1) 36103 (j.1) 48167 (k.1) 48201 (a.2) 12011 (b.2) 12086 (c.2) 17031 (d.2) 22051 (e.2) 22071 (f.2) 22103 (g.2) 34029 (h.2) 36059 (i.2) 36103 (j.2) 48167 (k.2) 48201 (a.1) 12011 (b.1) 12086 (c.1) 17031 (d.1) 22051 (e.1) 22071 (f.1) 22103 (g.1) 34029 (h.1) 36059 (i.1) 36103 (j.1) 48167 (k.1) 48201 (a.2) 12011 (b.2) 12086 (c.2) 17031 (d.2) 22051 (e.2) 22071 (f.2) 22103 (g.2) 34029 (h.2) 36059 (i.2) 36103 (j.2) 48167 (k.2) 48201 Kerry Emanuel, personal communication AcknowledgementsThis work was funded in part by Liberty Mutual (029024-00020), ONR (N00014-19-1-2273), and the two MIT Climate Grand Challenge projects, namely, "Preparing for a New World of Weather and Climate Extremes" and "Reinventing Climate Change Adaptation with the Climate Resilience Early Warning System (CREWSnet)." SIP-IPN partly supported Joaquin Salas under grant 20220583 and by SECTEI CDMX under grant 910C21. The article's content is solely the responsibility of the authors and does not necessarily represent the official views of the sponsors and funding sources. The authors thank Dagoberto Pulido for providing routines for inferring the missing values and Goran Zivanovic for data analysis assistance. Model-based monitoring for early warning flood detection. E A Basha, S Ravela, D Rus, Proceedings of the 6th ACM Conference on Embedded Network Sensor Systems. the 6th ACM Conference on Embedded Network Sensor SystemsNew York, NY, USAAssociation for Computing MachineryBasha, E.A., Ravela, S., Rus, D., 2008. Model-based monitoring for early warning flood detection, in: Proceedings of the 6th ACM Conference on Embedded Network Sensor Systems, Association for Computing Machinery, New York, NY, USA. p. 295-308. Assessing potential loss and damage for flood hazard using an econometric modelling technique. S Basnayake, M Ulubasoglu, M H Rahman, S Premalal, L Chandrapala, M L Shrestha, S Jayasinghe, N Gupta, APN Science Bulletin. Basnayake, S., Ulubasoglu, M., Rahman, M.H., Premalal, S., Chandrapala, L., Shrestha, M.L., Jayasinghe, S., Gupta, N., 2021. Assessing potential loss and damage for flood hazard using an econometric modelling technique. APN Science Bulletin . Counterfactual explanations for oblique decision trees: Exact, efficient algorithms. E Blasch, S Ravela, A Aved, M Á Carreira-Perpiñán, S S Hada, AAAI Conference on Artificial Intelligence. Springer750Handbook of dynamic data driven applications systemsBlasch, E., Ravela, S., Aved, A., 2018. Handbook of dynamic data driven applications systems. Springer , 750. Carreira-Perpiñán, M.Á., Hada, S.S., 2021. Counterfactual explanations for oblique decision trees: Exact, efficient algorithms, in: AAAI Conference on Artificial Intelligence, pp. 6903-6911. Applying value at risk and riskiness models to analyze the flood loss of transportation construction projects in Taiwan. P H Chen, T T Peng, C J Chen, Journal of the Chinese Institute of Engineers. 44Chen, P.H., Peng, T.T., Chen, C.J., 2021a. Applying value at risk and riskiness models to analyze the flood loss of transportation construction projects in Taiwan. Journal of the Chinese Institute of Engineers 44, 237-242. Xgboost: A scalable tree boosting system. T Chen, C Guestrin, ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. Chen, T., Guestrin, C., 2016. Xgboost: A scalable tree boosting system, in: ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, pp. 785-794. Does high risk mean high loss: evidence from flood disaster in southern china. Y Chen, J Li, A Chen, Science of the total environment. 785Chen, Y., Li, J., Chen, A., 2021b. Does high risk mean high loss: evidence from flood disaster in southern china. Science of the total environment 785, 147127. The coefficient of determination R-squared is more informative than SMAPE, MAE, MAPE, MSE and RMSE in regression analysis evaluation. D Chicco, M Warrens, G Jurman, PeerJ Computer Science. 7623Chicco, D., Warrens, M., Jurman, G., 2021. The coefficient of determination R-squared is more informative than SMAPE, MAE, MAPE, MSE and RMSE in regression analysis evaluation. PeerJ Computer Science 7, e623. Development of flood damage regression models by rainfall identification reflecting landscape features in gangwon province, the republic of korea. H I Choi, 10123Choi, H.I., 2021. Development of flood damage regression models by rainfall identification reflecting landscape features in gangwon province, the republic of korea. Land 10, 123. Flash-flood potential index estimation using fuzzy logic combined with deep learning neural network, naive Bayes, XGBoost and classification and regression tree. R Costache, A Arabameri, H Moayedi, Q B Pham, M Santosh, H Nguyen, M Pandey, B T Pham, Geocarto International. Costache, R., Arabameri, A., Moayedi, H., Pham, Q.B., Santosh, M., Nguyen, H., Pandey, M., Pham, B.T., 2021. Flash-flood potential index estimation using fuzzy logic combined with deep learning neural network, naive Bayes, XGBoost and classification and regression tree. Geocarto International , 1-28. Economic Losses, Poverty and Disasters. CREDCRED, 2018. Economic Losses, Poverty and Disasters, 1998-2017. URL: https://www.unisdr.org. The FIMA NFIP's Redacted Policies and Redacted Claims Datasets. T Dombrowski, D Ratnadiwakara, V C SlawsonJr, Journal of Real Estate Literature. 28Dombrowski, T., Ratnadiwakara, D., Slawson Jr, V.C., 2021. The FIMA NFIP's Redacted Policies and Redacted Claims Datasets. Journal of Real Estate Literature 28, 190-212. Underwater: Loss, flood insurance, and the moral economy of climate change in the United States. R Elliott, Columbia University PressElliott, R., 2021. Underwater: Loss, flood insurance, and the moral economy of climate change in the United States. Columbia University Press. Divine wind: the history and science of hurricanes. K Emanuel, Oxford University pressEmanuel, K., 2005. Divine wind: the history and science of hurricanes. Oxford University press. Synthetic Storm Simulation for Wind Risk Assessment. K Emanuel, S Ravela, Emanuel, K., Ravela, S., 2012. Synthetic Storm Simulation for Wind Risk Assessment. chapter 3. pp. 15-36. A Statistical Deterministic Approach to Hurricane Risk Assessment. K Emanuel, S Ravela, E Vivant, C Risi, Bulletin of the American Meteorological Society. 87Emanuel, K., Ravela, S., Vivant, E., Risi, C., 2006. A Statistical Deterministic Approach to Hurricane Risk Assessment. Bulletin of the American Meteorological Society 87, 299-314. Federal insurance and mitigation administration national flood insurance program (FIMA NFIP) redacted claims dataset. FEMA. FEMA, 2019. Federal insurance and mitigation administration national flood insurance program (FIMA NFIP) redacted claims dataset. URL: https://www.fema.gov/about/reports-and-data/openfema. Hazus flood technical manual. Fema, Hazus 5.1, 110FEMA, 2022. Hazus flood technical manual. Hazus 5.1, 110. Climate change attribution and the economic costs of extreme weather events: a study on damages from extreme rainfall and drought. D Frame, Climatic Change. 162Frame, D., et al., 2020. Climate change attribution and the economic costs of extreme weather events: a study on damages from extreme rainfall and drought. Climatic Change 162, 781-797. Greedy function approximation: a gradient boosting machine. J Friedman, Annals of statistics. Friedman, J., 2001. Greedy function approximation: a gradient boosting machine. Annals of statistics , 1189-1232. Reproducing kernel hilbert space, mercer's theorem, eigenfunctions, nystr\" om method, and use of kernels in machine learning: Tutorial and survey. B Ghojogh, A Ghodsi, F Karray, M Crowley, arXiv:2106.08443arXiv preprintGhojogh, B., Ghodsi, A., Karray, F., Crowley, M., 2021. Reproducing kernel hilbert space, mercer's theorem, eigenfunctions, nystr\" om method, and use of kernels in machine learning: Tutorial and survey. arXiv preprint arXiv:2106.08443 . Intelligent systems for geosciences: An essential research agenda. Y Gil, S A Pierce, H Babaie, A Banerjee, K Borne, G Bust, M Cheatham, I Ebert-Uphoff, C Gomes, M Hill, J Horel, L Hsu, J Kinter, C Knoblock, D Krum, V Kumar, P Lermusiaux, Y Liu, C North, V Pankratius, S Peters, B Plale, A Pope, S Ravela, J Restrepo, A Ridley, H Samet, S Shekhar, K Skinner, P Smyth, B Tikoff, L Yarmey, J Zhang, Commun. ACM. 62Gil, Y., Pierce, S.A., Babaie, H., Banerjee, A., Borne, K., Bust, G., Cheatham, M., Ebert-Uphoff, I., Gomes, C., Hill, M., Horel, J., Hsu, L., Kinter, J., Knoblock, C., Krum, D., Kumar, V., Lermusiaux, P., Liu, Y., North, C., Pankratius, V., Peters, S., Plale, B., Pope, A., Ravela, S., Restrepo, J., Ridley, A., Samet, H., Shekhar, S., Skinner, K., Smyth, P., Tikoff, B., Yarmey, L., Zhang, J., 2018. Intelligent systems for geosciences: An essential research agenda. Commun. ACM 62, 76-84. Generative adversarial networks. I Goodfellow, J Pouget-Abadie, M Mirza, B Xu, D Warde-Farley, S Ozair, A Courville, Y Bengio, Communications of the ACM. 63Goodfellow, I., Pouget-Abadie, J., Mirza, M., Xu, B., Warde-Farley, D., Ozair, S., Courville, A., Bengio, Y., 2020. Generative adversarial networks. Communications of the ACM 63, 139-144. Enlargement methods for computing the inverse matrix. The annals of mathematical statistics. L Guttman, Guttman, L., 1946. Enlargement methods for computing the inverse matrix. The annals of mathematical statistics , 336-343. Unbreakable: building the resilience of the poor in the face of natural disasters. S Hallegatte, A Vogt-Schilb, M Bangalore, J Rozenberg, World Bank PublicationsHallegatte, S., Vogt-Schilb, A., Bangalore, M., Rozenberg, J., 2016. Unbreakable: building the resilience of the poor in the face of natural disasters. World Bank Publications. Using climate factors to estimate flood economic loss risk. X Hu, M Wang, K Liu, D Gong, H Kantz, International Journal of Disaster Risk Science. 12Hu, X., Wang, M., Liu, K., Gong, D., Kantz, H., 2021. Using climate factors to estimate flood economic loss risk. International Journal of Disaster Risk Science 12, 731-744. Climate change 2021: The Physical Science Basis. Ipcc, United Nations. IPCC, 2021. Climate change 2021: The Physical Science Basis. United Nations. Novel Bayesian Additive Regression Tree Methodology for Flood Susceptibility Modeling. S Janizadeh, M Vafakhah, Z Kapelan, N M Dinan, Water Resources Management. 35Janizadeh, S., Vafakhah, M., Kapelan, Z., Dinan, N.M., 2021. Novel Bayesian Additive Regression Tree Methodology for Flood Susceptibility Modeling. Water Resources Management 35, 4621-4646. Machine learning for the geosciences: Challenges and opportunities. A Karpatne, I Ebert-Uphoff, S Ravela, H A Babaie, V Kumar, 10.1109/TKDE.2018.2861006IEEE Transactions on Knowledge and Data Engineering. 31Karpatne, A., Ebert-Uphoff, I., Ravela, S., Babaie, H.A., Kumar, V., 2019. Machine learning for the geosciences: Challenges and opportunities. IEEE Transactions on Knowledge and Data Engineering 31, 1544-1554. doi:10.1109/TKDE.2018.2861006. To appeal and amend: Changes to recently updated Flood Insurance Rate Maps. Risk, Hazards & Crisis in Public Policy. D Lea, S Pralle, 13Lea, D., Pralle, S., 2022. To appeal and amend: Changes to recently updated Flood Insurance Rate Maps. Risk, Hazards & Crisis in Public Policy 13, 28-47. Scenario-based real-time flood prediction with logistic regression. J Lee, B Kim, 131191Lee, J., Kim, B., 2021. Scenario-based real-time flood prediction with logistic regression. Water 13, 1191. Hurricane Freshwater Flood Risk Assessment Model for Residential Buildings in Southeast US Coastal States Considering Climate Change. C Y Lin, E J Cha, Natural Hazards Review. 224020061Lin, C.Y., Cha, E.J., 2021. Hurricane Freshwater Flood Risk Assessment Model for Residential Buildings in Southeast US Coastal States Considering Climate Change. Natural Hazards Review 22, 04020061. Spatial prediction of flood-prone areas using geographically weighted regression. Environmental Advances 6, 100118. J M Lin, L Billa, L Liu, J Gao, S Wu, Natural Hazards and Earth System Sciences Discussions. Half a degree warming might cause doubled economic loss and intensified affected population of flood in ChinaLin, J.M., Billa, L., 2021. Spatial prediction of flood-prone areas using geographically weighted regression. Environmental Advances 6, 100118. Liu, L., Gao, J., Wu, S., 2021. Half a degree warming might cause doubled economic loss and intensified affected population of flood in China. Natural Hazards and Earth System Sciences Discussions , 1-19. Construction of flood loss function for cities lacking disaster data based on three-dimensional (object-function-array) data processing. H Lv, Y Meng, Z Wu, X Guan, Y Liu, Science of the total environment. 773145649Lv, H., Meng, Y., Wu, Z., Guan, X., Liu, Y., 2021. Construction of flood loss function for cities lacking disaster data based on three-dimensional (object-function-array) data processing. Science of the total environment 773, 145649. A new model for consideration of flow velocity in flood damage and loss prognosis. H Maiwald, C Kaufmann, T Langhammer, J Schwarz, European Conference on Flood Risk Management. Budapest University of Technology and EconomicsMaiwald, H., Kaufmann, C., Langhammer, T., Schwarz, J., 2021. A new model for consideration of flow velocity in flood damage and loss prognosis, in: European Conference on Flood Risk Management, Budapest University of Technology and Economics. pp. 1-12. Missing data imputation via the expectation-maximization algorithm can improve principal component analysis aimed at deriving biomarker profiles and dietary patterns. L Malan, C M Smuts, J Baumgartner, C Ricci, Nutrition Research. 75Malan, L., Smuts, C.M., Baumgartner, J., Ricci, C., 2020. Missing data imputation via the expectation-maximization algorithm can improve principal component analysis aimed at deriving biomarker profiles and dietary patterns. Nutrition Research 75, 67-76. Quantification of continuous flood hazard using random forest classification and flood insurance claims at large spatial scales: a pilot study in southeast Texas. W Mobley, A Sebastian, R Blessing, W E Highfield, L Stearns, S D Brody, Natural Hazards and Earth System Sciences. 21Mobley, W., Sebastian, A., Blessing, R., Highfield, W.E., Stearns, L., Brody, S.D., 2021. Quantification of continuous flood hazard using random forest classification and flood insurance claims at large spatial scales: a pilot study in southeast Texas. Natural Hazards and Earth System Sciences 21, 807-822. Flood risk mapping and crop-water loss modeling using water footprint analysis in agricultural watershed, northern Iran. M Mohammadi, H Darabi, F Mirchooli, A Bakhshaee, A T Haghighi, Natural Hazards. 105Mohammadi, M., Darabi, H., Mirchooli, F., Bakhshaee, A., Haghighi, A.T., 2021. Flood risk mapping and crop-water loss modeling using water footprint analysis in agricultural watershed, northern Iran. Natural Hazards 105, 2007-2025. Residential flood loss estimated from Bayesian multilevel models. G S Mohor, A H Thieken, O Korup, Natural Hazards and Earth System Sciences. 21Mohor, G.S., Thieken, A.H., Korup, O., 2021. Residential flood loss estimated from Bayesian multilevel models. Natural Hazards and Earth System Sciences 21, 1599-1614. The expectation-maximization algorithm. T K Moon, IEEE Signal processing magazine. 13Moon, T.K., 1996. The expectation-maximization algorithm. IEEE Signal processing magazine 13, 47-60. Joint effects of storm surge and sea-level rise on us coasts: new economic estimates of impacts, adaptation, and benefits of mitigation policy. J E Neumann, K Emanuel, S Ravela, L Ludwig, P Kirshen, K Bosma, J Martinich, Climatic Change. 129Neumann, J.E., Emanuel, K., Ravela, S., Ludwig, L., Kirshen, P., Bosma, K., Martinich, J., 2015a. Joint effects of storm surge and sea-level rise on us coasts: new economic estimates of impacts, adaptation, and benefits of mitigation policy. Climatic Change 129, 337-349. Risks of coastal storm surge and the effect of sea level rise in the red river delta. J E Neumann, K A Emanuel, S Ravela, L C Ludwig, C Verly, vietnam. Sustainability. 7Neumann, J.E., Emanuel, K.A., Ravela, S., Ludwig, L.C., Verly, C., 2015b. Risks of coastal storm surge and the effect of sea level rise in the red river delta, vietnam. Sustainability 7, 6553-6572. O M Nofal, J W Van De Lindt, H Cutler, M Shields, K Crofton, Modeling the Impact of Building-Level Flood Mitigation Measures Made Possible by Early Flood Warnings on Community-Level Flood Loss Reduction. Buildings 11. 475Nofal, O.M., van de Lindt, J.W., Cutler, H., Shields, M., Crofton, K., 2021. Modeling the Impact of Building-Level Flood Mitigation Measures Made Possible by Early Flood Warnings on Community-Level Flood Loss Reduction. Buildings 11, 475. Linkage of geographically weighted regression with spatial cluster analyses for regionalization of flood peak discharges drivers: Case studies across Iran. E Parizi, M Bagheri-Gavkosh, S M Hosseini, F Geravand, S Patro, C Chatterjee, S Mohanty, R Singh, N Raghuwanshi, Journal of the Indian Society of Remote Sensing. 310Journal of Cleaner ProductionParizi, E., Bagheri-Gavkosh, M., Hosseini, S.M., Geravand, F., 2021. Linkage of geographically weighted regression with spatial cluster analyses for regionalization of flood peak discharges drivers: Case studies across Iran. Journal of Cleaner Production 310, 127526. Patro, S., Chatterjee, C., Mohanty, S., Singh, R., Raghuwanshi, N., 2009. Flood inundation modeling using MIKE FLOOD and remote sensing data. Journal of the Indian Society of Remote Sensing 37, 107-118. Hurricane Betsy in the Florida-Bahama area: geologic effects and comparison with Hurricane Donna. R Perkins, P Enos, The Journal of Geology. 76Perkins, R., Enos, P., 1968. Hurricane Betsy in the Florida-Bahama area: geologic effects and comparison with Hurricane Donna. The Journal of Geology 76, 710-717. A comparison between generalized least squares regression and top-kriging for homogeneous cross-correlated flood regions. S Persiano, J L Salinas, J R Stedinger, W H Farmer, D Lun, A Viglione, G Blöschl, A Castellarin, Hydrological Sciences Journal. 66Persiano, S., Salinas, J.L., Stedinger, J.R., Farmer, W.H., Lun, D., Viglione, A., Blöschl, G., Castellarin, A., 2021. A comparison between generalized least squares regression and top-kriging for homogeneous cross-correlated flood regions. Hydrological Sciences Journal 66, 565-579. Computer vision: models, learning, and inference. S Prince, Cambridge University PressPrince, S., 2012. Computer vision: models, learning, and inference. Cambridge University Press. A case study of flood frequency analysis by intercomparison of graphical linear log-regression method and gumbel's analytical method in the vaigai river basin of tamil nadu, india. M Ramasamy, S Nagan, P S Kumar, Chemosphere. 286131571Ramasamy, M., Nagan, S., Kumar, P.S., 2022. A case study of flood frequency analysis by intercomparison of graphical linear log-regression method and gumbel's analytical method in the vaigai river basin of tamil nadu, india. Chemosphere 286, 131571. Statistical-deterministic approach to natural disaster prediction. United States Patent. S Ravela, K Emanuel, Ravela, S., Emanuel, K., 2010. Statistical-deterministic approach to natural disaster prediction. United States Patent . Smooth tests of goodness of fit: using R. J C Rayner, O Thas, D J Best, John Wiley & SonsRayner, J.C., Thas, O., Best, D.J., 2009. Smooth tests of goodness of fit: using R. John Wiley & Sons. Flood susceptibility assessment using novel ensemble of hyperpipes and support vector regression algorithms. A Saha, S C Pal, A Arabameri, T Blaschke, S Panahi, I Chowdhuri, R Chakrabortty, R Costache, A Arora, 13241Saha, A., Pal, S.C., Arabameri, A., Blaschke, T., Panahi, S., Chowdhuri, I., Chakrabortty, R., Costache, R., Arora, A., 2021. Flood susceptibility assessment using novel ensemble of hyperpipes and support vector regression algorithms. Water 13, 241. Downscaling Extreme Rainfall Using Physical-Statistical Generative Adversarial Learning. A Saha, S Ravela, arXiv:2212.01446arXiv preprintSaha, A., Ravela, S., 2022. Downscaling Extreme Rainfall Using Physical-Statistical Generative Adversarial Learning. arXiv preprint arXiv:2212.01446 . Hazus-mh flood loss estimation methodology. ii. damage and loss assessment. C Scawthorn, P Flores, N Blais, H Seligson, E Tate, S Chang, E Mifflin, W Thomas, J Murphy, C Jones, Natural Hazards Review. 7Scawthorn, C., Flores, P., Blais, N., Seligson, H., Tate, E., Chang, S., Mifflin, E., Thomas, W., Murphy, J., Jones, C., et al., 2006. Hazus-mh flood loss estimation methodology. ii. damage and loss assessment. Natural Hazards Review 7, 72-81. Developing multivariable probabilistic flood loss models for companies. L Schoppa, H Kreibich, T Sieg, K Vogel, G Zöller, European Conference on Flood Risk Management. Budapest University of Technology and EconomicsSchoppa, L., Kreibich, H., Sieg, T., Vogel, K., Zöller, G., 2021. Developing multivariable probabilistic flood loss models for companies, in: European Conference on Flood Risk Management, Budapest University of Technology and Economics. pp. 1-9. Study of Hybridized Support Vector Regression Based Flood Susceptibility Mapping for Bangladesh. Z S Siam, R T Hasan, S S Anik, F Noor, M S G Adnan, R M Rahman, International Conference on Industrial, Engineering and Other Applications of Applied Intelligent Systems. SpringerSiam, Z.S., Hasan, R.T., Anik, S.S., Noor, F., Adnan, M.S.G., Rahman, R.M., 2021a. Study of Hybridized Support Vector Regression Based Flood Susceptibility Mapping for Bangladesh, in: International Conference on Industrial, Engineering and Other Applications of Applied Intelligent Systems, Springer. pp. 59-71. Effects of Label Noise on Regression Performances and Model Complexities for Hybridized Machine Learning Based Spatial Flood Susceptibility Modelling. Z S Siam, R T Hasan, R M Rahman, Cybernetics and Systems. Siam, Z.S., Hasan, R.T., Rahman, R.M., 2021b. Effects of Label Noise on Regression Performances and Model Complexities for Hybridized Machine Learning Based Spatial Flood Susceptibility Modelling. Cybernetics and Systems , 1-18. Applications of artificial intelligence for disaster management. W Sun, P Bocchini, B D Davison, Natural Hazards. Sun, W., Bocchini, P., Davison, B.D., 2020. Applications of artificial intelligence for disaster management. Natural Hazards , 1-59. Concurrent spatiotemporal daily land use regression modeling and missing data imputation of fine particulate matter using distributed space-time expectation maximization. S M Taghavi-Shahri, A Fassò, B Mahaki, H Amini, Atmospheric Environment. 224117202Taghavi-Shahri, S.M., Fassò, A., Mahaki, B., Amini, H., 2020. Concurrent spatiotemporal daily land use regression modeling and missing data imputation of fine particulate matter using distributed space-time expectation maximization. Atmospheric Environment 224, 117202. Daymet: Daily surface weather data on a 1-km grid for north america, version 4. M Thornton, R Shrestha, Y Wei, P Thornton, S Kao, B Wilson, 10.3334/ORNLDAAC/1840Thornton, M., Shrestha, R., Wei, Y., Thornton, P., Kao, S., Wilson, B., 2020. Daymet: Daily surface weather data on a 1-km grid for north america, version 4. URL: https://daymet.ornl.gov, doi:10.3334/ORNLDAAC/1840. Consumer Price Index. S. Bureau of Labor StatisticsS. Bureau of Labor Statistics, 2021. Consumer Price Index. URL: https://www.bls.gov/cpi/. Flood susceptibility mapping by integrating frequency ratio and index of entropy with multilayer perceptron and classification and regression tree. Y Wang, Z Fang, H Hong, R Costache, X Tang, Journal of Environmental Management. 289112449Wang, Y., Fang, Z., Hong, H., Costache, R., Tang, X., 2021. Flood susceptibility mapping by integrating frequency ratio and index of entropy with multilayer perceptron and classification and regression tree. Journal of Environmental Management 289, 112449. Predicting Flood Property Insurance Claims over CONUS, Fusing Big Earth Observation Data. Q Yang, X Shen, F Yang, E N Anagnostou, K He, C Mo, H Seyyedi, A J Kettner, Q Zhang, American Meteorological SocietyYang, Q., Shen, X., Yang, F., Anagnostou, E.N., He, K., Mo, C., Seyyedi, H., Kettner, A.J., Zhang, Q., 2021. Predicting Flood Property Insurance Claims over CONUS, Fusing Big Earth Observation Data. Bulletin of the American Meteorological Society . The Flood Probability Interpolation Tool (FLOPIT): A Simple Tool to Improve Spatial Flood Probability Quantification and Communication. M Zarekarizi, K J Roop-Eckart, S Sharma, K Keller, 13666Zarekarizi, M., Roop-Eckart, K.J., Sharma, S., Keller, K., 2021. The Flood Probability Interpolation Tool (FLOPIT): A Simple Tool to Improve Spatial Flood Probability Quantification and Communication. Water 13, 666.
sample_4963
0.9523
arxiv
The energy return on investment of whole-energy systems: application to Belgium Jonathan Dumas Antoine Dubois Paolo Thiran paolo.thiran@uclouvain.be Institute of Mechanics Materials and Civil Engineering Catholic University of Louvain Place de l'Université 1, Ottignies-Louvain-la-Neuve1348Belgium Pierre Jacques p.jacques@uclouvain.be Institute of Mechanics Materials and Civil Engineering Catholic University of Louvain Place de l'Université 1, Ottignies-Louvain-la-Neuve1348Belgium Francesco Contino francesco.contino@uclouvain.be Institute of Mechanics Materials and Civil Engineering Catholic University of Louvain Place de l'Université 1, Ottignies-Louvain-la-Neuve1348Belgium Bertrand Cornélusse bertrand.cornelusse@uliege.be Gauthier Limpens gauthier.limpens@uclouvain.be Institute of Mechanics Materials and Civil Engineering Catholic University of Louvain Place de l'Université 1, Ottignies-Louvain-la-Neuve1348Belgium Departments of Computer Science and Electrical Engineering Liege University Place du 20-Août, 7B-4000Liege, StateBelgium The energy return on investment of whole-energy systems: application to Belgium Springer Nature 2021 L A T E X templateEnergy return on energy investmentenergy transitionwhole-energy systemsensitivity analysisEnergyScope TDpolynomial chaos expansion Planning the defossilization of energy systems while maintaining access to abundant primary energy resources is a nontrivial multi-objective problem encompassing economic, technical, environmental, and social aspects. However, most long-term policies consider the cost of the system as the leading indicator in the energy system models to decrease the carbon footprint. This paper is the first to develop a novel approach by adding a surrogate indicator for the social and economic aspects, the energy return on investment (EROI), in a whole-energy system optimization model. In addition, we conducted a global sensitivity analysis to identify the main parameters driving the EROI uncertainty. This method is illustrated in the 2035 Belgian energy system for several greenhouse gas (GHG) emissions targets. Nevertheless, it can be applied to any worldwide or country energy system. The main results are threefold when the GHG emissions are reduced by 80%: (i) the EROI decreases from 8.9 to 3.9; (ii) the imported renewable gas (methane) represents 60 % of the system primary energy mix; (iii) the sensitivity analysis reveals this fuel drives 67% of the variation of the EROI. These results raise questions about meeting the climate targets without adverse socioeconomic impact, demonstrating the importance of considering the EROI in energy system models. Introduction To limit climate change and achieve the ambi- This study addresses this issue by considering a comprehensive indicator: the energy return on investment (EROI). It better encompasses the technical and social challenges of the energy transition than the cost. The field of net energy analysis was first developed following the 1970s oil crises, to assess how much energy is made available to society (Cleveland et al, 1984). Then, various metrics have been introduced in the past few decades, including the energy profit ratio, energy gain, energy payback time, and the most wellknown, the EROI. Expressed as a ratio between energy outputs and energy inputs of a given system or process (Hall et al, 1979), the EROI captures the extent to which helpful energy is yielded from that system or process. The lower the EROI of an energy source, the more input energy is required to produce the output energy, which results in less net energy available for the rest of the economy. Thus, the EROI can be understood as the ease with which the energy system can extract energy sources and transform them into a form beneficial to society. The work of Mulder and Hagens (2008) established a theoretical framework for EROI analysis that encompasses the various methodologies in the literature. Access to abundant and affordable primary energy resources has been recognized as an essential element for the prosperity of human societies, and the concept of EROI is commonly used to measure their quality. The literature about EROI is abundant and, without being exhaustive, concerns three main fields of research, which are reviewed in the following paragraphs: (1) the link between EROI and societal well-being; (2) estimation of the EROI of an energy resource or technology; (3) the estimation of a global EROI at the level of an economy or a society, and a lower bound below which a prosperous lifestyle would not be sustainable. The potential connections between societal well-being and net energy availability are investigated by Lambert et al (2014). The results for a large sample of countries point out that the estimated societal EROI is correlated with the Human Development Index (HDI), which is a standard of living indicator. However, for a few countries with a high level of development, i.e., HDI above 0.75, there is a saturation point where increasing the EROI above 20 is not associated with further improvement in society. In addition, the relationship between societal EROI and HDI is non-linear as the HDI increases less and less rapidly with societal EROI. The characteristics of the primary energy sources, including the standard EROI of each fuel, are investigated by Hall et al (2014) 1,2 . They conclude that: (i) overall, the standard EROI of conventional fuels, such as oil and gas, has been declining over the last decades for all nations examined (United States, Canada, Norway, Mexico, and China), reducing from 10% to 50%, 1 The EROI values presented in Hall et al (2014) refer to standard EROI, which only considers energy inputs required for the extraction of the energy resource. Other EROI metrics exist, such as the final stage EROI or the societal EROI. The final stage EROI considers not only the energy inputs used for extracting, but also for processing and delivering an energy carrier. 2 The mean and standard error values of EROI provided are estimated based on several published studies, and the references are listed in Lambert et al (2 November 2012). depending on the location of production. The study of Gagnon et al (2009) as PV with an average EROI value of 10, than traditional conventional fossil fuels. However, wind power energy seems competitive, with a mean EROI value of 20. Another more recent study (Brockway et al, 2019) calculates the EROI of fossil fuels at both primary and final energy stages. Their results suggest that the current EROI of fossil fuels may not differ from the EROI of renewables when computed at the final stage, which illustrates the difficulty of adequately assessing the EROI of resources or technologies. Several attempts to determine a lower bound of the societal EROI below which a prosperous lifestyle would not be sustainable have been performed over the past few years. However, the estimation of this threshold differs from one study to the other, as listed in Dupont et al (2021): (i) the study of Hall et al (2009) provides an educated guess of a minimum societal EROI value of around culation; ii) the work of Fizaine and Court (2016) focuses on the USA by conducting an econometric equation linking growth rates, energy expenditures, capital formation, and population. It results in an estimated EROI value of 11 to maintain the economic growth of the USA; iii) the paper of Brandt (2017) provides an estimated minimum societal EROI of 5 by using a simple template economy with four sectors and inputs for each sector defined at an order-of-magnitude level using data for the US; iv) the study of Court (2019) indicates that this lower bound decreases as technical change improves the conversion efficiency of primary-to-final and final-to-useful exergy processes. They estimated that the minimum sustainable societal EROI of the world has declined from 20 in 1900 to 6 in 1970 to remain constant so far. Finally, a few studies have attempted to estimate the societal EROI at a country or world level. The work of Dupont et al (2021) provides an estimate of the societal EROI using a macroeconomic model with two sectors, an energy sector and a final sector aggregating the rest of the economy. In addition, they use the net energy ratio, which is more comprehensive than the EROI, to assess the energy embodied in the intermediate and capital consumptions of the entire economy. The model estimates a net worldwide EROI of 8.5 for 2018, and the sensitivity analysis performed on the model parameters demonstrates the robustness of the model. However, the model of Dupont et al (2021) focuses only on the current EROI and does not assess how it would evolve with a transition towards an energy system based mainly on intermittent renewable energy sources to meet the IPCC targets. The papers presented above illustrate the difficulty of assessing the EROI of a given resource, technology, or society. However, they depict the key elements which have contributed to the increased attention paid to the EROI and the field of net energy analysis: (1) the standard EROI of the main fuels, in particular fossil fuels, has been declining due to depletion of finite resources Lambert et al, 2013); (2) the estimated EROI values for renewable energy sources in comparison to conventional fossil fuels are often controversial and vary significantly depending on the adopted methodology Brockway et al, 2019). This matter raises concerns that the renewables-led energy transition required to meet climate targets may have adverse socioeconomic impacts (Sers and Victor, 2018); (3) the EROI captures the efficiency of energy conversion technologies and provides some macro-economic perspective because of its link to the well-being of society . We provide two reasons to assess the EROI of a whole-energy system instead of a set of technologies and resources of a given subsystem of the energy sector, such as the electricity grid. First, it is not relevant to compare the EROI of renewable resources or technologies independently. For instance, solar and wind energies are intermittent and non-dispatchable. Gas and nuclear power plants are adjustable and can meet fluctuating demand. Thus, comparing the EROI of solar vs. nuclear without taking into account storage systems and other assets to balance the system is not pertinent. Second, a whole-energy system comprises several sectors (mobility, heat, electricity, industry) that use several technologies and resources that can be imported or extracted. These resources are transported, stored, and converted by energy conversion technologies to supply end-use demands such as electricity, transport, heating, and the production of goods. Assessing an energy system as a whole opens the opportunity for the full deployment of synergies and can generate unexpected results (Contino et al, 2020). Thus, the EROI of the system cannot be simply the sum of the EROIs of each of its components. The literature comprises a large variety of energy models (based on optimization and simulation). We refer the reader to the reviews proposed by Limpens et al (2019); Borasio and Moret (2022), which compare models according to the following features: open-source, time resolution (from monthly to hourly), exhaustivity (i.e., considering the electricity sector only, or also mobility and heat supply). While there are many studies devoted to planning a whole-energy system based on the cost indicator, those that consider the EROI are much rarer. MEDEAS-World (Capellán-Pérez et al, 2019, a global, one-region energy-economy-environment model, is one of the few models which take into account the evolution of the societal EROI. MEDEAS is a policy-simulation dynamic-recursive model that has been designed using the theory of System Dynamics. The EROI of the system is estimated, based on a detailed review of the life cycle analyses of the different energy sources, including the ancillary structures required to handle the intermittency of renewable energies. For 2015, using aggregated data at the world level, the model estimated a global societal EROI of 12. Then, the results indicate that a fast transition to reach a 100% renewable electric system by 2060, consistent with the Green Growth narrative, could cause a decrease of the EROI of the system from 12 to 3 by mid-century. In the present work, we focus on optimization models that reveal optimal configurations among many available options and degrees of freedom. They are suitable for analyzing complex systems, where many combined alternatives need to be explored. However, the study of Borasio and Moret (2022) illustrates that there is no perfect energy model capable of addressing all case studies and research topics. It is improbable that a Springer Nature 2021 L A T E X template single modeling framework will ever be able to capture all the relevant and interlinked dynamics of the energy transition, which is a complex and interdisciplinary challenge (Contino et al, 2020). Various models can answer different research questions and can be complementary. However, selecting a particular model among the wide range of available energy models is a difficult task. Thus, building on existing and consolidated frameworks can be advantageous rather than developing new case-specific models from scratch. We decided to use EnergyScope Typical Days (EnergyScope TD) (Limpens et al, 2019), an opensource model for the strategic planning of urban and regional energy systems. Compared to other existing energy models, which are often proprietary, computationally expensive, and primarily focused on the electricity sector, EnergyScope TD optimizes both the investment and operating strategy of an entire energy system, including electricity, heating, mobility, and the non-energy demand (NED) 3 . Therefore, the EnergyScope TD model offers several benefits compared to other modeling approaches and can easily be extended to include new indicators such as the EROI. In the following section, we focus on the recent works related to EnergyScope TD. 3 The NED comprises energy products used as raw materials in different sectors, not consumed as a fuel or transformed into another fuel (Rixhon et al, 2021a). The NED amounts to 20% of the total energy demand in the case of Belgium and 10% of the world final energy consumption. Related work A first attempt to study the Belgian energy system using the EROI metric was conducted by Limpens and Jeanmart (2018). The study focuses on the mix of energy storage technologies to allow a high penetration of intermittent renewable energies. A simplified hourly-based model optimizes the renewable energy and storage assets by maximizing the EROI while respecting energy balance constraints. The results indicate that depending on the deployment of renewable energies and on the nuclear share in the energy mix, the EROI of the system ranges from 5 to 10.5. However, one of the main limitations of this study is related to the model, which is not a whole-energy system model. This issue is addressed with EnergyScope TD (Limpens et al, 2019), a more advanced model of the Belgian energy system. First, the EnergyScope TD model was applied to analyze the 2035 Belgian energy system for different carbon emissions targets (Limpens et al, 2020). Choosing the year 2035 constitutes a tradeoff between a long-term horizon shaped by policy choices and a horizon short enough to be able to define the future of the energy sector with a group of known technologies. The results indicate a lack of endogenous renewable resources in Belgium of 275.6 [TWh/y], amounting to 30-40% of the primary energy demand. Several recommendations are proposed to obtain additional potential such as importing renewable fuels and electricity or deploying geothermal energy. In the study from Limpens et al (2020), a mix of solutions is the most cost-effective for reaching low carbon emissions. Second, a further step is achieved by considering the importance of renewable fuels in a low-carbon energy system (Rixhon et al, 2021b). This study performs an uncertainty quantification on a whole-energy system model by considering the total annualized cost of the system (which is the objective function of EnergyScope TD). The polynomial chaos expansion method is implemented to perform the sensitivity analysis and to highlight the influence of the critical parameters on the cost of the system. This approach is applied to study the case of Belgium in 2050 4 , and the results indicate: (i) when considering uncertain parameters, the average value of the system cost is 17% higher at carbon neutrality than in a deterministic setting; (ii) the standard deviation of the cost increases when decreasing the GHG emissions; (iii) the price of renewable fuels is the primary driver of the uncertainty on the system's cost with 53% of the cost variation. Finally, a preliminary implementation of a multi-criteria approach in the EnergyScope TD model, which is currently a single objective optimization model, is proposed by Muyldermans and 4 EU strives to be a climate-neutral continent in 2050 with the European Green Deal (European Commission, Secretariat-General, 2019), which sets a target of zero net GHG emissions. Nève (2021). Given the challenges associated with the energy transition, this work allows to assess an energy system including economic, environmental, technical, and social aspects. The case study is similar to Limpens et al (2020) with the 2035 Belgian energy system. The analysis emphasizes the environmental impacts of the energy system depending on the weights associated with each criterion in the objective function: the total system cost, EROI, and global warming potential. The authors conclude that considering multiple criteria leads to a more nuanced and robust solution than a single criterion approach. However, this work is introductory, and the results must be consolidated with a more extensive analysis. In addition, it does not: (i) consider several GHG emissions scenarios; (ii) assess the uncertainty of the model input parameters. Nevertheless, it paves the way for this paper. Research gaps and scientific contributions To the best of our knowledge, the research gaps motivating this paper are four-fold: 1. Many studies using the EROI are focused on specific technologies and resources. There have been several attempts to estimate the EROI of society in the economic and social sciences (Court, 2019;Dupont et al, 2021), but none Springer Nature 2021 L A T E X template have considered a whole-energy system using a With these research gaps in mind, the main contributions of this paper, built on the previous studies (Limpens and Jeanmart, 2018;Limpens et al, 2019;Rixhon et al, 2021b;Muyldermans and Nève, 2021) (Limpens et al, 2020;Rixhon et al, 2021b) References of the models: PRIMES (European Commission, 2022); CSG (Artelys, 2022); TIMES (Fishbone and Abilock, 1981); Antares (Doquet et al, 2008;RTE, 2022); EnergyScope TD ( The motivation of this definition is that energy enters the productive economy at the final energy stage. Figure EROI definition EROI formulation of EnergyScope TD This study uses the open-source energy system optimization model EnergyScope TD (Limpens et al, 2019), built on previous works (Moret, 2017;Codina Gironès et al, 2015). EnergyScope TD is a linear programming (LP), multi-sector, and multi-carrier model for a regional whole-energy system such as a country. This model has been validated for the 2035 Belgian whole-energy system by Limpens et al (2020), which is the case study of interest. Furthermore, the model has been used for several regions 7 including Italy (Borasio and Moret, 2022), Spain (Martinez and Maria, 2021), Switzerland (Moret, 2017), and Europe-26 (Dommisse and Tychon, 2020). In addition, Thiran et al (2020) developed a multi-regional version, called EnergyScope Multi-Cell, which was applied to Western Europe (Cornet et al, 2021) and Italy (Thiran et al, 2021 E constr (j) lifetime(j) + i∈RES E op (i),(3) with T ECH and RES the sets of all the technologies and resources, respectively, and lifetime(j) the lifetime of the technology j. E constr (j) is the energy invested by the system in the construction of technology j over its entire lifetime. This total energy invested is then allocated between years based on the technology lifetime lifetime(j). E op (i) is the energy invested by the system annually in the operation of resource i. They are defined as follows E constr (j) = e constr (j)F(j) ∀j ∈ T ECH, (4a) E op (i) = t∈T |{h,td}∈T H T D(t) e op (i)F t (i, h, td)t op (h, td) ∀i ∈ RES,(4b)GWP tot = j∈T ECH GWP constr (j) lifetime(j) + i∈RES GWP op (i), (5a) GWP constr (j) = gwp constr (j)F(j) ∀j ∈ T ECH,(5b)GWP op (i) = t∈T |{h,td}∈T H T D(t) gwp op (i)F t (i, h, td)t op (h, td) ∀i ∈ RES.(5c) Similarly to the energy invested, the total emissions related to the construction of technologies are the product of the specific emissions gwp constr and the installed capacity F. The total emissions of resources operation are the emissions associated with fuels from cradle to combustion and imports of electricity gwp op multiplied by the quantities of resources used F t (i, h, td) and the period duration t op . The GHG emissions scenario or target is defined by setting a limit, gwp limit , on the annual system GHG emissions GWP tot as follows Fig. 3: EROI -GHG emissions (GWP tot ) optima with primary energy mix and technologies implementation. The energy transition is composed of seven main steps illustrated with the red circles. Abbreviations: natural gas (NG), electric cars (elec. cars), electricity import (elec import), renewable gas (Gas-RE), renewable methanol (Methanol-RE). energy invested objective. This is another rationale to account for uncertainties in such a research field, which is investigated in Section 5. GWP tot ≤ gwp limit .(6) Scenarios analysis of the EROI for several GHG emissions targets This Section conducts an analysis of the Belgian energy system in 2035 by forcing the total annual emissions of the system to decrease by reducing its upper limit, i.e., gwp limit in Eq. (6). In practice, 5% steps of GWP tot reduction were made from the GWP op (94.9 [MtCO 2 -eq./y]) of the "reference scenario-100%" presented in Section 4.1. First, a summary of the evolution of the EROI of the system is presented. Then, the focus is set on the evolution of GHG emissions in the system. Finally, the evolution of the primary energy uses is depicted. Appendix C provides additional results presented in terms of installed capacities, energy invested, and final energy consumption for the different GHG emissions targets. Table 6: Reference scenario-100%: major technologies used to supply the demands of Table 5 in terms of production and installed capacity. The private mobility accounts for 50% of the passengers mobility. Units: production of electricity and all types of heat in [TWh], the private and public mobility in [Mpass. -km], the freight mobility in [Mt-km], and the production capacity of electricity and all types of heat in [GW]. Abbreviations: end-use demand (EUD), high temperature (HT), decentralized heat low temperature (DEC heat LT), combined cycle gas turbine (CCGT), combined heat and power (CHP), centralized heat low temperature (DHN heat LT), passenger (pass.), heat pump (HP), natural gas (NG). The system shifts from high emissions to low emissions; however, this is a view of the mind because the solutions of each GHG emissions target scenario do not represent a transition path and must be analyzed individually. In the following, we comment on the energy transition in seven steps, the circles depicted on Figure 3. System evolution summary Step 0 -"reference scenario-100%" -dark circle depicted in Figure 3: GWP tot reaches 100.3 [MtCO 2 -eq./y], and the system's primary energy mix relies on 71% of NG and the related technologies to satisfy the electricity, heat, and mobility demand (see Section 4.1). Step 1 -gwp limit = 90.1 [MtCO 2 -eq./y]: the system is partially electrified with a shift from NG to electric cars for private mobility. In addition, a part of the electricity production shifts from CCGT to electricity import, reaching 7% of the primary energy mix. The NG share in the primary energy mix dropped by 10% and reached 61%. Step 2 -gwp limit = 80.6 [MtCO 2 -eq./y]: wet biomass is introduced and achieves 10% of the primary energy mix. Centralized biomass co-generation technology supplies the centralized heat low-temperature demand instead of centralized gas co-generation. There is an additional decrease of 10% of the NG share in the primary energy mix. Step 3 Thermal seasonal and daily storage are introduced to cope with the solar and wind seasonal and daily intermittency. Step 4 -gwp limit = 56.9 [MtCO 2 -eq./y]: synthetic renewable gas (gas-RE) begins to be imported. Then, when gwp limit = 33.2 [MtCO 2eq./y], the NG disappears from the primary energy mix, and the gas-RE import amounts to 30% of the primary energy mix. Step 5 -gwp limit = 19.0 [MtCO 2 -eq./y]: the imported methanol and the waste resource (gwp limit = 14.2 [MtCO 2 -eq./y]) disappear from the primary energy mix. Step 6 -gwp limit = 9.5 [MtCO 2 -eq./y]: the imported ammonia and electricity vanish from the primary energy mix. The gas-RE import amounts to 60% of the primary energy mix. CCGT technology replaces the electricity imports to produce electricity by using the gas-RE. Step 7 They amount to 10.4% of the primary energy mix. The wood represents 5.7% of the primary energy and is also used at its maximum capacity of 23.4 [TWh/y]. Finally, the PV capacity is 3.9 [GWe] and amounts to only 1% of the primary energy mix. Indeed, the energy invested in constructing offshore and onshore wind capacities is approximately two times lower than the PV capacity. Figure 6 displays the evolution of the system's primary energy mix broken down between nonrenewable and renewable resources. The following comments explain the main steps of the decrease in non-renewable resources. System primary energy evolution Step 1 -gwp limit = 90.1 [MtCO 2 -eq./y]: the decrease of NG in the primary energy mix is balanced with electricity import 9 , which reaches the maximum importation limit of 27.5 [TWh/y]. The other non-renewable and renewable resources are stable in volume compared to the "reference scenario-100%". Step 2 -gwp limit = 80.6 [MtCO 2 -eq./y]: wet biomass and solar renewable resources balance the NG decrease. The wet biomass is used at its maximal capacity of 38.9 [TWh/y]. The PV capacity starts to increase and reaches a capacity of 11.2 [GWe]. Then, from 80.6 to 61.7 [MtCO 2 -eq./y], the NG decrease is balanced with increased waste and PV in the primary energy mix. The latter reaches the maximal installed capacity of 59.2 [GWe]. Step 3 -gwp limit = 61.7 [MtCO 2 -eq./y]: NG amounts to 28.1%, PV 16.8%, wind offshore and onshore 11.7%, wood 6.4%, biomass 10.6%, and waste 4.9% of the primary energy mix. Steps 4 to 6 -from 61.7 to 9.5 [MtCO 2 -eq./y]: the decrease in NG, methanol, waste, and electricity imports is progressively balanced by importing renewable gas (gas-RE). Step 7 -gwp limit = 4.7 Then, the EROI of the system is analyzed through its mean, variance, and probability density function (pdf). Appendix D provides the details about the GSA approach and additional results concerning the first and second-order PCE. Table 11 in Appendix D.4 lists all the critical parameters with their total-order Sobol values. Figure 9 (Bureau, 2015), 80% of the passenger mobility is expected to be supplied by private cars in the future. Therefore, it supports half of the passenger mobility, and the other half is supplied by public transport modes, i.e., buses, trains, and tramways. Critical parameters Thus, the uncertainty on the maximal share of public mobility % public mob max is likely to impact significantly private mobility and the EROI of the system. EROI probability density functions The PCE coefficients allow estimating the statistical moments, e.g., mean µ and variance σ 2 , of the EROI of the system, without additional [GWe] of maximal installed nuclear capacity are considered. They correspond to the extension of 2 and all out of the seven current nuclear reactors, respectively. Table 8 presents the mean, the standard deviation of the EROI, and the coefficient 11 On Friday, 18 March 2022, the Belgian government decided to extend the two most recent nuclear reactors (Doel 4 and Tihange 3) in operation for another ten years until 2035, corresponding to 2 GWe (Federal nuclear control agency, 2022). NUC-0, NUC-2, and NUC-5.6. Finally, Figure 11 presents the EROI pdf for each GHG emissions target using the Monte Carlo approach along with the mean depicted by the dashed vertical line. 9.0 9.7 11.6 10.5 Discussion Overall, this study provides the following primary outcomes when maximizing the EROI of the system: (1) renewable energies (either domestic such as solar and wind, or imported with renewable fuels) are required massively to reach ambitious GHG emissions targets; (2) nuclear energy is not the primary driver of the EROI variance. Concerning the first point, renewable fuels play an increasingly key role in the Belgian energy transition to satisfy the mobility and heating end-use demands when decreasing GHG emissions. They represent the major part of the system primary Springer Nature 2021 L A T E X template energy when GWP tot ≈ 10 [MtCO 2 -eq./y]. However, given the limited domestic renewable potential compared to the end-use demands, Belgium has to import energy-intensive renewable fuels to decrease GHG emissions. The uncertainty in the required operational energy for renewable fuels drives up the variance of the EROI. This result is similar to the simulations with the minimization of the system cost (Rixhon et al, 2021b;Limpens et al, 2020), where the uncertainties of the renewable fuels prices are responsible for the increase of the system cost variance. Figure for the parameters not related to the energy invested in construction and operation. However, these ranges could be updated based on the last data and publications releases. In addition, due to the significant uncertainty of the energy invested in the construction and operation of technologies and resources, we adopted an arbitrary uncertainty range of minus/plus 25%. Further work should be dedicated to refining this range and adapting it to specific technology and resource. Conclusion Most long-term policies to decrease the carbon footprint of our societies consider the cost of the system as the leading indicator in the energy system optimization models. However, the energy transition encompasses economic, technical, environmental, and social aspects. We consider a more comprehensive indicator to address this issue: the EROI of a whole-energy system. The primary outcomes of this paper are: (1) the development of a novel and open-source approach by adding the EROI in EnergyScope TD (Limpens et al, 2019), a whole-energy system optimization model, and providing open access to the Python code and the database; (2) the illustration of this approach in a real-world case study: the energy transition of the 2035 Belgian energy system. However, the novel model can be applied to any energy system at the country, regional or world level; (3) the comparison of the results obtained when minimizing the cost and maximizing the EROI; (4) the global sensitivity analysis of the EROI of the system by applying a polynomial chaos expansion method (Sudret, 2014). It provides the critical drivers of the variation of the system's EROI; (5) the estimation of the probability density functions of the EROI of the system for several GHG emissions targets. The main results are five-fold. First, the EROI of the Belgian system decreases from 8.9 to 3.9 for GHG emissions targets going from 100 to 19 [MtCO2-eq./y]. These values can be put into perspective with estimated values of: (i) lower bound on the societal EROI, e.g., 5 Brandt, 2017) Fig. 12). It was designed to represent the minimum EROI required for conventional oil to be able to perform various tasks required for civilization. Making such a pyramid with the minimum levels of EROI of a carbon-free society to perform these services would greatly help policy-makers. Thus, we hope this paper will encourage policymakers, industries, and academia to: (i) dedicate more research to assess whole-energy systems with the EROI indicator; (ii) spend more time and energy improving the knowledge about renewable fuels, mainly to decrease the uncertainties related to their cost, availability, and energy invested. Future works should address the model limitations, e.g., drawing a continuous plan of strategies from today to the carbon neutrality of 2050 instead of the snapshot approaches. They will also focus on refining the data and reducing the uncertainties of the main drivers, i.e., the renewable fuels, of the variation of the EROI of the system. In addition, this novel model could be extended to: (i) assess the EROI of a system composed of several inter-connected countries using EnergyScope Multi-Cell (Thiran et al, 2020), such as Europe, to better take into account the domestic complementarity of renewables. Indeed, as previously stated, the developed EROI-based approach is not lim- Finally, the comparative study of maximizing the EROI of the system vs. minimizing the cost indicates that the EROI of the system remains higher by at least one point when using it as an indicator to plan the system, but with a cost between 5 % and 15 % higher. It raises the question: is this additional cost worth it? Indeed, a decline in EROI implies that less energy is available to fuel society due to a decreased efficiency of the energy system. A lower-EROI society requires more sober ways of living and more rational use of energy. Optimizing the EROI instead of the cost makes this sobriety imperative slightly less stringent, to the extent that it still needs to be better characterized and quantified. In addition, it is not easy to assess how the economy of society could be when reducing the EROI significantly. The price is a human concept dependent on the economy, and a financial cost depends on the system economy and energy. However, the EROI does not depend on the economic system but only on the energy system. Two societies with the same energy system, thus the same EROI, could have two different economic systems. With the energy available in excess, society makes choices to use this energy to provide some services and goods. With a decreasing EROI, the field of economic possibilities may also decrease. Thus, the EROI should be taken into account by policymakers when planning the transition as a metric for energy sobriety. The trade-off between EROI decrease, i.e, more sobriety, and economic cost would require further investigation by researchers from several research fields, including social sciences. Acronyms Name Description Ammonia-RE Synthetic renewable ammonia. CCGT Variables (bold) and parameters The snapshot approach implicitly considers vari- Sets and indices Name Description j Technology index. i Resource index. h Hour index. td Typical day index. eud End-use demand index. T H T D(t) Hour h and typical day td associated to the time period t. T ECH Set of technologies. RES Set of resources. T Set of all periods of the year. Appendix A Table 1 justifications projects the impact of macro-economic, fuel price, and technology trends and policies on the evolution of the EU energy system, transport, and GHG emissions. However, this study considers only one scenario, i.e., the "Reference scenario". In addition, this study does not consider the EROI, and there is no sensitivity analysis. In the study (Devogelaer and Gusbin, 2021), The studies (Limpens et al, 2020;Rixhon et al, 2021b) the Appendix B FEC calculation This appendix provides the details to derive the FEC from the simulation results to be used to calculate the EROI of the system following Eq. (1). The set of end-use demands EUD comprises: (1) electricity; (2) Then, for a given end-use demand (eud) the energy balance is eud + i∈I c i (eud) = j∈J p j (eud),(8) If j is a technology, it produces p j (eud) and possibly other outputs, such as electricity or hydrogen, by consuming gas, electricity, or biomass. Then, FEC j (eud) is defined as follows FEC j (eud) = p j (eud) p j (eud) + outputs j inputs j .(10) If j is a resource such as methanol or ammonia, then FEC j (eud) = p j (eud). For instance, the methanol end-use demand can be partially satisfied with imports. Let us consider the case where at least one technology uses this end-use demand as input material: I = ∅. Then, the consumptions c i (eud) are taken into account as follows to estimate the FEC correctlỹ p j (eud) = p j (eud) − i∈I c i (eud) p j (eud) j∈J p j (eud) .(13) Finally, the different FEC j (eud) are estimated as previously described by replacing p j (eud) in Eq. (10) and Eq. (12) C.3 FEC evolution D.2 Uncertainty characterization Accounting for uncertainties in energy system long-term planning is crucial (Mavromatidis et al, 2018) to obtain robust designs against uncertainty. However, the insufficient quantity and quality of available data is frequently a limitation. This challenge is addressed in Moret et al (2017) by developing an application-driven method for uncertainty characterization, allowing the definition of ranges of variation for the uncertain parameters. These ranges were initially defined for the Swiss energy system and have been adapted for Belgium (Limpens, 2021;Rixhon et al, 2021b). Similarly, this study assumes that all the uncertain parameters are independent and uniformly distributed between their lower and upper bounds. D.3 First-order PCE results The second step, depicted in Figure 18, consists of using the first-order PCE to build shorter lists of uncertain parameters for the second-order PCE. This selection is performed for each GHG emissions target considered in the sensitivity analysis. It relies on good practice (Turati et al, 2017), by selecting the parameters which have at least, over the five runs, i.e., to ensure redundancy, one total-order Sobol index above the threshold = 1/d, where d = 138 is the number of uncertain parameters at the pre-selection phase. These D.4 Second-order PCE results The final step, depicted in Figure 18, consists of using the second-order PCE on the parameters short-listed to limit the error below 1% (Coppitters et al, 2020) on the EROI statistical moments: mean µ and variance σ. Figure 20 depicts the selection of the critical parameters using the second-order PCE for the GHG emissions targets considered. Table 10 Springer Nature 2021 L A T E X template presents the number (#) of short-listed and critical parameters using the first-order and secondorder PCE. Finally, Table 11 an inevitable increase in the share of renewable generation in the energy mix. Integrating these new energy resources and technologies will lead to profound structural changes in energy systems, such as an increasing need for storage and radical electrification of the heating and mobility sectors. Therefore, energy planners face the double challenge of transitioning towards more sustainable fossil-free energy systems, including high penetration of renewables, while preserving access to abundant and affordable primary energy resources. In the literature, a large variety of energy system models exists. Limpens et al (2019) has conducted an extensive review of 53 energy system models and tools. They all consider a cost-based objective function with sometimes a greenhouse gas emissions target. However, designing an optimal energy system is a multi-objective problem as it encompasses economic, technical, environmental, and social aspects. Thus, new flexible and open-source optimization modeling tools are required to capture the increasing complexity of future energy systems. . In addition, alternatives to conventional fossil fuels such as tar sands and oil shale have a lower standard EROI, with mean values of 4 and 7 (Hall et al, 2014), respectively; (ii) various renewable and non-conventional energy alternatives have substantially lower EROI values, such Limpens et al, 2019) : criteria fully satisfied, ∼: criteria partially satisfied, ×: criteria not satisfied. Multi-sectors: wholeenergy system considered; Multi-scenario: several scenarios of GHG emissions; EROI: EROI-based objective function; Sensitivity analysis: uncertainty analysis of the model parameters; Open dataset: the data used are in open-access; Open-access code: the code used to conduct the experiments is in openaccess. Abbreviations: European Commission (EU), Federal Planning Bureau of Belgium (FPB), EnergyVille (EV), France's transmission system operator (RTE), Belgium's transmission system operator (ELIA), UCLouvain (UCL), ULiège (ULG), Price-Induced Market Equilibrium System (PRIMES), Crystal Super Grid (CSG), The Integrated MARKAL-EFOM System (TIMES). Appendix C. Supplementary material), and the code repository with the data is open-access. 2 depicts the differences between primary energy production and final energy consumed with the concept of energy cascade. It illustrates the EROI of the system at the final stage. The numerator is the sum of all the types of final energy consumption considered in the system, such as electricity, heat, mobility, and non-energy. The denominator is the sum of all the indirect and direct energy invested for each step of the energy conversion from the primary energy production to the conversion and storage of the final energy into final energy consumption (FEC). Direct energy is required for the conversion energy process, such as the energy to extract and produce gas and oil in the field. Indirect energy is related to the products used at each step of the conversion process, such as the infrastructure used to extract and produce gas and oil in the field. Note that the FEC definition adopted in this study is provided by European Commission -Eurostat (2022): it excludes energy used by the energy sector, including distribution and transformation, and it is the energy that reaches the final consumer's door, such as households or industries.Therefore, EROI fin defined in Eq. (1) corresponds to the net external energy return (NEER) from the nomenclature ofBrandt and Dale (2011). Fig. 2 : 2The energy cascade illustrates the EROI of the system at the final stage (EROI fin ), considered in this study, with the direct and indirect energy invested at each step of the energy conversion required to produce final energy and satisfy the final energy consumption. ThisFigurewas adapted from Brockway et al (2019). country as a single node where transmissions constraints within the country are not considered. Energy demand is balanced by energy generation without considering the flows between the producers and the consumers. However, the heating and electricity grid costs are considered, including an extra electricity network investment related to the integration of intermittent renewable energies. These costs are proportional to the installed capacity of electricity production and heating technologies; (v) achieving a short computational time, typically a few minutes, due to the use of typical days, and a mapping method to represent the storage over a year with an hourly resolution. with e constr (j) [GWh/GW] the specific value of energy invested in construction of technology j which is the cumulative energy demand associated to the construction of one GW of this technology, e op (i) [GWh/GWh fuel ] the specific value of energy invested in operation of resource i which includes energy inputs for extraction/production/transportation and combustion, F(j) [GW] ([GWh] for storage technologies) the installed capacity of the technology j, F t (i, h, td) [GWh] the quantity of the resource i that is used at the hour h of the typical day td, t op (h, td) (1h by default) the time period duration, T the set of all the periods of the year, i.e., 8760 hours, and T H T D(t) the hour h and the typical day td associated to the period t. In Eq. (4b) summing over the different typical days and the hours of typical days, using the set T H T D(t), is equivalent to summing over the 8760 hours of the year. of the system GWP tot are defined as the sum of: (1) the emissions related to the construction and end-of-life of the energy conversion technologies GWP constr , allocated to one year based on the technology lifetime; (2) the emissions related to the operation of resources GWP op which accounts for extraction, transportation and combustion. They are defined as follows 2 ( 2Therefore, the method relies on a snapshot approach (Codina Gironès et al, 2015) where for two different GHG emissions targets specified in Eq. (6), two different strategies result from the optimization of the system in the year 2035 without any dependence on the state of the system at any previous year. The two obtained strategies are thus totally independent from each other. GWP data (gwp op and gwp constr ) are estimated by using a life cycle assessment (LCA) approach taken from the Ecoinvent database v3.Wernet et al, 2016) using the "allocation at the point of substitution", i.e., taking into account emissions of technologies and resources "from the cradle to the grave" and following the indicator "GWP100a-IPCC2013" developed by the Intergovernmental Panel on Climate Change (IPCC) (Stocker et al, 2013). The "Input Data" section of the online documentation provides the input data to apply the EnergyScope TD model to the Belgian energy system in 2035. Figure 3 3depicts a summary of the EROI optimum values for each GHG emissions scenario with primary energy mix and main technologies changes. Fig. 4 : 4GWP constr and GWP op of the system, broken down by technologies and resources for several yearly GHG emissions targets in 2035. Figure 5 5Figure 5 depicts the evolution of the system's primary energy mix for several yearly GHG emissions targets in 2035, broken down by resource categories. Step 0 -"reference scenario-100%": the primary energy mix comprises mainly NG with [Fig. 5 : 3 [ 53MtCO 2 -eq./y]: below 9.5 [MtCO 2 -eq./y], there are no more non-renewable resources. GHG emissions targets force the system to decrease the construction GHG emissions as the operation GHG emissions are approximately 0 [MtCO 2eq./y]. Renewable fuels almost completely replace the PV and wind resources, and the system is partially un-electrified to use them. For instance, electric vehicles (mobility private and freight) are replaced by vehicles using synthetic fuels. That case is purely hypothetical because it assumes that: (1) imported renewable fuels imply lower GHG emissions than renewable resources such as solar and wind. However, the GWP data on renewable fuels are not mature enough to draw such conclusions; (2) importing such large quantities of renewable fuels (approximately 510 [TWh/y]) may be unrealistic. Evolution of the system's primary energy mix for several yearly GHG emissions targets in 2035, broken down by resource categories. Abbreviations: non-RE: waste, methanol, and ammonia; Fossil: NG; RE-fuels: gas-RE, methanol-RE, and ammonia-RE; Biomass: wood, and wet biomass.4.3 Comparison of the EROI and cost of the systemWhen minimizing the total cost of the system instead of the EROI, without limiting the GHG emissions, EnergyScope TD gives an EROI for the Belgian energy system in 2035 at around 6.3 and a GWP tot of 94.5 [MtCO 2 -eq./y]. This can be compared with the EROI of 8.9 and GWP tot of 100.MtCO 2 -eq./y] for the "reference scenario-100%"where the EROI is maximized. Figure 7 7depicts the evolution of the cost and EROI of the 2035 system for several GHG emissions scenarios when minimizing the cost and maximizing the EROI. The trends are similar.However, the primary energy mix differs, as illustrated byFigure 8. When minimizing the system relies on numerical input data, which are sometimes highly uncertain, such as the energy invested in the operation of renewable fuels. This uncertainty could influence the key messages of the previous deterministic results. To nuance these messages, two actions are proposed: (i) being transparent on the dataset used (refer to the online documentation), (ii) assessing the impact of uncertainty of the system's EROI for several GHG emissions targets through global sensitivity analysis (GSA), and the Monte Carlo method. This section is an extension of the works of Limpens (2021); Rixhon et al (2021b) by assessing the uncertainty of the EROI of the system with a GSA using the polynomial chaos expansion (PCE) method (Sudret, 2014). The PCE approach emphasizes the critical parameters by using Sobol indices and extracting statistical moments, mean and variance, of the EROI of the system. The implementation of this approach is conducted by using the RHEIA 10 (Coppitters et al, 2020) Python library.This section is organized into two parts. First, the most critical uncertain parameters for the EROI of the system are listed according to their respective Sobol indices based on the GSA results. Fig. 7 : 7Comparison of the evolutions of the system's cost and EROI for several scenarios of GHG emissions, when, respectively, minimizing the cost and maximizing the EROI. illustrates the evolution of the critical parameters as a function of GHG emissions constraints. More precisely, the evolution of the total-order Sobol values of the top-5 parameters for the GHG emissions constraints of 28.5 [MtCO 2 -eq./y] (Figure 9a) and 85.4 [MtCO 2 -eq./y] (Figure 9a) are represented. It is expected that e Gas-RE op becomes the primary driver of the variation of the EROI of the system when GHG emissions targets decrease, given the increasing share of renewable gas in the primary energy mix. In the model, the value of the energy invested in the operation of renewable gas is 4.4 times greater than its fossil equivalent, making it less competitive; thus, unused with no restrictions on GHG emissions. However, it becomes the most-impacting parameter, up to 67.1% of the variance of the EROI of the system for the GHG emissions target of 19.0 [MtCO 2eq./y]. The lower part of Figure 9 illustrates the opposite trend for NG. Given its low energy invested in operation, it is a critical resource when the GHG emissions targets are not compelling. Fig. 8 : 4 [ 0 [ 840Comparison of the system's primary energy mix when minimizing the cost (left) and maximizing the EROI (right), for several scenarios of GHG emissions. The mix is broken down between non-renewable resources (upper) and renewable resources (lower)The energy invested in the construction of gas cars and NG operation substantially impacts the EROI variance with 39.2% and 25.5%, respectively, when the GHG emissions are weakly constrained (85.MtCO 2 -eq./y]).Then, the energy invested in the construction of electric cars e Elec. cars constr is the second parameter to play a key role in the variance of the EROI of the system with the decrease of GHG emissions. It is the most-impacting parameter on the EROI with 18.0%, for the target of 56.9 [MtCO 2 -eq./y]. Then, it is the second most-impacting parameter with 4.8% and 6.1%, for the targets of 28.5 and 19.MtCO 2 -eq./y].Figure 16in Appendix C depicts the essential impact on the system's EROI of the private mobility for GHG emissions between 61.7 for GWP tot =28.5 [MtCO 2 -eq./y]. (b) Top-5 parameters for GWP tot =85.4 [MtCO 2 -eq./y]. Fig. 9 : 9Evolution of the total-order Sobol values of the Top-5 critical parameters for GHG emissions of 28.5 and 85.4 [MtCO 2 -eq./y]. Abbreviations: energy invested in the operation of gas-RE cars (e Gas-RE op ), energy invested in the construction of electric cars (e Elec. cars constr ), nuclear maximal installed capacity (f NUC max ), wood maximal availability (avail Wood ), maximal share of public mobility (% public mob max ), energy invested in the construction of NG cars (e NG cars constr ), energy invested in the operation of NG cars (e NG op ), energy invested in the operation of wet biomass (e Wet biomass op ). computational cost. Furthermore, based on the obtained surrogate model and with a few supplementary seconds of computational time, the pdf of the EROI can be estimated by a Monte Carlo approach. Figure 10 depicts 10, for the GHG emissions targets considered, the EROI mean µ (EROI [GSA]) and the evolution of the 95% (±2σ in gray) confidence interval, along with the EROI values from the deterministic approach EROI [Deterministic] NUC-0, where the maximal installed capacity of nuclear power plants is 0 [GWe]. Based on the 2021 policies, Belgium planned to phase out coal and nuclear. However, the 2022 policies 11 reconsider the progressive shutdown of the nuclear power plants. Thus, two deterministic scenarios in 2035 with 2 (EROI [Deterministic] NUC-2) and 5.6 Fig. 10 : 10The mean values of EROI µ of the runs performed during the sensitivity analysis (EROI [GSA], blue curve) with the 95% confidence interval (±2σ in gray). The EROI values of the three deterministic scenarios: (i) with the nominal value of the parameters corresponding to the complete phase-out of nuclear (EROI [deterministic] NUC-0, green curve); (ii) the two alternative scenarios with the extension of 2 [GWe] (EROI [deterministic] NUC-0, black curve) and 5.6 [GWe] (EROI [deterministic] NUC-5.6, red curve).of variation (CoV), defined as the ratio between σ and µ. It also provides the values of the system's EROI for the three deterministic scenarios: Fig. 12 : 12The pillars of the energy transition to decrease the GHG emissions when maximizing the EROI of the system.6 Discussion and limitationsThis section first discusses the results of Sections 4 and 5. Then, it presents the limitations of the model and of the methodology used to perform the sensitivity analysis of the EROI. 12 depicts the key pillars of the energy transition when decreasing the GHG emissions. The system sequentially uses most of the options from the energy Mix scenario presented inLimpens et al (2020), which is a scenario accounting for an increased amount of renewable resources plus nuclear capacity and geothermal energy, but with a different priority.The model begins with low-energy intensive fossil (NG) and domestic renewable resources (wind) when there is no limit on GHG emissions. Then, it first improves its energy efficiency in the early stages by reducing the primary energy consumed to meet the demand. The electrification is progressively performed with the electricity imports at their full potential (27.57 [TWh/y]) to improve the electrification of the mobility (private electric vehicles) and heating sectors (heat pumps). Then, to enhance the electrification while reducing the overall global warming potential, the system uses , the model forces the system to import renewable fuels massively to achieve ambitious low GHG emissions targets. When maximizing the EROI, the system uses mainly renewable gas, and when minimizing the cost, it is a mix of H2, renewable gas, and renewable-liquid fuels (ammonia andmethanol). These pillars indicate the main levers to decrease GHG emissions while maximizing the EROI of the system and the research directions to decrease the uncertainties of the parameters of the related technologies and resources. Indeed, efforts should not be distributed equally to decrease the uncertainties of every model parameter. The sensitivity analysis provides the critical uncertain parameters responsible for the main contributions to the EROI variance. A similar conclusion to Rixhon et al (2021b); Limpens et al (2020) is drawn: policymakers, industries, and academia should spend time and energy improving the knowledge about renewable fuels by reducing the cost, the energy invested in the operation, and the related uncertainties. Concerning the second point, the sensitivity analysis reveals the impact of the maximum capacity of the nuclear power plants on the variance of the EROI. The contribution of this parameter reaches a maximum of 12.5% for the GHG we depict three main model limitations: (1) the snapshot approach (Codina Gironès et al, 2015) limits the concept of a trajectory between several GHG emissions targets. One way to overcome this issue is to consider a pathway (Limpens, 2021, Chapter 7) that could describe the different steps continuously in terms of technologies to implement and resources to exploit; (2) the unlimited availability of imported renewable fuels regardless of origin. For very ambitious GHG emissions targets, GWP tot ≤ 9.5 [MtCO 2eq./y], the domestic renewable energies such as solar and wind are replaced by imported renewable fuels and electric technologies by gas-based technologies. Thus, almost all the primary energy is composed of renewable fuels. This case is not realistic as it is improbable that Belgium would be able to import approximately 510 [TWh/y] of such renewable fuels. Estimating the maximum quantities of renewable fuels that could realistically be imported could be done with different costs and energy invested in operation concerning the origin. For instance, Colla et al (2022) propose in their study a framework to account for the different origins of biomass imports; (3) the linear optimization approach makes the results highly sensitive to the input parameters. A slight difference in technology efficiency or energy invested in construction or operation can make the system switch between two solutions which share a similar value for the objective function, but are very different in nature. The sensitivity analysis partially addresses this issue because it relies on the relevant definition of the list of uncertain parameters with their uncertainty range. Another approach could consist in investigating the feasible space near optimality. The study of Dubois and Ernst (2021) proposes a generic framework for addressing this issue. It allows looking for solutions that can accommodate different requirements, such as determining necessary conditions on the minimal energy that the system will invest in domestic renewable energies or imported renewable fuels. Finally, we outline four main limitations concerning the uncertainty characterization data have been obtained from the ecoinvent database (Wernet et al, 2016). However, new data and publications could help refine these values, especially for renewable fuels, around which research is booming; (2) the global warming potential data in the operation of renewable resources, particularly renewable fuels, is assumed to be 0. New data and publications could refine these values, similar to the data for energy invested. Indeed, these investigations are required to study low carbon energy system with GWP tot ≤ 10 [MtCO 2 -eq./y] to avoid having unrealistic results where imported synthetic fuels replace all the domestic renewable; (3) the choice of uncertain parameters. This study focuses mainly on energy invested related parameters and did not consider other parameters such as the technology efficiencies and lifetimes or the GWP of construction and operation. A complete investigation should be conducted to consolidate the results; (4) the uncertainty ranges considered are based on Moret et al (2017); Rixhon et al (2021b) or 6 ( 6Court, 2019); (ii) worldwide EROI, e.g., 8.5(Dupont et al, 2021) in 2018 and 12(Capellán-Pérez et al, 2019) in 2015. Second, the renewable fuels -mainly imported renewable gas -represent the largest share of the system primary energy mix when GHG emissions decrease due to the lack of endogenous renewable resources such as wind and solar. Third, the EROI trend is similar when decreasing GHG emissions when minimizing the cost or maximizing the EROI. In both cases, the EROI values decrease from 8.9 to 3.9 (EROI maximization) vs. 6.3 to 2.5 (cost minimization) for GHG emissions targets going from 100 to 19 [MtCO2-eq./y]. In addition, the strategy to decrease GHG emissions is similar when minimizing the cost of the system and maximizing the EROI. It consists of importing an increased share of renewable fuels to reduce GHG emissions. However, there is a difference; instead of using only large quantities of imported renewable gas in the case of EROI maximization, the renewable fuels are more diverse when minimizing the cost with renewable ammonia, methanol, and H2. Fourth, the sensitivity analysis reveals that the energy invested in the operation of renewable gas is responsible for 67.1% of the variation of the EROI for the GHG emissions target of 19 [MtCO 2 -eq./y]. Finally, the estimation of the EROI probability density functions exhibits that decreasing the GHG emissions makes the EROI of the system more variable to uncertain parameters. Indeed, the coefficient of variation, which is the ratio of the standard deviation over the mean, increases with GHG emissions reduction.Overall, the decrease in the EROI of the Belgian system with the GHG emissions raises questions about meeting the climate targets without adverse socio-economic impact. Indeed, most countries rely massively on fossil fuels, like Belgium, and they could probably experience such an EROI decline when shifting to carbon neutrality. As pointed out in the introduction, several attempts to determine a lower bound of the societal EROI below which a prosperous lifestyle would not be sustainable have been performed over the past few years. The estimation of this threshold differs from one study to the others.Thus, it is difficult to conclude what does mean an EROI value of 4 for Belgium in terms of lifestyle when reaching GHG emissions targets models assume at least a constant demand based on economic growth, if not an increase. Thus, the energy sector is likely to take a more significant share in the economy at the expense of other sectors to sustain such a demand with a decreasing EROI. A decreasing EROI implies a decreasing quantity of services and raises the question: which sectors and services should be favored? A challenging way to answer this question could be to extend the concept of the "Pyramid of Energetic Needs" ited to a specific country or area; (ii) perform multi-criteria optimization in the vein of Muyldermans and Nève (2021) with indicators such as the system cost, global warming potential, and EROI; (iii) include a macroeconomic model following the approach of Dupont et al (2021) to estimate another indicator, introduced by Fagnart and Germain (2016), called the net energy ratio (NER) of the economy. The NER is more comprehensive than the EROI and allows assessing the energy embodied in the intermediate and capital consumptions of the entire economy. Acknowledgments. The authors would like to acknowledge the authors and contributors of the EnergyScope TD model and the the collaboration of the teams and provided helpful insights and discussions about the present work. In addition, the authors would like to thank the editor and the reviewers for the comments that helped improve the paper. Declarations Conflict of interest. There is no conflict of interest to be reported. Availability of code and data. Code repository and data, and the latest documentation are available on Github: https: //github.com/energyscope/EnergyScope, https: //energyscope-td.readthedocs.io/en/master/. Authors' contributions. The first draft of the manuscript was written by Jonathan Dumas and all authors commented on previous versions of the manuscript. All authors helped improve the paper quality based on the reviewer's comments and approved the final manuscript. Jonathan Dumas did the validation of the results and conducted the formal analysis. Jonathan Dumas, Antoine Dubois, Paolo Thiran, Pierre Jacques, Francesco Contino, and Gauthier Limpens did the conceptualization of the approach and the methodology. Jonathan Dumas, Antoine Dubois, Federal Planning Bureau discusses what role offshore wind can play in helping Belgium achieve climate neutrality by the middle of the century. The analysis is multi-sectors by considering the electricity, H2, and gas sectors. The model used is Artelys Crystal Super Grid (Artelys, 2022), which is not in open-access, and the data used for the study are not available. In particular, this report examines the development of joint hybrid offshore wind projects that both provide renewable energy capacity and can serve as interconnectors linking different countries. Two different scenarios are defined and studied; thus, this study is considered partially multi-scenarios. However, this study does not consider the EROI, and there is no sensitivity analysis. The study (Meinke-Hubeny et al, 2017) uses the TIMES/MARKAL model, a reference in scenario analysis. This model is open access (Fishbone and Abilock, 1981), but the different versions for each country are not open. This study has adapted the model to the Belgian case and is unavailable. The main assumptions are detailed in the report with some input parameters. However, there is no proper access to all the input data. The TIMES Belgium model includes different technology portfolios for different supply and demand sectors of the energy system and is consequently multi-sectors. The model generates a set of five scenarios where assumptions on three parameters, namely the import capacity for electricity, the fossil fuel prices, and the phase-out of nuclear energy, are being altered. Finally, the scenario analysis with the TIMES Belgium model is based on a system cost optimization approach; thus, it does not consider the EROI. The study Elia (2017) analyzes both shortterm and long-term policy options on the future energy mix for Belgium on the path towards 2050. It proposes the "base case scenario", "decentral scenario", and "large-scale RES scenario". On top of these scenarios, different sensitivities are assessed at the 2030 and 2040 time horizons, resulting in additional scenarios. The assumptions of each scenario are detailed, but the input data are not available, and there is no sensitivity analysis. The report focuses on the electricity sector with renewables (PV, onshore and offshore wind, biomass, hydro, and geothermal) and thermal (CCGT, nuclear, and CHP) generation plants, electric demand (heat pumps, electric vehicles), and considers interconnections with neighboring countries. However, it is not multi-sectors as it does not model the non-electric demand of the transportation, heating, and non-energy sectors. The electricity market simulator developed by RTE, Antares (Doquet et al, 2008; RTE, 2022) is used to perform the electricity market and adequacy simulations. Antares is open-source and calculates the most-economic unit commitment and generation dispatch. Finally, the scenario analysis with the Antares model is based on a system cost optimization approach; thus, it does not consider the EROI. The objective of the Energy Pathways to 2050 report (RTE, 2021a) is to construct and evaluate several possible options for the evolution of the French power system (generation, network, and consumption) to achieve carbon neutrality.To this end, several scenarios are proposed based on different assumptions, from 100% renewable generation technologies to a mix of renewable and nuclear capacities. Each scenario is detailed with the assumptions in the report, and the dataset used to conduct the study is open-access(RTE, 2021b). The open-source power system model, Antares(Doquet et al, 2008; RTE, 2022), describes the production capacities, the network, and the sources of consumption in all European countries, to simulate the production, consumption, and exchanges per country at hourly intervals in all the countries of the European Union.The study does not conduct a global sensitivity analysis of the input parameters. However, it performs several variations of some key parameters to assess the variation in the cost of the system. Finally, the Antares model uses a cost optimization approach.Springer Nature 2021 L A T E X template Fig. 13 : 13Evolution of the electricity production, storage (electric, thermal, gas, ammonia, and methanol), and renewable fuels asset installed capacities breakdown by technology for several scenarios of GHG emissions in 2035. Abbreviations: combined cycle gas turbine (CCGT), photovoltaic (PV), electric (elec.), battery of electric vehicle (BEV), pumped hydro storage (PHS), decentralized electrical heat pump (DEC elec. HP), Decentralised fuel cell cogeneration gas (DEC FC CHP gas), Decentralised boiler gas (DEC gas boiler), centralized seasonal (DHN seasonal), high value chemicals (HVC). Figure 17 17depicts the evolution of the FEC break- GWP tot ≤ 19.0 [MtCO 2 -eq./y]. Fig. 20 : 20Sobol indices of the parameters using the second-order PCE. Parameters are sorted and critical ones (in blue) have an index above the threshold 1/d, with d the number of uncertain parameters considered in the second-order PCE. The y-axis is logarithmic. bottom-up, optimization-based model;2. While many studies are devoted to planning a whole-energy system based on the cost indicator, those considering the EROI are rarer.MEDEAS-World(Capellán-Pérez et al, 2019), a global energy-economy-environment system dynamics model, is one of the few that consider the societal EROI evolution but is not a bottom-up, optimization-based model; 3. There currently exists no open-access consolidated EROI dataset for all technologies and resources of a whole-energy system; 4. There is no comparison of the EROI of a whole-energy system, accounting for parameters uncertainties, with the deterministic costoptimum situation. , are fourfold: 1. Develop a novel and open-source approach by adding the EROI in a whole-energy system optimization model. This approach can be applied to an energy system to investigate the evolution of the societal EROI during the energy transition at the worldwide, country, or regional level; 2. Propose and implement a methodology to assess the impact of uncertain parameters on the EROI and compare the results with those of the deterministic analysis; 3. Use a real-world case study, the Belgian energy system, for several GHG emissions targets in 2035 to illustrate the novel approach by comparing the results when considering the cost as a leading indicator. In this case study, we emphasize the role of renewable fuels for decreasing the GHG emissions; 4. Provide a transparent and collaborative database of the EROI of all technologies and resources of a whole-energy system. In addition to these contributions, this study also provides open access to the code repository 5 and the latest documentation 6 to help the community reproduce the experiments. Table 1 presents a comparison of the present study with several state-of-the-art papers analyzing energy transition systems. Appendix A provides the justifications for the comparison. The present work provides decision-makers with insightful guidelines to answer the following questions: (i) What are the main changes in the planning of the transition of an energy system when using the EROI as a guiding indicator instead of the total system's cost ? (ii) To what extent should uncertainties be considered when EROI st u dy of a w h ole en er gy syst em Fig. 1: Paper skeleton with the main contributions.The energy system optimization model EnergyScope TD is used to assess the EROI of the Belgian energy system for several GHG emissions targets. Then, an EROI sensitivity analysis identifies the critical uncertain parameters X ∈ R N and estimates the EROI probability density functions using the surrogate modelf .lines the main findings and proposes ideas for further work. Appendix A presents the justifications for the comparison conducted inTable 1.Energy system optimization model Polynomial Chaos Expansion -critical uncertain parameters -EROI mean & variance EROI maximization vs. cost minimization Methodology Case study EROI of the system Surrogate model Sen sit ivit y an alysis of t h e EROI of t h e syst em EROI pdf sample i of planning a low-carbon energy system based on the maximization of EROI? Furthermore, which are the key parameters that drive the uncertainty in the system's EROI ? (iii) Given the limited avail- ability of local renewables in Belgium, what solu- tions of the Mix scenario presented by Limpens et al (2020), such as electrification, nuclear energy, and import of synthetic fuels, would most affect the variation of the system's EROI? 1.3 Organization Figure 1 depicts the paper skeleton, which is orga- nized as follows. Section 2 presents the EROI definition used in this study and provides the suc- cinct formulation of the EnergyScope TD model with the main assumptions. Section 3 presents the real-world case study of the Belgian energy system in 2035, and Section 4 investigates its EROI evolu- tion for several GHG emissions targets. Section 5 presents the results of the EROI sensitivity anal- ysis, and Section 6 points out the model and methodology limitations. Finally, Section 7 out- Appendix B provides the methodology to derive the final energy consumption from the simulation results in EnergyScope TD. Finally, Appendices C and D give additional results for the EROI study of the Belgian energy system in 2035 and for the sensitivity analysis, respectively. 2 Methodology This section presents the EROI definition used in this study and details the main assumptions of the model, including the EROI-based objective function. The EnergyScope TD complete formu- lation, the documentation of the model, and the input data are described in Limpens et al (2019, Criteria [1] [2] [3] [4] [5] [6] This study Authors EU FPB EV ELIA RTE UCL UCL-ULG Multi-sectors × × × Multi-scenario × ∼ Model PRIMES CSG TIMES Antares EnergyScope TD EROI × × × × × × Sensitivity analysis × × × × ∼ Open dataset × × ∼ ∼ Open-access code × × × Table 1: The contributions of the present study are compared to several state-of-the-art studies about the transition of the energy system. Justifications are provided in Appendix A. References: [1] (European Commission et al, 2021); [2] (Devogelaer and Gusbin, 2021); [3] (Meinke- Hubeny et al, 2017); [4] (Elia, 2017); [5] (RTE, 2021a); [6] This study considers the EROI defined at the finalenergy stage EROI fin = Gross energy produced Energy invested = E out E in . (1) E out is computed at the final stage, i.e., the quan- tity of gasoline or electricity required by cars and trains, the heat produced for warming build- ings, or the electricity delivered to households and companies. E in is also measured in terms of final energy. It is composed of: (1) the energy required for building and operating all the infras- tructure of the energy system, from the cradle to the grave; (2) the energy used for operating the energy system. ).EnergyScope TD represents the heating, mobility, and electricity sectors with the same level of detail. The main characteristics are: (i) satisfying the system end-use demand (EUD) instead of final energy consumption (FEC). The system EUD is composed of electricity, heat, transport, and non-energy demands. For instance, passenger mobility is defined in passenger kilome- ters per year rather than in a certain amount of gasoline to fuel cars or electricity to power trains; (ii) optimizing the system design and operation by minimizing its overall cost; (iii) using an hourly resolution which makes the model suitable for ana- lyzing the integration of intermittent renewable energy resources and storage; (iv) modelling the Energy used to produce machines to store and convert. Production of primary energy Transport to energy system Primary energy available for system Conversion & storage Final energy consumption Energy used for transport. Energy used to extract energy. Energy used to produce machines to extract energy. Energy used to produce machines for transport. Dir ect energy invested. En er gy con ver st ion st age EROI of the system: In dir ect + dir ect energy invested In dir ect energy invested. Final energy consumption Energy lost Energy lost Table 2 2sum- Table 2 : 2The specific value of operational energy inputs e op [GWh/GWh fuel ] and GHG emissions gwp op [MtCO 2 -eq./GWh fuel ] for each resource in 2035 used in the case study. The methodology of the data collection of gwp op and e op relies onMuyldermans and Nève (2021) where the data have been collected from the ecoinvent database (Wernet et al, 2016). online documentation for the data related to the construction of technologies. Finally, EnergyScope TD has an hourly res- olution and a tractable formulation with a few minutes of computational time thanks to a for- mulation with twelve typical days (Limpens et al, 2019). This number allows to reach a good trade- off with: (i) a limited impact on the resulting energy system strategy, i.e., the installed capacity of the technologies and the use of resources remain in the same order of magnitude as without the use Table 3 : 3Comparisonof installed capacity [GWe] or [GWth] of technologies using renewable energy in 2015, 2020 and their maximal potential expected in the model for 2035. † PV and solar thermal technologies compete with the land avail- ability constraint of 250km 2 which is equivalent to 59.2 GWe of PV or 70 GWth of solar thermal (centralized or decentralized). 2015 and 2020 data are based on European Commission et al (2021) and the 2035 projection on Limpens et al (2020). Abbreviations: centralized (cen.), decentralized (dec.), thermal (th.). Resources 2015 2020 2035 Imported fuels bio-ethanol 0.48 ? † no limit bio-diesel 2.89 ? † no limit gas-RE 0 0 no limit H2-RE 0 0 no limit ammonia-RE 0 0 no limit methanol-RE 0 0 no limit Biomass woody 13.9 ? † 23.4 wet 11.6 ? † 38.9 Waste 7.87 ? † 17.8 Elec. import 24.54 -0.6 27.57 Table 4 : 4Comparisonof renewable resources Table 5 : 5Comparison TWh).Table 6details the major technologies used to supply the demands ofTable 5in terms of share of production and installed capacity. The electricity generation relies TWh). A large part of the electricity production (42.3 TWh) is used to supply heat pumps which supply mainly decentralized and centralized lowtemperature heat demands. The gas cogeneration is the most prominent player in supplying the industrial high-temperature heat demand, besides a small share from gas boilers. Overall, mobility is also dominated by NG import:(1)passenger mobility is equally divided between private Finally, methanol and ammonia are imported to satisfy the non-energy demand, where a large part of the methanol is used to synthesize high-value chemicals (HVC). The result of an EROI-optimum for the 2035 Belgian energy system of 8.9 is close to the estimation of the 2018 societal worldwide EROI (Dupont et al, 2021). However, this comparison suffers from two limitations. First, in their model, the current global energy system was mainly based on fossil fuels in 2018. Second, the scope of their study differs as it considers the entire world. EnergyScope TD with the reference scenario indicates that renewable synthetic fuels are too energy-expensive to compete against the fossil equivalent when there is no constraint on GHG emissions. However,it is essential to remind that such a system results from linear optimization. A slight difference, e.g., efficiency, energy invested in construction or operation, can make the system switch between two completely different solutions but with similarof EUD for 2015, 2020, and the 2035 projection. The 2015 and 2020 heat low/high T. EUD are derived from the FEC of the corresponding sector (residential, service and industry for heat low T. and energy intensive industries for heat high T.) by removing the corre- sponding electricity FEC. 83.1% of the electricity FEC of Belgium is allocated to the residential and services sectors, and the remaining is the energy-intensive industrial sector. This ratio is estimated based on European Commission and Eurostat (2018). 2015 and 2020 data are based on European Commission et al (2021) and the 2035 projection on Limpens (2021). Abbrevia- tions: end-use demand (EUD), temperature (T.), passenger (pass.), tons (t). between the EUD in 2015, 2020 and 2035. It is possible to notice the COVID-19 impact in 2020. The 2035 passenger transport demand, 194 [Mpass.-km/y], is divided between public and pri- vate transport. The lower and upper bounds for the use of public transport are 19.9% and 50% of the annual passenger transport demand, respec- tively. The freight demand, 98 [Mt-km/y], can be supplied by trucks, trains, or inland boats with corresponding lower and upper bounds: 0% and 100%, 10.9% and 25% 15.6% and 30%, respec- tively. 4 EROI analysis with fixed parameters This section presents the model's results in the real-world case study of the Belgian energy sys- tem in 2035. First, Section 4.1 presents the results of the EROI maximization of the system without imposing a GHG emissions target. Then, Section 4.2 investigates the evolution of the EROI of the system for several GHG emissions targets. It studies how this impacts the energy and tech- nology mix of the system, the breakdown of the GHG emissions, and the evolution of the primary energy mix. Finally, Section 4.3 compares a solu- tion maximizing the system's EROI to a solution minimizing the system's cost for the same GHG emissions targets. 4.1 Reference case study results EnergyScope TD reaches an EROI-optimum Bel- gian energy system in 2035 at around 8.9 and a GWP tot of 100.3 [MtCO 2 -eq./y] without limiting the GHG emissions. This case is called "reference scenario-100%", where the constraint Eq. (6) is not activated, and the parameters are at nominal values. In comparison, the EU reference scenario 2020 (European Commission et al, 2021) provides the actual 2015 and 2020 values and the 2035 forecast value for the total GHG emissions 8 of Springer Nature 2021 L A T E X templateDemand Technology Production Capacity Electricity CCGT 33.4 6.5 wind 43.0 16.0 PV 4.0 3.9 Heat HT gas CHP 59.7 8.0 gas boiler 4.2 4.8 DHN heat LT HP 45.2 12.9 gas CHP 7.0 4.3 DEC heat LT HP 92.9 31.3 Private mobility gas car 97.0 - Public mobility train 48.5 - tramway 29.1 - gas bus 19.4 - Freight gas truck 44.1 - gas boat 29.4 - train 24.5 - -gwp limit = 61.7 [MtCO 2 -eq./y]: PV technology and waste resource achieve the maximal available capacity with 59.2 [GWe] and 17.8 [GWh], representing 17% and 5% of the primary energy mix, respectively. Waste boilers and direct electricity heating replace the industrial gas boilers. The trucks shift from NG to electricity. -gwp limit = 4.7 [MtCO 2 -eq./y]: there is an extreme shift from electric-based to gas-based technologies. Indeed, the wood, wet biomass, wind, and solar energies have almost completely vanished from the primary energy mix. The gas-RE, ammonia-RE, and methanol-RE imports amount to 86%, 2%, and 10% of the primary energy mix, respectively. The cars and trucks shift from electric to gas technologies using the gas-RE. The CCGT produces electricity with gas-RE.Finally, boilers and co-generation using gas-RE satisfy the heat demand. Note that the value of energy invested in the operation of renewable fuels is difficult to estimate. Thus, when the share of these fuels represents a large amount of the primary energy mix, the value of the EROI of the system becomes more uncertain than when using conventional fossil fuels.Figure 4 depicts the GWP constr and GWP op of the system, broken down by technologies and resources for the different yearly GHG emissions targets in 2035. The GHG construction emissions are mainly driven by electricity and mobility technologies. The PV installation amounts to a significant part of the electricity construction GHG emissions increase between GHG emissions targets of 80.6 and 61.7 [MtCO 2 -eq./y]. Private passenger mobility composes the prominent part of the mobility construction GHG emissions with battery-electric cars for GHG emissions targets between 90.1 and 9.5 [MtCO 2 -eq./y], and NG cars for the reference case and the GHG emissions target of 4.7 [MtCO 2 -eq./y]. The GHG operation emissions mainly comprise non-renewable resources: NG, electricity import, methanol, and ammonia. They decrease with the progressive shift from non-renewable to renewable resources. GWP constr .4.2.2 Breakdown of the system GHG emissions RE-fuels Storage Heat Electricity Mobility (a) Natural gas Ammonia Electricity import Wet biomass Wood Waste Methanol (b) GWPop. Table 7 7presents the top-5 critical parameters and their total-order Sobol values [%] for each GHG emissions target considered. The total-order Sobol value of a parameter indicates its contribution to the variance of the EROI of the system. Table 7 : 7TopMtCO 2 -eq./y], where the energy invested in construction is mainly composed of mobility and electricity technologies, and more particularly of PV and electric cars. The maximum capacity of nuclear power plants f NUC max is the third critical parameter. It has-5 critical parameters and their total-order Sobol values [%] for several GHG emissions targets [MtCO 2 -eq./y]. Abbreviations: operating energy required to use resource i (e i op ), energy invested in the construction of a technology j (e j constr ), maximal installed capacity of a technology j (f j max ), maximal availability of a resource i (avail i ), maximal share of public mobility (% public mob max ), electric (elec.) photovoltaic (PV), nuclear (NUC), renewable gas (Gas-RE), natural gas (NG). and 9.5 [lower energy invested in construction than PV, 2600 vs. 4400 [GWh/GW], which is similar to wind on/offshore, and a negligible related global warming potential of construction. Thus, the sys- tem consistently relies on the maximum capacity of the nuclear power plants. f NUC max is the second most-impacting parameter with 12.5% for GHG emissions target of 56.9 [MtCO 2 -eq./y], and the third one with 4.8% and 3.4% for targets of 28.5 and 19.0 [MtCO 2 -eq./y]. The wet biomass avail Wet biomass and wood avail Wood availabilities with 4.7% and 2.5%, respectively, are the fourth critical parameters for low GHG emissions targets of 28.5 and 19.0 [MtCO 2 -eq./y]. The operating energy required to use the wood resource is lower than biomass, 0.049 vs. 0.056 [GWh/GWh] for an equivalent global warming potential. The wood is used by the model to produce methanol for satisfying the non-energy demand. Thus, it allows for limiting the methanol importations, which require higher operating energy with 0.08 [GWh/GWh]. Finally, for GHG emissions targets of 28.5 and 19.0 [MtCO 2 -eq./y], [MtCO 2 -eq./y], the fifth crit- ical parameters are the offshore wind maximal installed capacity f Offshore wind max and the maximal share of public mobility % public mob max with 4.2% and 2.3%, respectively. Private car is the most signif- icant partaker in the passenger mobility in Bel- gium. According to the Federal Planning Bureau Phasing out of low energy-intensive fossil fuels, particularly NG, by relying on more renewables and importing renewable fuels naturally drives down the EROI of the system. This decrease in EROI raises concerns about a minimal societal EROI value below which a prosperous lifestyle would not be sustainable. The estimation of such value is complex and out of the scope of thisFig. 11: Probability density function (plain lines) of the EROI for several GHG emissions targets. The dashed vertical lines provide the EROI mean of the runs performed during the sensitivity anal-GWPtot [MtCO 2 -eq./y] 85.4 56.9 28.5 19.019.0 56.9 28.5 85.4 ysis: 8.4, 6.9, 4.7, and 4.2 for 85.4, 56.9, 28.5, and 19.0 [MtCO 2 -eq./y], respectively. Deterministic NUC-0 7.9 6.2 4.4 3.9 Deterministic NUC-2 8.1 6.5 4.5 4.0 Deterministic NUC-5.6 8.6 6.9 4.6 4.2 Mean µ 8.4 6.9 4.7 4.2 Standard deviation σ 0.76 0.67 0.55 0.45 CoV σ/µ [%] Table 8 : 8Deterministic value for the three deterministic scenarios, mean and standard deviation of the EROI resulting from the sensitivity analysis, and the ratio between σ and µ, the coefficient of variation (CoV).study. However, it is not impossible that con- sidering the actual values of energy invested in the construction of renewable technologies and the required operational energy for renewable resources, the EROI of the system could reach this limit before achieving carbon neutrality. The esti- mated EROI probability density functions indi- cate that decreasing the GHG emissions makes the EROI more sensitive to uncertain parameters. the system uses an increased capacity of seasonal centralized thermal and daily decentralized thermal storage technologies to cope with seasonal and intraday intermittent electricity production. GWh]. The seasonal gas storage is filled with NG in the "reference scenario-100%".Its capacity decreases when GHG emissions are ≈ 85.4 [MtCO 2 -eq./y] with the electrification of the private mobility. Then, its capacity increases when GHG emissions are ≈ 71.1 [MtCO 2 -eq./y] and reaches a constant value with GHG emissions from 61.7 to 33.2 [MtCO 2 -eq./y]. Finally, its capacity increases progressively when GHG emissions decrease below 33.2 [MtCO 2 -eq./y] to satisfy the seasonality of the heating, mobility, and electricity demands that rely heavily on renewable gas. The HVC end-use demand, which amounts to most non-energy demand, is satisfied with technology that converts methanol into HVC. such as solar, wind, and waste, to satisfy the heat high-temperature end-use demand. When the GHG emissions are below 14.2 [MtCO 2 -eq./y], the waste boilers are replaced by gas boilers that use renewable fuels, including imported renewable gas. Finally, when the GHG emissions are below 9.5 [MtCO 2 -eq./y], the gas boiler technology is exclusively used with imported renewable gas. The decentralized low heat temperature end-use demand is always satisfied with heat pumps, except when GHG emissions decrease below 9.5 [MtCO 2 -eq./y]. In this case, decentralized gas boilers are used with imported renewable gas. Overall, the centralized heat low-temperature demand is mainly satisfied with centralized electricity heat pumps when GHG emissions are > 14.2 [MtCO 2 -eq./y]. The decrease of centralized gas CHP is first balanced by centralized electricity heat pumps and then by centralized biomass CHP. eq./y], centralized gas CHP, and gas boiler technologies use imported renewable gas to satisfy the demand. Private mobility relies on electric cars from GHG emissions of 85.4 to 9.5 [MtCO 2 -eq./y] and gas cars using imported renewable gas when GHG emissions decrease below 9.5 [MtCO 2 -eq./y]. The trend is similar for freight trucks. The freight boat first uses NG and then renewable gas when GHG emissions decrease. The freight trains rely only on electricity in EnergyScope TD; thus, there is no technology change for this mobility type.C.2 Energy invested evolutionFigures 15 and 16 depict the operation (E op )and construction (E constr ) system energy investedThe total system energy invested(E in,tot ) increases with the limitation of GHG emissions due to the increase of E constr and E op , and is driven by the increase of renewable fuels. The E op increase is mainly due to the shift from NG to renewable gas, and it exceeds the construction system energy invested when GHG emissions are below 47.4 [MtCO 2 -eq./y]. The main drivers of the E constr increase are the PV technology and the shift from NG cars and trucks to electric cars and trucks. Yearly emissions limit [MtCO2-eq./y] (e) Renewable fuels.byp j (eud) defined in Eq. (13). Appendix C Reference scenario additional results This appendix presents the results of the simula- tion with the reference scenario (see Section 4.2) in terms of installed capacities for several GHG emissions targets, energy invested, and FEC. C.1 Assets installed capacity evolution Figure 13 depicts the installed capacities of elec- tricity production, storage (electric, thermal, gas, ammonia, and methanol), and renewable fuels technologies. The PV technology drives the evo- lution of electricity production assets by replacing the CCGTs and reaching the maximal available capacity of 59.2 [GWe]. Notice that the onshore and offshore wind technologies are already at their maximal capacities in the "reference scenario- 100%". When the GHG emissions are below 9.5 [MtCO 2 -eq./y], the PV and wind capacities are replaced mainly by CCGT, which uses renewable gas (gas-RE). The electric storage is composed of daily storage: pumped hydro storage 12 (PHS) and batteries of electric vehicle (BEV). The PHS is already at its maximal available capacity in the "reference scenario-100%", and the batteries of electric vehicles are used when GHG emissions are below 66.4 [MtCO 2 -eq./y] to cope with uncer- tainty related to the increasing share of PV and wind power in the primary energy mix. With the shift from thermal to electric cars, batteries (BEV) can interact with the electricity layer (vehicle-to- grid) when GHG emissions decrease. They pro- vide additional flexibility to cope with a primary energy mix that relies on an increasing share of intermittent renewable energy as the GHG emis- sions decrease. Then, when the GHG emissions are below 9.5 [MtCO 2 -eq./y], electric cars are replaced by thermal cars, which use renewable fuels (gas- RE). When the GHG emissions target is below 66.4 [MtCO 2 -eq./y], the PV installed capacity is maximal (59.2 [GWe]), and the system relies on a high share of intermittent renewable energy: solar and wind to produce electricity. The centralized and decentralized low heat temperature demands are mainly satisfied by heat pumps. Therefore, 12 In Belgium, it is mainly the Coo-Trois-Ponts hydroelectric power station. When the GHG emissions target is below 9.5 [MtCO 2 -eq./y], the primary energy mix comprises renewable fuels, including renewable gas. Thus, the gas boiler technology mainly satisfies the cen- tralized and decentralized low heat temperature demands, and the capacities of centralized and daily decentralized thermal storage technologies are close to 0 [The methanol is imported and synthesized from biomass when the GHG emissions are between 100.3 -33.2 [MtCO 2 -eq./y]. When the GHG emis- sions are between 33.2 and 9.5 [MtCO 2 -eq./y], the methanol imports are replaced by technologies to synthesize methanol from imported renewable gas. Finally, when the GHG emissions are below 9.5 [MtCO 2 -eq./y], there are only renewable methanol imports. Figure 14 depicts the installed capacities of heating and mobility technologies. The indus- trial gas boilers are replaced by waste boilers and electrical resistors (I elec.) when GHG emis- sions reach 66.4 [MtCO 2 -eq./y]. It corresponds to the shift from a primary energy mix composed mainly of NG to less intensive carbon energies, When GHG emissions target is below 9.5 [MtCO 2 - breakdown by resources, between renewable and non-renewable, and technologies (all technologies, and between electricity and mobility technolo- gies). 100 80 66 52 37 23 9 Yearly emissions limit [MtCO2-eq./y] 0 20 40 60 80 100 120 Capacity [GWe] CCGT Hydro PV Wind offshore Wind onshore (a) Electricity production. 100 80 66 52 37 23 9 Yearly emissions limit [MtCO2-eq./y] 0 20 40 60 80 100 120 140 160 Capacity [GWh] BEV Elec. battery PHS (b) Electric storage. 100 80 66 52 37 23 9 Yearly emissions limit [MtCO2-eq./y] 0 200 400 600 800 1000 1200 1400 1600 Capacity [GWh] DEC FC CHP gas DEC elec. HP DEC gas boiler DHN seasonal (c) Thermal storage. 100 80 66 52 37 23 9 Yearly emissions limit [MtCO2-eq./y] 0 10000 20000 30000 40000 50000 Capacity [GWh] Ammonia Gas Methanol (d) Other storage. 100 80 66 52 37 23 9 0.0 2.5 5.0 7.5 10.0 12.5 15.0 17.5 20.0 Capacity [GW] Biomass to methanol H2 to ammonia Methane to methanol Methanol to HVC Steam methane reforming down by end-use demand: heat, mobility, nonenergy, and electricity. First, the FEC decreases Yearly emissions limit [MtCO2-eq./y] DHN HP DHN gas CHP DHN gas boiler DHN solar thermal DHN wet biomass CHP (e) Heat low T DHN. Yearly emissions limit [MtCO2-eq./y]Fig. 14: Evolution of the heat and mobility asset installed capacities breakdown by technology for several scenarios of GHG emissions in 2035. Abbreviations: industry (I), combined heat and power (CHP), centralized heat low temperature (Heat low T DHN), decentralized heat low temperature (Heat low T DEC), electric (elec.), heat pump (HP), fuel cell (FC).with the shift from NG cars to better efficient electric cars. Then, it increases slightly due to the shift from centralized gas co-generation to centralized bio hydrolysis CHP technology that uses more primary energy to produce the same amount of heat low-temperature end-use demand. Finally, it decreases with the shift from NG trucks to(b) Non-RE resources.Fig. 15: System energy invested in operation (E op ) evolution in 2035 for several GHG emissions targets breakdown between renewable (RE) (left) and non-renewable resources (right). Abbreviations: RE-fuels: gas-RE, methanol-RE, and ammonia-RE; electricity (Elec.). Yearly emissions limit [MtCO2-eq./y] (a) All technologies.Fig. 16: System energy invested in construction (E constr ) evolution in 2035 for several GHG emissions targets (upper), and breakdown between electricity (lower left) and mobility (lower right) technologies. Abbreviations: RE-fuels: gas-RE, methanol-RE, and ammonia-RE; natural gas (NG); electric (Elec.). more efficient electric trucks. When GHG emissions achieve 4.7 [MtCO 2 -eq./y], the heat lowtemperature decentralized FEC increases with the shift from electric technologies such as heat pumps Heat high T. Heat low T. DEC Heat low T. DHN (a) FEC heat. Mob. freight boat Mob. freight rail Mob. freight road Mob. private Mob. public (b) FEC mobility. Fig. 17: Final energy consumption (FEC) evolution for several GHG emissions targets in 2035 breakdown by end use demand: heat (upper left), mobility (upper right), non-energy and electricity (lower). Abbreviations: heat high temperature (Heat high T.); decentralized heat low temperature (Heat low T. DEC); centralized heat low temperature (Heat low T. DHN); mobility (Mob.); high value chemicals (HVC). to gas boilers that use renewable gas. Then, the FEC of mobility, public and freight road, increases due to the shift from electric vehicles to renewable fuel vehicles. This appendix details the sensitivity analysis methodology and provides additional results. Figure 18 depicts the framework of the EROI system sensitivity analysis and how the PCE method is implemented. First, uncertain parameters are Fig. 18: Framework of the EROI system sensitivity analysis. The steps 2 and 3 are conducted for each GHG emissions target considered. defined with their respective uncertainty ranges. Then, the PCE framework is applied to generate a surrogate model and retrieve the critical uncertain parameters. Finally, the mean and variance of the system's EROI are estimated, and the surrogate model is used to perform Monte Carlo sampling to estimate the EROI pdf for several GHG emissions targets. This appendix is organized as follows. First, D.1 details the framework used to perform the sensitivity analysis of the system's EROI. Then, D.2 presents the set of uncertain parameters considered with their respective uncertainty ranges.Finally, D.3 illustrates the selection process using the first-order PCE to build a shortlist of uncertain parameters for the second-order PCE. D.1 Sensitivity analysis methodology The PCE approach provides a computationally efficient alternative to the Monte Carlo simulation for uncertainty quantification to address the "curse of dimensionality" pointed out by Rixhon et al (2021b). Indeed, given limited information about the uncertainty of the parameters for longterm energy planning models, the PCE method constructs a series of multivariate orthonormal polynomials used as a surrogate modelf . It is a closed-form function that takes as input a vector composed of the values of the realization i of the N uncertain parameters considered X i = [X i 1 , · · · , X i n ] and outputs the EROI of the sys-Depending on the number of uncertain parameters, the polynomial order can be increased and is, therefore, more accurate. A few hundred evaluations are required for tens of uncertain parameters to have a first-order polynomial. However, thousands of evaluations are required to obtain a thirdorder polynomial. Then, the surrogate model Eq. (14) allows: (1) to extract statistical moments such as the mean and variance using the coefficients and the total-order Sobol indices. They illustrate the contribution of each uncertain input parameter to the variance of the quantity of interest, in our case, the EROI of the system, including the mutual interactions; (2) to conduct a Monte-Carlo evaluation where millions of samples are generated, and the associated results are calculated instantaneously. It provides the accurate estimation of the EROI pdf for several GHG emissions targets. The first step, depicted in Figure 18, is the uncertainty characterization which consists of defining a set of uncertain parameters and their uncertainty ranges. In this study, we use the extension to the Belgian energy system uncertainty characterization performed by Limpens(2021)based on the work ofMoret et al (2017). A preliminary screening was performed to determine which parameters had no impact and resulted in a set of 138 uncertain parameters X 0 = [X 1 , · · · , X 138 ] .The second step consists of conducting a firstorder PCE on these 138 uncertain parameters to build a shortlist of n critical parameters X n used for a second-order PCE. This step is performed five times to increase the confidence of the result.A parameter is considered negligible if its totalorder Sobol index is close to 0 for all five cases.The last step consists of conducting a second-order PCE to identify the m critical uncertain parameters X m based on X n and estimating an accurate total-order Sobol index for each of them. Then, a Monte-Carlo evaluation is performed using the surrogate modelf to estimate the pdf of the EROI for several GHG emissions targets. Steps 2 and 3 are conducted for each several GHG emissions targets.100 80 66 52 37 23 9 Yearly emissions limit [MtCO2-eq./y] 0 5 10 15 20 25 Capacity [GW] I elec. I gas CHP I gas boiler I waste boiler (a) Heat high T. 100 80 66 52 37 23 9 Yearly emissions limit [MtCO2-eq./y] 0 50 100 150 200 250 Capacity [GW] Elec. car Gas car (b) Private mobility. 100 80 66 52 37 23 9 Yearly emissions limit [MtCO2-eq./y] 0 5 10 15 20 25 30 35 40 Capacity [GW] DEC HP DEC gas FC DEC gas boiler (c) Heat low T DEC. 100 80 66 52 37 23 9 Yearly emissions limit [MtCO2-eq./y] 0 10 20 30 40 50 Capacity [GW] Gas bus Train Tram or metro (d) Public mobility. 100 80 66 52 37 23 9 0 5 10 15 20 25 30 35 40 Capacity [GW] 100 80 66 52 37 23 9 0 20 40 60 80 100 120 Capacity [GW] Boat (gas) Train Truck (elec.) Truck (gas) (f) Freight mobility. 100 80 66 52 37 23 9 Yearly emissions limit [MtCO2-eq./y] 0 20 40 60 80 100 120 140 160 Operation energy [TWh] Ammonia-RE Gas-RE Methanol-RE Wet biomass Wood (a) RE resources. 100 80 66 52 37 23 9 Yearly emissions limit [MtCO2-eq./y] 0 5 10 15 20 25 Operation energy [TWh] Ammonia Elec. import NG Methanol Waste 100 80 66 52 37 23 9 0 10 20 30 40 50 Construction energy [TWh] Electricity Heat Mobility RE-fuels Storage 100 80 66 52 37 23 9 Yearly emissions limit [MtCO2-eq./y] 0 2 4 6 8 10 12 14 16 Construction energy [TWh] CCGT PV Wind onshore Wind offshore (b) Electricity. 100 80 66 52 37 23 9 Yearly emissions limit [MtCO2-eq./y] 0 5 10 15 20 25 Construction energy [TWh] Elec. car Elec. truck Gas car Gas truck (c) Mobility. 100 80 66 52 37 23 9 Yearly emissions [MtC02/y] 0 50 100 150 200 250 FEC [TWh] 100 80 66 52 37 23 9 Yearly emissions [MtC02/y] 0 20 40 60 80 100 FEC [TWh] 100 80 66 52 37 23 9 Yearly emissions [MtC02/y] 0 50 100 150 200 FEC [TWh] Ammonia Electricity HVC Methanol (c) FEC electricity and non- energy. Appendix D Sensitivity analysis Parameters uncertainty characterization 1st-PCE Preliminary screening Define the uncertainty range Select uncertain parameters STEP 1 STEP 2: f ir st -or der PCE conducted 5 times ES-TD N1 samples EROI values n critical parameters "short-listed" Monte Carlo EROI pdf 2nd-PCE ES-TD N2 samples EROI values -m critical parameters -EROI mean & variance -surrogate model STEP 3: secon d-or der PCE temf (X i ) = EROI i . (14) Table 9 9summarizes the uncertainty ranges for the different groups of technologies and resources considered in the sensitivity analysis. Following the approach developed by Moret et al (2017) and capitalizing on the works of Limpens (2021); Rixhon et al (2021b) the uncertainty intervals are defined. A preliminary screening, including all the parameters of the model, allowed to obtain an Springer Nature 2021 L A T E X template initial list of 138 parameters to be used for the first-order PCE. There are four categories of uncertain parameters: end-use demands, technologies, resources, and others. The uncertainty in the yearly end-use demands is split by energy sectors. The electricity demand, space heating demand, and industrial demand are related to the yearly industrial demand uncertainty endUses I year , which has the most extensive range. The freight and passenger mobility are related to the uncertainty of transport endUses T R year . Technologies are defined through different parameters: the energy conversion efficiency η, the investment cost c inv , the construction energy investment e constr , the yearly c p and hourly c p,t load factors, the potential f max , the maintenance cost c maint , and the lifetime.This study does not consider the energy conversion efficiency, investment and maintenance costs, yearly capacity factors, and lifetime as uncertain parameters. In addition, the energy invested in the construction of storage technologies is not taken into account. Intermittent renewable energy is limited in its potential (f max of PV, onshore and offshore wind) and the hourly capacity factor (c p,t of PV, solar, onshore and offshore wind, and hydroelectricity). The electricity % elec loss and heat % heat loss network losses are considered uncertain parameters. Resources are characterized by an operating cost c op , not considered uncertain in this study, energy invested in operation e op , and availability avail. Most resources have unlimited availability except biomass, waste, and electricity imported. The availability of local resources (wood, waste, and biomass) are uncertain parameters. Finally, there is a limited installed capacity f max imposed arbitrarily for nuclear f NUC max [GWe], electricity f GEO elec max [GWe] and heat f GEO DHN max [GWth] production from geothermal. This work also accounts for uncertainties on the upper bounds of mobility % public mob max [%], % train freight max [%] and % boat freight max [%], the upper bound of heat that can be covered by district heating network % DHN heat max , and the capacity of electrical interconnection with neighbours elec import max [GWe]. Table 9 : 9Application of the uncertainty characterization method to Ener-gyScope TD when maximizing the EROI of the system. Uncertainty is characterized for one representative parameter (rep. param.) per category.Due to the lack of data in the literature for 2035, the uncertainty intervals of e op and e constr are by default absolute uniform interval U[−25%, +25%]. Abbreviations: photovoltaic (PV), district heating network (DHN), industry (I), transport (TR), nuclear (NUC), geothermal (GEO), electricity (elec). parameters short-listed are named critical parameters and considered for the rest of the study in the second-order PCE.Figure 19 illustrates this selection process using the first-order PCE for the GHG emissions target of 28.5 [MtCO 2 -eq./y]. In this scenario, 42 parameters are identified (blue marks) as critical to be used in the second-order PCE. The red marks are the minimum values of the Sobol index for each parameter over the five runs, and the black marks are the mean of their five Sobol index values.Fig.19: Illustration of the selection process using first-order PCE for GWP tot ≤ 28.5 [MtCO 2eq./y]. The y-axis is logarithmic. For each parameter, the blue mark indicates the parameter is critical, and the grey mark that it is negligible. It corresponds to the maximal value of the Sobol index over the five runs. A parameter is critical if its maximal value of the Sobol index over the five runs is above threshold = 1/d. The red (black) mark is the minimum (mean) value of the Sobol index over the five runs.0 20 40 60 80 100 120 140 Parameters 0.10 0.72 10.00 80.00 % min max critical max negligible mean negligible: 1/138 GHG target [MtCO 2 -eq./y] 85.4 56.9 28.5 19.0 # parameters short-listed 64 55 42 45 # critical parameters 9 27 17 5 Table 10 : 10Number (#) of short-listed and critical parameters using the first-order and second-order PCE. //doi.org/10.1039/C9EE02627D, URL http:// dx.doi.org/10.1039/C9EE02627D Cleveland CJ, Costanza R, Hall CAS, et al (1984) Energy and the u.s. economy: A biophysical perspective. Science 225(4665):890-897. https://doi.org/10.1126/science.225.4665. 890, URL https://www.science.org/doi/abs/10. 1126/science.225.4665.890 Codina Gironès V, Moret S, Maréchal F, et al (2015) Strategic energy planning for large-scale energy systems: A modelling framework to aid decision-making. Energy 90:173-186. https://doi.org/https: //doi.org/10.1016/j.energy.2015.06.008, URL https://www.sciencedirect.com/science/ article/pii/S0360544215007136 Springer Nature 2021 L A T E X templateRanking 85.4 56.9 28.5 19.0 1 e NG cars constr 39.2 e Elec. cars constr 18.0 e Gas-RE op 43.6 e Gas-RE op 67.1 2 e NG op 25.5 f NUC max 12.5 e Elec. cars constr 4.8 e Elec. cars constr 6.1 3 e Elec. cars constr 6.3 % public mob max 7.7 f NUC max 4.8 f NUC max 3.4 4 % public mob max 5.4 e PV constr 5.0 avail Wet biomass 4.7 avail Wood 2.5 5 e Wet biomass op 4.3 e NG op 5.0 f Offshore wind max 4.2 e NG cars constr 2.3 6 e DHN wet biomass CHP constr 2.2 avail Wood 4.2 endUses I year 3.8 - 7 e Elec. trucks constr 1.9 e NG cars constr 3.6 f GEO DHN max 3.3 - 8 e Methanol op 1.8 c P V p,t 3.0 e PV constr 3.3 - 9 e Diesel trucks constr 1.8 endUses I year 3.9 e Offshore wind constr 3.1 - 10 - e Uranium op 2.9 % public mob max 3.1 - 11 -avail Wet biomass 2.9 f Onshore wind max 3.0 - 12 - f GEO DHN max 2.9 e NG cars constr 3.0 - 13 - e Wet biomass op 2.9 e Elec. op 2.8 - 14 - e Gas-RE op 2.8 avail Wood 2.6 - 15 - c Offshore wind p,t 2.5 e Wet biomass op 2.5 - 16 - f Offshore wind max 2.5 e Elec. wet biomass constr 2.5 - 17 - e Methanol op 2.5 c Offshore wind p,t 2.5 - 18 - f Onshore wind max 2.5 - - 19 - endUses T R year 2.4 - - 20 - e H2 constr 2.4 - - 21 - % freight train max 2.2 - - 22 - c Onshore wind p,t 2.1 - - 23 - % freight boat max 2.1 - - 24 - e I waste boilers constr 2.0 - - 25 -e DHN waste CHP constr 1.9 - - 26 - e Wood op 1.8 - - 27 - e CCGT ammonia constr 1.8 - - Table 11 : 11Critical parameters and Sobol indices values [%] for several GHG emissions targets [MtCO 2eq./y]. Abbreviations: electric (elec.), mobility (mob), photovoltaic (PV), nuclear (NUC), renewable gas (Gas-RE), natural gas (NG), geothermal (GEO), transport (TR), industry (I), district heating networks (DHN), combined heat and power (CHP), combined cycle gas turbine (CCGT). Colla M, Blondeau J, Jeanmart H (2022) Optimal use of lignocellulosic biomass for the energy transition, including the non-energy demand: The case of the belgian energy system. Frontiers in Energy Research 10. https://doi.org/10.3389/fenrg.2022.802327, URL https://www.frontiersin.org/article/10. 3389/fenrg.2022.802327 Contino F, Moret S, Limpens G, et al (2020) Whole-energy system models: The advisors for the energy transition. Progress in https://github.com/energyscope/EnergyScope 6 https://energyscope-td.readthedocs.io/en/master/ https://energyscope.readthedocs.io/en/master/sections/ Releases.html#case-studies These GHG emissions values do not consider the international intra-EU and international extra-EU and Use, Land-Use Change and Forestry (LULUCF). The use of imported electricity is highly dependent on its indirect emissions. In this study, electricity imports emit about half of the electricity production of a CCGT. Therefore, imported electricity replaces the production of CCGTs. https://rheia.readthedocs.io/en/latest/ Artelys crystal super grid. Artelys, 19Artelys (2022) Artelys crystal super grid. URL https://www.artelys.com/crystal/super-grid/, [accessed 19-April-2022] Deep decarbonisation of regional energy systems: A novel modelling approach and its application to the italian energy transition. M Borasio, S Moret, 10.1016/j.rser.2021.111730Renewable and Sustainable Energy Reviews. 153111Borasio M, Moret S (2022) Deep decarbonisation of regional energy systems: A novel modelling approach and its application to the italian energy transition. Renewable and Sustainable Energy Reviews 153:111,730. https://doi.org/ https://doi.org/10.1016/j.rser.2021.111730, URL https://www.sciencedirect.com/science/ article/pii/S1364032121010030 How does energy resource depletion affect prosperity? mathematics of a minimum energy return on investment (eroi). A R Brandt, 10.1007/s41247-017-0019-yBioPhysical Economics and Resource Quality. 21Brandt AR (2017) How does energy resource depletion affect prosperity? mathematics of a minimum energy return on investment (eroi). BioPhysical Economics and Resource Quality 2(1):1-12. https://doi.org/https: . https:/link.springer.com/article/10.1007/s41247-017-0019-y//doi.org/10.1007/s41247-017-0019-y, URL https://link.springer.com/article/10.1007/ A general mathematical framework for calculating systems-scale efficiency of energy extraction and conversion: Energy return on investment (eroi) and other energy return ratios. A R Brandt, M Dale, 10.3390/en4081211Energies. 48Brandt AR, Dale M (2011) A general mathe- matical framework for calculating systems-scale efficiency of energy extraction and conver- sion: Energy return on investment (eroi) and other energy return ratios. Energies 4(8):1211- 1245. https://doi.org/10.3390/en4081211, URL https://www.mdpi.com/1996-1073/4/8/1211 Estimation of global final-stage energyreturn-on-investment for fossil fuels with comparison to renewable energy sources. P E Brockway, A Owen, L I Brand-Correa, 10.1038/s41560-019-0425-zNature Energy. 47Brockway PE, Owen A, Brand-Correa LI, et al (2019) Estimation of global final-stage energy- return-on-investment for fossil fuels with com- parison to renewable energy sources. Nature Energy 4(7):612-621. https://doi.org/https:// doi.org/10.1038/s41560-019-0425-z Perspectives de l'évolution de la demande de transport en belgiqueà l'horizon 2030. F P Bureau, accessed 21-March-2022Bureau FP (2015) Perspectives de l'évolution de la demande de transport en belgiqueà l'horizon 2030. URL https://www.plan.be/publications/ publication-1515-en-, [accessed 21-March-2022] Dynamic energy return on energy investment (eroi) and material requirements in scenarios of global transition to renewable energies. I Capellán-Pérez, De Castro, C González, Ljm , 10.1016/j.esr.2019.100399Energy Strategy Reviews. 26Capellán-Pérez I, De Castro C, González LJM (2019) Dynamic energy return on energy investment (eroi) and material require- ments in scenarios of global transition to renewable energies. Energy Strategy Reviews 26:100,399. https://doi.org/https: //doi.org/10.1016/j.esr.2019.100399, URL https://www.sciencedirect.com/science/ article/pii/S2211467X19300926 Medeas: a new modeling framework integrating global biophysical and socioeconomic constraints. I Capellán-Pérez, I De Blas, J Nieto, 10.1039/C9EE02627Dhttps: Energy and Combustion Science. 13872Energy Environ SciCapellán-Pérez I, de Blas I, Nieto J, et al (2020) Medeas: a new modeling framework integrat- ing global biophysical and socioeconomic con- straints. Energy Environ Sci 13:986-1017. https: Energy and Combustion Science 81:100,872. . 10.1016/j.pecs.2020.100872https://doi.org/https://doi.org/10.1016/j.pecs. 2020.100872, URL https://www.sciencedirect. . D Coppitters, W De Paepe, F Contino, Robust design optimization andCoppitters D, De Paepe W, Contino F (2020) Robust design optimization and Energy 213:118. 10.1016/j.energy.2020.118798798Energy 213:118,798. https://doi.org/https: . 10.1016/j.energy.2020.118798//doi.org/10.1016/j.energy.2020.118798, URL https://www.sciencedirect.com/science/ article/pii/S0360544220319058 Energy exchanges between countries for a future lowcarbon western europe: merging cells in energyscope mc to handle wider regions. N Cornet, P Eloy, H Jeanmart, 33090UCL -Ecole polytechnique de LouvainMaster's thesisCornet N, Eloy P, Jeanmart H, et al (2021) Energy exchanges between countries for a future low- carbon western europe: merging cells in ener- gyscope mc to handle wider regions. Master's thesis, UCL -Ecole polytechnique de Lou- vain, URL http://hdl.handle.net/2078.1/thesis: 33090 An estimation of different minimum exergy return ratios required for society. V Court, https:/link.springer.com/article/10.1007/s41247-019-0059-6s41247-019-0059-6BioPhysical Economics and Resource Quality. 4Court V (2019) An estimation of different minimum exergy return ratios required for society. BioPhysical Economics and Resource Quality 4:1-13. https://doi.org/https: //doi.org/10.1007/s41247-019-0059-6, URL https://link.springer.com/article/10.1007/ s41247-019-0059-6 bon vent setting sail for a climate neutral belgian energy system future belgian offshore wind unravelled. D Devogelaer, D Gusbin, Bon vent: setting sail for a climate neutral belgian energy system. accessed 28-March-2022Devogelaer D, Gusbin D (2021) Bon vent: setting sail for a climate neutral belgian energy sys- tem. URL https://www.plan.be/publications/ publication-2172-en-bon vent setting sail for a climate neutral belgian energy system future belgian offshore wind unravelled, [accessed 28-March-2022] D Devogelaer, D Gusbin, J Duerinck, Towards 100% renewable energy in belgium by 2050. 31Devogelaer D, Gusbin D, Duerinck J, et al (2012) Towards 100% renewable energy in belgium by 2050. URL https://www.plan. be/publications/publication-1191-fr-towards 100 renewable energy in belgium by 2050, [accessed 31-March-2022] Modelling of low carbon energy systems for 26 european countries with energyscopetd : can european energy systems reach carbon neutrality independently ?. J Dommisse, J L Tychon, Master's thesis. 25202UCL -Ecole polytechnique de LouvainDommisse J, Tychon JL (2020) Modelling of low carbon energy systems for 26 european coun- tries with energyscopetd : can european energy systems reach carbon neutrality independently ? Master's thesis, UCL -Ecole polytechnique de Louvain, URL http://hdl.handle.net/2078. 1/thesis:25202 A new tool for adequacy reporting of electric systems: Antares. CIGRE 2008 session, paper C1-305. M Doquet, R Gonzalez, S Lepy, 10.48550/ARXIV.2109.14272URL https. Paris Dubois A, Ernst DComputing necessary conditions for near-optimality in capacity expansion planning problemsDoquet M, Gonzalez R, Lepy S, et al (2008) A new tool for adequacy reporting of electric systems: Antares. CIGRE 2008 session, paper C1-305, Paris Dubois A, Ernst D (2021) Computing neces- sary conditions for near-optimality in capac- ity expansion planning problems. https://doi. org/10.48550/ARXIV.2109.14272, URL https: L A T E X Template, PSCC 2022Springer Nature 2021. Springer Nature 2021 L A T E X template //arxiv.org/abs/2109.14272, accepted for pub- lication in PSCC 2022 Estimate of the societal energy return on investment (eroi). E Dupont, M Germain, H Jeanmart, 10.1007/s41247-021-00084-9Biophysical Economics and Sustainability. 61Dupont E, Germain M, Jeanmart H (2021) Esti- mate of the societal energy return on investment (eroi). Biophysical Economics and Sustainabil- ity 6(1):1-14. https://doi.org/https://doi.org/ 10.1007/s41247-021-00084-9 Electricity scenarios for belgium towards 2050. Elia , 28Elia (2017) Electricity scenarios for belgium towards 2050. URL https://www.elia.be/en/ publications/studies-and-reports, [accessed 28- March-2022] Glossary: Final Energy Consumption. php?title=Glossary:Final energy consumption. 17European Commission -Eurostat (2022) Glossary: Final Energy Consumption. URL https://ec. europa.eu/eurostat/statistics-explained/index. php?title=Glossary:Final energy consumption, [accessed 17-June-2022] European Commission, Directorate-General for Climate Action, Directorate-General for. European Commission, Directorate-General for Climate Action, Directorate-General for Eu reference scenario 2016 : energy, transport and ghg emissions : trends to 2050. Energy, 10.2833/9127Energy, et al (2016) Eu reference scenario 2016 : energy, transport and ghg emissions : trends to 2050. https://doi.org/10.2833/9127 European Commission, Directorate-General for Climate Action, Directorate-General for Energy, et al (2021) Eu reference scenario 2020 : energy, transport and ghg emissions : trends to 2050. 10.2833/35750European Commission, Directorate-General for Climate Action, Directorate-General for Energy, et al (2021) Eu reference scenario 2020 : energy, transport and ghg emis- sions : trends to 2050. https://doi.org/10. 2833/35750, URL https://energy.ec.europa. Energy balance sheets -2016 data. 10.2785/02631European Commission and Eurostat. European Commission and Eurostat (2018) Energy balance sheets -2016 data : 2018 edition. https://doi.org/doi/10. 2785/02631, URL https://op.europa. Federal nuclear control agency (2022) Summary and analysis of actions required to activate Plan B: Long Term Operation Doel 4 & Tihange 3. European Commission. 10European Commission, Federal nuclear control agency (2022) Summary and analysis of actions required to activate Plan B: Long Term Operation Doel 4 & Tihange 3. URL https://afcn.fgov.be/fr/system/files/ 20220118-note-afcn-liste-analyse-actions-late-lto. pdf, [accessed 10-June-2022] Markal, a linearprogramming model for energy systems analysis: Technical description of the bnl version. L G Fishbone, H Abilock, 10.1002/er.4440050406International journal of Energy research. 54Fishbone LG, Abilock H (1981) Markal, a linear- programming model for energy systems anal- ysis: Technical description of the bnl ver- sion. International journal of Energy research 5(4):353-375. https://doi.org/https://doi.org/ 10.1002/er.4440050406 Energy expenditure, economic growth, and the minimum eroi of society. F Fizaine, V Court, 10.1016/j.enpol.2016.04.039Energy Policy. 95Fizaine F, Court V (2016) Energy expenditure, economic growth, and the minimum eroi of soci- ety. Energy Policy 95:172-186. https://doi.org/ https://doi.org/10.1016/j.enpol.2016.04.039, URL https://www.sciencedirect.com/science/ article/pii/S0301421516302087 A preliminary investigation of energy return on energy investment for global oil and gas production. N Gagnon, C A Hall, L Brinker, 10.3390/en20300490Energies. 23Gagnon N, Hall CA, Brinker L (2009) A prelim- inary investigation of energy return on energy investment for global oil and gas produc- tion. Energies 2(3):490-503. https://doi.org/ 10.3390/en20300490, URL https://www.mdpi. com/1996-1073/2/3/490 Efficiency of energy delivery systems: I. an economic and energy analysis. C Hall, M Lavine, J Sloane, 10.1007/BF01866318Environmental Management. 36Hall C, Lavine M, Sloane J (1979) Efficiency of energy delivery systems: I. an economic and energy analysis. Environmental Management 3(6):493-504. https://doi.org/https://doi.org/ 10.1007/BF01866318 Eroi of different fuels and the implications for society. C A Hall, J G Lambert, S B Balogh, 10.1016/j.enpol.2013.05.049Energy Policy. 64Hall CA, Lambert JG, Balogh SB (2014) Eroi of different fuels and the implications for society. Energy Policy 64:141-152. https://doi.org/ https://doi.org/10.1016/j.enpol.2013.05.049, URL https://www.sciencedirect.com/science/ article/pii/S0301421513003856 What is the minimum eroi that a sustainable society must have? Energies. Cas Hall, S Balogh, D J Murphy, 10.3390/en201000252Hall CAS, Balogh S, Murphy DJ (2009) What is the minimum eroi that a sustainable soci- ety must have? Energies 2(1):25-47. https: //doi.org/10.3390/en20100025, URL https:// www.mdpi.com/1996-1073/2/1/25 Eroi of global energy resources: preliminary status and trends. J Lambert, C Hall, S Balogh, 8Lambert J, Hall C, Balogh S, et al (2 November 2012) Eroi of global energy resources: preliminary status and trends. URL https://www.academia.edu/18452212/ EROI of global energy resources preliminary status and trends, [accessed 08-June-2022] Eroi of global energy resources: Status, trends and social implications. J Lambert, C Hall, S Balogh, 10.13140/2.1.2419.8724Lambert J, Hall C, Balogh S (2013) Eroi of global energy resources: Status, trends and social implications. https://doi.org/10.13140/2. 1.2419.8724 Energy, eroi and quality of life. J G Lambert, C A Hall, S Balogh, 10.1016/j.enpol.2013.07.001Energy Policy. 64Lambert JG, Hall CA, Balogh S, et al (2014) Energy, eroi and quality of life. Energy Policy 64:153-167. https://doi.org/https: . 10.1016/j.enpol.2013.07.001//doi.org/10.1016/j.enpol.2013.07.001, URL https://www.sciencedirect.com/science/ article/pii/S0301421513006447 Generating energy transition pathways: application to belgium. G Limpens, UCL-Université Catholique de LouvainPhD thesisLimpens G (2021) Generating energy transition pathways: application to belgium. PhD thesis, UCL-Université Catholique de Louvain Electricity storage needs for the energy transition: An eroi based analysis illustrated by the case of belgium. G Limpens, H Jeanmart, 10.1016/j.energy.2018.03.180Energy. 152Limpens G, Jeanmart H (2018) Electricity storage needs for the energy transition: An eroi based analysis illustrated by the case of belgium. Energy 152:960-973. https://doi.org/https: //doi.org/10.1016/j.energy.2018.03.180, URL https://www.sciencedirect.com/science/ article/pii/S0360544218305899 Energyscope td: A novel open-source model for regional energy systems. G Limpens, S Moret, H Jeanmart, 10.1016/j.apenergy.2019.113729Applied Energy. 255Limpens G, Moret S, Jeanmart H, et al (2019) Energyscope td: A novel open-source model for regional energy systems. Applied Energy 255:113,729. https://doi.org/https: //doi.org/10.1016/j.apenergy.2019.113729, URL https://www.sciencedirect.com/science/ article/pii/S0306261919314163 . G Limpens, H Jeanmart, F Maréchal, 13Belgian energy transition: What are the options? EnergiesLimpens G, Jeanmart H, Maréchal F (2020) Belgian energy transition: What are the options? Energies 13(1). . 10.3390/en13010261https://doi.org/10.3390/en13010261, URL https://www.mdpi.com/1996-1073/13/1/261 Study of the spanish energy transition. R Martinez, J Maria, UCL -Ecole polytechnique de LouvainMaster's thesisMartinez R, Maria J (2021) Study of the span- ish energy transition. Master's thesis, UCL - Ecole polytechnique de Louvain, URL http:// hdl.handle.net/2117/353583 Ipcc, 2021: Summary for policymakers. in: Climate change 2021: The physical science basis. contribution of working group i to the sixth assessment report of the intergovernmental panel on climate change. V Masson-Delmotte, P Zhai, A Pirani, Intergovernmental Panel on Climate Change. Tech. repMasson-Delmotte V, Zhai P, Pirani A, et al (2021) Ipcc, 2021: Summary for policymakers. in: Climate change 2021: The physical science basis. contribution of working group i to the sixth assessment report of the intergovernmen- tal panel on climate change. Tech. rep., Inter- governmental Panel on Climate Change, URL https://www.ipcc.ch/assessment-report/ar6/ Uncertainty and global sensitivity analysis for the optimal design of distributed energy systems. G Mavromatidis, K Orehounig, J Carmeliet, 10.1016/j.apenergy.2018.01.062Applied Energy. 214Mavromatidis G, Orehounig K, Carmeliet J (2018) Uncertainty and global sensi- tivity analysis for the optimal design of distributed energy systems. Applied Energy 214:219-238. https://doi.org/https: //doi.org/10.1016/j.apenergy.2018.01.062, URL https://www.sciencedirect.com/science/ article/pii/S0306261918300710 . F Meinke-Hubeny, L P De Oliveira, Meinke-Hubeny F, de Oliveira LP, Energy transition in belgium-choices and costs. J Duerinck, Duerinck J, et al (2017) Energy tran- sition in belgium-choices and costs. URL https://www.energyville.be/ energy-transition-belgium-choices-and-costs Strategic energy planning under uncertainty. S Moret, 10.5075/epfl-thesis-7961EPFL-École Polytechnique Fédérale de LausannePhD thesisMoret S (2017) Strategic energy planning under uncertainty. PhD thesis, EPFL-École Poly- technique Fédérale de Lausanne, https:// doi.org/10.5075/epfl-thesis-7961, URL http:// infoscience.epfl.ch/record/231814 Characterization of input uncertainties in strategic energy planning models. S Moret, Codina Gironès, V Bierlaire, M , 10.1016/j.apenergy.2017.05.106Applied Energy. 202Moret S, Codina Gironès V, Bierlaire M, et al (2017) Characterization of input uncertainties in strategic energy planning models. Applied Energy 202:597-617. https://doi.org/https: . 10.1016/j.apenergy.2017.05.106//doi.org/10.1016/j.apenergy.2017.05.106, URL https://www.sciencedirect.com/science/ article/pii/S0306261917306116 Energy return on investment: toward a consistent framework. K Mulder, N J Hagens, 10.1579/0044-7447(2008)37[74:EROITA]2.0.CO;21579/0044-7447(2008)37[74: EROITA]2.0.CO;2AMBIO: A Journal of the Human Environment. 372Mulder K, Hagens NJ (2008) Energy return on investment: toward a consistent framework. AMBIO: A Journal of the Human Envi- ronment 37(2):74-79. https://doi.org/https: //doi.org/10.1579/0044-7447(2008)37[74: EROITA]2.0.CO;2 Multi-criteria optimisation of an energy system and application to the belgian case. B Muyldermans, G Nève, URL httpUCL -Ecole polytechnique de LouvainMaster's thesisMuyldermans B, Nève G (2021) Multi-criteria optimisation of an energy system and applica- tion to the belgian case. Master's thesis, UCL -Ecole polytechnique de Louvain, URL http: Comprehensive integration of the non-energy demand within a whole-energy system: Towards a defossilisation of the chemical industry in belgium. X Rixhon, M Colla, D Tonelli, Rixhon X, Colla M, Tonelli D, et al (2021a) Comprehensive integration of the non-energy demand within a whole-energy system: Towards a defossilisation of the chemical industry in belgium, URL https://best-energy. Xavier ECOS2021-Presentation-Condensed.pdf, under soumission for publication. be/wp-content/uploads/2021/08/Xavier ECOS2021-Presentation-Condensed.pdf, under soumission for publication The role of electrofuels under uncertainties for the belgian energy transition. X Rixhon, G Limpens, D Coppitters, 10.3390/en14134027Energies. 1413Rixhon X, Limpens G, Coppitters D, et al (2021b) The role of electrofuels under uncertainties for the belgian energy transition. Energies 14(13). https://doi.org/10.3390/en14134027, URL https://www.mdpi.com/1996-1073/14/ 13/4027 RTE (2021a) Energy pathways to 2050: Key results. RTE (2021a) Energy pathways to 2050: Key results. URL https://www.rte-france. . Lesdocuments, 31Lesdocuments, [accessed 31-March-2022] Energy pathways to 2050: production mix scenarios used to achieve carbon neutrality by 2050. Rte, RTE (2021b) Energy pathways to 2050: produc- tion mix scenarios used to achieve carbon neu- trality by 2050. URL https://www.rte-france. RTE (2022) Antares-simulator. 19RTE (2022) Antares-simulator. URL https:// antares-simulator.org/, [accessed 19-April-2022] The energyemissions trap. M R Sers, P A Victor, 10.1016/j.ecolecon.2018.04.004Ecological Economics. 151Sers MR, Victor PA (2018) The energy- emissions trap. Ecological Economics 151:10-21. https://doi.org/https://doi. . 10.1016/j.ecolecon.2018.04.004org/10.1016/j.ecolecon.2018.04.004, URL https://www.sciencedirect.com/science/ article/pii/S0921800917317044 Climate change 2013: The physical science basis. contribution of working group i to the fifth assessment report of the intergovernmental panel on climate change. T Stocker, D Qin, G K Plattner, Ipcc. Tech. repStocker T, Qin D, Plattner GK, et al (2013) Ipcc, 2013: Climate change 2013: The physical sci- ence basis. contribution of working group i to the fifth assessment report of the intergovern- mental panel on climate change. Tech. rep., Intergovernmental Panel on Climate Change, URL https://www.ipcc.ch/report/ar5/wg1/ Polynomial chaos expansions and stochastic finite element methods. B Sudret, CRC Press SpringerNature 2021 L A T E X template Boca Raton, FL, USASudret B (2014) Polynomial chaos expansions and stochastic finite element methods, CRC Press Springer Nature 2021 L A T E X template Boca Raton, FL, USA, pp 265-300 Energyscope multi-cell: a novel open-source model for multi-regional energy systems and application to a 3-cell, low-carbon energy system. P Thiran, A Hernandez, H Jeanmart, 25229UCL -Ecole polytechnique de LouvainMaster's thesisThiran P, Hernandez A, Jeanmart H, et al (2020) Energyscope multi-cell: a novel open-source model for multi-regional energy systems and application to a 3-cell, low-carbon energy sys- tem. Master's thesis, UCL -Ecole polytechnique de Louvain, URL http://hdl.handle.net/2078. 1/thesis:25229 Flexibility options in a multi-regional whole-energy system: the role of energy carriers in the italian energy transition. P Thiran, A Hernandez, G Limpens, 10.52202/062738-0037The 34th International Conference on Efficiency, Cost, Optimization, Simulation and Environmental Impact of Energy Systems. Thiran P, Hernandez A, Limpens G, et al (2021) Flexibility options in a multi-regional whole-energy system: the role of energy car- riers in the italian energy transition. In: The 34th International Conference on Efficiency, Cost, Optimization, Simulation and Environ- mental Impact of Energy Systems, pp 407- 416, https://doi.org/https://doi.org/10.52202/ 062738-0037, URL https://www.proceedings. com/062738-0037.html Simulationbased exploration of high-dimensional system models for identifying unexpected events. P Turati, N Pedroni, E Zio, 10.1016/j.ress.2017.04.004Reliability Engineering & System Safety. 165Turati P, Pedroni N, Zio E (2017) Simulation- based exploration of high-dimensional system models for identifying unexpected events. Reliability Engineering & System Safety 165:317-330. https://doi.org/https: . 10.1016/j.ress.2017.04.004//doi.org/10.1016/j.ress.2017.04.004, URL https://www.sciencedirect.com/science/ article/pii/S0951832016302964 The ecoinvent database version 3 (part i): overview and methodology. G Wernet, C Bauer, B Steubing, 10.1007/s11367-016-1087-8The International Journal of Life Cycle Assessment. 219Wernet G, Bauer C, Steubing B, et al (2016) The ecoinvent database version 3 (part i): overview and methodology. The International Journal of Life Cycle Assessment 21(9):1218- 1230. https://doi.org/https://doi.org/10.1007/ s11367-016-1087-8
sample_5169
0.9697
arxiv
Short note on the Sirenia disappearance from the Euro-North African realm during the Cenozoic: a link between climate and Supernovae? F Cabral University of Lisbon 1749-016Campo Grande, Lisboa, SupernovaeCenozoic, ClimatePortugal Keywords: Sirenia M Cachão University of Lisbon 1749-016Campo Grande, Lisboa, SupernovaeCenozoic, ClimatePortugal Keywords: Sirenia Jorge Agostinho University of Lisbon 1749-016Campo Grande, Lisboa, SupernovaeCenozoic, ClimatePortugal Keywords: Sirenia R University of Lisbon 1749-016Campo Grande, Lisboa, SupernovaeCenozoic, ClimatePortugal Keywords: Sirenia G Prista University of Lisbon 1749-016Campo Grande, Lisboa, SupernovaeCenozoic, ClimatePortugal Keywords: Sirenia Short note on the Sirenia disappearance from the Euro-North African realm during the Cenozoic: a link between climate and Supernovae? Sirenia are marine mammals that colonized the European shores up to 2.7 Ma. Their biodiversity evolution follows the climate evolution of the Cenozoic. However, several climate events, as well as the global climate trend of this Era are still struggling to be understood. When considering only Earth processes, the climate evolution of the Cenozoic is hard to understand. If the galactic environment is taken into account, some of these climate events, as well as the global climate trend, became more easily understood. The Milky Way, through Supernovae, may bring some answers to why Cenozoic climate had this evolution. With the assumption that SN can induced changes in Earth climate in long time scales, Sirenia disappearance from Europe would be a side effect of this process. Introduction Sirenia, an Order (Sirenia Illiger, 1811) of placental mammals that, along with cetaceans, represent the only mammals that evolved for a fully aquatic life (Clementz et al., 2009), and have the particularity of being the only herbivorous marine mammals (Domning, 2002), commonly named Seacow. They feed mainly on seagrass, although there are some differences between the two extant families, the trichechids and the dugongids. The Trichechidae family is not highly specialized when it comes to food and habitat. They live in fresh and sea-water, feeding on more than 60 species of marine plants, and can be considered, as suggested by Anderson (2002), opportunistic feeders on seagrass. The Dugongidae family is more specialized, feeding mainly on seagrass and is almost exclusively found in salt water. These characteristics are not exclusive of the four actual species, as shown by MacFadden et al. (2004), and can be traced back to the extinct species of both families. They first appeared after the Early Eocene Climatic Optimum (53-49 Ma (Höntzsch et al., 2011)), with the oldest record of Pezosiren portelli from Jamaica (Domning, 2001a). The coastal shores of Europe and North Africa have records dating from the Lutetian (Caria, 1957;Crusafont-Pairó, 1973;Savage, 1976;Zalmout and Gingerich, 2012), showing that the Tethys Sea was colonized by these marine mammals in both its north and south margins. Sirenians were abundant in Tethyan coastal waters, and also in the Paratethys and the Mediterranean, which evolved from it. The Sirenia that inhabited the European/North African shores are almost exclusively of the Dugongidae family (more than 95% of the European and North African fossil record belong to dugongids), meaning that they fed mainly on seagrass. Seagrasses are marine phanerogams that colonized the coastal waters around 100 Ma ago (Hemminga and Duarte, 2000). They show few changes in their evolutionary process and many of the genera found today can be traced back to the Eocene (like Cymodocea nodosa and Posidonia sp. from the Eocene of Paris) (Domning, 2001b;Bianucci et al., 2008). After the Miocene Climatic Optimum (MCO) around 14 Ma ago (Böhme, 2003;Domingo et al., 2012), European and North African Sirenia declined in biodiversity (Prista et al., 2013;2014a). Only one genus is known from the Late Miocene and Pliocene, the Metaxytherium, and only three species have been classified for this time interval, M. medium, M. serresii and M. subapenninum. The Tortonian is the last age with Sirenia fossil records in the Northeast Atlantic shores, north of Portugal. In the Faluns Sea, northeastern France, the record is abundant until the Tortonian (Cottreau, 1928;Lécuyer et al., 1996). For the Messinian age, Portugal appears to be the only place with a fossil record on this side of the Atlantic, with two records from Santa Margarida do Sado (Ferreira do Alentejo, Beja) and Vale de Zebro (Alvalade, Setúbal) (Estevens, 2000). The Mediterranean has a slightly richer fossil record, with fossils from Libya (Zalmout and Gingerich, 2012) and probably Italy (Moncharmont Zei and Moncharmont, 1987) and Spain (Sendra Saez et al., 1998). This scenario is not totally understood, because it was during the Messinian that the Messinian Salinity Crises (MSC) occurred, a period of closure of the Mediterranean and great ecological disturbance (Prista et al., 2013). The Pliocene shows an increase in the fossil record for the Mediterranean Sea, and only one occurrence in the Atlantic, belonging to the Gulf of Cadiz on the Morocco shore (Ennouchi, 1954). The Zanclean age has records of M. serresii, which first appeared during the Late Miocene of Libya (Zalmout and Gingerich, 2012), from Montpellier, France (Domning and Thomas, 1987;Pilleri, 1987), Sahabi Formation, Libya (Domning and Thomas, 1987) and Alicante, Spain (Sendra et al., 1999;Bianucci et al., 2008). During this age appeared the last European/North African sirenian species, the M. subapenninum, with the oldest records from the Early Zanclean of Italy (Sorbi and Vaiani, 2007;Tinelli et al., 2012) and the last known records dated to the Early Piacenzian (Bianucci et al., 2008). M. serresii ceases its appearance in the fossil record during the Zanclean age. This decline in biodiversity, which culminated with Sirenia disappearance from European chores, has been explained by Prista et al. (2013;2014a), and is strongly related to climate changes. In fact, the taxonomic palaeobiodiversity of the European and North African sirenians shows a close relation with the palaeoclimatic evolution of the Cenozoic (Prista et al., 2014a). The authors also found that Sirenia biodiversity seems to be strongly affected by variations in seasonality, coupled with other geological processes, such as sea level changes, and responded rapidly during the Oligocene, the Early-Middle Miocene and the Late Miocene-Pliocene (Prista et al., 2014a). The climate system is a unique and open system with a multitude of interacting components and processes (Müller, 2010). However one question remains: which forces drive optimum climates and ice ages? Although several mechanisms must play a role in this Earth climate process, the galactic environment should not be neglected. During the last decade of the 20th century evidences liking galactic cosmic rays (GCR) to cloud cover were found through satellite observations (Marsh and Svensmark 2000b). This opened a great scientific debate, and today this direct relation is practically discarded. However that doesn't mean that GCR don't play a role in the Earth's climate. Their influence on the atmospheric electric current has been demonstrated by several studies (e.g. Tinsley and Yu, 2004;Serrano et al., 2006;Tinsley, 2012), and the CLOUD project at CERN has been conducting experiences that have lead us to better understand this process (Kirkby, 2008;Duplissy et al., 2010;Kirkby et al., 2012). Could the Milky Way affected Sirenia evolution? Cenozoic climate over the past 65 Ma During the Palaeogene several optimum climates took place: the Palaeocene-Eocene Thermal Maximum (PETM) (Sexton et al., 2011), the Early Eocene Optimum Climate (EEOC) (Höntzsch et al., 2011) and the Mid-Eocene Optimum Climate (MEOC) (Witkowski et al., 2012). These are all periods of less temperature gradient between high latitude regions and the tropics. During the Oligocene, the last epoch of the Palaeogene, the Antarctic continental glaciations (ACG) started (Zachos et al., 2001;Pollard and DeConto, 2005;Zachos et al., 2008;Cotton and Pearson, 2011;Diester-Haass et al., 2011). Although today we attribute the ACG to the strong influence of the Antarctic Circumpolar Current (ACC), when the ACG started, (around 34 Ma), the ACC was not formed yet (Lawver and Gahagan, 2003;Pfuhl and McCave, 2005). This means that a mechanism, other then the ACC, should have forced the beginning of the glaciations. The ACG were accompanied by a major global cooling. Oceans global temperature dropped ~2.5ºC (Héran et al., 2010); in Central Asia and Europe is observed a drop in temperatures and an increase in aridity (Abels et al., 2011;Costa et al., 2011); the Earth temperature gradient increased. After the Oligocene, started the Neogene period. It's first epoch, the Miocene, was warmer then the Oligocene, and the Earth temperature gradient got smaller again. During the Early and Middle Miocene an optimum climate took place, the Miocene Climatic Optimum (MCO) (Böhme, 2003;Kroh, 2007;You et al., 2009;Böhme et al., 2011). This climate event lasted for approximately 4 million years. Around 14 Ma Earth plunged into another cooling trend, and at 10 Ma the Arctic glaciations started. This cooling trend was almost continuous, with just a small warming interval during the mid Piacenzian, around 3 Ma (read Prista et al., 2014b). At 2.7 Ma the Northern Hemisphere continental glaciations begun, and Earth plunged into the present Ice Age (Naafs et al., 2010). Galactic environment and Cenozoic climate Earth processes haven't been able to completely explain Cenozoic climate evolution. However, if we look at the galactic environment throughout this Era, some coincidences are found. Optimum climates tend to occur outside the arms, while when crossing an arm region climate tend to globally cool. This would be expected from the cosmic rays link to the atmospheric current. Stronger CRF, stronger atmospheric current, increase in cloud formation. This sequence would lead to a global cooling. Looking at figure 1, this relation between the energy flux from Supernovae (SN) (main source of GCR) and Earth climate appears has something to be considered. Other studies suggest that this mechanism can't be ignored for long-term climate studies (geological time) (Shaviv, 2005;Medvedev and Melott, 2007;Kataoka et al., 2013). Conclusions Regarding the galactic environment: 1) optimum climates tend to occur outside the spiral arms (PETM, EEOC, MEOC and MCO); 2) the onset of the Antarctic glaciations is coincident with the passage through Sagittarius arm (the Antarctic Circumpolar Current was not formed yet and this suggests that the major increase in energy flux from SN may have played a role); 3) the beginning of ice formation in the Arctic region is coincident with the approximation to the Orion arm and the first occurrences of the 19 SN that occurred in the Gould region in the past 14 Ma; 4) climate degradation and the onset of the Northern Hemisphere continental glaciations is coincident with entering into the Orion arm and the occurrence of more SN in the Gould region. Regarding Sirenia: its biodiversity was higher during the Eocene, got very low during the Oligocene, had a small peak during the MCO and dropped again with the subsequent global cooling (data from Prista el., 2014a). Regarding climate: seasonality latitudinal gradient follows the energy flux variations. However it can been seen in figure 2 that other forces play a major role in this process, since seasonality is must higher with the lowest energy flux of the Orion Arm when compared to the highest flux of the Sagittarius Arm. Despite not being the only mechanism present, an influence of the galactic environment can be seen in long-term climate studies and should be taken into account. Indirectly, the Milky Way contributed to the disappearance of Sirenia from European shores. Figure 1 - 1Energy flux from the occurrences of SN in the Milky Way over the past 100 Ma. In red is the δ 18 O curve from Zachos et al. (2008). 1-PETM; 2-EEOC; 3-MEOC; 4-ACG; 5-MCO; 6-Arctic glaciations; Black Barperiod in which 19 Supernovae occurred inside the Gould Region (Breitschwerdt and Avillez 2006). Figure 2 - 2Energy flux from SN in the Milky Way. Red dots -SNIa; Blue dots -SNIbc; Green dots -SNII. Green line -Sirenia biodiversity variation; Blue line -latitudinal temperature/seasonality variation. Stepwise change of Asian interior climate preceding the Eocene-Oligocene Transition (EOT). H A Abels, G Dupont-Nivet, G Xiao, R Bosboom, W Krijgsman, Palaeogeogr. Palaeoclimatol. Palaeoecol. 299Abels, H.A., Dupont-nivet, G., Xiao, G., Bosboom, R., Krijgsman,W., 2011. Step- wise change of Asian interior climate preceding the Eocene-Oligocene Transition (EOT). Palaeogeogr. Palaeoclimatol. Palaeoecol. 299, 399-412. Habitat, niche, and evolution of sirenian mating systems. P K Anderson, J. Mamm. Evol. 9Anderson, P.K., 2002. Habitat, niche, and evolution of sirenian mating systems. J. Mamm. Evol. 9, 55-98. Peri-Messinian dwarfing in Mediterranean Metaxytherium (Mammalia: Sirenia): evidence of habitat degradation related to the Messinian salinity crisis. G Bianucci, G Carone, D P Domning, W Landini, L Rook, S Sorbi, Garyounis Scientific Bulletin. Bianucci, G., Carone, G., Domning, D.P., Landini,W., Rook, L., Sorbi, S., 2008. Peri- Messinian dwarfing in Mediterranean Metaxytherium (Mammalia: Sirenia): evidence of habitat degradation related to the Messinian salinity crisis. Garyounis Scientific Bulletin 145-157. Miocene precipitation in Europe: temporal trends and spatial gradients. M Böhme, M Winklhofer, A Ilg, Palaeogeography, Palaeoclimatology, Palaeoecology. 304Böhme, M., Winklhofer, M., Ilg, A., 2011. Miocene precipitation in Europe: temporal trends and spatial gradients. Palaeogeography, Palaeoclimatology, Palaeoecology 304, 212-218. TheMiocene climatic optimum: evidence from ectothermic vertebrates of Central Europe. M Böhme, Palaeogeography, Palaeoclimatology, Palaeoecology. 195Böhme,M., 2003. TheMiocene climatic optimum: evidence from ectothermic vertebrates of Central Europe. Palaeogeography, Palaeoclimatology, Palaeoecology 195, 389-401. The history and future of the Local and Loop I bubbles. D Breitschwerdt, M A Avillez, De, Astronomy & Astrophysics. 5Breitschwerdt, D. and Avillez, M. A. De. 2006. The history and future of the Local and Loop I bubbles. Astronomy & Astrophysics, 5, L1-L5. Nuovi resti di sireni nel Miocene della Sardegna. C Caria, Bollettino della Societa Geologica Italiana. 76Caria, C., 1957. Nuovi resti di sireni nel Miocene della Sardegna. Bollettino della Societa Geologica Italiana 76, 288-301. Evidence of Cenozoic environmental and ecological change from stable isotope analysis of sirenian remains from the Tethys-Mediterranean region. M T Clementz, S Sorbi, D P Domning, Geology. 37Clementz, M.T., Sorbi, S., Domning, D.P., 2009. Evidence of Cenozoic environmental and ecological change from stable isotope analysis of sirenian remains from the Tethys-Mediterranean region. Geology 37, 307-310. The age of the "Grande Coupure" mammal turnover: new constraints from the Eocene-Oligocene record of the Eastern Ebro Basin. E Costa, M Garcés, A Sáez, L Cabrera, M López-Blanco, Palaeogeography, Palaeoclimatology, Palaeoecology. 301NE SpainCosta, E., Garcés, M., Sáez, A., Cabrera, L., López-Blanco, M., 2011. The age of the "Grande Coupure" mammal turnover: new constraints from the Eocene-Oligocene record of the Eastern Ebro Basin (NE Spain). Palaeogeography, Palaeoclimatology, Palaeoecology 301, 97-107. Extinction of larger benthic foraminifera at the Eocene/Oligocene boundary. L J Cotton, P N Pearson, Palaeogeogr. Palaeoclimatol. Palaeoecol. 311Cotton, L.J., Pearson, P.N., 2011. Extinction of larger benthic foraminifera at the Eocene/Oligocene boundary. Palaeogeogr. Palaeoclimatol. Palaeoecol. 311, 281-296. Le Metaxytherium cuvieri du Golfe de la Loire. J Cottreau, Annales de Paléontologie. 1824Cottreau, J., 1928. Le Metaxytherium cuvieri du Golfe de la Loire. Annales de Paléontologie 18, 24. Mammalia Tertiaria Hispaniae. Fossilium Catalogus. I: Animalia. 121. Pars. M Crusafont-Pairó, Crusafont-Pairó, M., 1973. Mammalia Tertiaria Hispaniae. Fossilium Catalogus. I: Animalia. 121. Pars 198. Enhanced paleoproductivity across the Oligocene/Miocene boundary as evidenced by benthic foraminiferal accumulation rates. L Diester-Haass, K Billups, K Emeis, Palaeogeogr. Palaeoclimatol. Palaeoecol. 302Diester-Haass, L., Billups, K., Emeis, K., 2011. Enhanced paleoproductivity across the Oligocene/Miocene boundary as evidenced by benthic foraminiferal accumulation rates. Palaeogeogr. Palaeoclimatol. Palaeoecol. 302, 464-473. Isotopic paleoecology of mammals and the Middle Miocene Cooling event in the Madrid Basin (Spain). L Domingo, P L Koch, S T Grimes, J Morales, N López-Martínez, Palaeogeography, Palaeoclimatology, Palaeoecology. 339Domingo, L., Koch, P.L., Grimes, S.T., Morales, J., López-Martínez, N., 2012. Isotopic paleoecology of mammals and the Middle Miocene Cooling event in the Madrid Basin (Spain). Palaeogeography, Palaeoclimatology, Palaeoecology 339-341, 98-113. The earliest known fully quadrupedal sirenian. D P Domning, Nature. 413Domning, D.P., 2001a. The earliest known fully quadrupedal sirenian. Nature 413, 625-627. Sirenians, seagrasses, and Cenozoic ecological change in the Caribbean. D P Domning, Palaeogeography, Palaeoclimatology, Palaeoecology. 166Domning, D.P., 2001b. Sirenians, seagrasses, and Cenozoic ecological change in the Caribbean. Palaeogeography, Palaeoclimatology, Palaeoecology 166, 27-50. Sirenian evolution. D P Domning, Encyclopedia ofMarineMammals. Perrin, W.F., Würsig, B., Thewissen, J.G.M.San DiegoAcademic PressDomning, D.P., 2002. Sirenian evolution. In: Perrin, W.F., Würsig, B., Thewissen, J.G.M. (Eds.), Encyclopedia ofMarineMammals. Academic Press, San Diego, pp. 1083-1086. Metaxytherium serresii (Mammalia: Sirenia) from the Early Pliocene of Libya and France: a reevaluation of its morphology, phyletic position, and biostratigraphic and paleoecological significance. D P Domning, H Thomas, Neogene Paleontology and Geology of the Sahabi. 16Domning, D.P., Thomas, H., 1987. Metaxytherium serresii (Mammalia: Sirenia) from the Early Pliocene of Libya and France: a reevaluation of its morphology, phyletic position, and biostratigraphic and paleoecological significance. Neogene Paleontology and Geology of the Sahabi 16, 205-232. Results from the CERN pilot CLOUD experiment. J Duplissy, M B Enghoff, K L Aplin, F Arnold, H Aufmhoff, Atmos. Chem. Phys. 10Duplissy, J., Enghoff, M.B., Aplin, K.L., Arnold, F., Aufmhoff, H., et al., 2010. Results from the CERN pilot CLOUD experiment. Atmos. Chem. Phys. 10, 1635- 1647. Un sirénien, Felsinotherium cf. serresi, à Dar bel Hamri. E Ennouchi, Service Géologique du Marco. 121Ennouchi, E., 1954. Un sirénien, Felsinotherium cf. serresi, à Dar bel Hamri. Service Géologique du Marco 121, 77-82. Miocene marine mammals from Portugal -paleogeographical and paleoecological significance. M Estevens, Ciências da Terra. 14Estevens, M., 2000. Miocene marine mammals from Portugal -paleogeographical and paleoecological significance. Ciências da Terra 14, 323-334. M Hemminga, C M Duarte, Seagrass Ecology. CambridgeCambridge University Press1st edHemminga, M., Duarte, C.M., 2000. Seagrass Ecology, 1st ed. Cambridge University Press, Cambridge. Cenozoic long-term terrestrial climatic evolution in Germany tracked by δ18O of rodent tooth phosphate. M.-A Héran, C Lécuyer, S Legendre, Palaeogeogr. Palaeoclimatol. Palaeoecol. 285Héran, M.-A., Lécuyer, C., Legendre, S., 2010. Cenozoic long-term terrestrial climatic evolution in Germany tracked by δ18O of rodent tooth phosphate. Palaeogeogr. Palaeoclimatol. Palaeoecol. 285, 331-342. Increasing restriction of the Egyptian shelf during the Early Eocene? -new insights from asouthern Tethyan carbonate platform. S Höntzsch, C Scheibner, E Guasti, J Kuss, A M Marzouk, M W Rasser, Palaeogeography, Palaeoclimatology, Palaeoecology. 302Höntzsch, S., Scheibner, C., Guasti, E., Kuss, J., Marzouk, A.M., Rasser, M.W., 2011. Increasing restriction of the Egyptian shelf during the Early Eocene? -new insights from asouthern Tethyan carbonate platform. Palaeogeography, Palaeoclimatology, Palaeoecology 302, 349-366. Prodromus Systematis Mammalium et Avium. C. Salfeld. J K W Illiger, BerlinIlliger, J.K.W., 1811. Prodromus Systematis Mammalium et Avium. C. Salfeld, Berlin (301 pp.). Snowball Earth events driven by starbursts of the Milky Way Galaxy. R Kataoka, T Ebisuzaki, H Miyahara, S Maruyama, New Astron. 21Kataoka, R., Ebisuzaki, T., Miyahara, H., Maruyama, S., 2013. Snowball Earth events driven by starbursts of the Milky Way Galaxy. New Astron. 21, 50-62. Cosmic Rays and Climate. J Kirkby, Surv. Geophys. 28Kirkby, J., 2008. Cosmic Rays and Climate. Surv. Geophys. 28, 333-375. Role of sulphuric acid, ammonia and galactic cosmic rays in atmospheric aerosol nucleation. J Kirkby, J Curtius, J Almeida, E Dunne, J Duplissy, Nature. 476Kirkby, J., Curtius, J., Almeida, J., Dunne, E., Duplissy, J., et al., 2011. Role of sulphuric acid, ammonia and galactic cosmic rays in atmospheric aerosol nucleation. Nature 476, 429-33. Climate changes in the Early to Middle Miocene of the Central Paratethys and the origin of its echinoderm fauna. A Kroh, Palaeogeography, Palaeoclimatology, Palaeoecology. 253Kroh, A., 2007. Climate changes in the Early to Middle Miocene of the Central Paratethys and the origin of its echinoderm fauna. Palaeogeography, Palaeoclimatology, Palaeoecology 253, 169-207. Evolution of Cenozoic seaways in the circum-Antarctic region. L A Lawver, L M Gahagan, Palaeogeography, Palaeoclimatology, Palaeoecology. 198Lawver, L. A. and Gahagan, L. M. 2003. Evolution of Cenozoic seaways in the circum-Antarctic region. Palaeogeography, Palaeoclimatology, Palaeoecology, 198, 11-37. Deciphering "temperature" and "salinity" from biogenic phosphates: the δ18O of coexisting fishes and mammals of the Middle Miocene sea of western France. C Lécuyer, P Grandjean, F Paris, M Robarde, D Robineau, Palaeogeography, Palaeoclimatology, Palaeoecology. 126Lécuyer, C., Grandjean, P., Paris, F., Robarde, M., Robineau, D., 1996. Deciphering "temperature" and "salinity" from biogenic phosphates: the δ18O of coexisting fishes and mammals of the Middle Miocene sea of western France. Palaeogeography, Palaeoclimatology, Palaeoecology 126, 61-74. Diets, habitat preferences, and niche differentiation of Cenozoic sirenians fromFlorida: evidence fromstable isotopes. B J Macfadden, P Higgins, M T Clementz, D S Jones, Paleobiology. 30MacFadden, B.J., Higgins, P., Clementz, M.T., Jones, D.S., 2004. Diets, habitat preferences, and niche differentiation of Cenozoic sirenians fromFlorida: evidence fromstable isotopes. Paleobiology 30, 297-324. Low cloud properties influenced by cosmic rays. N Marsh, H Svensmark, Physical Review Letters. 85Marsh, N., Svensmark, H. 2000b. Low cloud properties influenced by cosmic rays. Physical Review Letters, 85, 5004-5007 Do Extragalactic Cosmic Rays Induce Cycles in Fossil Diversity?. M Medvedev, A L Melott, The Astrophysical Journal. 664Medvedev, M. V and Melott, A. L. 2007. Do Extragalactic Cosmic Rays Induce Cycles in Fossil Diversity? The Astrophysical Journal, 664, 879-889. Il Metaxytherium medium (Desmarest) 1822 (Sirenia, Mammalia) delle arenaire tortoniane (Miocene Sup. M Moncharmont Zei, U Moncharmont, Moncharmont Zei, M., Moncharmont, U., 1987. Il Metaxytherium medium (Desmarest) 1822 (Sirenia, Mammalia) delle arenaire tortoniane (Miocene Sup.) di S. Memorie di Scienze Geologiche. Domenica Di, Ricadi , 39catanzaro, ItaliaDomenica di Ricadi (catanzaro, Italia). Memorie di Scienze Geologiche 39, 285-341. Constructing climate knowledge with computer models. P Müller, Wiley Interdiscip. Rev. Clim. Chang. 1Müller, P., 2010. Constructing climate knowledge with computer models. Wiley Interdiscip. Rev. Clim. Chang. 1, 565-580. Late Pliocene changes in the North Atlantic Current. B D A Naafs, R Stein, J Hefter, N Khélifi, S De Schepper, G H Haug, Earth Planet. Sci. Lett. 298Naafs, B.D.A., Stein, R., Hefter, J., Khélifi, N., De Schepper, S., Haug, G.H., 2010. Late Pliocene changes in the North Atlantic Current. Earth Planet. Sci. Lett. 298, 434-442. Evidence for late Oligocene establishment of the Antarctic Circumpolar Current. H A Pfuhl, I N Mccave, Earth and Planetary Science Letters. 235Pfuhl, H. A. and McCave, I. N. 2005. Evidence for late Oligocene establishment of the Antarctic Circumpolar Current. Earth and Planetary Science Letters, 235, 715- 728. The Sirenia of the Swiss Molasse. With a Descriptive Catalogue of the Fossil Sirenia Preserved in Swiss Collections. G Pilleri, Brain Anatomy Institute. 114Pilleri, G., 1987. The Sirenia of the Swiss Molasse. With a Descriptive Catalogue of the Fossil Sirenia Preserved in Swiss Collections. Brain Anatomy Institute, Ostermundigen (Switzerland) (114 pp.). Hysteresis in Cenozoic Antarctic ice-sheet variations. D Pollard, R M Deconto, Glob. Planet. Chang. 45Pollard, D., DeConto, R.M., 2005. Hysteresis in Cenozoic Antarctic ice-sheet variations. Glob. Planet. Chang. 45, 9-21. Observing the past to better understand the future: a synthesis of the Neogene climate in Europe and its perspectives on present climate change. G Prista, R Agostinho, M Cachão, Central European Journal of Geosciences. acceptedPrista, G., Agostinho, R., Cachão, M., 2014b. Observing the past to better understand the future: a synthesis of the Neogene climate in Europe and its perspectives on present climate change. Central European Journal of Geosciences (accepted) The disappearance of the European/North African Sirenia (Mammalia). G Prista, M Estevens, R Agostinho, M Cachão, Palaeogeogr. Palaeoclimatol. Palaeoecol. 387Prista, G., Estevens, M., Agostinho, R., Cachão, M., 2013. The disappearance of the European/North African Sirenia (Mammalia). Palaeogeogr. Palaeoclimatol. Palaeoecol. 387, 1-5. Euro-North African Sirenia biodiversity as a response to climate variations. G Prista, M Estevens, R Agostinho, M Cachão, Palaeogeogr. Palaeoclimatol. Palaeoecol. 410Prista, G., Estevens, M., Agostinho, R., Cachão, M., 2014a. Euro-North African Sirenia biodiversity as a response to climate variations. Palaeogeogr. Palaeoclimatol. Palaeoecol. 410, 372-379. Review of Early Sirenia. R J G Savage, Systematic Zoology. 25Savage, R.J.G., 1976. Review of Early Sirenia. Systematic Zoology 25, 344-351. Recuperación de un sirenio parcialmente articulado en el Plioceno Inferior del sector norte de la Cuenca de Vera (Almería). J R Sendra Saez, M Stokes, F A Fortea Soler, Comunicación de las XIV Jornadas de Paleontología. Sendra Saez, J.R., Stokes, M., Fortea Soler, F.A., 1998. Recuperación de un sirenio parcialmente articulado en el Plioceno Inferior del sector norte de la Cuenca de Vera (Almería). Comunicación de las XIV Jornadas de Paleontología 173-176. Un cràneo de sirenio en el Plioceno de Pilar de la Horadada. J Sendra, P Montoya, M Belinchòn, Temas Geologico-Mineros. 26Sendra, J.,Montoya, P., Belinchòn,M., 1999. Un cràneo de sirenio en el Plioceno de Pilar de la Horadada (Alicante, Espana). Temas Geologico-Mineros 26, 350-355. Influences of cosmic radiation, artificial radioactivity and aerosol concentration upon the fair-weather atmospheric electric field in Lisbon (1955-1991). C Serrano, . H Reis, R Rosa, P S Lucio, Atmos. Res. 81Serrano, C., Reis, a. H., Rosa, R., Lucio, P.S., 2006. Influences of cosmic radiation, artificial radioactivity and aerosol concentration upon the fair-weather atmospheric electric field in Lisbon (1955-1991). Atmos. Res. 81, 236-249. Eocene global warming events driven by ventilation of oceanic dissolved organic carbon. P F Sexton, R D Norris, P Wilson, H Pälike, T Westerhold, U Röhl, C T Bolton, S Gibbs, Nature. 471Sexton, P. F., Norris, R. D., Wilson, P. a, Pälike, H., Westerhold, T., Röhl, U., Bolton, C. T. and Gibbs, S. 2011. Eocene global warming events driven by ventilation of oceanic dissolved organic carbon. Nature, 471, 349-52. On climate response to changes in the cosmic ray flux and radiative budget. N J Shaviv, J. Geophys. Res. 110Shaviv, N.J., 2005. On climate response to changes in the cosmic ray flux and radiative budget. J. Geophys. Res. 110, 1-15. New sirenian record from Lower Pliocene sediments of Tuscany (Italy). S Sorbi, S C Vaiani, Rivista Italiana di Paleontologia e Stratigrafia. 113Sorbi, S., Vaiani, S.C., 2007. New sirenian record from Lower Pliocene sediments of Tuscany (Italy). Rivista Italiana di Paleontologia e Stratigrafia 113, 299-304. Ground penetrating radar and palaeontology: the detection of sirenian fossil bones under a sunflower field in Tuscany (Italy). C Tinelli, A Ribolini, G Bianucci, M Bini, W Landini, Comptes Rendus Palevol. 11Tinelli, C., Ribolini, A., Bianucci, G., Bini, M., Landini, W., 2012. Ground penetrating radar and palaeontology: the detection of sirenian fossil bones under a sunflower field in Tuscany (Italy). Comptes Rendus Palevol 11, 445-454. A working hypothesis for connections between electricallyinduced changes in cloud microphysics and storm vorticity, with possible effects on circulation. B A Tinsley, Adv. Sp. Res. 50Tinsley, B. A., 2012. A working hypothesis for connections between electrically- induced changes in cloud microphysics and storm vorticity, with possible effects on circulation. Adv. Sp. Res. 50, 791-805. Atmospheric Ionization and Clouds as Links Between Solar Activity and Climate. B A Tinsley, F Yu, Pap, J.M., Fox, P.A., Frohlich, C.American Geophysical UnionSolar Variability and Its Effects on Climate, Geophysical MonographTinsley, B.A., Yu, F., 2004. Atmospheric Ionization and Clouds as Links Between Solar Activity and Climate, in: Pap, J.M., Fox, P.A., Frohlich, C. (Eds.), Solar Variability and Its Effects on Climate, Geophysical Monograph. American Geophysical Union, pp. 321-339. Enhanced siliceous plankton productivity in response to middle Eocene warming at Southern Ocean ODP Sites 748 and 749. J Witkowski, S M Bohaty, K Mccartney, D M Harwood, Palaeogeography, Palaeoclimatology, Palaeoecology. Witkowski, J., Bohaty, S. M., McCartney, K. and Harwood, D. M. 2012. Enhanced siliceous plankton productivity in response to middle Eocene warming at Southern Ocean ODP Sites 748 and 749. Palaeogeography, Palaeoclimatology, Palaeoecology, 326-328, 78-94. Simulation of the Middle Miocene Climate Optimum. Y You, M Huber, R D Müller, C J Poulsen, J Ribbe, Geophysical Research Letters. 36You, Y., Huber, M., Müller, R. D., Poulsen, C. J. and Ribbe, J. 2009. Simulation of the Middle Miocene Climate Optimum. Geophysical Research Letters, 36, 1-5. Trends, rhythms, and aberrations in global climate 65 Ma to present. J Zachos, M Pagani, L Sloan, E Thomas, K Billups, Science. 292Zachos, J., Pagani, M., Sloan, L., Thomas, E., Billups, K., 2001. Trends, rhythms, and aberrations in global climate 65 Ma to present. Science 292, 686-693. An early Cenozoic perspective on greenhouse warming and carbon-cycle dynamics. J C Zachos, G R Dickens, R E Zeebe, Nature. 451Zachos, J.C., Dickens, G.R., Zeebe, R.E., 2008. An early Cenozoic perspective on greenhouse warming and carbon-cycle dynamics. Nature 451, 279-283. Late eocene sea cows (mammalia, sirenia) fromWadi al Hitan in thewestern desert of Fayum. I S Zalmout, P D Gingerich, Egypt. Papers on Paleontology. 37. University of Michigan. 156Zalmout, I.S., Gingerich, P.D., 2012. Late eocene sea cows (mammalia, sirenia) fromWadi al Hitan in thewestern desert of Fayum, Egypt. Papers on Paleontology. 37. University of Michigan 156.
sample_5805
0.999
arxiv
"Implementación de una fórmula analítica para el calculo del coeficiente M (3000)F2" Arian Ojeda Instituto de Geofísica y Astronomía Calle 212 No. 2906 e/ 29 y 31, La Coronela, La Lisa, Ciudad de La Habana11 600CPCuba. C. Eléct Silvio González Instituto de Geofísica y Astronomía Calle 212 No. 2906 e/ 29 y 31, La Coronela, La Lisa, Ciudad de La Habana11 600CPCuba. C. Eléct Katy Alazo Instituto de Geofísica y Astronomía Calle 212 No. 2906 e/ 29 y 31, La Coronela, La Lisa, Ciudad de La Habana11 600CPCuba. C. Eléct Alexander Calzadilla Instituto de Geofísica y Astronomía Calle 212 No. 2906 e/ 29 y 31, La Coronela, La Lisa, Ciudad de La Habana11 600CPCuba. C. Eléct "Implementación de una fórmula analítica para el calculo del coeficiente M (3000)F2" 1 RESUMENEs de gran importancia la determinación del coeficiente M(3000)F2 en el análisis de ionogramas de la estación de sondeo vertical de la Ionosfera. Este coeficiente se obtiene de dividir la frecuencia máxima utilizable (MUF) para una distancia de 3000 Km entre la frecuencia crítica de la capa F2 (foF2). Para determinar el M(3000)F2 actualmente se usa un método gráfico en nuestra estación de sondeo vertical de la Ionosfera. El objetivo de este trabajo es implementar un método analítico que permita obtener directamente el coeficiente M(3000)F2. De esta forma podrá ser programado e incorporado como parte del proceso de elaboración de los ionogramas en la Estación Habana. Ahora con el uso de un ordenador al poder determinar varios puntos del Ionograma, se pueden usar estos (f; h') para calcular de forma analítica el M(3000)F2. La comparación del método analítico implementado con el método grafico muestra que el primero es mas exacto, y se disminuye los errores a la hora de determinar el M(3000)F2.ABSTRACTDetermining the M(3000)F2 coefficient is very important for ionograms analysis made by the station for the Ionospheric vertical scanning. This coefficient is the result of the maximum usable frequency (MUF), for to 3000 km distance, divided by the critical frequency for the F2 layer (FoF2). Nowadays, the graphic method to determine the M(3000)F2 coefficient is being used in our station for the Ionospheric vertical scanning. The purpose is to implement an analytic method that allows us the direct obtaining of M(3000)F2 coefficient so it could be programmed and incorporated as part of ionograms elaboration process in Havana station. Using a PC various points in a ionogram can be determined. This data (f; h') are used to analytically calculate the M(3000)F2 coefficient. Comparison between the implemented analytic method and the graphic one shows that the former is more accurate and errors are diminished in M(3000)F2 coefficient determination. "Implementación de una fórmula analítica para el calculo del coeficiente M (3000)F2" Arian Ojeda (1) , Silvio González (1) , Katy Alazo (1) , Alexander Calzadilla. (1) Instituto RESUMEN Es de gran importancia la determinación del coeficiente M(3000)F2 en el análisis de ionogramas de la estación de sondeo vertical de la Ionosfera. Este coeficiente se obtiene de dividir la frecuencia máxima utilizable (MUF) para una distancia de 3000 Km entre la frecuencia crítica de la capa F2 (foF2). Para determinar el M(3000)F2 actualmente se usa un método gráfico en nuestra estación de sondeo vertical de la Ionosfera. El objetivo de este trabajo es implementar un método analítico que permita obtener directamente el coeficiente M(3000)F2. De esta forma podrá ser programado e incorporado como parte del proceso de elaboración de los ionogramas en la Estación Habana. Ahora con el uso de un ordenador al poder determinar varios puntos del Ionograma, se pueden usar estos (f; h') para calcular de forma analítica el M(3000)F2. La comparación del método analítico implementado con el método grafico muestra que el primero es mas exacto, y se disminuye los errores a la hora de determinar el M(3000)F2. ABSTRACT Determining the M(3000)F2 coefficient is very important for ionograms analysis made by the station for the Ionospheric vertical scanning. This coefficient is the result of the maximum usable frequency (MUF), for to 3000 km distance, divided by the critical frequency for the F2 layer (FoF2). Nowadays, the graphic method to determine the M(3000)F2 coefficient is being used in our station for the Ionospheric vertical scanning. The purpose is to implement an analytic method that allows us the direct obtaining of M(3000)F2 coefficient so it could be programmed and incorporated as part of ionograms elaboration process in Havana station. Using a PC various points in a ionogram can be determined. This data (f; h') are used to analytically calculate the M(3000)F2 coefficient. Comparison between the implemented analytic method and the graphic one shows that the former is more accurate and errors are diminished in M(3000)F2 coefficient determination. Introducción En Enero de 2003 se concluye la construcción de una tarjeta con un conversor análogo digital (A/D) incorporado para Bus ISA de una PC compatible IBM, y sus correspondientes programas para la captación, almacenamiento y visualización de los ionogramas en el monitor de la PC. Además del control de algunas operaciones de la Estación Ionosférica. Ahora la elaboración de los ionogramas se realiza en el monitor de la propia PC. Obteniéndose fácilmente los distintos parámetros que se toman del ionagrama para llenar las tablas diarias. A raíz de esto surgió el problema de cómo facilitar la obtención del coeficiente M(3000)F2, pues para su determinación se utilizaba un método grafico que no era practico a la hora de simplificar el trabajo. Pues se hace necesario tomar tres puntos del ionograma y representarlos en un grafico semilogaritmico donde aparecen distintas curvas de transmisión [1] que corresponden a distintas frecuencias oblicuas. De éste grafico se selecciona la curva de transmisión a la cual la recta que forman esos tres puntos es tangente. La relación existente entre la frecuencia de incidencia inclinada y la frecuencia de sondeo vertical de la ionosfera se puede determinar a partir de tres teoremas: 1-Ley de la secante. 2-Teorema de Breit y Tuve. 3-Teorema de Martyn. El inconveniente que tienen esto tres teoremas es que consideran la tierra y la ionosfera plana, sin campo magnético [2]. Por tanto se hace necesario corregir la expresión que de ello se derive. En la figura 1 superior se muestra la relación existente entre la altura y la frecuencia cuando el transmisor y el receptor se encuentran en el mismo punto, o sea, sondeo vertical de la ionosfera. En las graficas que vienen abajo se muestra que si separamos el receptor del transmisor una distancia determinada, la frecuencia aumenta hasta un valor máximo. Debido a la curvatura de la tierra, esta relación se cumple hasta 4000 Km. aproximadamente, suponiendo la altura de reflexión a 300 Km. En la figura 2 se puede ver la relación existente entre la frecuencia de sondeo vertical y la frecuencia oblicua. A partir del ionograma de sondeo vertical se obtiene el ionograma de sondeo oblicuo. A medida que aumenta la frecuencia vertical aumenta la frecuencia oblicua hasta un punto máximo de donde comienza a disminuir. Esta relación entre ambas frecuencias se obtiene de relacionar la expresión correspondiente al teorema de Martyn y la ley de la secante a una distancia de 3000 Km. Las ecuaciones que se obtienen se muestran a continuación: 2 2 0 0 1 sec sec 4 obl v D f f donde h h φ φ = → → = + (1) Al obtener esta formula no se puede hallar f obl debido a que mediante el sondeo vertical no se puede obtener una altura real de reflexión de la frecuencia f v . Del teorema de Martyn se plantea que si la frecuencia de incidencia vertical f v y la frecuencia de incidencia oblicua f obl , se reflejan de una misma altura real, la altura virtual de incidencia vertical de la frecuencia f v es igual a la altura de la trayectoria triangular equivalente de la frecuencia de incidencia oblicua f obl . ' ' fv fobl h h = (2) Por tanto si transformamos la expresión 1 obtenemos: 2 1 2 ' obl D f fo h ⎛ ⎞ = + ⎜ ⎟ ⎝ ⎠ , donde D = 3000 Km.(3) Esta es la expresión usada en la figura 2, ahora debido a lo que plantea el teorema de Martyn sí podemos usar la altura virtual de reflexión de la frecuencia f v para calcular f obl . Pero no puede ser usada directamente para calcular f obl pues en ella no se ha tomado en cuenta la influencia del campo magnético, la curvatura de la tierra y de la Ionosfera. La teoría general demuestra, que el no tener en cuenta el campo magnético de la tierra, conduce a graves errores en el MUF para cortas distancias; con el aumento de la distancia los errores disminuyen hasta algunos por cientos solamente. Por otro lado, con el aumento de la distancia, se notan aún más las curvaturas de la tierra e ionosfera. El objetivo de nuestro trabajo consiste en buscar una expresión que tenga en uno de sus términos la influencia que ejerce la curvatura de la ionosfera. Con esta expresión se podrá calcular las frecuencias oblicuas correspondientes a cada par de puntos de frecuencia de sondeo vertical, altura virtual, (f 0 , h'). La máxima frecuencia oblicua que se obtenga es la que se llama frecuencia máxima utilizable (de ahora en adelante MUF) y que dividida por la frecuencia crítica de la capa F2 (foF2) da el buscado coeficiente M(3000.)F2. Así esta metodología podrá ser usada en la elaboración de un Software que permita hacer el calculo del M(3000)F2. Esto dará mayor rapidez y precisión al analizar el ionograma en nuestra estación de sondeo vertical de la ionosfera. Materiales Y Métodos Para generar las curvas de transmisión (que corresponden a cada frecuencia oblicua) se usan los siguientes coeficientes que fueron tomados de [3]. Estos coeficientes tienen corregido la acción de la curvatura de la ionosfera. A partir de (3) se obtiene la expresión que relaciona, la altura virtual con las frecuencias oblicuas (MUF) y frecuencias verticales (fo): 2 2 1 D h MUF fo ′ = ⎛ ⎞ − ⎜ ⎟ ⎝ ⎠ ; (4) , donde D = 3000 Km. Si graficamos esta función con la esperanza de obtener las curvas de nivel vemos que nos dan diferentes a la de la figura 3 (ver figura 4). Esto se debe a la influencia que ejerce la curvatura de la ionosfera. Todo esto se corrige con un coeficiente k [4] que se coloca en la ley de la secante como k Sec (ϕ). De esta manera la ecuación (4) quedaría: 2 2 1 D h MUF kfo ′ = ⎛ ⎞ − ⎜ ⎟ ⎝ ⎠ (5) donde D = 3000 Km. De aquí: Los valores que toma este coeficiente k se sabe que está implícito en los coeficientes M(3000) de la tabla 1. Luego usando la expresión 6 podemos calcular el valor de k a cada altura. 2 (3000) 2 1 D h M k ′ = ⎡ ⎤ − ⎢ ⎥ ⎣ ⎦(2 (3000) 1 2 ' M k D h = ⎛ ⎞ + ⎜ ⎟ ⎝ ⎠ (7) Estos valores fueron calculados para cada altura y dieron: h' k Tabla.2-Valores del parámetro de corrección k obtenida para cada altura a partir de la ecuación 7. En la figura 5 se muestran graficados estos valores. Por tanto si usamos el método analítico para determinar el MUF (dado por la expresión 5) es necesario ubicar cada par de puntos de (frecuencia, altura); en el rango de altura que se muestran en la tabla 3: y calcular el valor de k de la ecuación de la recta de interpolación entre los puntos dados. Tabla.3-Rango de alturas para las cuales podemos obtener el coeficiente de corrección k que se usa en la ecuación 8 para obtener las distintas frecuencias oblicuas. Posteriormente se sustituye éste valor de k, h' y fo en la ecuación 5 con MUF despejado (ver ecuación 8). Rango de altura Esto se hace para cada par de puntos del ionograma y finalmente se toma el valor máximo de esta operación que será el MUF escogido para obtener el M(3000)F2 al dividirlo por la frecuencia crítica de la capa F2 ver ecuación 9 . 2 1 2 ' D MUF kfo h ⎛ ⎞ = + ⎜ ⎟ ⎝ ⎠ (8)(3000) Resultados Y Discusión Finalmente la formula de trabajo a la que hemos llegado está dada por la expresión 8 teniendo en cuenta que el valor de k que se toma está dado por una función lineal de la altura virtual. La ecuación de k que se tome depende del rango de altura en que esté la altura virtual (ver tabla 3). La Forma de proceder a la hora de usar este método es el siguiente: Si se toman tres puntos del ionograma con un orden determinado o sea de menor a mayor frecuencia, para cada punto se calcula la frecuencia oblicua dada por la expresión 8. Luego el valor de la frecuencia oblicua calculada debe ir aumentando hasta un valor máximo a partir del cual comienza a disminuir. Luego el valor máximo es el que se toma como MUF. Para comprobar la efectividad de este método se tomaron en cada una de las 24 horas exactas del día 5 de noviembre de 2003 tres pares de puntos de altura frecuencia. Los que generalmente se usan para determinar la MUF con el método grafico. Además se tomó el valor de MUF reportado. Los valores calculados por el método grafico y el método implementado por nosotros se muestran en la tabla 4. En dicha tabla se muestran la diferencia que existen entre ambos valores reportados. Esta diferencia no excede en más de 0.4. En el final del anexo se muestran todos los tríos de puntos de altura frecuencia que se toman para calcular la MUF por el método gráfico. Además se puede ver el valor de MUF que se puede obtener de representar dichos puntos en el grafico de las curvas de transmisión. Al lado de cada par de puntos se muestra el valor de MUF que se obtiene de sustituir este par de puntos en la formula 8 implementada por nosotros, con su respectivo valor de k que ya hemos explicado. De las 00:00 a las 2:00 se tomaron tres pares de puntos que estuvieran arriba de los que se toman normalmente. Esto se realizó para comprobar que en ese intervalo los valores de frecuencia oblicua decrecían. Como se puede apreciar en los tres casos analizados se muestra esto. De las 8:00 a las 10:00 se hizo lo contrario, pues se tomaron además de los puntos que se usan normalmente para calcular el MUF, tres puntos que estuvieran por debajo. Esto se realizó para comprobar que en esté intervalo debía existir un crecimiento de los valores de frecuencia oblicua calculada con la ecuación 8. Como se puede ver al final del anexo este resultado se obtuvo sin contratiempos. De lo visto anteriormente podemos concluir que como se plantea en la teoría. La formula implementada por nosotros muestra que los valores de frecuencia oblicua crecen hasta un máximo para después decrecer. Analicemos ahora qué ocurre en el entorno de los puntos que se toman para implementar el método grafico. Se puede ver que de las 24 horas en 15 el segundo punto que se toma para implementar el método grafico da un valor máximo de frecuencia oblicua, y por tanto este es el que reportamos por nuestro método como frecuencia máxima utilizable (MUF). En 8 casos el valor máximo dio en el último punto. Y en 1 caso dio por arriba. En estos casos se reportó este valor por ser el máximo, pero no estamos conformes con este resultado porque aquí no se ha ubicado el máximo con precisión. Por tanto se comienza a realizar el análisis. Esto nos ocurrió a la 1:00 en el día analizado. 2-Si MUF3 > MUF2 > MUF1 ocurre que se tomaron valores por debajo del máximo y por tanto debe aparecer un mensaje en pantalla que oriente a tomar tres nuevos valores mayores que MUF3. Por tanto se comienza a realizar el análisis. Esto nos ocurrió a las 3:00, a las 8:00, a las 9:00, a las 10:00, a las 13:00, a las 14:00, a las 21:00 y a las 23:00. En todos los casos nos quedamos con el último valor pero a la hora de implementar el software es obligatorio tomar tres nuevos puntos para ser más exactos en nuestros resultados. 3-Si MUF2 > (MUF1 y MUF3) entonces es el valor buscado y se reporta como frecuencia máxima utilizable. Es de destacar que cuantos mas cercanos se tomen los puntos, mejor será el valor reportado de MUF. Se hace necesario fijar un valor para el cual la diferencia entre las MUF no debe ser mayor, así evitaríamos que si se toman valores muy distantes pero que cumplan con la condición 3 se seleccione MUF2 como frecuencia máxima utilizable. Pues evidentemente en este caso estaríamos cometiendo un error de exactitud grande. ¿Errores que se evitan? Al implementar el método grafico se cometen errores de escala a la hora de representar los puntos en la curva de transmisión, Además de errores de lectura al tomar los tres mejores puntos que den la recta tangente a la curva de transmisión de la MUF. Con este nuevo método evitamos los errores de escala pues el calculo se realiza mediante una formula, Además que podemos minimizar los errores de lectura pues el programa que se implementará te dirá si debes escoger otros puntos. El principal error que tiene la formula está dada por el error de la pendiente al calcular k. Por tanto la exactitud del valor reportado va a ser mayor en este método que en el método grafico. Es bueno destacar que si pudiéramos seleccionar mas de tres puntos del Ionograma y que estuvieran lo mas próximo posible sería mas conveniente para realizar el calculo de la frecuencia máxima utilizable. Por tal motivo se propone que las frecuencias que se tomen no deben diferenciarse en más de 0.2 MHz. De ser posible en no más de 0.1 MHz. Conclusiones Parta el calculo del M(3000)F2 se ha estado usando durante años el método grafico producto de los errores que produce el coeficiente k. Al no tener un ordenador que procese los pares de puntos del Ionograma, se hace necesario superponer el grafico h'f sobre las curvas de transmisión. De esa forma al tomar tres pares de puntos del Ionograma en la región cercana a la frecuencia crítica de la capa y ponerlo en una escala semilogaritmica, lo estamos linealizando. Así cuando se encontraba una recta paralela a estas curvas de transmisión. Estábamos encontrando el máximo valor de la frecuencia oblicua donde el grafico h'f intercepta en un solo punto a la curva de transmisión. O sea la frecuencia máxima utilizable o MUF. Ahora con el uso de un ordenador al poder determinar varios puntos del Ionograma, se pueden usar los pares de puntos h'f para calcular de forma analítica con el método explicado anteriormente el M(3000)F2. La comparación del método analítico implementado con el método grafico muestra que el primero es mas exacto, y disminuimos los errores a la hora de determinar el M(3000)F2. correspondientes a las frecuencias oblicuas: 2.5, 3., 3.5, 4., 4.5, 5., 6,7,8,9,10,11,12,13,14,15,16,17,18,19,20,22,24,26,28,30,32,34,36,38,40,45,50,55, 60, 70, 80, de izquierda a derecha. Anexos calculas y gráficos realizados se efectuaron con ayuda del paquete de programas Mathematic versión 5.0. [5]. ¿Qué se propone para programar un software que solucione esté problema? Se propone que al analizar el Ionograma seleccionen tres pares de puntos que el programa incluirá automáticamente. O sea que tomará el primer punto y calculará el valor de frecuencia oblicua MUF1, luego el segundo (sea este valor MUF2) y por último el tercero (Sea este valor MUF3). Aquí puede suceder que: 1-Si MUF2 < MUF1 ocurre que se tomaron valores por encima del buscado y por tanto debe aparecer un mensaje en pantalla que oriente a tomar tres nuevos valores menores que MUF1. Fig. 1 - 1Cambio en la forma de la curva h'f a medidas que la distancia entre el transmisor y el receptor es incrementada. Fig. 2 -Fig. 3 - 23Con un par de puntos de altura virtual -frecuencia de sondeo vertical del ionograma que se encuentra en la grafica de la izquierda, podemos a partir del teorema de Martyn y la ley de la secante obtener el ionograma de sondeo inclinado para una distancia de 3000 Km. Vemos que existe un valor de frecuencia máxima oblicua (MUF) cuando se toman los valores correspondientes al punto c en el ionograma de incidencia oblicua. Curvas de transmisión generadas para una distancia de 3000 km. Se muestran las curvas Fig. 4 - 4Curvas de transmisión generadas a partir de la ecuación 4 , que la no tener el coeficiente de corrección k, no da curvas de transmisión como la de la figura 3. Fig. 5 - 5Relación entre el coeficiente de corrección k y las distintas alturas virtuales, para su calculo se usó la formula 7. 0 Las 08 0 Las 14 0080145.5 y h = 280 MUF = 20.85 ; fo = 5.8 y h = 310 MUF = 20.75; Con el método grafico se obtuvo 21.MUF = 31.15; Con el método grafico se obtuvo 31.MUF = 31.39; fo = 9.0 y h = 330 MUF = 31.01; Con el método grafico se obtuvo 31.6 Las 12:00 fo = 7.7 y h = 295 MUF = 28.36; fo = 8.2 y h = 320 MUF = 28.78; fo = 8.6 y h = 350 MUF = 28.64; Con el método grafico se obtuvo 29.0 Las 13:00 fo = 8.3 y h = 315 MUF = 29.40; fo = 8.9 y h = 335 MUF = 30.40 ; fo = 9.5 y h = 370 MUF = 30.60; Con el método grafico se obtuvo 31.MUF = 31.90; Con el método grafico se obtuvo 32.0 Las 15:00 fo = 9.2 y h = 310 MUF = 32.91; fo = 10.0 y h = 340 MUF = 33.86; fo = 10.5 y h = 375 MUF = 33.56; Con el método grafico se obtuvo 33.9 de Geofísica y Astronomía, Calle 212 No. 2906 e/ 29 y 31, La Coronela, La Lisa, Ciudad de La Habana, CP 11 600, Cuba. C. Eléct.: arian@iga.cu Tabla.1-Valores de MUF graficados.Por tanto para cada MUF obtengo 9 puntos correspondientes a cada altura que se pueden interpolar y obtener la curva de transmisión. En este caso se obtienen 37 curvas de transmisión (ver figura 3). Estas curvas son las que se usan en el calculo del M(3000)F2 por el método grafico.Altura virtual 200 250 300 350 400 500 600 700 800 M(3000) 4.55 4.05 3.65 3.33 3.08 2.69 2.40 2.20 2.04 Para graficar cada curva se calculó el valor de fo para cada altura, y luego esos pares de puntos se plotearon en un grafico de fo vs. h', para cada MUF. Las curvas MUF ploteadas son las siguientes: {2.5, 3., 3.5, 4., 4.5, 5., 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 20, 22, 24, 26, 28, 30, 32, 34, 36, 38, 40, 45, 50, 55, 60, 70, 80} La forma de obtener fo es: fo = MUF / M(3000) Tabla. 4-Comparación entre el método grafico y el método implementado. Andemos se puede apreciar la diferencia entre los resultados. En negritas se muestran los dos mayores diferencias y la dos menores.Todos estos valores corresponden al día 5 de noviembre de 2003.Las 02:00 fo = 3.9 y h = 300 MUF = 14.23; fo = 4.3 y h = 335 MUF = 14.69 ; fo = 4.5 y h = 360 MUF = 14.4; Con el método grafico se obtuvo 14.9 Por arriba fo = 4.6 y h = 430 MUF = 13.53 ; fo = 4.7 y h = 520 MUF = 12.32; fo = 4.7 y h = 525 MUF = 12.25 ; MUF = 14,41 ; Con el método grafico se obtuvo 14.3 Las 04:00 fo = 3.8 y h = 295 MUF = 14.0 ; fo = 4.1 y h = 330 MUF = 14.13; fo = 4.3 y h = 360 MUF = 14.08; Con el método grafico se obtuvo 14.2 Las 05:00 fo = 3.7 y h = 305 MUF = 13.37 ; fo = 4.0 y h = 335 MUF = 13.66 ; fo = 4.2 y h = 370 MUF = 13.57; Con el método grafico se obtuvo 13.8Las 06:00 fo = 3.1 y h = 290 MUF = 11.53; fo = 3.3 y h = 315 MUF = 11.69 ; fo = 3.5 y h = 350 MUF = 11.66; Con el método grafico se obtuvo 11.8Hora Método grafico Método implementado Diferencia 00 14.8 15.08 0.28 01 14.9 15.03 0.13 02 14.9 14.69 0.21 03 14.3 14.41 0.11 04 14.2 14.13 0.07 05 13.8 13.66 0.14 06 11.8 11.69 0.11 07 21.0 20.85 0.15 08 28.3 28.26 0.04 09 29.9 29.4 0.50 10 31.5 31.15 0.35 11 31.6 31.39 0.21 12 29.0 28.78 0.22 13 31.0 30.60 0.40 14 32.0 31.90 0.10 15 33.9 33.86 0.04 16 37.0 36.84 0.16 17 36.0 36.44 0.44 18 28.0 27.89 0.11 19 17.5 17.44 0.06 20 12.2 12.03 0.17 21 14.5 14.27 0.23 22 14.6 14.53 0.07 23 16.4 16.18 0.22 Día 5 Noviembre del 2003 Las 00:00 fo = 4.0 y h = 310 MUF = 15,03; fo = 4.2 y h = 325 MUF = 15,08; fo = 4.5 y h = 355 MUF = 14,857; Con el método grafico se obtuvo 14.8 Por arriba fo = 4.6 y h = 375 MUF = 14,7; fo = 4.7 y h = 395 MUF = 14.58; fo = 4.8 y h = 435 MUF = 14.02; Las 01:00 fo = 4.0 y h = 310 MUF = 15.03; fo = 4.4 y h = 345 MUF = 14.77; fo = 4.6 y h = 370 MUF = 14.82; Con el método grafico se obtuvo 14.9 Por arriba fo = 4.6 y h = 370 MUF =14.82 ; fo = 4.7 y h = 430 MUF = 13.83; fo = 4.8 y h = 505 MUF = 12.83 ; Las 03:00 fo = 3.8 y h = 305 MUF = 13.73; fo = 4.1 y h = 330 MUF = 14.13; fo = 4.4 y h = 360 The relation of radio sky-wave transmission to ionosphere measurements. -Smith , N , Proc . IRE. IRE27332-SMITH, N. (1939): The relation of radio sky-wave transmission to ionosphere measurements, Proc . IRE, 27, p. 332. Manual On Ionospheric Vertical Soundings For The International Geophysical Year, Prepared at CRPL National Bureau of Standards. -J W Wright, R W Knecht, Davies, 76Boulder, Colorado, USA. P , 67-J.W. Wright, R. W. Knecht, K Davies, (Aug, 1956), Manual On Ionospheric Vertical Soundings For The International Geophysical Year, Prepared at CRPL National Bureau of Standards Boulder, Colorado, USA. P , 67 .. 76. World Data Center A For Solar -Terrestrial Physics. -W R Piggott, K Rawer, UAG-23. U.R.S.I, Hand Book of Ionogram Interpretation and Reduction, Second Edition, 4-Kenneth DaviesBoulder, ColoradoIonospheric Radio, Space Environment LaboratoryReportsecond edition-W. R. Piggott, K. Rawer, (second edition November, 1972), World Data Center A For Solar -Terrestrial Physics, Report UAG-23. U.R.S.I, Hand Book of Ionogram Interpretation and Reduction, Second Edition, 4-Kenneth Davies (1989), Ionospheric Radio, Space Environment Laboratory Boulder, Colorado, p.171 - 172.
sample_6456
0.9241
arxiv
L'identité algébrique d'une pratique portée par la discussion sur l'équation à l'aide de laquelle on détermine les inégalités séculaires des planètes (1766-1874).Frédéric Brechenmacher ( 1 ).Résumé. Cet article questionne l'identité algébrique d'une pratique propre à un corpus de textes publiés sur une période antérieure à l'élaboration de théories algébriques, comme la théorie des matrices, ou de disciplines, comme l'algèbre linéaire, qui donneront à cette pratique l'identité d'une méthode de transformation d'un système linéaire par la décomposition de la forme polynomiale de l'équation caractéristique associée. Dans les années 1760-1775, Lagrange élabore une pratique algébrique spécifique à la mathématisation des problèmes mécaniques des petites oscillations de cordes chargées d'un nombre quelconque de masses ou de planètes sur leurs orbites. La spécificité de cette pratique s'affirme par opposition à la méthode des coefficients indéterminés, elle consiste à exprimer les solutions des systèmes linéaires par des factorisations polynomiales d'une équation algébrique particulière, l'équation à l'aide de laquelle on détermine les inégalités séculaires des planètes. Elaborée en un jeu sur les primes et les indices des coefficients des systèmes linéaires, la pratique de Lagrange est à l'origine d'une caractéristique des systèmes issus de la mécanique, la disposition en miroirs des coefficients de systèmes que nous désignons aujourd'hui comme symétriques. Elle est également à l'origine d'une discussion sur la nature des racines de l'équation qui lui est associée. Nous questionnerons l'identité algébrique de cette discussion qui se développera sur plus d'un siècle en étudiant les héritages, permanences et évolutions de la pratique élaborée par Lagrange au sein de différentes méthodes élaborées dans divers cadres théoriques par des auteurs comme Laplace, Cauchy, Weierstrass, Jordan et Kronecker. Nous verrons que, préalablement à l'élaboration d'une théorie des formes dont la nature, algébrique ou arithmétique, suscitera une vive controverse entre Jordan et Kronecker en 1874, le caractère algébrique de la discussion renvoie davantage à l'identité historique d'un corpus qu'à une identité théorique et s'avère indissociable d'une constante revendication de généralité. Entre 1766 et 1874, la discussion sur l'équation à l'aide de laquelle on détermine les inégalités séculaires permet de mettre en évidence différentes représentations associées à une même pratique algébrique ainsi que des évolutions dans les philosophies internes portées par les auteurs du corpus sur la généralité de l'algèbre. quotients de mineurs extraits du déterminant caractéristique |A-λI| et d'une factorisation de l'équation caractéristique par un terme linéaire : |A-λI|/(λ-λ i ) (où λ i est une racine caractéristique de A). Une telle expression polynomiale s'identifie à un facteur près aux colonnes non nulles de la matrice des cofacteurs de |A-λI|. 5 Une étude de cette querelle est proposée dans une publication ([Brechenmacher 200?]) s'attachant au cas général de l'équivalence des couples de matrices en complément du cas symétrique détaillé dans cet article. Afin que ces deux publications, Introduction. Cet article est consacré à un corpus regroupant des textes mathématiques en un ensemble cohérent et fermé sur une périodisation donnée et que nous désignerons sous le nom de discussion sur l'équation à l'aide de laquelle on détermine les inégalités séculaires des planètes ou, plus rapidement, discussion sur l'équation des petites oscillations. Au sens des citations et des références que les textes entretiennent entre eux, visualisées par le graphe de l'annexe 1, le corpus articule une discussion entre différents auteurs sur plus d'un siècle. Quelques noeuds apparaissent dans l'enchevêtrement des références bibliographiques. En 1766, Joseph-Louis Lagrange travaille sur l'intégration des systèmes d'équations différentielles linéaires à coefficients constants ; en 1829, la question traitée par Augustin Cauchy est la classification des surfaces du second degré ; en 1858, il s'agit pour Karl Weierstrass de caractériser les transformations de couples de fonctions homogènes du second degré par substitutions sur les variables ; en 1874 Camille Jordan et Leopold Kronecker se querellent sur les fondements et les méthodes de la théorie des formes bilinéaires. Le corpus ne se laisse donc pas aisément caractériser et, comme nous le verrons, ne s'identifie ni à une théorie, ni au développement d'une méthode ni même à la résolution d'un problème. En envisageant ce corpus comme une discussion, nous voulons questionner son identité par l'étude des liens qu'entretiennent les textes qui le constituent. Cette question d'identité nous amène à nous démarquer de l'historiographie qui s'est intéressée au corpus dans l'objectif de dresser l'histoire d'une théorie que l'on peut désigner, pour reprendre le terme employé par Thomas Hawkins, comme la théorie spectrale des matrices ( 2 ). La théorie des matrices permet de formuler les différents problèmes étudiés par les auteurs du corpus comme un même problème de réduction d'un couple de matrices (A,B) en un couple (D, I) où A est une matrice symétrique, B une matrice symétrique définie, D une matrice diagonale et I la matrice identité. Une telle identité théorique ne s'élabore cependant qu'à la limite de la périodisation associée à la discussion , elle implique donc un regard rétrospectif sur le corpus et masque d'autres identités qui ne relèvent pas de ce cadre théorique. Par exemple, le recours à une formulation matricielle de la méthode élaborée par Lagrange en 1766 pour la résolution des systèmes différentiels linéaires à coefficients constants introduit dans le discours historique des aspects propres à la théorie des matrices comme la transformation d'une matrice symétrique qui sont absents du texte de Lagrange et masquent le caractère spécifique d'une pratique originale. Comme nous le détaillerons dans cet article, lorsque Lagrange ramène l'intégration d'un système de n équations à celle de n équations indépendantes, le changement de forme du système n'est pas envisagé comme le résultat une transformation mais s'avère indissociable d'une représentation mécanique implicite selon laquelle les petites oscillations d'un système de n corps se comportent comme si elles étaient composées de n mouvements simples ( 3 ). Nous verrons également que ce que nous désignerions aujourd'hui comme le caractère symétrique des systèmes linéaires de la mécanique se manifeste d'abord comme une conséquence de la pratique algébrique élaborée par Lagrange par opposition aux insuffisances de la méthode des coefficients indéterminés et consistant, en un jeu sur les primes et les indices des coefficients des systèmes linéaires que l'on interpréterait aujourd'hui comme une mise en oeuvre de propriétés d'orthogonalité duale, à réduire l'intégration de ces derniers à la décomposition algébrique d'une équation ( 4 ). En envisageant l'identité de notre corpus comme « un problème et non une tautologie » pour reprendre l'expression employée par Catherine Goldstein à propos des différentes identités d'un théorème de Fermat [Goldstein 1995, p.16], notre problématique vise à questionner le caractère algébrique qui fait la spécificité d'une pratique propre au corpus sur une période antérieure à l'élaboration des théories algébriques qui donneront à cette pratique l'identité d'une méthode. Afin de restituer la « dynamique réelle des savoirs » par la « multiplicité de leurs origines » [ Dhombres 2002], nous nous attacherons à mettre en évidence aussi bien la variabilité des contextes dans lesquels notre corpus se déploie que les héritages manifestant la permanence d'une pratique spécifique participant des différentes méthodes élaborées par des auteurs comme Lagrange, Cauchy, Weierstrass, Jordan et Kronecker. Il faudra donc entrer dans la technicité des textes originaux afin de saisir, comme le formulait Hourya Sinaceur dans son histoire du théorème de Sturm, « toutes les identités que le "progrès" efface : identité d'un contexte, d'un objectif, d'une perspective, d'un langage, sans parler de tout ce qui reste implicite sans manquer d'être là » [Sinaceur 1991, p.21]. En ne prenant pas pour appui un cadre théorique comme celui de la théorie des matrices, comment constituer le corpus auquel consacrer notre étude ? Notre méthodologie est basée sur le choix d'un moment de référence caractérisé par une date, 1874, donnant une limite à la période étudiée et un contexte, la querelle qui oppose Jordan à Kronecker ( 5 ). Les références de Jordan et Kronecker aux travaux de leurs prédécesseurs nous ont permis de fixer un premier groupe de textes que nous avons ensuite complété par un épuisement systématique des références bibliographiques jusqu'à obtenir le corpus fermé dont nous proposons une représentation simplifiée en annexe 1. D'autres choix de dates et de contextes de référence pourraient faire apparaître des réseaux différents ou faire jouer des rôles importants à des textes apparaissant ici comme des références mineures. Un autre point de vue, très proche puisque provenant des années 1880 et d'auteurs comme Henri Poincaré, conduirait à ouvrir le corpus à des travaux d'astronomie et à centrer le questionnement sur la stabilité du système du monde et le problème des trois corps. En prenant pour moment de référence la date de 1890 et les travaux d'Eduard Weyr sur les matrices, nous serions amenés à donner une plus grande importance aux travaux dans lesquels James Joseph Sylvester définit, en 1851, le terme « matrice » mais qui ne jouent ici qu'un rôle mineur et ne sont cités que par Charles Hermite entre 1853 et 1857 puis par Gaston Darboux en 1874 ( 6 ). Les première et troisième parties de cet article sont consacrées aux deux moments particuliers qui marquent respectivement la fin et l'origine de notre corpus tandis que les deuxième et quatrième parties abordent le corpus dans son ensemble. Le choix d'adopter pour moment de référence la date de 1874 et le contexte de la querelle qui oppose Jordan et Kronecker est un point essentiel de la méthodologie de notre étude qui, bien que portant sur une période longue, n'en est pas moins locale car orientée par une problématique visant à questionner l'identité algébrique d'un corpus bien précis ; la première partie de cet article est consacrée à expliciter et justifier ce choix. Dans la deuxième partie nous questionnons l'identité du corpus par une étude des liens qu'entretiennent les textes qui le constituent. Nous verrons que cette identité est indissociable de celle d'une pratique associée à une équation algébrique spécifique dont nous étudierons d'abord, dans la troisième partie, l'origine dans les travaux de Lagrange de 1766 puis, dans la quatrième partie, les héritages et évolutions au sein de la discussion. Nous verrons que l'identité algébrique de cette pratique ne se réduit ni à un langage ni à un caractère formel mais que différentes représentations lui sont associées dans différents cadres théoriques. La pratique élaborée par Lagrange est notamment indissociable de représentations mécaniques et son caractère algébrique ne se réduit pas au formalisme souvent associé par l'historiographie au style de mathématisation et au modèle de théorie physique de l'auteur de la Mécanique Analytique où la « mise en oeuvre du calcul des variations nécessite une forme d'intuition nouvelle, en ce sens qu'elle est entièrement détachée de la considération des propriétés des figures géométriques, car elle opère à l'intérieur d'un cadre de formules algébriques exclusivement. […] L'introduction du formalisme mathématique dans la dynamique signifie qu'on impose une forme esthétique algébrique à l'étude de la science du mouvement, cela veut dire que l'on abandonne tout moyen autre que celui du calcul algébrique. » [Barroso-Filho et Comte 1988, p.134]( 7 ). I. La controverse opposant Jordan et Kronecker en 1874, un moment de référence pour établir le corpus et organiser l'étude. Au sein d'une série de notes et de mémoires publiés durant l'année 1874 Jordan et Kronecker opposent deux méthodes associées à deux théorèmes énoncés indépendamment et dans des théories différentes. L'un, dû à Weierstrass [1868] définit des invariants, les diviseurs élémentaires, pour caractériser l'équivalence des couples de formes bilinéaires ; l'autre, énoncé par Jordan en 1870, donne une réduction des substitutions linéaires à une forme canonique dans un contexte de travaux sur la résolubilité des équations algébriques ( 8 ). Comme nous allons le 7 Le caractère « algébrique » de la mathématisation chez Lagrange a souvent été caractérisé par l'historiographie comme « formel » en raison de son détachement de l'observation physique et de la présentation de la mécanique comme une branche des mathématiques autonome de la géométrie. Le concept de formalisation associée au style de mathématisation et au modèle de théorie physique de Lagrange a notamment été étudié par C.Comte et W.Barroso-Filho qui ont mis en évidence « l'invention d'une nouvelle méthode mathématique à caractère algébrique, la plasticité du formalisme employé qui, simple et clair, donne une assez bonne description des phénomènes étudiés, la formulation logico déductive d'un seul principe unificateur, d'où toutes les propositions découlent » [Barroso-Filho et Comte 1988, p.131]. Les études sur la « formalisation de la mécanique » par Lagrange ont cependant surtout porté sur les pratiques du calcul des variations, les développements de Taylor et la méthode des coefficients indéterminés ( [Fraser 1980[Fraser et 1985 parle du « style algébrique de Lagrange, [Dahan- Dalmedico 1990Dalmedico et 1992 de « double mouvement de réduction de la Mécanique à l'Analyse, et de l'Analyse à l'Algèbre » et [Panza 1992[Panza et 2003 de « réduction du calcul analytique à l'algèbre »), et non sur la pratique propre au problème des petites oscillations à laquelle est consacrée cet article. 8 D'un point de vue qui nous est contemporain, le théorème de réduction d'une matrice à coefficients complexes à sa forme canonique de Jordan est équivalent au théorème des diviseurs élémentaires. Consulter par exemple le manuel de [Gantmacher 1959]. Ci-dessous, trois exemples de décompositions matricielles associées à la décomposition en diviseurs élémentaires d'un même polynôme caractéristique |A-λI|=(λ-1)²(λ-2) 3 (λ-3). détailler dans cette partie, c'est au travers de la reconnaissance de leur capacité à résoudre de mêmes problèmes abordés dans le passé par des auteurs comme Lagrange ou Cauchy qu'une première identité entre ces deux théorèmes s'était manifestée de 1870 à 1873 . Une controverse opposant deux fins données à une histoire commune. La querelle a pour origine l'ambition de Jordan de réorganiser la théorie des formes bilinéaires, développée dans les années 1860 par un petit groupe de géomètres berlinois sous la forme d'une théorie des invariants ( 9 ), par des méthodes de réduction à des formes canoniques: On sait qu'il existe une infinité de manières de ramener un polynôme bilinéaire P= ΣA αβ x α y β (α=1, 2, …, n, β=1, 2, …, n) à la forme canonique x 1 y 1 +…+x m y m , […] par des transformations linéaires opérées sur les deux systèmes de variables x 1 ,..,x n , y 1 ,..,y n . Parmi les diverses questions de ce genre que l'on peut se proposer, nous considérons les suivantes : 1. Ramener un polynôme bilinéaire P à une forme canonique simple par des substitutions orthogonales opérées les unes sur x 1 ,…,x n , les autres sur y 1 ,…,y n . 2. Ramener P à une forme canonique simple par des substitutions linéaires quelconques opérées simultanément sur les x et les y. 3. Ramener simultanément à une forme canonique deux polynômes P et Q par des substitutions linéaires quelconques, opérées isolement sur chacune des deux séries de variables. Le premier de ces problèmes est nouveau, si nous ne nous trompons. Le deuxième a déjà été traité (dans le cas où n est pair) par M. Kronecker, et le troisième par M. Weierstrass ; mais les solutions données par les éminents géomètres de Berlin sont incomplètes, en ce qu'ils ont laissé de côté certains cas exceptionnels qui, pourtant, ne manquent pas d'intérêt. Leur analyse est en outre assez difficile à suivre, surtout celle de M. Weierstrass. Les méthodes nouvelles que nous proposons sont, au contraire, extrêmement simples et ne comportent aucune exception. [Jordan 1873[Jordan , p.1487]. Comme le font pressentir des applications récentes des formes bilinéaires à la géométrie (Klein, 1868), à l'arithmétique (Kronecker, 1874) et à divers problèmes d'intégrations de systèmes différentiels (Jordan, 1871(Jordan, -1872 et des équations de Fuchs (Hamburger, 1872, Jordan 1874), la théorie des formes bilinéaires jouera un rôle essentiel dans les mathématiques de la fin du XIX e siècle ( 10 ). En 1874 cependant, la portée de la théorie se manifeste surtout par sa capacité à formuler dans un cadre théorique unique des problèmes issus de théories distinctes. Dans la citation de Jordan, la « forme canonique » x 1 y 1 +…+x m y m généralise la loi d'inertie de la théorie des formes quadratiques attachée notamment aux travaux d'Hermite des années 1850, le problème 1 fait référence à la classification des fonctions homogènes du second degré réalisée par Cauchy en 1829 dans un cadre géométrique, le problème 2 renvoie à la question arithmétique de l'équivalence des formes quadratiques dans la tradition de Carl Gauss et des Disquitiones Aritmeticae de 1801 et le problème 3 provient de la théorie des systèmes d'équations différentielles linéaires à coefficients Formes de Jordan. ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎠ ⎞ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎝ ⎛ 3 2 2 2 1 1 ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎠ ⎞ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎝ ⎛ 3 2 1 2 1 2 1 1 ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎠ ⎞ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎝ ⎛ 3 2 1 2 0 2 1 1 Diviseurs élémentaires. (λ-1), (λ-1), (λ-2), (λ-2),(λ-2), (λ-3) (λ-1), (λ-1), (λ-2) 3 , (λ-3) (λ-1), (λ-1), (λ-2), (λ-2)², (λ-3) constants remontant aux travaux de mécanique de Lagrange ( 11 Deux couples (A,B) et (A',B') sont dits équivalents s'il est possible les transformer l'un en l'autre par des substitutions linéaires. Comme l'ont montré Weierstrass et Kronecker dès 1868, ce problème donne une même formulation à différentes questions abordées dans le passé comme l'intégration de systèmes différentiels (AY''=BY), la détermination des axes principaux des coniques et quadriques (AY=λI) ou la caractérisation des couples de formes quadratiques. Comme nous le verrons plus loin, c'est après avoir résolu à son tour ces différents problèmes entre 1871 et 1872 à l'aide de méthodes élaborées dans le cadre de la théorie des groupes, que Jordan prit connaissance de la théorie des formes bilinéaires élaborée à Berlin et démontra que « la réduction simultanée des deux fonctions P et Q est un problème identique à celui de la réduction d'une substitution linéaire à sa forme canonique » [Jordan 1873[Jordan , p.1487. La manifestation d'une identité entre la réduction canonique associée à l'algèbre des substitutions et le calcul des invariants attaché à la théorie arithmétique des formes, est donc indissociable d'une référence au passé. Plus précisément, la caractérisation d'un couple (A, B) est abordée par l'étude de l'expression A+sB -un polynôme de « polynômes bilinéaires » pour Jordan ou « faisceau de formes bilinéaires » pour Kronecker -et l'examen de l'équation polynomiale |A+sB|=0. Dans le cas où les racines s 1 , s 2 , …, s n de l'équation caractéristique |A+sB|=0 sont toutes distinctes, le couple (A, B) est caractérisé par les invariants que sont les racines s 1 , s 2 , …, s n ou par la forme canonique (x 1 y 1 +…+x n y n , s 1 x 1 y 1 +…+s n x m y m ) ; l'occurrence de racines multiples nécessite la définition d'autres invariants ou formes canoniques ( 12 ). En donnant une résolution générale au problème, indépendamment de la multiplicité des racines, les théorèmes de Jordan et Weierstrass permettent de percevoir les travaux d'auteurs du passé comme lacunaires car limités au cas des racines distinctes. En ce sens, ces deux théorèmes se présentent comme deux fins données à une histoire commune. Pour donner corps à cette histoire à laquelle se réfèrent Jordan et Kronecker en 1874, nous avons mis en oeuvre une recherche bibliographique basée sur les références données par ces deux auteurs et qui a permis, comme nous l'avons détaillé en introduction, de fixer le corpus de la discussion sur l'équation petites oscillations. ⎪ ⎩ ⎪ ⎨ ⎧ + − + + − = + + + = ) ' ' sin( ' ' ' ) sin( ) ' ' sin( ' ) sin( ) ( 2 2 2 2 β ρ α ρ ρ β ρ α ρ ρ β ρ α β ρ α t g c a t g c a u t t s f La réduction du système à deux équations indépendantes nécessite donc l'obtention de deux racines distinctes et Yvon-Villarceau critique l'interprétation donnée par Lagrange selon laquelle l'« inégalité » des racines serait garantie par l'hypothèse de la stabilité des petites oscillations. En cas de racines multiples, les oscillations ne resteraient pas bornées car le temps t « sortirait du sinus » et les solutions prendraient la forme s= tsin(ρt+β)( 14 ). Chacun comprendra sans recourir au calcul, que la petitesse des oscillations est assurée dans ce cas, si le centre de gravité est, à l'origine du mouvement, au-dessous du centre de suspension, à une petite distance de la verticale passant par ce point, et si le mouvement oscillatoire initial est suffisamment La critique d'Yvon-Villarceau est issue de préoccupations mécaniques concernant notamment l'application de la méthode des petites oscillations aux mouvements séculaires des planètes sur leurs orbites ( 15 ). Remettant en cause une pratique consistant à donner une représentation mécanique (les solutions ne sont pas stables) à une propriété algébrique (la multiplicité des racines) d'une équation particulière (l'équation caractéristique) ( 16 ), la critique de l'astronome concerne les « géomètres » et la « théorie des équations linéaires » car elle pose la question théorique de la caractérisation des systèmes se ramenant à des équations indépendantes. J'ai cru devoir appeler l'attention des géomètres sur un point assez important de la théorie des équations linéaires, et qui n'occupe pas une place suffisante dans les traités sur cette matière. Peutêtre la question que je soulève a-t-elle déjà été résolue; mais il faut croire que la solution n'est pas généralement connue, puisque l'incorrection que je signale dans la Mécanique analytique a pu échapper à un géomètre aussi érudit que le savant auteur de la nouvelle édition d'un ouvrage devenu classique ( 17 ). [Ibid., p.766]. Jordan répond à l'appel de Villarceau par la publication de deux notes aux Comptes rendus en 1871 et 1872. Il donne d'abord, en 1871, une méthode permettant l'intégration des systèmes différentiels à coefficients constants indépendamment de la multiplicité des racines : la résolution de Jordan, donnée en annexe 2, associe le système à une substitution linéaire qui est réduite à une forme canonique afin de donner au système une forme intégrable ( 18 ). Le géomètre parisien donne aussi une caractérisation des systèmes se « réduisant » à des « équations distinctes » de la forme dy 1 dt =σy 1 par une relation entre le déterminant caractéristique et ses mineurs : chaque racine caractéristique σ de multiplicité μ doit être une racine des mineurs d'ordre μ-1 extraits du déterminant caractéristique ( 19 ). Dans une seconde note publiée en 1872 et intitulée « Sur les oscillations infiniment petites des systèmes matériels », Jordan répond plus précisément à la question posée par Villarceau en abordant le cas des systèmes intervenant en mécanique et démontre que le caractère quadratique de ces systèmes implique la relation entre déterminants et mineurs qui garantie la possibilité de les réduire à des « équations distinctes ». Ce faisant, Jordan dépasse le seul problème de l'intégration des systèmes symétriques en se référant au cadre plus général de la théorie des formes quadratiques en référence aux travaux de Cauchy et Hermite : Il est clair que la question de la réduction du système (1) à la forme canonique (7) est identique à ce problème connu : Faire disparaître les angles des variables à la fois dans les deux formes quadratiques T et U. [Jordan 1872, p.320]. Les propriétés par lesquelles Jordan caractérise, en réponse à l'appel de Villarceau, les systèmes réductibles à des équations distinctes sont en fait identiques à celles déjà énoncés par Weierstrass 15 Les travaux de mécanique céleste d'Yvon-Villarceau concernent la détermination des orbites de divers corps célestes. Des exemples célèbres sont le calcul de la périodicité de la comète d'Arrest (1851) et la prévision des éphémérides en tenant compte des perturbations produites par Jupiter. Pour une biographie d'Yvon-Villarceau, consulter [Baillaud 1957]. 16 Pour Yvon-Villarceau, la forme s= tsin(ρt+β) serait attribuée aux solutions en cas de racine double par une généralisation abusive de l'intégration d'une équation linéaire d'ordre n à celle d'un système de n équations. On sait que lorsque l'on a affaire à une équation linéaire à coefficients constants et que l'équation caractéristique présente des racines égales dont le degré de multiplicité est m, il faut multiplier le terme de l'intégrale correspondant à la racine multiple par un polynôme de degré m-1 par rapport à la variable indépendante ; or plusieurs auteurs semblent admettre la nécessité d'une modification analogue des termes correspondants à une racine multiple, dans le cas d'un système d'équations linéaires ; ces auteurs se bornent à renvoyer aux explications fournies à l'occasion d'une équation unique. [1870, p.766]. 17 Yvon-Villarceau fait ici allusion à la nouvelle édition de la Mécanique Analytique de Lagrange par J. Bertrand en 1853. 18 Les années 1870-1880 sont une période charnière dans la carrière de Jordan marquée par une entreprise d'application à des domaines variés des notions et méthodes développées pour la théorie des substitutions dans les années 1860. Voir à ce sujet [Brechenmacher 2006b]. 19 Cette propriété caractérise les endomorphismes diagonalisables par la condition que leurs diviseurs élémentaires sont simples. Le degré de multiplicité μ d'une valeur propre doit coïncider avec la dimension du sous espace propre associé. Ceci se confirme partout dans les rares questions algébriques qui sont mises en oeuvre complètement jusqu'à leurs moindres détails, notamment dans la théorie des faisceaux des formes quadratiques […]. Parce que, pendant si longtemps, on n'osait pas faire tomber la condition que le déterminant ne contient que des facteurs inégaux, on est arrivé avec cette question connue de la transformation simultanée de deux formes quadratiques; qui a été si souvent traitée depuis un siècle, mais de manière sporadique, à des résultats très insuffisants et les vrais aspects de l'étude ont été ignorés. Avec l'abandon de cette condition, le travail de Weierstrass de l'année 1858 à conduit à un aperçu plus élevé et notamment à un règlement complet du cas, dans lequel n'existent que des diviseurs élémentaires simples. Mais l'introduction générale de cette notion de diviseur élémentaire, dont seule une étape provisoire était alors accomplie, intervient seulement dans le mémoire de Weierstrass de l'année 1868, et une lumière tout à fait nouvelle est ainsi faite sur la théorie des faisceaux pour n'importe quel cas, avec la seule condition que le déterminant soit différent de zéro. Quand j'ai aussi dépouillé cette dernière restriction et l'ai développé à partir de la notion de diviseur élémentaire des faisceaux élémentaires généraux, la clarté la plus pleine s'est répandue sur une quantité de nouvelles formes algébriques, et par ce traitement complet de l'objet des vues plus élevées ont été acquises sur une théorie des invariants comprise dans sa vraie généralité [Kronecker 1874c, p Interprétation dans le cadre des formes bilinéaires (symétriques) : 3 . 0 . 1 2 2 ) , , ( X X X x x x x x x x x x x A + + = + + + − = avec 1 3 , 2 , 1 , 3 , 2 , 1 , 3 2 1 ) ( ) ( ) , , ( − = = = j i s i j i s i j j x A x X X X où 3 , 2 , 1 , ) ( A(x,y) = x 1 y 1 -x 1 y 2 -y 1 x 2 +x 2 y 2 +x 2 y 3 +y 3 x 2 +x 3 y 3 =1.X 1 Y 1 +0.X 2 Y 2 +3.X 3 Y 3 . racines s 1 , s 2 , …, s n de S=0 sont toujours réelles, quelle que soit leurs multiplicités, et ne prouve par la même occasion que toute racine d'ordre p de S est une racine d'ordre supérieur ou égal à p-1 pour P 1i , l'expression (*) étant par conséquent toujours parfaitement définie ( 24 ). Le théorème de 1858 généralise la loi d'inertie selon laquelle, comme l'énonçait Hermite, une forme quadratique homogène à n variables A peut s'écrire comme une somme de carrés de la forme A=Δ n-1 X 1 ²+ 1 2 − − Δ Δ n n X 2 ²+…+ 1 Δ Δ X n ², où Δ, Δ 1 , Δ 2 , …, Δ n-1 , 1 sont les mineurs principaux successifs du déterminant de A. Comme le formule explicitement Darboux en 1874, cette loi se généralise aux couples (A, I) envisagés comme des formes quadratiques polynomiales A+sI, les quotients de mineurs successifs qu'elle met en oeuvre sont alors toujours définis car « si elle [l'équation caractéristique] a des racines multiples, une racine d'ordre p devra annuler tous les mineurs d'ordre p-1 de l'invariant » [Darboux 1874, p.367]. Le mémoire de Darboux, dont un extrait est donné en annexe 3, est publié dans le Journal de Mathématiques à la suite du mémoire de Jordan [1874] qui est au coeur de la controverse avec Kronecker ; les deux mémoires se complètent et tous deux concernent des théorèmes de Weierstrass, d'une part Jordan propose une nouvelle théorie des faisceaux de formes bilinéaires abordés par Weierstrass en 1868, d'autre part Darboux propose une nouvelle démonstration du résultat de 1858 sur les faisceaux de formes quadratiques ( 25 ). Déjà en germe dans le résultat de 1858 sur les formes quadratiques qui montre que la question essentielle n'est pas la multiplicité des racines mais les relations de divisibilité entre le déterminant caractéristique et ses mineurs successifs, le théorème des diviseurs élémentaires est considéré comme représentant une rupture dans l'histoire des raisonnements algébriques. Ce regard historique de Kronecker n'est pas indépendant de celui porté en 1977 par Hawkins sur l'histoire de la théorie spectrale des matrices. Dans ses travaux consacrés à l'origine de cette théorie, Hawkins a mis en évidence le rôle des catégories de généralité et de rigueur dans l'évolution de l'algèbre aux XVIII e et XIX e siècles. Dès l'origine des méthodes de l'analyse [chez Viète], l'importance de la valeur attribuée à ces méthodes était indissociable de leur généralité. Ainsi Viète présentait-il la nouvelle méthode de l'analyse comme « un art particulier, qui n'exerce plus sa raison par les nombres, ce qui se faisait auparavant par la nonchalance des anciens analystes, mais par une logistique des espèces […] » [Viète 1591, p.321-322]. […]. L'analyse devint une méthode pour raisonner en manipulant des expressions comportant des symboles prenant des valeurs « générales » et une tendance se développa à penser exclusivement en termes de cas « généraux » avec peu, ou aucune, attention pour les difficultés potentielles ou inexactitudes pouvant apparaître en assignant des valeurs particulières aux symboles. Je qualifierai de tels raisonnements basés sur des expressions « générales » de « raisonnements génériques ». Le traitement par Lagrange du théorème des axes principaux de la mécanique [1788] donne un exemple simple de raisonnement générique […]. Durant la première partie du XIX e siècle, certains mathématiciens, préoccupés par une élévation des critères de rigueur en analyse, remirent en cause la légitimité du raisonnement générique. Ainsi Cauchy, mettait-il en avant, dans sa préface des Cours d'analyse [1821], que le raisonnement mathématique ne devait pas se baser sur des arguments « tirés de la généralité de l'algèbre », arguments qui tendent « à faire attribuer aux formules algébriques une étendue indéfinie, tandis que […] la plupart de ces formules subsistent uniquement sous certaines conditions ». Weierstrass endossa le programme de Cauchy visant à rendre l'analyse plus rigoureuse. Les deux contributions à la théorie des matrices qu'il publia [1858,1868] étaient en effet une conséquence de ce programme et des insuffisances du raisonnement générique. [Hawkins 1977, p Le qualificatif de « générique », donné par Hawkins à un certain type de raisonnement qui ne se préoccupe pas de la signification des symboles, structure une histoire à long terme de l'algèbre, de son origine dans l'analyse de François Viète au développement d'exigences de rigueur dans les « raisonnements mathématiques » caractéristiques du XIX e siècle et personnifiés par des auteurs comme Cauchy et Weierstrass. Les travaux des auteurs du corpus de la discussion sont alors envisagés sous l'angle d'une opposition entre « raisonnement générique » et « rigueur » dans la manière d'appréhender la question des racines caractéristiques multiples. En raison de la nature bornée des solutions [des problèmes de petites oscillations], Lagrange et Laplace affirmaient que les racines caractéristiques λ devaient être réelles. Aucun des deux savants n'avait cependant poursuivi l'étude des solutions des systèmes d'équations différentielles avec suffisamment de soin pour justifier ses affirmations. S'ils n'avaient aucune difficulté à étudier les systèmes lorsque les racines caractéristiques étaient distinctes, leurs analyses du cas des racines multiples étaient inadéquates. Compte tenu de la tendance générique de leurs méthodes analytiques, il est déjà remarquable qu'ils aient mentionné ce cas de figure. […] La reconnaissance par Weierstrass du caractère discutable de leurs affirmations était à l'origine de la recherche qui allait culminer avec sa théorie des diviseurs élémentaires. [….] En [1868] et dans un mémoire préliminaire [1858], Weierstrass démontra plus que des théorèmes. Il démontra également la possibilité d'une approche plus rigoureuse de l'analyse algébrique qui ne se satisferait pas de la tendance dominante à raisonner vaguement dans le cadre du cas « général ». Le théorème des diviseurs élémentaires de Weierstrass est considéré comme représentant une rupture dans l'histoire des raisonnements algébriques par son caractère à la fois rigoureux, par opposition aux raisonnements génériques du passé, et homogène, par opposition à une perception des différents cas de multiplicité de racines comme autant de cas singuliers nécessitant des traitements spécifiques. Comme l'a montré Hawkins, cette rupture se manifeste notamment dans l'évolution des travaux de Kronecker. Dans un mémoire consacré aux fonctions thêta en 1866, ce dernier avait été amené à considérer l'occurrence de racines caractéristiques multiples comme un cas singulier nécessitant un traitement spécifique distinct de la méthode algébrique développée pour le « cas général ». Par son caractère homogène, le système complet d'invariant introduit par Weierstrass en 1868 démontre la possibilité de concilier une approche algébrique et un traitement général du problème. Il est à l'origine de nouveaux idéaux de généralité dans les raisonnements algébriques qui se manifestent notamment dans l'élaboration de la théorie des formes bilinéaires à Berlin et dans lesquels Hawkins voit une origine de la « théorie des matrices ». J'aimerais suggérer que, si un seul auteur devait mériter le titre de fondateur de la théorie des matrices, cet individu serait Weierstrass. […] Sa théorie des diviseurs élémentaires constitua un coeur théorique, une fondation sur laquelle bâtir. Son oeuvre démontra la possibilité d'employer les méthodes de l'analyse de manière non générique, ouvrant par là un nouveau monde à la recherche mathématique, un monde dont ses collèges et étudiants entreprirent l'exploration. […] L'émergence de la théorie [spectrale] des matrices était directement liée à la chute des approches génériques de l'analyse algébrique. [Ibid., p.157-159, traduction F.B.]. dans la résolution du problème des petites oscillations par Lagrange, Yvon-Villarceau ne critiquait pas le caractère générique d'un raisonnement mais une pratique donnant une représentation mécanique erronée à la nature algébrique des racines de l'équation caractéristique. La reconnaissance du contexte très particulier dans lequel Kronecker sanctionne les pratiques algébriques du passé ainsi que des regards différents portés par Yvon-Villarceau et Jordan sur ces mêmes pratiques nous amène à développer une approche complémentaire à celle suivie par Hawkins lorsqu'il avait mis en évidence le caractère générique de raisonnements algébriques en nous concentrant sur les différentes représentations associées à une même pratique algébrique dans divers cadres théoriques comme la mécanique, la géométrie ou l'arithmétique avant que cette pratique ne revête l'identité d'une méthode dans un cadre théorique unique comme celui de la théorie des formes bilinéaires. En 1874, la nature, algébrique ou arithmétique, d'une telle théorie oppose Jordan et Kronecker qui se réfèrent pourtant tous deux à un même corpus de travaux du passé dans lequel ils identifient une pratique spécifique qui leur est commune et consistant à aborder les transformations des couples de formes bilinéaires (A,B) par la décompositionalgébrique ou arithmétique-de la forme polynomiale de l'équation |A+sB|=0. Le fait que, à la suite de l'appel d'Yvon-Villarceau, Jordan résolve entre 1871 et 1872 des problèmes différents attachés à des auteurs du corpus comme Lagrange, Cauchy et Hermite indique qu'aux yeux de ce dernier le corpus manifeste une cohérence interne indépendante de l'identité théorique donnée par Weierstrass qui, dès 1858 concevait l'ensemble des problèmes du corpus comme relevant de la « théorie des couples de fonctions homogènes ». La deuxième partie de notre article sera consacrée à expliciter de tels éléments de cohérence interne qui font l'identité de notre corpus au-delà des cadres théoriques au travers desquels celui-ci se déploie sur plus d'un siècle, de son origine chez II. Les identités de la discussion sur l'équation des petites oscillations. L'intégration du système est basée sur le principe de réduction de l'ordre d'une équation différentielle par la connaissance de solutions particulières. Trouver n solutions particulières ξ=Esin(t K +ε) de nMaintenant l'équation d²ξ dt² +K ξ =0, donne par l'intégration ξ= Esin(t K +ε). E, ε étant des constantes arbitraires ; ainsi comme on a supposé ψ= fξ, φ= g ξ, &c, on a aussi les valeurs de ψ, φ, &c. Cette solution n'est que particulière, mais elle est en même temps double, triple, &c, selon le nombre des valeurs de K ; par conséquent en les joignant ensemble, on aura la solution générale […]. Dénotant par K', K'', K''', &c, les différentes valeurs de K, c'est-à-dire, les racines de l'équation en K […] ξ = E'sin(t K '+ε') + E''sin(t K ''+ε'') + E'''sin(t K '''+ε''') + &c, ψ = f'E'sin(t K '+ε') + f''E''sin(t K ''+ε'') + f'''E'''sin(t K '''+ε''') + &c, φ = g'E'sin(t K '+ε') + g''E''sin(t K ''+ε'') +g''' E'''sin(t K '''+ε''') + &c, &c, [Ibid., p.244]. Les valeurs de K apparaissent, par usage des méthodes d'élimination, comme les racines d'une équation résultante de degré n : Le nombre de ces équations est, comme l'on voit, égal à celui des inconnues f, g, &c, K ; par conséquent elles déterminent exactement ces inconnues ; & comme en retenant pour premier membre le terme K, le multipliant respectivement par le dénominateur du second, on a des équations linéaires en f, g, &c, il sera facile de les éliminer par les méthodes connues, & il n'est pas difficile de voir par les formules générales d'élimination, que la résultante en K sera d'un degré égal à celui des équations, & par conséquent égal à celui des équations différentielles proposées ; de sorte que l'on aura pour K un pareil nombre de différentes valeurs, dont chacune étant substituée dans les expressions de f, g, &c, donnera les valeurs correspondantes de ces quantités [Ibidem, p.245]. Le problème se ramène donc à la résolution d'une équation algébrique caractéristique du problème des petites oscillations. Pour Lagrange, la nature mécanique des oscillations, supposées petites dans le problème posé, implique en effet un caractère spécifique de la nature algébrique des racines de l'équation, celles-ci doivent être réelles et inégales : De là on tire une méthode générale pour voir si l'état d'équilibre d'un système quelconque donné de corps est stable, c'est-à-dire si, les corps étant infiniment peu dérangés de cet état, ils y reviendront d'eux-mêmes, ou au moins tendront à y revenir. […] 1° Si toutes les racines de cette équation sont réelles négatives et inégales, l'état d'équilibre sera stable en général, quel que soit le dérangement initial du système. Un problème considéré comme résolu par Lagrange pour la durée de la discussion. La « méthode générale » donnée par Lagrange pour caractériser la stabilité des systèmes mécaniques ne sera pas remise en cause avant la publication par Weierstrass, en 1858, d'un mémoire intitulé « Ueber ein die homogenen functionen zweiten grades betreffendes Theorem, nebst anwendung desselben auf die theorie der kleinen schwingungen ». [1871,1872]. Notre corpus ne peut donc pas se caractériser comme la résolution d'un problème. Comment un problème considéré comme résolu est-il à l'origine de la discussion mathématique que forme notre corpus ? Le caractère spécifique d'une équation algébrique. Comme nous le verrons plus en détail dans la troisième partie de cet article, le problème des petites oscillations apparait dans l'oeuvre de 2 ψ(x,y,z,…)= sz Soit maintenant (7) S=0 l'équation que fournira l'élimination des variables x , y , z , … entre les formules (6). Les m a x i ma e t mi ni ma de la fonction s=f(x,y,z ,..) ne pourront être que des racines de l'équation (7). D'ailleurs cette équation sera semblable à celle que l'on rencontre dans la théorie des inégalités séculaires des mouvements des planètes, et dont les racines, toutes réelles, jouissent 30 Si q est une forme quadratique et φ sa forme polaire alors dq x (y)=2φ(x,y). On peut déterminer un vecteur propre e de q par une recherche d'extremum sur la sphère unité S. Il suffit de démontrer qu'il existe e∈E tel que ⏐ ⏐ e ⏐ ⏐ =1, <e,x>=0 ⇒ φ(e,x)=0 (< > désigne le produit scalaire, ⏐ ⏐ ⏐ ⏐ la norme de l'espace euclidien). Soit la fonction f : 31 Hawkins a mis en évidence le rôle joué par Sturm dans la reconnaissance par Cauchy, entre 1826 et 1829, des analogies formelles portées par l'équation des petites oscillations. Les problèmes de conduction de la chaleur abordés par Sturm dans la tradition de Fourier conduisent à l'étude de systèmes d'équations différentielles linéaires semblables à ceux des petites oscillations. Sturm aborde la question de la multiplicité des racines des équations caractéristiques de ces systèmes en appliquant son théorème de dénombrement des racines réelles des équations. Voir à ce sujet, [Hawkins 1975, p E-{0}→R, x→ q(x)/ ⏐ ⏐ x ⏐ ⏐ . Comme S est compact, f/S admet un maximum atteint en un point e tel que q ( e )=1 et df e1 =0. Mais dq x (y)=2φ(x,y) donc df e1 (x)=0 ⇔ 2<e,x>-2q(e)φ(e,x)=0. On a bien <e,x>=0 ⇒ φ(e,x)=0.(K) -ddx = [ px l - M.P m ( y L - x l )] dt² & -ddy = [ yP L . M+ m m - x L .(p+ M.P m )]dt² (N). [d'Alembert 1758, p.139-142]. Sous la simplification M=m, l=L, notant T le temps pendant lequel la force accélératrice fait parcourir au corps un espace d'une unité, les équations du mouvement sont les suivantes : • Les coefficients en miroirs des systèmes obtenus par un emploi de la méthode des coefficients indéterminés. Le système différentiel des petites oscillations est d'ordre 2. Lagrange considère un système de n solutions particulières de la forme λe ρt dt, où λ et ρ sont des « constantes indéterminées » permettant de réduire l'ordre du système. Les n équations sont ramenées en une seule par Le changement de variable : u = x 1 +x 2 et v = x 1 -x 2 donne les deux équations indépendantes : md²u/dt² = -k 0 u md²v/dt² = -k 0 v-2kv Les solutions u=acosω't et v=acosω''t peuvent s'interpréter comme deux oscillateurs indépendants, tandis que les solutions du système feront apparaître un phénomène de battement : (P) - ddx = (2x-y). 2dt² T² , & (Q)-ddy= (2y-2x) 2dt² T² .md²x 1 /dt² = -k 0 x 1 -k(x 1 -x 2 ) md²x 2 /dt² = -k 0 x 2 -k(x 2 -x 1 ) […] multipliant la 1 ere par du, on a l'intégrale du² A A-u u = dt T 4-2 2 ,= + + + + + 0 ... ' ' ' ' ' ' ... 0 ' ' ' ... ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' 0 ' ' ... ' ' ' ' ' ' ' ' ' ' ' ' ' ' 0 ' ... ' ' ' ' ' ' ' ' ' ' ) ( ) ( ) ( ) ( ) ( ) ( 2 )( 2 ) x 1 = (a/2) (cos ω't + cos ω''t) vérifiée pour ρ et -ρ, sommer les équations intégrales obtenues pour ces valeurs opposées permet d'écrire la relation : x 2 = (a/2) (cos ω't -cos ω''t)= + + + + + , 0 ... ' ' ' ' ' ' ' ' ' ' ' ' ... , 0 ... ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' , 0 ... ' ' ' ' ' ' ' ' ' ' ' ' ' ' , 0 ... ' ' ' ' ' ' ' ' ' ' ' ' ' ) ( ) ( ) ( ) ( 2 ) ( ) ( 2 ) ( ) ( 2 ) ( ) ( 2 n n n n n n n n n N N N N C C C C B B B B A A A A c λ λ λ λ λ ρ λ λ λ λ λ ρ λ λ λ λ λ ρ λ λ λ λ λ ρλ' dy′ dt + λ'' dy″ dt + λ''' dy″′ dt +…+ λ (n) dy (n ) dt -ρ [λ'y ' -λ''y' '-… -λ (n) y (n) ] = [ λ'V' + λ''V'' + λ'''V''' + …. + λ (n) V (n) -ρ ( λ'Y' + λ''Y'' + … + λ (n) Y (n) ) ] e -= + + 0 ' ' ' ' ' ' ' ' ' 0 ' ' ' ' ' ' 2 2 2 2 y B y A dt y d y B y A dt y d donne l'équation 0 ) ' ' ' ' ' ' ' ' ' ( ' ' ) ' ' ' ' ' ' (λ'y' + λ''y'' + … +λ (n) y (n) = [λ'Y' + λ''Y'' +… + λ (n) Y (n) ] e ρ t +e −ρ t 2 +[λ'V' + λ''V'' + λ'''V''' + …. + λ (n) V (n) ] e ρ t −e −ρ t2ρ Lagrange note θ le membre de droite qui exprime les conditions initiales (Y) et (V) dans le système de variables (λ), θ= [λ'Y'+λ''Y''+…+λ (n) Y (n) ] e ρ t +e −ρ t 2 +[λ'V' + λ''V''+λ'''V'''+….+λ (n) V (n) ] e ρ t −e −ρ t 2ρ Le système (c) associe aux n valeurs de l'indéterminée ρ², c'est-à-dire aux n racines ρ 1 2 , ρ 2 2 , ρ 3 2 , …, n systèmes de valeurs (λ' 1 , λ'' 1 , …, λ (n) 1 ), (λ' 2 , λ'' 2 , …, λ (n) 2 ) , …., (λ' n , λ'' n , …, λ (n) n ) des coefficients des solutions particulières et n valeurs correspondantes des conditions initiales θ 1 , θ 2 ,…( 37 ). Déterminer les solutions aux conditions initiales revient alors à résoudre le système suivant afin d'exprimer les y en fonction des (λ i ) et (θ i ): λ' 1 y' + λ'' 1 y'' + …. + λ (n) 1 y (n) = θ 1 , λ' 2 y' + λ'' 2 y' '+ …. + λ (n) 2 y (n) = θ 2 , …… λ' n y' + λ'' n y'' + …. + λ (n) n y (n) = θ n , • Une première application de la méthode des coefficients indéterminés. L'expression donnée à la solution y (s) par la formule (e) ne satisfait pas Lagrange car les primes et les indices se trouvent mélangés et les coefficients présents au dénominateur n'ont donc pas de signification par rapport au problème considéré. Comme l'illustre le tableau suivant qui représente l'affectation des λ i (j) aux racines ρ i , le dénominateur de la formule (e) mêle λ 1 s , le s e coefficient associé à ρ 1 à λ 2 s le s e coefficient associé à ρ 2 etc. Les indices de λ (s) sont à l'endroit où l'on attendrait des primes de λ s ( 39 ). 37 En des termes qui nous sont contemporains : les coefficients θ expriment les vecteurs conditions initiales Y dans la base de vecteurs propres (λ) de la matrice associée au système (a) : Θ = ΛY . 38 La méthode des coefficients indéterminés s'interprèterait aujourd'hui comme une recherche de la solution y (s) par des combinaisons sur les lignes annulant les coefficients des autres inconnues. Le système (f) donne les conditions sur les coefficients indéterminées (μ), c'est-à-dire les combinaisons à effectuer sur les lignes afin d'isoler y (s) . La solution (y (s) ) donnée par l'équation (e) est analogue à celle exprimée par la règle de Cramer comme quotient de deux déterminants. L'emploi de déterminants pour exprimer la méthode de Lagrange sera d'abord effectué par [Laplace 1775], le rôle joué par les déterminant sera discuté dans la suite de ce travail lorsque sera abordée la méthode de [Cauchy 1829]. 39 (λ 1 ',…, λ 1 (n) ) est un système de cordonnées du vecteur propre de ρ 1 ². λ 1 (i) est la i e coordonnée du vecteur propre. La méthode de l'élimination appliquée au système (c) conduit à des relations que l'on interpréterait aujourd'hui comme des conditions d'orthogonalités duales. Si les (λ i ) sont les vecteurs propres de A alors les (ν m ) sont construit comme appartenant à l'orthogonal de l'hyperplan (λ 1 , λ 2 , …, λ m-1 , λ m+1 , …,λ n ) et sont dont les vecteurs propres de la matrice t A . (f) μ'λ' 1 + μ''λ' 2 +….+ μ (n) λ' n =0, μ'λ'' 1 + μ''λ'' 2 +….+ μ (n) λ' n =0, …. μ'λ 1 (n) + μ''λ (n) 2 +….+μ (n) λ' n(ρ 1 2 ρ 2 2 … ρ n 2 (λ' 1 , λ'' 1 , …, λ (n) 1 ) (λ' 2 , λ'' 2 , …, λ (n) 2 ) … (λ' n , λ'' n , …, λ (n) n ) θ 1 θ 2 … θ n La méthode des coefficients indéterminés inverse les primes et les indices, Lagrange recourt donc à un second emploi de cette méthode sur le système (f) afin de rétablir l'ordre désiré entre primes et indices. • Une seconde application de la méthode des coefficients indéterminés. Le système comprend n équations, dont n-1 de seconds membres nuls (les équations f), et une de second membre non nul (e). Supposons que l'on ait en général μ'λ' 1 + μ''λ' 2 +….+ μ (n) λ' n =Δ' μ'λ'' 1 + μ''λ'' 2 +….+ μ (n) λ' n =Δ'' …. μ'λ 1 (n) + μ''λ (n) 2 +….+μ (n) λ' n (n) =Δ (n) , et qu'il faille trouver la valeur d'une μ quelconque comme μ (m) . On multipliera ces équations par des coefficients indéterminés ν', ν'', ν''',…,ν (n) , et, après les avoir ajoutées ensemble, on fera les coefficients des quantités μ', μ'', μ''',… chacun égal à zéro, excepté celui de la quantité μ (m) ; de cette manière on aura L'équation algébrique P=0 permet par conséquent de déterminer les coefficients ν directement à partir du système (a) sans nécessiter le double emploi de la méthode des coefficients indéterminés. (g) , ... ' ' ' ' ' ' ' ' ' ' ' ' ... ' ' ' ' ' ' ' ' ' ' ' ' ) ( ) ( ) ( ) ( ) ( n m n m m m n n m λ ν λ ν λ ν λ ν ν ν ν ν μ + + + + Δ + + Δ + Δ + Δ = et la détermination des quantités ν', ν'', ν''',… dépendra de cette condition que (h) ν' m λ' + ν' m 'λ'' + … + ν(n) m λ(n) = 0 lorsque ρ = ρ 1 , ρ 2 , ρ 3 , …,= + + + + + , 0 ... ' ' ' ' ' ' ' ' ' ' ' ' ... , 0 ... ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' , 0 ... ' ' ' ' ' ' ' ' ' ' ' ' ' ' , 0 ... ' ' ' ' ' ' ' ' ' ' ' ' ' ) ( ) ( ) ( ) ( 2 ) ( ) ( 2 ) ( ) ( 2 ) ( ) ( 2 n n n n n n n n n N N N N C C C C B B B B A A A A c λ λ λ λ λ ρ λ λ λ λ λ ρ λ λ λ λ λ ρ λ λ λ λ λ ρ ↔ ⎪ ⎪ ⎪ ⎩ ⎪ ⎪ ⎪ ⎨ ⎧ = + + + + + + + + + + + + + + + + + + + + + + + , 0 ] ... ' ' ' ' ' ' [ ... ' ' ' ] ' ' ' ... ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' [ ' ' ] ' ' ... ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' [ ' ] ... ' ' ' ' ' ' ' ' ' ' [ ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( 2 ) ( 2 ) ( 2 ) ( ) ( 2 n n n n n n n n n n n N C B A N C B A N C B A N C B A i λ υ υ υ υ υ ρ λ υ υ υ υ λ ρ λ υ υ υ υ λ ρ λ υ υ υ υ υ ρ ⎪ ⎪ ⎪ ⎩ ⎪ ⎪ ⎪ ⎨ ⎧ = + + + + + = + + + + + = + + + + + = + + + + + , 0 ... ' ' ' ' ' ' ... , 0 ' ' ' ... ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' , 0 ' ' ... ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' , 0 ... ' ' ' ' ' ' ' ' ' ' ) ( ) ( ) ( ) ( ) ( ) ( ) ( 2 ) ( 2 ) ( 2 ) ( ) ( 2− = + + + + , ... ' ' ' ' ' ' ... , ' ' ' ' ' ' ... ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' , ' ' ' ' ... ' ' ' ' ' ' ' ' ' ' ' ' ' , ' ... ' ' ' ' ' ' ' ' ' ) ( 2 ) ( ) ( ) ( ) ( ) ( 2 ) ( 2 ) ( 2 ) ( ) (N C B A N C B A N C B A N C B A υ ρ υ υ υ υ υ ρ υ υ υ υ υ ρ υ υ υ υ υ ρ υ υ υ υ et l'équation (i) deviendra (ρ²-ρ² m ) [ν' λ'+ν'' λ''+ν''λ'''+…. + ν (n) λ (n) ] =0 laquelle devra être vraie pour toutes les valeurs de ρ qui satisfont aux équations (e), d'où celle-ci est tirée, on aura en général L'expression Q m ν' m λ'+…+ν m (n) λ (n) qui permet, via la condition (h) de déterminer les μ s'obtient par conséquent en factorisant l'équation algébrique P=0 par ρ-ρ m ( 41 ). Il est alors possible d'exprimer la solution aux conditions initiales y (s) directement à l'aide de l'équation des petites oscillations ( 42 ): La résolution nécessite la détermination des indéterminés ν, de l'équation P=0, de ses racines ρ et de ses facteurs Q m . Dans ce cas particulier, Lagrange remarque que les (λ) et les (ν) coïncident car les systèmes (c) et (k) sont identiques : « à l'égard des quantités ν, on les trouvera de la même manière » que les quantités λ. Les coefficients du système (c), disposés en miroirs, ne sont pas affectés par le jeu sur les primes et les indices. La seule détermination de l'équation P=0 permet donc la résolution générale du système : [ν' λ'+ν'' λ''+ν''λ'''+…. + ν (n) λ (n) ]=0, lorsque ρ= ρ 1 , ρ 2 ,y (s) = ν 1 (s) Q 1 θ 1 + ν 2 (s) Q 2 θ 2 + …+ ν n(λ'' = (1+aρ²)λ'' λ'''= -λ′+(3+ Le caractère spécifique de la pratique de Lagrange et les rapports remarquables des systèmes mécaniques. Nous avons vu Lagrange mettre en oeuvre un double emploi de la méthode des coefficients indéterminés pour finalement s'affranchir de cette méthode en exprimant les solutions aux conditions initiales directement à partir de l'équation des petites oscillations. Le processus algébrique original élaboré par Lagrange exploite le jeu sur les primes et les indices impliqué par chaque introduction d'un jeu de coefficients indéterminés. Il permet de constater l'identité des équations associées à deux systèmes dont les coefficients sont en miroirs : ⎪ ⎪ ⎪ ⎩ ⎪ ⎪ ⎪ ⎨ ⎧ = + + + + + = + + + + + = + + + + + = + + + + + , 0 ... ' ' ' ' ' ' ' ' ' ' ' ' ... , 0 ... ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' , 0 ... ' ' ' ' ' ' ' ' ' ' ' ' ' ' , 0 ... ' ' ' ' ' ' ' ' ' ' ' ' ' ) ( ) ( ) ( ) ( 2 ) ( ) ( 2 ) ( ) ( 2 ) ( ) ( 2 n n n n n n n n n N N N N C C C C B B B B A A A A c λ λ λ λ λ ρ λ λ λ λ λ ρ λ λ λ λ λ ρ λ λ λ λ λ ρ ↔ ⎪ ⎪ ⎪ ⎩ ⎪ ⎪ ⎪ ⎨ ⎧ = + + + + + + + + + + + + + + + + + + + + + + + , 0 ] ... ' ' ' ' ' ' [ ... ' ' ' ] ' ' ' ... ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' [ ' ' ] ' ' ... ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' [ ' ] ... ' ' ' ' ' ' ' ' ' ' [ ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( 2 ) ( 2 ) ( 2 ) ( ) ( 2 n n n n n n n n n n n N C B A N C B A N C B A N C B A i λ υ υ υ υ υ ρ λ υ υ υ υ λ ρ λ υ υ υ υ λ ρ λ υ υ υ υ υ ρ Dans le cas particulier des « oscillations d'un fil fixe par une de ses extrémités », Lagrange montre que le jeu sur les primes et les indices des coefficients n'affecte pas le système obtenu. Le procédé élaboré pour résoudre le problème des petites oscillations met alors en évidence une propriété des systèmes de la mécanique, la disposition en miroirs des coefficients que Laplace désignera plus tard comme les « rapports remarquables » des systèmes linéaires et dont Lagrange va démontrer qu'elle découle des principes de la dynamique et de la statique. Dans la citation ci-dessous, le terme (i,j) provient du développement de Taylor à l'ordre 2 de l'énergie cinétique et [i,j] de celui de l'énergie potentielle. La pratique élaborée par Lagrange pour la résolution du problème des petites oscillations est spécifique par la manière dont elle s'affranchit du recours à la méthode des coefficients indéterminés en exprimant les solutions des systèmes linéaires par les décompositions polynomiales d'une équation particulière, l'équation des petites oscillations. La disposition en miroirs des coefficients des systèmes mécaniques s'avère indissociable du caractère spécifique de l'équation des petites oscillations dès l'origine. Nous allons à présent questionner l'héritage de la pratique élaborée par Lagrange au sein de la discussion sur l'équation des petites oscillations, des travaux de d'Alembert à ceux de Weierstrass (1858). Cette représentation mécanique induit une pratique algébrique consistant à ramener l'intégration d'un système de n équations différentielles linéaires à coefficients constants à celle de n équations indépendantes intégrables séparément. Lorsque, comme nous l'avons vu, Lagrange fait usage de sa méthode de réduction de l'ordre d'une équation différentielle dont des solutions particulières sont connues, les solutions particulières ξ= Esin(t K +ε) représentent les oscillations des pendules simples dont la composition mathématique permet d'écrire la solution « générale » du problème. La généralisation impliquée par le passage du problème de d'Alembert, limité à deux ou trois masses, au problème « général » de n masses, pose cependant de nouvelles questions : l'équation algébrique, « P=0 », à laquelle l'intégration du système différentiel est ramenée, est de degré n, elle ne peut donc pas être résolue algébriquement « en général », contrairement aux équations particulières obtenues pour deux ou trois masses. Or le bon usage de la méthode nécessite l'obtention de racines toutes inégales correspondant aux n solutions indépendantes ξ=Esin(t K +ε). Cette difficulté propre à la généralité du problème posé par Lagrange est à l'origine d'une discussion qualitative sur la nature des racines de l'équation des petites oscillations. Le problème mécanique considéré attend en effet une conclusion qualitative sur la nature des oscillations, ces dernières restent-elles bornées ou s'amplifient-elles sans limite ? La représentation mécanique sous jacente à la méthode algébrique associant les racines de l'équation P=0 aux périodes des petites oscillations, la stabilité du système est associée à la nature des racines : le système est stable, les oscillations bornées, à condition que les racines soient réelles, négatives et inégales ( 45 Chez Lagrange comme chez d'Alembert, l'occurrence d'une racine multiple est interprétée comme engendrant une solution de la forme P(t)e δt , P(t) contenant des puissances de l'arc t d'un degré égal à la multiplicité de la racine. La discussion aboutit à une conclusion homogène qui qualifie les solutions associées aux racines imaginaires comme aux racines multiples de mécaniquement incorrectes car impliquant des oscillations croissantes à l'infini ( 47 ). Si le système mécanique est stable alors les racines de l'équation algébrique associée sont réelles, négatives et inégales. L'« artifice particulier » évoqué par Lagrange est construit par Laplace qui, dans une suite de mémoires publiés dans les années 1770-1780, se propose de donner une méthode permettant de prévoir les positions des corps célestes pour une durée « extrêmement longue » ( 50 ). = + + + + + 0 ... ' ' ' ' ' ' ... 0 ' ' ' ... ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' 0 ' ' ... ' ' ' ' ' ' ' ' ' ' ' ' ' ' 0 ' ... ' ' ' ' ' ' ' ' ' ' ) ( ) ( ) ( ) ( ) ( ) ( 2 )( 2 ) IV. La discussion sur les racines de l'équation des petites oscillations (1766-1858 Ces valeurs ne peuvent servir que pour un temps limité, après lequel, les excentricités devenant fort grandes, la supposition qu'elles sont peu considérables et d'après laquelle elles ont été trouvées cesse d'être exacte; on ne peut donc étendre à un temps quelconque les résultats obtenus dans cette supposition, qu'autant que l'on est assuré que les racines de l'équation (k) sont toutes réelles et inégales ; mais il serait très difficile d'y parvenir par la considération directe de cette équation. [ Laplace 1776, p.464] L'idéal déterministe de Laplace donne une nouvelle importance à la question de la stabilité du système du monde qu'il s'agit de démontrer en « dehors toute hypothèse » numérique sur la masse des planètes. La réalité et l'inégalité des racines de l'équation des inégalités séculaires des planètes est démontrée par Laplace au moyen de l'« artifice particulier » consistant à représenter la stabilité physique, la constance du moment cinétique, par une condition algébrique sur les coefficients du système différentiel. En 1789, Laplace démontre à l'aide des seuls « rapports remarquables » des coefficients disposés en miroirs dans les systèmes mécaniques que l'occurrence de solutions instables est contradictoire à cette condition ( 51 ). La démonstration de Laplace semble clore la discussion engagée par d'Alembert et Lagrange sur la nature des racines de l'équation des petites oscillations et, dans le cadre de la mécanique, la discussion sur la stabilité se développera essentiellement par la prise en compte des termes non linéaires dans la mathématisation des inégalités séculaires des planètes. Comme nous allons le voir en abordant les travaux de Cauchy, avant la remise en cause des conclusions de Lagrange sur la relation entre multiplicité des racines et stabilité du système par Weierstrass en 1858 puis Yvon-Villarceau en 1870, la poursuite de la discussion passera par la géométrie analytique et impliquera une disparition des représentations mécaniques associées à la pratique algébrique élaborée par Lagrange. La discussion dans un cadre géométrique chez Cauchy. La discussion des petites oscillations change de nature lorsque, en 1829, la représentation mécanique sous-jacente est supplantée par une représentation issue de la géométrie analytique ( 52 ). Malgré l'objet annoncé par son titre, « Sur l'équation à l'aide de laquelle on détermine les inégalités séculaires des planètes », le mémoire de Cauchy ne porte pas sur un sujet mécanique mais s'insère dans un ensemble de travaux sur la classification des surfaces du second degré motivés, d'une part, par la charge d'enseignement de géométrie analytique à l'Ecole Polytechnique et, d'autre part, par le développement de la théorie de l'élasticité à partir des recherches de Fresnel sur la double réfraction de la lumière ( 53 ). Le mémoire de 1829 est annoncé, trois ans avant sa publication, par une note à l'Académie des sciences dont ni l'intitulé, « Mémoire sur l'équation qui a pour racines les moments d'inertie x, y, z,…, on peut toujours leur substituer d'autres variables ξ, η, ζ, …liées à x, y, z, … par des équations linéaires tellement choisies que la somme des carrés de x, y, z, … soit équivalente à la somme des carrés de ξ, η, ζ, … , et que la fonction donnée de x, y, z… se transforme en une fonction de ξ, η, ζ,… homogène et du second degré mais qui renferme seulement les carrés de ξ, η, ζ,… […] dans le cas particulier où les variables x, y, z, sont au nombre de trois seulement, l'équation (7) se réduit à celle qui se représente dans diverses questions de Géométrie et de Mécanique, par exemple, dans la théorie des moments d'inertie ; et le théorème I fournit les règles que j'ai données dans le III e volume des E xe rci ce s comme propres à déterminer les limites des racines de cette équation. Alors aussi les équations (22) sont semblables à celles qui existent entre les cosinus des angles que forment trois axes rectangulaires quelconques avec les axes coordonnés, supposés eux-mêmes rectangulaires, et le théorème II correspond à une proposition de Géométrie, savoir que, par le centre d'une surface, on peut mener trois plans perpendiculaires l'un à l'autre, et dont chacun la divise en deux parties symétriques. [Cauchy 1829, p.20]. Comme nous l'avons vu dans la deuxième partie de cet article, le problème est formulé par Cauchy comme celui de la recherche des extremums d'une « fonction réelle homogène et du second degré s = f(x,y,z,….) […] si l'on assujettit ces variables à l'équation de condition x²+y²+z² + …. = 1 » 54 Les axes principaux sont les vecteurs propres des matrices associées aux formes quadratiques dans une base orthonormée. 55 Pour la physique contemporaine, le théorème des axes principaux d'un solide en rotation revient à énoncer que le mouvement de l'oscillateur spatial se décompose en trois oscillateurs harmoniques indépendants par projection sur trois axes. [ Cauchy 1829, p.176] ( 56 ). Par les considérations développées dans les Leçons sur le Calcul infinitésimal, les conditions sur les dérivées partielles de s se traduisent par la résolution d'un système linéaire dont l'équation algébrique S=0 associée est définie comme « une fonction alternée » (un déterminant) des quantités « comprises dans le Tableau » ( 57 ): En opérant ainsi, on trouvera, par exemple, pour n=2, (s 2 -s 1 )x 1 x 2 + A xy (x 2 y 2 -x 1 y 2 )+A xz (x 2 z 1 -x 1 z 2 )+…=0. (12) S=(A xx -s)(A yy -s)-A xy ²;pour n=3, (13) S=(A xx -s)(A yy -s)(A zz -s)-A yz ²(A xx -s)-A xz ²(A yy -s)-A xy ²(A zz -s)+2A xy A xz A xy (y 2 x 1 -y 1 x 2 )+(s 2 -s 1 )y 1 y 2 + A yz (y 2 z 1 -y 1 z 2 )+…=0. […] etc. Enfin, si l'on ajoute membre à membre les équations (17), (18), (19), etc., on trouvera (20) (x 1 x 2 +y 1 y 2 +z 1 z 2 +…)(s 2 -s 1 )=0. Donc, toutes les fois que les racines s 1 ,s 2 seront inégales entre elles, on aura (21) x 1 x 2 +y 1 y 2 +z 1 z 2 +…=0 ; (i) ⎪ ⎪ ⎪ ⎪ ⎪ ⎭ ⎪ ⎪ ⎪ ⎪ ⎪ ⎬ ⎫ ⎪ ⎪ ⎪ ⎪ ⎪ ⎩ ⎪ ⎪ ⎪) ( ) ( ' ' ' ' ' ' ) ( 1 ) ( ' ' 1 ' ' ' 1 ' ) ( ) ( ' ' ' ' ' ' ) ( 1 ) ( ' ' 1 ' ' ' 1 ' ) ( 2 ) ( ' ' 2 ' ' ' 2 ' ) ( 1 ) ( ' ' 1 ' ' ' 1x z z y y x x z z y y x x z z y y x x z y x z z y y x x z z y y x x z z y y x x z y x Les racines, s 1 , s 2 , …,s n de l'équation S=0 permettent d'exprimer l'équation de la surface dans le repère formé de ses axes principaux, s 1 x 1 ²+s 2 x 2 ²+…+s n x n ²=0. Les systèmes (x i , y i , z i , …) correspondants aux racines s i de l'équation P=0 représentent alors les coordonnées d'axes orthonormés. La pratique algébrique mise en oeuvre par Cauchy est indissociable d'une 56 C'est-à-dire la recherche des extremums de la fonction sur sur ce que nous désignerions comme la sphère unité de Ë n . 57 A propos du mémoire de 1815 de représentation d'orthogonalité issue de la géométrie analytique et, lorsque ce dernier généralise sa méthode de recherche d'axes principaux à n variables, il interprète les procédés algébriques de la méthode des coefficients indéterminées de Lagrange comme portant sur des changements d'axes orthogonaux ( 58 ). Nous avons détaillé dans la troisième partie de cet article le caractère spécifique du rôle donné par Lagrange à l'équation algébrique S=0 dans l'expression des oscillations λ i e ρt du système mécanique des petites oscillations, le coefficient ρ étant une racine de l'équation S=0 et λ un polynôme en ρ obtenu par une factorisation d'une équation identique, à un facteur multiplicatif près, à l'équation S=0 : (ρ²-ρ² m ) [ν'λ'+ν''λ''+ν'''λ'''+…. + ν (n) λ (n) ]=0, L'expression Q m =ν'λ'+ν''λ''+ν'''λ'''+…. + ν (n) λ (n) s'identifiait à la factorisation de S=0 par l'expression ρ²-ρ² m , c'est-à-dire à la valeur de S/(s-s m ) pour s=s m et permettait la formulation des oscillations (y (s) ) du système mécanique à partir de la seule donnée de l'équation S=0. Cauchy reformule les expressions de Lagrange par des relations d'orthogonalité euclidienne et des extractions de sous déterminant P xy du système (10) : Soit maintenant R ce que devient la fonction S, lorsque, dans le Tableau (11), on supprime tous les termes appartenant à la première colonne horizontale, ainsi qu'à la première colonne verticale ; et Q ce que devient la même fonction, quand on supprime, en outre, les termes renfermés dans les deuxièmes colonnes horizontale et verticale. Enfin, désignons par P uv ce que devient S, lorsque l'on supprime dans le Tableau (11) les termes qui appartiennent à la même colonne horizontale que le binôme A uu -s avec ceux qui appartiennent à la même colonne verticale que usage du calcul des « fonctions alternées » analogue à celui que nous avons vu à l'oeuvre dans la reformulation par Cauchy des procédés de Lagrange. La question de la nature des racines de l'équation S=0 se pose alors de façon nouvelle. L'écriture d'une fonction homogène de n variables comme somme de carrés, nécessite l'utilisation de formules de changements d'axes (28) dans lesquelles le terme de droite peut donner « une forme 0/0 » en cas d'occurrence de racine multiple dans l'équation caractéristique S=0 ce qui se formule, dans le calcul des fonctions alternés, comme l'occurrence d'une racine commune s i entre l'équation S=0 et l'une des équations R=0, Q=0, associées aux sous déterminant X i extraits du système S. Pour une racine double par exemple, le facteur (s-s 1 )² dans l'expression de S ne serait pas compensé par les facteurs (s-s 1 ) du mineur X i et l'expression méthodes développées pour le traitement de problèmes de physique mathématique comme ceux qui étaient à l'origine de la discussion des petites oscillations et auxquels le calcul de résidus donne une résolution homogène ( 63 ). Le qualificatif homogène s'oppose ici aux cas singuliers qui « encombrent » les méthodes de l'algèbre en limitant l'« étendue » de la « subsistance » des formules algébriques. Le renouvellement de la signification de la généralité qui accompagne cette exigence d'homogénéité, va porter la discussion des petites oscillations de Cauchy à Weierstrass, en passant par Carl Jacobi, Sylvester, Johann Dirichlet,Carl Borchardt et Hermite ( 64 ). Y X Z z Y y X x Z Y X Z z Y y X x Z Y X Z z Y y X x [Ibid.]. La discussion de Weierstrass sur la transformation des couples de fonctions homogènes. Comme nous l'avons déjà mentionné, la propriété énoncée par Lagrange en 1766 sur la relation entre la stabilité des systèmes mécaniques et la nature des racines de l'équation des petites oscillations ne sera pas contestée avant la parution, à près d'un siècle de distance, d'un mémoire de Weierstrass sur les couples de fonctions homogènes du second degré ( 65 ): La nature des racines caractéristiques n'intervient pas dans cet énoncé qui donne donc une résolution à la fois homogène et algébrique des différents problèmes abordés par Lagrange, Laplace et Cauchy, désormais insérés dans une même théorie des couples de fonctions homogènes. Quelle que soit la multiplicité des racines de l'équation caractéristique f(s)=0, la stabilité mécanique du système des petites oscillations et la possibilité de transformer les équations des surfaces du second degré en sommes de carrés par des changement d'axes orthogonaux sont assurées par la présence d'une « circonstance remarquable » (« bemerkenswerther ») propre aux fonctions Φ définies positives (ou négatives) et selon laquelle une racine s i de multiplicité μ-1 de toutes les équations obtenues par les mineurs f(s) αβ =0, sera nécessairement une racine de multiplicité μ de l'équation f(s)=0. Nous [Le problème] a été complètement résolu par Cauchy, Jacobi etc. pour le cas où l'on ne trouve aucune grandeur égale parmi s 1 , s 2 , ..., s n .. Il n'est pas encore résolu en revanche dans les circonstances exceptionnelles où les racines de l'équation f(s)= 0 ne sont pas différentes l'une de 63 Cette évolution des méthodes de Cauchy a été mise en évidence par A. Dahan Dalmedico pour le cas de la théorie de l'élasticité : à une première approche des années 1820-1830, basée sur une représentation géométrique des ellipsoïdes de pressions, succède une seconde méthode, basée sur un point de vue moléculaire, et développée par Cauchy à partir de 1839. « Dans le cadre de la deuxième théorie moléculaire de Cauchy, l'appareil conceptuel qui avait favorisé la figuration géométrique des pressions et des déformations locales, en particulier par le biais des quadriques de pressions et de déformations est quelque peu perdu de vue » [Dahan Dalmedico 1992, p.285], « le calcul des résidus et le calcul symbolique sur les opérateurs différentiels prend une place prédominante » [Ibidem, p. 211]. 64 Nous renvoyons pour ces différents développements de la discussion à l'étude détaillée de [Hawkins 1977] qui a notamment émis l'hypothèse qu'un mémoire de Borchardt [1846], pourrait être à l'origine de l'intérêt de Weierstrass pour la question. Hawkins fait référence à une lettre de Weierstrass, citée par Dugac [1972, p.158] mettant en évidence la relation privilégiée entre les deux hommes dans les années 1850. 65 Hawkins [1977] a suggéré que l'attention de Weierstrass sur la question de la stabilité des systèmes mécaniques pourrait avoir été suscitée par un article de Dirichlet [1846], publié en appendice à la troisième édition de la mécanique analytique [1853], qui reprend la démonstration de Lagrange selon lequel un état d'équilibre d'un système est stable si la fonction de potentiel V y atteint un minimum strict. l'autre, la difficulté qui se présente alors aurait déjà du être éclaircie et je propose de l'examiner attentivement plus en détail. Je ne pensais pas initialement qu'une solution serait possible sans des discussions spécifiques aux nombreux cas différents qui peuvent se produire. Il me fallait espérer que la résolution du problème soit susceptible d'une méthode indifférente à la multiplicité des grandeurs s 1 , s 2 , ..., s n . [Ibidem, p. 233, traduction F.B.]. Le succès de Weierstrass à élaborer « une méthode indifférente à la multiplicité des grandeurs s 1 , s 2 , ..., s n » tient à l'expression qu'il donne au problème comme relevant d'une question de « transformation » d'une paire de fonctions Φ, Ψ et qui sous tend une pratique qui combine les variables x i , y i en « formes » linéaires. Partant de l'écriture du couple de formes sΦ-Ψ, Weierstrass exprime les variables x α par les formes linéaires Φ α de manière à représenter l'écriture de Φ et Ψ comme combinaison linéaire des formes quadratiques Φ α Φ β ( 66 ) : On pose, si α, β, γ, sont des nombres appartenant à 1,2,…, n 1 2 dΦ dxα = Φα, 1 2 δΨ δxα = Ψ α [...] (5) Φ= Σ α Φ α x α Ψ = Σ α Ψ α x α , […] et si on sort x 1 ,x 2 , ,..x n de sΦ 1 -Ψ 1 , sΦ 2 -Ψ 2 ,…, sΦ n -Ψ n On obtient : (1) x α = Σ β { f(s) αβ f(s) (sΦ β -Ψ β ) } où f(s) αβ est une fonction entière de degré inférieur au (n-1) s […] ( 2) f(s) αβ = f(s) βα [Ibid., traduction F.B.]. La variable x α ne contenant pas de puissance de s, un développement « en puissances décroissantes » de l'expression Σ β { f(s) αβ f(s) (sΦ β -Ψ β ) } présente uniquement un terme constant. D'un autre côté, le développement de f( s) αβ f( s) ne contient que des termes de degré inférieurs à s -1 car deg(f(s))= n (le déterminant de Φ n'est pas nul). Ne peuvent donc subsister dans le développement que des termes provenant du développement de sΦ β (la notation […] s-1 représente le coefficient de s -1 dans le développement) : (3) x α =Σ β [ f(s) αβ f(s) ] s-1 Φ β et comme les coefficients de s -1 disparaissent : (4) Σ[f f(s) αβ f(s) s-1 Ψ β = Σ[s f(s) αβ f(s) ] s-1 Φ β Ces deux identités, combinées à (4) et (2) permettent d'écrire : (6) Φ = Σ [ f(s) αβ f(s) )] s-1 Φ α Φ β , (7) Ψ = Σ [ f(s) αβ f(s) ] s-1 Ψ α Φ β = Φ = Σ [ f(s) αβ f(s) ] s-1 Φ α Ψ β , […] (8)Ψ=Σ[s f(s) αβ f(s) ] s-1 Φ α Φ β(10) Σ αβ { f(s) αβ f(s) } (s-sμ)-1 Φ α Φ β = θ μ Σ αβ { sf(s) αβ f(s) } (s-sμ)-1 Φ α Φ β = Θ μ de sorte que Φ = θ 1 + ….+ θ m , Ψ = Θ 1 + ….+ Θ m La circonstance remarquable caractéristique des formes définies positives permet d'établir que : primes et les indices des systèmes linéaires mise en oeuvre par Lagrange en 1766 était à l'origine de l'une des spécificités de l'équation des petites oscillations, l'occurrence de « rapports remarquables » en miroirs dans les coefficients des systèmes linéaires. En suivant la discussion sur les racines de l'équation des petites oscillations, nous avons vu un héritage de la pratique élaborée par Lagrange se manifester chez Laplace, Cauchy et Weierstrass et, en même temps, l'identité de l'équation des petites oscillations évoluer. Caractérisée par une pratique indissociable d'une équation, l'identité de notre corpus présente donc une nature algébrique qu'il nous faut à présent préciser. A l'exception de Jordan et, comme nous allons le voir, Darboux en 1874, aucun des auteurs du corpus ne se réfère à une théorie algébrique. L'identité algébrique de la discussion ne peut donc se caractériser, avant 1874, comme une identité théorique, elle se place davantage du côté des pratiques que des méthodes. A la permanence d'une pratique polynomiale de résolution des systèmes linéaires il faut en effet opposer la diversité des méthodes élaborées dans les cadres théoriques distincts au travers desquels se déploie la discussion. La méthode élaborée par Lagrange pour ramener l'intégration d'un système à celle de n équations indépendantes était, comme nous l'avons vu, indissociable d'une représentation mécanique, cette méthode s'avère très différente de celle que nous avons vu à l'oeuvre chez Cauchy en 1829 et qui était sous tendue par des représentations géométriques de changements d'axes orthogonaux. Dans le cadre du corpus, une même pratique algébrique est donc employée aux seins de méthodes et cadres théoriques différents dans lesquels elle adopte des représentations diverses. Le point de vue selon lequel les procédés algébriques ne portent pas de représentations propres mais prennent leurs « significations » relativement aux théories dans lesquels ils sont employés est celui que Kronecker oppose en 1874 à l'organisation algébrique que veut donner Jordan à la théorie des formes bilinéaires. Pour Kronecker, dans la théorie des formes bilinéaires comme dans d'autres cadres théoriques, le « travail algébrique » n'a qu'une « place relative », il « est effectué au service d'autres disciplines mathématiques dont il reçoit ses fins et dont dépendent ses objectifs », il doit par conséquent « être seulement considéré comme le moyen et non comme le but de la recherche » [Kronecker, 1874, 367, traduction F.B.]. Chez Kronecker comme chez la plupart des auteurs du corpus, le travail algébrique n'est pas une fin en soi mais sert des objectifs issus de contextes divers et de disciplines comme la mécanique, la géométrie ou l'arithmétique. Si, parallèlement à cette variabilité des contextes, une identité algébrique se manifeste dans la discussion sur l'équation des petites oscillations, cette identité ne tient pas à la perception d'une théorie algébrique sous jacente mais à une perspective historique. C'est en effet par des références à des travaux plus anciens que les auteurs du corpus comme Laplace, Cauchy ou Weierstrass donnent à leurs travaux une identité dépassant les contextes dans lesquels ceux-ci s'inscrivent. Cauchy par exemple, donne à son mémoire de 1829 une identité dépassant le contexte géométrique de la recherche des axes principaux des coniques et quadriques par sa référence à Lagrange qui identifie la pratique algébrique dont Cauchy s'inspire et à l'« équation à l'aide de laquelle on détermine les inégalités séculaires des planètes » qui se rapporte implicitement aux travaux de Laplace et à la question de la nature des racines caractéristiques. Avant qu'une identité théorique comme celle de la théorie des formes bilinéaires ne permette d'identifier le corpus à l'histoire d'une théorie (comme Kronecker qui se réfère à l'« histoire de la théorie des faisceaux de formes quadratiques »), c'est une identité historique qui permet aux auteurs d'identifier leurs travaux à une discussion de nature algébrique. De l'origine de la discussion chez Lagrange à sa fin chez Weierstrass et Jordan, la revendication de généralité est la principale motivation qui amène des auteurs à insérer leurs propres travaux dans une perspective historique plus large. Pour Lagrange, la capacité de sa méthode à résoudre un problème mécanique pour un système quelconque de corps lui confère un caractère général. La nécessité d'obtenir des racines caractéristiques distinctes ne réduit pas la généralité polynomiale car ce cas de figure est considéré comme incompatible avec la situation des petites oscillations. L'intervention de Cauchy dans la discussion est d'abord motivée par la généralisation à n variables que permet le problème des petites oscillations d'une méthode élaborée pour deux ou trois variables dans un cadre géométrique. Les « formules algébriques » généralisant les expressions de changements d'axes orthonormés ne « subsistent » cependant pas à la « condition » de multiplicité des racines caractéristiques conduisant à la forme 0 0 . Cependant comme ces équations peuvent avoir différentes formes plus ou moins simples, & surtout plus ou moins propres pour l'intégration, il n'est pas indifférent sous quelle forme elles se présentent d'abord ; & c'est peut-être un des principaux avantages de notre méthode, de fournir toujours les équations de chaque problème sous la forme la plus simple relativement aux variables qu'on y emploie, & de mettre en état de juger d'avance quelles sont les variables dont l'emploi peut en faciliter le plus l'intégration. [ Lagrange 1788]. s f(s) αβ f(s) = s μ f(s) αβ f(s) + (s-s μ ) f(s) αβ f(s) et s− s μ f(s) ne devient pas ∞ si s=s μ Par conséquent, { s f(s) αβ f(s) } (s-sμ)-1 = f(s μ ) αβ f′(s μ ) , Le choix entre les différentes formes sous lesquelles se présentent les équations était normé par un critère de simplicité lié au calcul intégral. Pour le problème des petites oscillations l'existence d'une forme intégrable du système était garantie par la représentation mécanique du problème selon laquelle le mouvement d'une corde chargée de n masses se décompose mécaniquement en oscillations de n cordes chargées d'une seule masse. Si la méthode de Lagrange consistait bien à ramener l'intégration d'un système d'équations différentielles à celle de n équations indépendantes, le changement de la forme du système ne s'appuyait pas sur un procédé de transformation mais sur la résolution d'une équation algébrique donnant les paramètres mécaniques du système. héritages comme ceux portés par la théorie des formes quadratiques et la pratique algébrique spécifique à la discussion sur l'équation à l'aide de laquelle on détermine les inégalités séculaires des planètes, permet d'enrichir l'histoire de l'algèbre linéaire souvent abordée par l'intermédiaire de l'histoire d'une théorie, d'une notion, d'un mode de raisonnement et la problématique de l'émergence de structures. Annexe 1. Représentation graphique simplifiée du corpus formant la discussion sur l'équation à l'aide de laquelle on détermine les inégalités séculaires des planètes. Annexe 2. La réponse de Jordan à Yvon-Villarceau (1871). Dans une des séances de l'hiver dernier, M. Yvon Villarceau a signalé une lacune dans le procédé généralement indiqué pour la solution d'un système d'équations différentielles linéaires à coefficients constants […]. On sait en effet, que l'intégration de ce système dépend de l'équation caractéristique […] mais le cas où cette équation a des racines égales présente une légère difficulté. On connaît en gros le moyen de la résoudre ; mais on n'a pas donné, que nous sachions, une analyse complète et embrassant tous les cas de la question […]. dx 1 dt =a 1 x 1 +…+l 1 x n ,…, (I) d x 2 d t =a 2 x 1 +…+l 2 x n ,…, ……. dx n dt =a n x 1 +…+l n x n , Ce problème peut cependant se résoudre très simplement par un procédé identique à celui dont nous nous sommes servi, dans notre Traité des substitutions, pour ramener une substitution linéaire quelconque à sa forme canonique. Nous allons ramener de même le système (I) à une forme canonique qui puisse s'intégrer immédiatement […]. Les équations différentielles prendront la forme Poursuivant ainsi, on voit que les variables indépendantes peuvent être choisies de telle sorte qu'aux μ racines égales à σ que possède l'équation Δ=0 correspondent μ variables nouvelles formant un certain nombre de séries contenant respectivement r, r',… variables, r+r'+… étant égal à μ, et les variables d'une même série étant liées par une suite de relations de la forme (6) dy 1 dt =σy 1 , dz 1 dt =σz 1 +y, du 1 dt =σu 1 ,+z 1, …, dw 1 dt =σw 1 + v 1 […] Soit r le nombre de variables de la série y 1 ,…,w 1 ; le système des équations (6) aura évidemment pour intégrales le système suivant : w 1 =e σt ψ(t), ν 1 =e σt ψ'(t),..., y 1 = e σt ψ r-1 (t), ψ(t) étant une fonction entière arbitraire du degré r-1. [Jordan 1871, p.787]. Annexe 3. Extrait du « Mémoire sur la théorie algébrique des formes quadratiques » de Darboux (1874). Notation : Δ, Δ 1 , Δ 2 , …, Δ n-1 , 1 sont les mineurs du déterminant caractéristique. Les fonctions Φ p sont des invariants définis par Darboux, à partir des mineurs de la forme quadratique. Considérons une forme quadratique homogène à n variables f(x 1 ,x 2 ,…,x n ), que nous écrirons aussi de la manière suivante : Σ i Σ j a ij x i x j , […] Nous supposerons, suivant l'usage a ji =a ij ; par suite un terme rectangle se trouvera deux fois dans la somme précédente avec les mêmes coefficients, et l'expression développée de la forme sera a 11 x 1 ²+a 22 x 2 ²+….+a nn x n ²+2a 12 x 1 x 2 +… […] Cela posé, réduisons, par les procédés connus, f à une somme de carrés de la forme suivante : f =ε 1 (x 1 +a 2 x 2 +…+a n x n )²+ ε 2 (x 2 +β 3 x 3 +β n x n )²+…+ε n-1 (x n-1 + λ n x n )² +ε n x n ² on trouvera, comme l'a prouvé M. Hermite, Δ Δ X n ² X 1 , X 2 ,…,X n étant des fonctions linéaires des n variables x 1 , x 2 , …, x n . Il résulte de cette décomposition de f que le nombre des carrés positifs de la forme est égal à celui des permanences de la suite Δ, Δ 1 , Δ 2 , …, Δ n-1 , 1 ; quant aux fonctions linéaires X i elles ont été mises sous la forme de déterminants par divers géomètres et notamment par M. Weierstrass. […] Le nombre de carrés positifs de la forme ne peut changer que si λ passe par une racine de l'équation obtenue en égalant l'invariant à zéro, et dans ce cas le nombre de carrés positifs équation caractéristique et de mineurs : S=-x(3-x)(1-x), P 11 (x)=(1-x)(2-x)-1, P 12 (x)=(1-x) et P 13 =-1. L'expression ((1-x)(2-x)-1, 1-x, -1) donne une écriture polynomiale des coordonnées d'un vecteur propre dont |S| donne le carré de la norme. Pour la valeur propre s 1On en déduit les coordonnées d'un vecteur propre normé associé à la valeur propre 1 : (1/ 2 , 0, 1/ 2 ). En procédant de manière analogue pour les valeurs propres s 2 respectivement pour vecteurs propres normés, (1/ 3 , 1/ 3 , -1/ 3 ) et (1/ 6 , 2/ 6 , -1/ 6 ). Interprétation dans le cadre des formes quadratiques : la forme associée à A dans la base canonique de Ë [Ibidem, p.123-124, traduction F.B.]. Lagrange aux deux fins qu'en donnent Weierstrass en 1858 et 1868 et Jordan en 1871-1872. 2° Si ces racines sont toutes réelles, positives ou toutes imaginaires ou en partie positives, et en partie imaginaires, l'état d'équilibre n'aura aucune stabilité, et le système une fois dérangé de cet état ne pourra le reprendre ; 3° Enfin, si les racines sont en partie réelles négatives et inégales, et en partie réelles négatives et égales ou réelles et positives, ou imaginaires, l'état d'équilibre aura seulement une stabilité restreinte et conditionnelle. [Lagrange 1766, p.532]. 2 . 2Une pratique élaborée par Lagrange en un jeu sur les primes et les indices des systèmes linéaires. Lagrange aborde pour la première fois le problème des petites oscillations d'une corde dans ses « Solutions de différents problèmes de calcul intégral » [1766], écrites entre 1762 et 1765. La résolution se présente comme une application du principe, exposé dans le même mémoire, de réduction de l'ordre d'une équation différentielle dont on connaît des solutions particulières : Les équations proposées seront intégrables algébriquement, si l'on peut trouver, […] autant de valeurs particulières de chacune des quantités y, y', y'',… qu'il y a d'unités dans la somme des exposants des plus hautes différences de ces variables. […] Méthode générale pour déterminer le mouvement d'un système quelconque de corps qui agissent les uns sur les autres, en supposant que ces corps ne fassent que des oscillations infiniment petites autour de leurs points d'équilibre. Soit n le nombre des corps qui composent le système, et nommons y', y'', y''',… les espaces infiniments petits que ces corps décrivent dans leurs oscillations pendant le temps t ; on aura, en négligeant les quantités infiniment petites du second ordre et des ordres plus élevés des équations de lesquelles [équations] serviront à déterminer les quantités ρ, λ', λ'', λ''',… . [Ibid., p.520]L'« élimination des équations » (c) donne une équation de degré n en ρ notée P=0 et permettant de déterminer les n valeurs ρ 1 , ρ 2 ,…,ρ n des indéterminés ρ. Les solutions particulières λe ρt dt obtenues, la résolution de l'équation intégrale (b) permettraient alors de trouver les solutions aux conditions initiales, Lagrange élabore cependant une méthode permettant d'obtenir l'expression générale, c'est-à-dire polynomiale, de ces solutions par la seule donnée de l'équation algébrique P=0. Comme nous allons le voir, la méthode développée par Lagrange pour la résolution du système aux conditions initiales est propre au problème des petites oscillations et met en oeuvre un jeu sur les primes et les indices à partir d'une propriété des systèmes obtenus par la méthode des coefficients indéterminés : les coefficients du système (c) sont en miroirs de ceux du système (a), par exemple le coefficient A'', deuxième coefficient de la première équation de (a), est identique au premier coefficient de la deuxième équation de (c).• Expression des solutions en fonction des conditions initiales. les racines, supposées réelles positives et distinctes, de l'équation P=0. Si les conditions initiales pour t=0 sont y'=Y', y''= Y'',…, dy'/dt=V', dy''/dt=V'', …, l'équation (b) s'écrit : ρt Cette équation met en relation les conditions initiales (Y) et (V) et le système des coefficients (λ) des solutions particulières λe ρt dt. Les racines de P=0 s'écrivant ρ i ² et l'équation intégrale (b) étant 36 Par exemple la méthode des coefficients indéterminés sur le système à L 'introduction d'un premier jeu d'indéterminées μ', μ'', … donne une première expression des solutions y (s) ( 38 ) :Pour en venir à bout, je multiplie la première de ces équations par μ', la seconde par μ'', la troisième par μ''', et ainsi de suite, μ', μ'', μ''',… étant des coefficients indéterminés, puis je les ajoute ensemble, ce qui me donne […] la valeur d'une y quelconque, comme y (s) , en égalant à zéro chacun des coefficients des autres y ; ainsi l'on aura ces équations de condition : à l'exception seulement de celle qui répondrait à l'exposant s. [Ibid., p.523]. ρ n excepté ρ m . [Ibid., p.525].La double inversion du rôle des primes et des indices permet un retour à la configuration d'origine. L'expression (g) obtenue par l'introduction des nouvelles indéterminées (ν) exprime en effet les solutions μ (m) à l'aide des coefficients (λ ' m , λ'' m ,….,λ (n) m ) associés à une même racine ρ m . La formule (g) permet alors de déterminer μ m puis, en remontant les calculs, la solution y (s) cherchée.• L'identité des équations algébriques associées aux systèmes obtenus par la méthode des coefficients indéterminés. Le double emploi de la méthode des coefficients indéterminés que nous avons vu à l'oeuvre chez Lagrange donne un procédé d'obtention des solutions aux conditions initiales y (s) sans pour autant permettre une expression directe de ces solutions. Afin d'obtenir une telle expression, Lagrange va tirer partie du jeu sur les primes et les indices qu'implique chaque introduction de coefficients indéterminés. Si l'on applique les coefficients ν', ν'', ... au système (c), on obtient une équation (i) et des conditions sur les (ν) données par un nouveau système (k): jeux de coefficients (λ) et (ν) sont respectivement déterminés par les systèmes (c) et (k) entretenant une relation que Lagrange précise de la manière suivante : les systèmes (c) et (k) sont différents mais l'équation P=0 qui permet de trouver ρ par élimination est identique pour les deux systèmes ( 40 ):Et il est bon de remarquer qu'en éliminant de ces équations les quantités ν', ν'', ν''',…, on aura une équation finale en ρ² qui sera nécessairement la même que celle qui résulte des équations (c) par l'évanouissement des quantités λ', λ'', λ''',…; ce qui peut se voir aisément à priori. [Ibid.]. • L'expression directe des solutions aux conditions initiales à l'aide de l'équation des petites oscillations. La condition (i) sur les indéterminées ν s'identifie, à un coefficient multiplicatif prêt, à l'équation algébrique P=0 : Faisons maintenant ρ=ρ m ρ 3 ,...,ρ n excepté ρ m , auquel cas l'équation se vérifie d'elle-même, à cause du facteur ρ²-ρ² m .[Ibid, p.527].Les n-1 conditions (h) qui définissent les (ν) sont ainsi vérifiées pour ρ=ρ 1 ,…, ρ n , excepté ρ m :(h) ν' m λ' + ν' m 'λ'' + … + ν(n) m λ(n) = 0Ces conditions s'expriment par une équation polynomiale de degré n-1 dont les racines coïncident avec n-1 racines de P=0 et qui s'identifie donc, à un coefficient multiplicatif près, à une factorisation de P par les coefficients (ρ 2 -ρ m 2 ) :(ρ²-ρ² m ) [ν' m λ'+ν'' m λ''+ν''' m λ'''+…. + ν tous les facteurs hormis (1-ρ²/ρ m ²). [Ibid]. Les mouvements d'un fil lesté de deux masses m et M peuvent se « représenter » mécaniquement comme « composés » des deux oscillations indépendantes d'un « pendule simple ». De la même manière que « chacune des oscillations est représentée » par x et y, la méthode des coefficients indéterminés représente algébriquement l'observation de Bernouilli. Le coefficient indéterminé ν bénéficie d'une double représentation : représentation algébrique d'une part comme solution d'une équation du second degré, représentation mécanique d'autre part comme période propre des petites oscillations d'un « pendule simple ». Les deux « intégrales » u et u' représentent mécaniquement les oscillations des deux pendules simples et la combinaison algébrique x+νy=u, permet d'exprimer le mouvement composé par les variables x et y. Lorsque Lagrange proposera, comme nous l'avons vu dans la troisième partie, de généraliser le problème de d'Alembert à un système de n corps, sa méthode traduira toujours la représentation mécanique selon laquelle le mouvement d'une corde lestée de n masses se représente comme la composition des oscillations indépendantes de n cordes chargées d'une seule masse ( 43 ) :Ainsi le mouvement des corps sera le même, dans ce cas que s'ils étaient pesans et qu'ils fussent suspendus chacun à un fil de longueur 1/r m 2 [ (44) ], la gravité étant prise pour l'unité des forces accélératrices ; d'où l'on voit que le système est susceptible d'autant de différents mouvements isochrones que l'équation P=0 a de racines réelles négatives et inégales.[Lagrange 1766, p.534]. principaux d'un corps solide et sur diverses équations du même genre » [1826], ni le contenu ne font mention des petites oscillations. La note de 1826 propose pourtant déjà une analogie entre50 Laplace et Lagrange font leurs calculs à l'ordre 1 et négligent les termes qui dépendraient du carré des masses des planètes. Ces approximations limitent la duré de validité de leurs théorie comme le montrera notamment Le Verrier en 1856. Voir à ce sujet[Laskar 1992, p.184-187]. 51 La preuve de Laplace, basée sur la conservation de l'intégrale première donnant l'énergie mécanique d'un système L-V=C, présuppose la forme erronée donnée par Lagrange aux solutions en cas de racines multiples (voir la note 37), elle est donc circulaire pour ce cas de figure. Pour une formulation de la démonstration de Laplace dans le cadre des mathématiques contemporaines, voir[Hawkins 1975, p.15]. 52 Dans son étude de la mathématisation chez Cauchy, A. Dahan Dalmedico a mis en évidence l'influence de représentations propres à la géométrie analytique sur les méthodes algébriques développées par Cauchy pour la théorie de l'élasticité (ellipsoïdes de contraintes et de déformations) et aujourd'hui perçues comme appartenant à l'algèbre linéaire [DahanDalmedico 1992, p.296]. 53 La théorie de l'élasticité élaborée par Cauchy nécessite en effet la description des « surfaces représentées par des équations du second degré » pour décrire les variations directionnelles de l'élasticité d'un solide. Voir à ce sujet [DahanDalmedico 1992, p.236]. mécanique et géométrie, elle a pour objet la résolution, par une même méthode de recherche d'« axes principaux », du problème mécanique de la rotation d'un solide et de la classification géométrique des « fonctions homogènes du second degré » ( 54 ). Le problème de la rotation d'un solide fait référence à la formulation analytique donnée par Lagrange en 1775 au résultat mécanique de Leonhard Euler[1758 et 1765] sur l'existence, pour un corps solide en rotation, de trois axes orthogonaux par rapport auxquels le moment d'inertie est nul ( 55 ). La question de la rotation d'un solide, bien que mettant en jeu un système de trois équations différentielles dont l'intégration passe par la résolution d'une équation cubique, n'avait, chez Lagrange, aucune relation avec le problème des petites oscillations d'un système de corps. D'une part, la considération d'un solide limitait l'étude au cas de trois variables et permettait une démonstration par l'absurde de la réalité des racines de l'équation cubique associée[Lagrange 1788, p.399], d'autre part les représentations sous jacentes au problème des axes principaux de rotation étaient très différentes de celles des petites oscillations. La recherche des axes principaux s'appuyait en effet sur des changements de variables interprétés dans un cadre géométrique comme des changements d'axes orthogonaux [Ibidem,.p.395] et cette représentation géométrique porte l'analogie entre le problème de la rotation d'un solide et celui de la recherche des axes principaux des coniques et quadriques explicitée par Cauchy en 1826. Comme nous l'avons vu dans la deuxième partie, c'est à une deuxième analogie portée cette fois par le caractère spécifique de l'équation des petites oscillations, que les trois problèmes de la rotation d'un solide, des petites oscillations et de la classification des surfaces du second degré sont abordés par une même méthode en 1829. Le véritable objet du mémoire de 1829 est une généralisation à n variables d'une méthode élaborée dans le cadre de la géométrie analytique et publiée en 1828 dans un mémoire intitulé « Sur les centres, les plans principaux, et les axes des surfaces du second degré ». Cette généralisation manifeste d'une part un héritage de la pratique spécifique élaborée par Lagrange pour le problème des petites oscillations et, d'autre part, des représentations géométriques propres au problème de la classification des coniques et quadriques. Le théorème énoncé par Cauchy en 1829 ne porte pas sur les systèmes différentiels étudiés par Lagrange mais sur les différentes « formes » revêtues par l'équation d'une surface homogène sujette à des changements d'axes. Parmi ces formes, il en existe une et une seule qui « renferme seulement les carrés » des coordonnées : Théorème II. -Etant donnée une fonction homogène et du second degré de plusieurs variables A yz […] et, généralement, on obtiendra pour S une fonction de s, qui sera entière et du degré n. [Ibidem, p.176]. A chacune des racines s i de l'équation S=0 correspond un « système de valeurs » x i , y i , z i ,… solution du système (10). La caractérisation donnée par Cauchy aux relations entretenues par ces systèmes deux à deux manifeste un héritage de la pratique élaborée par Lagrange en 1766. Comme nous l'avons vu dans la troisième partie, Lagrange avait introduit deux jeux de coefficients indéterminées (λ i (s) ) et (ν i (s) ) pour déterminer les solutions y (s) conditions initiales (λ' i y' + λ'' i y'' + …. + λ (n) i y (n) = θ i ). Il avait ensuite déduit des rapports remarquables A xy =A yx du système que les deux jeux (λ i ) et (ν i ) étaient déterminés par le même système d'équations correspondant au système initial. Les deux jeux de coefficients λ', λ'', λ'',… et ν', ν'', ν''', ν''',…correspondent donc à deux systèmes de solutions du système (10), notés par Cauchy x 1 , y 1 , z 1,… et x 2 , y 2 , z 2 ,…. Comme l'avait fait Lagrange avec ses jeux d'indéterminés, Cauchy multiplie la première ligne du système (10) par x 2 , la seconde par x 1 , etc. puis ajoute les lignes de manière à « éliminer le coefficient A xx » : Relations entre les (x i ) et (x j ) établies par Cauchy. Relations entres les (λ i ) et (λ j ) de Lagrange. se résument par l'équation :(ρ²-ρ² m ) [ν'λ'+ν''λ''+ν'''λ'''+…. + ν (n) λ (n) ]=0De la relation(21), Cauchy déduit les relations entretenues par deux séries de solutions associées à deux racines distinctes : ......, . . , 0 ... ....., . . . , 0 ... .., . . ......... A νν -s […] on aura évidemment (23) R = P xx . [Ibid., p.178]. « En faisant abstraction de la première » équation du système (10), c'est-à-dire en fixant sa valeur comme arbitraire, le calcul des déterminants permet de déterminer x, y, z par des formules analogue aux expressions νi Qi de Lagrange (l'expression X²+Y²+Z²+… correspond au terme noté par Lagrange Q i ² ) ( 59 ) : et l'on conclura des équations (10), en faisant abstraction de la première, 'ailleurs, pour abréger, (25) X=P xx = R, Y=-P xy , Z=-P xz ,… La formule (24), combinée avec la formule (. et, si l'on désigne par (27) X 1 , Y 1 , Z 1 ,…,X 2 , Y 2 , Z 2 ,…,X n , Y n , Z n ,…, les systèmes de valeurs de X, Y, Z, … correspondants aux racines s 1 , s 2 , …,s n de l'équation (7....., . . . . . Ces dernières formules généralisent les expressions de changements d'axes orthonormés permettant l'écriture d'une conique dans son système d'axes principaux, obtenues en 1828 par un 58 En des termes qui nous sont contemporains, les relations d'orthogonalité duale entre les ν et les λ données par Lagrange donnent lieu à des relations d'orthogonalité euclidienne chez Cauchy. 59 Si B(s) est la matrice des mineurs de la matrice caractéristique A-sI, alors B(s)(A-sI)=Δ(s)I et si D est un vecteur colonne, (A-sI)X=D ⇔ X=B(s)D. Les coordonnées des vecteurs propres sont obtenues par les colonnes non nulles de la matrice adjointe Ad(A-sI) de la matrice caractéristique, c'est-à-dire la matrice des cofacteurs de A-sI. Pour une formulation contemporaine de ce procédé voir l'expression (*) donnée en I.3. et la note n°23. méthodes qui tendent « à faire attribuer aux formules algébriques une étendue indéfinie, tandis que […] la plupart de ces formules subsistent uniquement sous certaines conditions », précise la limite de validité de sa méthode : D'après ce qui a été dit ci-dessus, il ne peut rester de doutes sur l'exactitude du théorème I, si ce n'est dans le cas où quelques valeurs de s vérifieraient à la fois les deux équations (36) S=0, R=0, Q=0, …prises consécutivement. [Ibid, p.235].Les « formules algébriques » de la méthode « générale » ne « subsistent » pas à la « condition » de multiplicité des racines. Le problème posé par l'occurrence de racines multiples se manifeste alors comme un cas singulier limitant l'« étendue » d'une méthode algébrique et nécessitant pas conséquent un raisonnement spécifique que Cauchy mène par l'introduction d'infiniment petits ( 60 ). Les événements politiques de 1830 sont proches et ce n'est qu'à son retour d'exil que Cauchy propose, dans les années 1839-1840, une nouvelle méthode, indépendante de la nature des racines, et basée sur le calcul des résidus[Cauchy 1839b]. Dès son élaboration par Cauchy en 1826, le calcul des résidus se présentait comme une méthode homogène de résolution des équations différentielles ordinaires à coefficients constants. Dans le « Mémoire sur l'analogie des puissances et des différences et sur l'intégration des équations linéaires » [1825], Cauchy avait publié une solution des équations différentielles linéaires d'ordre n à coefficients constants, l'emploi d'une « analogie » entre factorisation symbolique de l'équation différentielle et factorisation du polynôme F(r)= r n +a 1 r n-1 +…+a n-1 r+a n . Ce calcul symbolique perd cependant toute validité en cas d'occurrence de racines multiples dans l'équation F(r)=0 ( 61 ). Au contraire, le calcul des résidus permet de donner une résolution homogène indépendante de la nature des racines de l'équation F(r)=0 sous la Φ(r) étant un polynôme arbitraire ( 62 ). A l'occasion de deux mémoires, publiés en 1839-1840 dans un contexte de travaux sur la propagation des ondes, l'élasticité et la théorie de la lumière, Cauchy revient sur sa méthode de 1829 et donne le nom d'équation caractéristique à l'équation algébrique au coeur des analogies formelles entre divers problèmes de physique mathématique et de géométrie analytique. A cette époque, les préoccupations de Cauchy ont changé et le recours à la géométrie qui caractérisait l'approche de 1829 fait place à de nouvelles 60 Nous avons déjà vu un tel raisonnement à l'oeuvre chez d'Alembert et Lagrange dans la partie III de cet article.61 Cauchy écrit l'équation différentielle sous la forme (D-r 1 )(D-r 2 )…(D-r n )y = -f(x)/a 0 , où les r i sont les racines réelles du polynôme F. Alors, (D-r 1 )y n-1 = f(x)/a 0 , (D-r 2 )y n-2 = y n-1 , …, (D-r n )y= y 1 , et comme (D-r)y= f(x) implique y = e rx ⌡e -rx f(x)dx, Cauchy obtient la formule suivante qui nécessite l'occurrence de racines r i toutes distinctes : complément, consulter [DahanDalmedico 1992, p.197]. 62 C'est-à-dire par l'intégrale curviligne autour des racines de F. avons donc démontré le théorème suivant. Soit Φ, Ψ des fonctions entières homogènes du deuxième degré de n variables x 1 , x 2 , …x n , à coefficients réels et dont la première conserve un signe constant et ne s'annule pas identiquement pour les valeurs réelles de x 1 , x 2 , …x n . Le déterminant de la fonction sΦ-Ψ est une fonction entière de degré n de la grandeur variable s qui ne s'annule que pour des valeurs réelles. Soit s 1 , s 2 , …, s m ces valeurs, alors le déterminant ne contient que les facteurs suivant, (s-s 1 ) λ1 (s-s 2 ) λ2 …(s-s m ) λm , où λ 1 , λ 2 , …λ m sont des nombres positifs dont la somme est n ; il existe alors des fonctions homogènes parfaitement déterminées, θ 1 , θ 2 ,…., θ m , de degré deux et de variables x 1 , x 2 , …,x n , telles que Φ et Ψ s'expriment sous la forme : Φ = θ 1 + θ 2 +…+θ m Ψ = s 1 θ 1 + s 2 θ 2 +…+s m θ m où θ μ , ou -θ μ selon que Φ reste positive ou négative, représente une somme quadratique de λ μ fonctions linéaires réelles des grandeurs x 1 , x 2 , …., x n . [Weierstrass 1858, p.242, traduction F.B.] M Le polynôme caractéristique est: P M = -(x-2)²(x-3). On décompose 1/F en éléments simples, Le théorème de Bezout permet de déterminer les projecteurs sur les sous espaces caractéristiques, (X-2)² -(X-1)(X-3)=1 U 1 = (-X-1) et U 2 =1, P 1 = U 1 Q 1 = -(X-1)(X-3) et P 2 = (X-2)² Les projecteurs sont p 1 = P 1 (M) et p 2 = P 2 (M), exp(M) = e λ (I 3 + 1/1! (M-2I 3 ) ). Φ = θ 1 + ….+ θ m , Ψ =s 1 θ 1 + ….+s m θ m , Les regroupements des variables par la structure du développement en éléments simples de la fraction f( s) α β f( s) donnent donc la transformation désirée pour le couple de fonctions (Φ,Ψ), pour tout μ de {1,2,…m}, Θ μ = s μ θ μ .Conclusion.Après avoir spécifié un moment de référence nous avons constitué un corpus regroupant en un ensemble cohérent des textes publiés sur la période 1766-1874. Nous avons d'abord associé l'identité de ce corpus au caractère spécifique d'une équation algébrique, l'équation des petites oscillations. En étudiant l'origine du corpus dans les travaux de Lagrange et ses évolutions chez Laplace, Cauchy et Weierstrass nous avons ensuite mis en évidence la permanence d'une pratique consistant à exprimer les solutions d'un système linéaire par des factorisations polynomiales de l'équation caractéristique de ce système, c'est-à-dire par les expressions polynomiales (des mineurs principaux de S. Nous avons vu comment la pratique spécifique de jeu sur les 'on aura Δ=(σ-s) ν Δ', Δ' ε 1 = 1Δ n-1 , …, ε n- ). La théorie des formes bilinéaires donne donc une identité nouvelle à des problèmes anciens. Contrairement aux trois problèmes de réductions canoniques que distingue Jordan, Kronecker organise la théorie des formes bilinéaires autour d'un unique problème, celui de la caractérisation des classes d'équivalences de couples de formes bilinéaires (troisième problème dans la classification de Jordan), et de sa résolution par les invariants introduits par Weierstrass et son théorème des diviseurs élémentaires de 1868.Dans le Mémoire de M. Jordan […], la solution du premier problème n'est pas véritablement nouvelle ; la solution du deuxième est manquée, et celle du troisième n'est pas suffisamment établie. Ajoutons qu'en réalité ce troisième problème embrasse les deux autres comme cas particuliers, et que sa solution complète résulte du travail de M. Weierstrass de 1868 et se déduit aussi de mes additions à ce travail. Il y a donc, si je ne me trompe, de sérieux motifs pour contester à M. Jordan l'invention première de ses résultats, en tant qu'ils sont corrects [...]. [Kronecker 1874b, p.1181 (les italiques sont dans le texte original)]. 11 La forme canonique x 1 y 1 +…+x m y m permet de déterminer les classes d'équivalence des matrices carrées pour la relation d'équivalence (ARB ∃ ⇔ P,Q∈GL n (Ê), PAQ=B). Le problème 1. consiste en l'étude de la relation de similitude des Les regards de Jordan et Yvon-Villarceau sur le corpus : une « incorrection » dans une pratique remontant à Lagrange. La méthode d'intégration du système (a) repose sur la détermination, par les méthodes d'éliminations, d'une équation algébrique : [Ces méthodes] fournissent l'équation caractéristique Aux racines ρ et ρ' de cette équation de degré 2 sont associées deux équations différentielles +ρ'u=0, auxquelles est ramenée l'intégration du système. Faisant abstraction du signe des racines, et désignant leurs valeurs absolues par ρ et ρ', on a les expressions suivantes de s et de u :matrices orthogonales (ARB ∃ ⇔ P∈O(Ê), P -1 AP=B). Le problème 2 renvoie à la congruence des matrices (ARB ∃ ⇔ P∈ GL n (Ê), t PAP=B). Le problème 3 à l'équivalence des couples de matrices (A, B). Le problème 3 intervient pour la résolution des systèmes d'équations différentielles AY''+BY=0. Dans le cas particulier où B=I, la relation d'équivalence des couples (A,I) est identique à la relation de similitude des matrices B=P -1 AP. Comme le fait remarquer Kronecker, le 3 e problème suffit à déduire les deux autres : le problème 1. revenant à l'étude de la congruence du couple (A,I) et le problème 2. à l'équivalence du couple (A, t A). 12 Par exemple la forme bilinéaire B(X,U)=ux+uy+vy n'a qu'une seule valeur propre 1 qui ne suffit pas à la caractériser car B n'est pas la forme identité. 2. Dans une note adressée à l'Académie de Paris en 1870, l'astronome Antoine Yvon-Villarceau appelle « l'attention des géomètres » sur un « point assez important de la théorie des équations linéaires », une « incorrection » dans la méthode « d'intégration des équations différentielles du mouvement de rotation d'un corps solide, soumis à l'action de la pesanteur […], présentée pour la première fois par l'illustre auteur de la Mécanique analytique, dans le cas des petites oscillations » d'une corde fixée en un point, lestée d'un nombre quelconque de masses et écartée de sa position d'équilibre. Le principe de conservation des forces vives permet de mathématiser le problème par un système d'équations différentielles linéaires à coefficients constants ( 13 ) : Lagrange forme trois équations différentielles du second ordre, entre lesquelles il élimine l'une des trois inconnues. Pour abréger j'écrirai le résultat de l'élimination comme il suit : ⎪ ⎪ ⎩ ⎪ ⎪ ⎨ ⎧ = + + = + + , 0 , 0 ) ( 2 2 2 2 2 2 2 2 cs dt u d a dt s d f cu dt s d a dt u d g a [Yvon-Villarceau 1870, p.763]. 0 ) ( 2 2 4 2 = − + + − a fg c g f c ρ ρ indépendantes, 2 2 dt u d +ρu=0 et 2 2 dt u d Au reste, dit Lagrange, comme cette solution est fondée sur l'hypothèse que s, u et dθ dt soient de très petites quantités il faudra, pour qu'elle soit légitime […] que les racines ρ et ρ' soient réelles et inégales, afin que l'angle t soit toujours sous le signe des sinus. C'est sur la seconde des conditions ici énoncées que je me permets d'appeler l'attention de l'Académie. Je dis qu'il n'est pas nécessaire que cette condition soit remplie, pour que les petites oscillations se maintiennent. […] Voici un cas très simple, auquel correspondent des racines égales de l'équation caractéristique : c'est celui d'un corps solide, homogène et de révolution, oscillant autour d'un point pris sur son axe de figure. en 1858 (cas symétrique des couples de formes quadratiques) et 1868 (cas général des couples de formes bilinéaires) ( 20 ). Cette identité est d'abord relevée par Meyer Hamburger qui, en 1873, s'inspire des méthodes de Jordan et Weierstrass pour résoudre le problème posé par l'occurrence de racines caractéristiques multiples dans l'intégration des équations différentielles linéaires à coefficients non constants, dites équations de Fuchs. La parution du mémoire d'Hamburger attire l'attention de Jordan sur la théorie des formes bilinéaires développée à Berlin et sur laquelle ce dernier va publier une série de notes entre 1873 et 1874. Comme nous l'avons vu dans le premier paragraphe, Jordan démontre que la transformation des formes peut s'interpréter comme l'action de groupes de substitutions (linéaires, orthogonales etc.) et, en élaborant une identité mathématique entre ses méthodes de réductions canoniques des substitutions et les calculs d'invariants de Kronecker et Weierstrass, il propose une nouvelle organisation de la théorie des formes bilinéaires en la présentant comme une application de la théorie des groupes structurée dans son Traité des substitutions et des équations algébriques de 1870.3. Le regard de Kronecker sur le corpus : le théorème de Weierstrass perçu comme une rupture dans l'histoire des raisonnements algébriques. Comme nous l'avons vu, de premières identités entre les théorèmes de Jordan et de Weierstrass se sont manifestées par la capacité de chacun des théorèmes à donner une résolution générale à de mêmes problèmes dont le traitement par des auteurs du passé apparaît par conséquent lacunaire. En 1874, Kronecker associe au théorème de Weierstrass un idéal de généralité qu'il va expliciter par une critique des pratiques algébriques du passé et sur lequel il va s'appuyer pour dénoncer le caractère formel qu'il prête à la réduction canonique de Jordan. A partir d'un « défaut » relevé dans un calcul de Jordan, la mise au dénominateur d'une expression algébrique susceptible de s'annuler ( 21 ), Kronecker dénonce un certain type de pratiques algébriques qui s'appuient sur des expressions « prétendument générales » mais en réalité formelles car perdant toute signification dans certains « cas singuliers » au contraire de la « vraie généralité » qu'il dépeint comme un océan dont il faut percer la « surface » (la prétendue généralité) pour pénétrer les « profondeurs » en résolvant une « question algébrique dans ses moindres détails ». Comme le montre l'extrait ci-dessous, cette opposition entre deux types de « généralité » va orienter un regard porté sur l'histoire de « la théorie des faisceaux des formes quadratiques »: . 404, traduction F.B.].Par son traitement général et homogène de la caractérisation des couples de formes bilinéaires, le théorème de Weierstrass vient sanctionner les « résultats très insuffisants » de pratiques développées « durant tout un siècle » mais « de manière sporadique » et négligeant d'aborder les singularités en « n'osant pas faire tomber » la condition que le déterminant S=|A+sB| contient des facteurs inégaux ( 22 ). Faisant implicitement référence aux travaux d'auteurs comme Lagrange, Charles Sturm, Cauchy ou Carl Gustav Jacobi, ces pratiques, que nous préciserons dans les troisième et quatrième parties de cet article, avaient été développées pour le cas symétrique des « systèmes quadratiques » dont elles exprimaient les solutions x i par des expressions polynomiales « générales » données en fonction de factorisations de S et de ses sous déterminants P 1i obtenus par développements par rapport à la 1 re ligne et i e colonne. L'expression générale (*) ) ( 1 x s x S P j i − donnant j s i x = ) ( 1 j j i s s x S P − où n i s i j x ≤ ≤ 1 ) ( désigne le système de solutions associé à la racine s j ( 23 ). Kronecker condamne l'utilisation qui avait été faite de telles expressions, susceptibles de prendre une valeur du type 0 0 en cas d'occurrence de racines communes entre les équations obtenues par les sous déterminants successifs de S=0, avant que Weierstrass ne démontre en 1858, 22 C'est-à-dire la condition imposant des racines caractéristiques distinctes ou, en termes contemporains, des matrices diagonalisables. 23 On dirait aujourd'hui que les coordonnées des vecteurs propres d'une matrice A sont données par les colonnes non nulles de la matrice adjointe de la matrice caractéristique A-xI, c'est-à-dire la matrice des cofacteurs. Par exemple, pour la matrice .122, traduction F.B.]. une discussion présentant des caractéristiques propres que nous allons préciser en examinant les principaux noeuds qui apparaissent dans l'enchevêtrement des références bibliographiques et sont attachés aux travaux de Lagrange, Pierre Simon Laplace, Cauchy et Weierstrass. En portant un premier regard d'ensemble sur notre corpus, nous nous attacherons plus particulièrement à la manière dont les auteurs se font référence les uns aux autres.1. Une référence commune à la Mécanique Analytique de Lagrange. & ainsi des autres coordonnéesx', y', &c, les quantités a, b, c, a 1 , b 1 & c,sont constantes, & les quantités ξ, ψ, φ, &c, sont variables, très petites, & nulles dans l'équilibre. [Lagrange 1788, p.243]. Les équations du mouvement sont déduites des conditions initiales et du principe de conservation des forces vives ( 27 ). Elles se présentent sous « une forme linéaire avec des coefficients constants » : équations qui étans sous une forme linéaire avec des coefficients constants, peuvent être intégrées rigoureusement & généralement par les méthodes connues [Ibidem].La recherche bibliographique menée à partir du moment de référence que nous avons détaillé dans la partie précédente permet d'obtenir un corpus qui, bien que s'étendant sur une longue période, reste fermé et limité à un nombre restreint d'auteurs. Ce caractère fermé donne au corpus l'identité d'La référence systématique à la résolution par Lagrange du « problème des oscillations très petites d'un système quelconque de corps » est une première caractéristique du corpus. Il s'agit d'étudier le déplacement d'un système de corps m, m', m'', &c, de coordonnées x, y, z, ..., dont on suppose qu'il s'éloigne très peu d'une position d'équilibre de coordonnées a, b, c, … : Au reste, on pourra souvent aussi, en ayant égard aux conditions du problême, réduire les coordonnées immédiatement par des substitutions, en fonctions rationnelles & entières d'autres variables indépendantes entr'elles, & très petites, dont la valeur soit nulle dans l'état d'équilibre. Ainsi nous supposerons en général que l'on ait : x = a +a 1 ξ + a 2 ψ + a 3 φ+ &c+ a' 1 ξ²+ &c, y = b +b 1 ξ + b 2 ψ + b 3 φ+ &c+ b' 1 ξ²+ &c, z = c +c 1 ξ + c 2 ψ + c 3 φ+ &c+ c' 1 ξ²+ &c, 0 = (I) d²ξ dt² + (I,2) d²ψ dt² +(I,3) d²φ dt² +&c +[I]ξ +[I,2]ψ +[I,3]φ +&c. 0 = (2) d²ψ dt² + (I,2) d²ξ dt² +(2,3) d²φ dt² +&c +[2]ψ +[I,2]ξ +[2,3]φ +&c. 0 = (3) d²φ dt² + (I,3) d²ξ dt² +(2,3) d²ψ dt² +&c +[3]φ +[I,3]ξ +[2,3]ψ +&c. &c. [En supposant que] les variables dans ces sortes d'équations ayent entr'elles des rapports constants; c'est-à-dire que l'on ait ψ= fξ, φ = gξ, &c, le système s'écrit alors :équations indépendantes d²ξ dt² +K ξ=0 permet, « en les joignant ensemble », d'exprimer les solutions générales ( 28 ) : ((I) + (I,2)f+ (I,3)g+ &c) d²ξ dt² + ([I] + [I,2]f+ [I,3]g+ &c )ξ = 0, ((2)f+ (I,2)+ (2,3)g+ &c) d²ξ dt² + ([2]f+ [I,2]+[2,3]g+ &c) ξ = 0, ((3)g+ (I,3)+ (2,3)f+ &c) d²ξ dt² + ([3]g+ [I,3]+ [2,3]f+ &c) ξ = 0, &c, lesquelles donnent d²ξ dt² +K ξ =0, en faisant K= [ I]+[ I,2] f+[ I,3] g+&c (I)+(I,2)f+(I,3) g+&c = [2] f+[ I,2]+[2,3] g+&c (2) f+( I,2)+(2,3) g+&c = [3] g+[ I,3]+[2,3] f+&c (3) g+( I,3)+(2,3) f+&c Planètes est sujet à de petites oscillations, et le calcul a démontré que leur attraction mutuelle peut en être la cause. Ces variations sont de deux espèces : les unes périodiques et qui ne dépendent que de la configuration des Planètes entre elles ; celles-ci sont les plus sensibles, et le calcul en a déjà été donné par différents Auteurs ; les autres séculaires et qui paraissent aller toujours en augmentant, ce sont les plus difficiles à déterminer tant par les observations que par la Théorie. Les premières ne dérangent point l'orbite primitive de la Planète ; ce ne sont, pour ainsi dire, que des écarts passagers qu'elle fait dans sa course régulière, et il suffit d'appliquer ces variations au lieu de la Planète calculé par les Tables ordinaires du mouvement elliptique. Il n'en est pas de même des variations séculaires. Ces dernières altèrent les éléments mêmes de l'orbite, c'est-à-dire la position et la dimension de l'ellipse décrite par la planète ; et quoique leur effet soit insensible dans un court espace de temps, il peut néanmoins devenir à la longue très considérable.[Lagrange 1781, p.125].Malgré les approximations nécessaires à la représentation par un système différentiel à coefficients constants des « équations séculaires des mouvements des noeuds et des inclinaisons des planètes », la mathématisation élaborée par Lagrange est adoptée par Laplace dès 1775 dans le Mémoire sur les solutions particulières des équations différentielles et sur les inégalités séculaires des planètes : problème par « autant d'équations linéaires du premier ordre qu'il y a d'inconnues » et par là, de la stabilité mécanique par la nature des racines de l'équation algébrique associée au système différentiel. Dans deux publications successives, le Mémoire sur les inégalités séculaires des planètes et des satellites[1787] et le Mémoire sur les variations séculaires des orbites des planètes[1789], Laplace entreprend de démontrer mathématiquement, en « dehors toute hypothèse » numérique sur la masse des planètes, la stabilité du système solaire c'est-à-dire la nature réelles, négatives et inégales des racines de l'équation algébrique caractéristique de la méthode élaborée par Lagrange. La démonstration de 1789 repose sur un « artifice particulier » s'appuyant sur la présence de « rapports remarquables » [Laplace 1789, p.Comme le manifestent les titres des travaux d'auteurs du corpus comme le mémoire de Cauchy de 1829 intitulé « Sur l'équation à l'aide de laquelle on détermine les inégalités séculaires des planètes », celui de Sylvester de 1852 « Sur une propriété nouvelle de l'équation qui sert à déterminer les inégalités séculaires des planètes » ou encore la formulation abrégée utilisée par Hermite en 1857, « Mémoire sur l'équation à l'aide de laquelle, etc. », les travaux de mécanique de Lagrange et Laplace confèrent un caractère spécifique à une équation algébrique qui se caractérise par la nature de ses racines (réelles, inégales) et les « rapports remarquables » du système dont elle issue. Nous allons à présent préciser, en évoquant les travaux de Cauchy, la manière dont le caractère spécifique de l'équation des petites oscillations donne au corpus son principal élément de cohérence interne. En 1829, Cauchy formule les problèmes des petites oscillations des systèmes mécaniques, des axes principaux d'un solide en rotation et de la classification des coniques et quadriques comme relevant d'une même question de recherche d'extremum d'une fonction homogène du second degré ( 30 ). Comme le manifestent les deux citations ci-dessous, la reconnaissance par Cauchy d'une similitude entre ces différents problèmes tient à une analogie formelle des caractéristiques « dignes de remarque » des équations algébriques que leurs résolutions mettent en oeuvre ( 31 ).Soit (1) s = f(x y,z,…) une fonction homogène et du second degré. Soient de plus (2) φ(x,y,z,…), χ(x,y,z,…), ψ(x,y,z,…), … les dérivées partielles de f(x,y,z,…) prises par rapport aux variables x,y,z,…Si l'on assujettit ces variables à l'équation de condition (3) x²+y²+z² + …=1 les maxima et minima de la fonction s seront déterminées (voir les Leçons sur le Calcul infinitésimal, p.252) par la formule[…] Lagrange en 1766 pour l'étude des oscillations d'un fil chargé d'un « nombre quelconque de masses ». Mais le problème tel qu'il est posé dans la Mécanique analytique dépasse le seul cas des cordes vibrantes. Entre 1766 et 1788, l'efficacité du procédé élaboré pour l'intégration des systèmes différentiels à coefficients constants a conduit Lagrange à donner, dans un mémoire adressé depuis Berlin à l'Académie de Paris en 1774, une même mathématisation au problème des petites oscillations d'un fil et au problème des petites oscillations des planètes sur leurs orbites : Si les Planètes étaient simplement attirées par le Soleil, et n'agissaient point les unes sur les autres, elles décriraient autour de cet astre, des ellipses variables suivant les lois de Kepler, comme Newton l'a démontré le premier, et une foule d'Auteurs après lui. Mais les observations ont prouvé que le mouvement elliptique des 297], (1,2)=(2,1) et [1,2]=[2,1] dans le système différentiel : 0 = (I) d²ξ dt² + (I,2) d²ψ dt² + (I,3) d²φ dt² +&c+ [I] ξ+ [I,2] ψ+ [I,3]φ+&c, 0 = (2) d²ψ dt² + (I,2) d²ξ dt² + (2,3) d²φ dt² +&c+ [2]ψ+ [I,2]ξ+ [2,3]φ+&c, 0 = (3) d²φ dt² + (I,3) d²ξ dt² + (2,3) d²ψ dt² +&c+ [3]φ + [I,3]ξ+ [2,3]ψ+&c, (6) 1 2 φ(x,y,z,….)=sx , 1 2 χ(x,y,z,….)= sy , 1 .21-22]. de propriétés dignes de remarque. Quelques unes de ces propriétés étaient déjà connues : nous allons les rappeler ici, et en indiquer des nouvelles.[Cauchy 1829, p.173].Parmi les méthodes employées par les géomètres pour discuter les surfaces représentées par des équations du second degré, l'une des plus simples est celle qui consiste à couper ces surfaces par des droites parallèles. En suivant cette méthode, on peut facilement déterminer la nature des surfaces dont il s'agit, leurs centres, s'il en existe, leurs axes principaux etc. ; et l'on reconnaît, en particulier, que pour fixer la direction de ces axes, il suffit de résoudre une équation du troisième degré. Cette équation qui se représente dans diverses questions de Géométrie ou de Mécanique, et, en particulier, dans la théorie des moments d'inertie, a cela de remarquable que ses trois racines sont toujours réelles.[Cauchy 1828, p.9].Dans la période qui sépare les travaux de Lagrange de 1766 et les organisations théoriques élaborées par Jordan et Kronecker en 1874, l'équation à l'aide de laquelle on détermine les inégalités séculaires des planètes revêt une identité qui ne se limite pas à un cadre théorique mais l'identifie à un corpus d'auteurs que l'on sollicite lorsque cette équation se manifeste et qui s'étoffe en conséquence. Nous proposons à présent d'étudier l'origine du caractère spécifique de cette équation dans la pratique élaborée par Lagrange pour l'intégration des systèmes différentiels linéaires à coefficients constants. Si une formulation contemporaine de cette pratique polynomiale a déjà été présentée par l'expression (*) donnée dans le troisième paragraphe de la partie I et détaillée dans la note n°23, les deux premiers paragraphes de la troisième partie de cet article proposent d'entrer dans la technicité mathématique des textes originaux, une synthèse est proposée dans le troisième paragraphe dans un cadre mathématique plus familier au lecteur contemporain.III.La spécificité de la pratique algébrique élaborée parLagrange pour le « problème des oscillations très petites d'un système quelconque de corps ». 1. La portée générale donnée au problème par la Mécanique Analytique de 1788. Le problème « des oscillations très petites d'un système quelconque de corps » ouvre la section V de la Mécanique Analytique intitulée « Solutions de différens problêmes de Dynamique ». Relevant d'une méthode « générale » applicable à un système « quelconque » de corps, le problème des petites oscillations illustre la portée des « principes généraux » exposés dans le traité et porte des enjeux historiques. L'architecture de la Mécanique Analytique ne peut en effet être dissociée d'une certaine forme d'histoire, faite d'un jeu de postérité, portée par une idée de « révolution » de la science par les modernes et présentée dans l'exposé préliminaire à l'ouvrage : La dynamique est la science des forces accélératrices ou retardatrices, & des mouvements variés qu'elles peuvent produire. Cette science est due entièrement aux Modernes, & Galilée est celui qui en a jeté les premiers fondements […]. La Mécanique devint une science nouvelle entre les mains de Newton, & ses Principes Mathématiques qui parurent pour la première fois en 1687, furent l'époque de cette révolution […]. Enfin l'invention du calcul infinitésimal mit les Géomètres en état de réduire à des équations analytiques les lois du mouvement des corps; & la recherche des forces & des mouvements qui en résultent est devenue depuis le principal objet de leurs travaux. Je me suis proposé ici de leur offrir un nouveau moyen de faciliter cette recherche […]. [Lagrange 1788, p.158-159]. La Mécanique analytique, qui se présente comme une oeuvre de synthèse du siècle écoulé, a prétention à participer de cette « révolution » par sa « facilité ». En faisant référence à la querelle des cordes vibrantes, Lagrange oppose la « simplicité » des principes exposés dans son traité aux difficultés et confusions suscitées par l'étude des systèmes de corps aux XVII e et XVIII e siècles. La résolution du « problème des petites oscillations d'un système quelconque de corps », que Daniel Bernouilli pensait trop irrégulier pour les méthodes analytiques et dont Jean le Rond d'Alembert n'était parvenu à traiter que le cas particulier d'un système restreint à deux ou trois masses, illustre à la fois la simplicité et la généralité qui font la nouveauté de la Mécanique analytique de 1788 ( 32 ). La mise en équation du mouvement vibratoire d'une corde sans poids, chargée de deux masses, illustrait déjà, dans le Traité de dynamique de 1743, la portée générale du principe des forces vives sur lequel d'Alembert avait unifié la mécanique des corps solides ( 33 ). fil CmM fixe en C, & chargé de deux poids m, M, étant infiniment peu éloigné de la verticale CO, trouver la durée des oscillations de ce fil [...].Un d'Alembert recourt à la méthode des coefficients indéterminées pour ramener le système des équations du mouvement à deux équations pouvant s'intégrer séparément. La méthode consiste à introduire un coefficient indéterminé ν permettant de combiner les deux équations en une équation algébrique du second degré dont les deux solutions, ν= ±1 2 , donnent les variables indépendantes recherchées, u=x+νy et u'=x+νy : Je multiplie la seconde par un coefficient indéterminé ν, & ensuite je les ajoute ensemble, ce qui donne Je fais en sorte que (2-2ν)x+(2ν-1)y soit un multiple de -x-νy, ce qui donne L'intégration de ces équations linéaires à coefficients constants, basée sur la solution donnée par Euler en 1743 ( 34 ), est présentée par d'Alembert dans un mémoire adressé à l'académie de Berlin en 1747 [d'Alembert 1750] ( 35 ) : 32 Au sujet du modèle de théorie physique et du style de mathématisation associés au formalisme de Lagrange, consistant à réduire et ordonner les différents principes connus en mécanique autour d'un unique principe général et d'un formalisme « algébrique », voir [Fraser 1980 et 1985], [Barroso-Filho et Comte 1988], [Dahan Dalmedico 1990 et 1992], [Galleto 1991] et [Panza 1992 et 2003]. 33 Au sujet des principes variationnels chez Bernouilli, d'Alembert et Lagrange, voir [Panza 2003, p.147]. Les citations seront extraites de la deuxième édition de 1758. La notation x désigne le déplacement vertical du corps m, y celui du corps M, l le déplacement parcouru pendant le premier instant par m et L par M. P est la pesanteur du corps M et p celle de m. 34 Au sujet des travaux d'Euler et de D. Bernouilli sur les petites oscillations d'une corde et à propos de la solution d'Euler de 1743, consulter [Gilain 2003, p.443]. 35 Ci-dessous, un exemple avec des notations contemporaines : si on considère des oscillateurs harmoniques couplés, de même masse m, reliés à des points A et B par des ressorts de même raideur k 0 et reliés entre eux par un ressort de raideur k, glissant sans frottement sur (AB), les équations du mouvement s'écrivent :-ddx-νddy = 2dt² T² ×( 2-2 ν .x+ 2 ν -1 .y)…(R). 2-2ν= 2ν−1 ν ; & ν= ±1 2 ; donc faisant x+νy=u, ou plutôt x+ y 2 =u, & x- y 2 =u', on aura les deux équations -ddu=(2-2 ) 2u dt² T² , & -ddu'=(2+ 2 ). 2u′dt² T² . parceque t croissant, u intégrales qui sont complètes, […]; de là on tirera les valeurs de x & de y, & on déterminera les constantes A&B par les valeurs connues & données de x & de y lorsque t=0. [Ibidem, p.145].diminue ; donc u=Acos t 4-2 2 T , & u'= Bcos. t 4+2 2 T , Bien que revendiquant la généralité de sa méthode, d'Alembert ne mettra celle-ci en oeuvre que pour les cas de deux masses et de trois masses égales. Comme nous allons le voir, lorsque Lagrange entreprendra de résoudre, en 1766, le problème dans le cas d'un « système quelconque de corps », cette généralisation s'accompagnera de l'élaboration d'une pratique polynomiale spécifique s'affranchissant de la méthode des coefficients indéterminés. A', B', C',…, A'', B'', C'',… étant des constantes données par la nature du problème. [Lagrange 1766, p.519].( 2 2 ) ( 2 2 ) ( 2 2 n n n n n n n n n y N y C y B y A dt y d y N y C y B y A dt y d y N y C y B y A dt y d y N y C y B y A dt y d a sommation après multiplication par les coefficients indéterminés λe ρt d. L'unique équation obtenue peut alors s'intégrer par partie : expriment la qualité de solutions particulières des expressions λ'e ρt dt réduisant l'ordre du système différentiel d'une unité. La méthode des coefficients indéterminés donne les conditions sur les λ et ρ pour l'obtention de l'équation (b) : « on fera les coefficients des quantités ⌡y'e ρt dt, ⌡y''e ρt dt, ⌡y'''e ρt dt,… égaux à zéro ». Ces conditions sont exprimées par un système d'équations linéaires ( 36 ) :Pour intégrer ces équations suivant la méthode expliquée ci-dessus, on multipliera la première par λ'e ρt dt, la seconde par λ''e ρt dt, et ainsi de suite, λ, λ', λ'', … étant, ainsi que ρ, des constantes indéterminées ; ensuite on les ajoutera ensemble, et on en prendra l'intégrale en faisant disparaître de dessous le signe ⌡ les différences des variables y', y'', y''', ... ; après quoi on fera les coefficients des quantités ⌡y'e ρt dt, ⌡y''e ρt dt, ⌡y'''e ρt dt,… égaux à zéro ; de cette manière on aura d'abord l'équation intégrale (b) [λ'( dy′ dt -ρy') + λ″( dy″ dt -ρy'')+ λ'''( dy″′ dt -ρy''')+…+λ (n) ( dy (n) dt -ρy (n) )]e ρt =const. [Ibidem]. Les termes dy′ dt -ρy' ⎪ ⎪ ⎪ ⎩ ⎪ ⎪ ⎪ ⎨ ⎧ = + + + + + = + + + + + = + + + + + à la condition que les termes en ⌡y''e ρt dt s'annulent, c'est-à-dire que ρ²λ'+A'λ'+A''λ''=0.' 2 2 2 2 = + + + + + y B y A dt y d e y B y A dt y d e t t ρ ρ λ λ . L'équation intégrale est obtenue par intégration par partie : ] [ 2 2 t t t e dt dy dt e dt dy dt e dt y d ρ ρ ρ ρ − = ∫ ∫ = ] [ ] [ 2 t t t e dt dy ye dt ye ρ ρ ρ ρ ρ − + ∫ Dans la pratique, les facteurs Q m sont déterminés par de simples différentiations de P :40 En des termes qui nous sont contemporains, les déterminants (ou les polynômes caractéristiques) de deux matrices transposés sont égaux. Cette propriété n'est pas vraie des vecteurs propres de deux matrices transposées : les systèmes (λ) et(ν) ne coïncident pas même si les ρ coïncident. 41 D'un point de vue contemporain, la nature des coefficients indéterminées λ est changeante, ils désignent le plus souvent des polynômes en ρ, et permettent donc d'exprimer le polynôme caractéristique (ils correspondent alors à une écriture générale des vecteurs propres du système). La signification change lorsqu'un indice est attribué à λ et λ m correspond alors à un nombre (le coefficient du vecteur propre associé à ρ m ). 42 Cette expression donne une expression polynomiale générale des vecteurs propres comme des quotients des mineurs et de facteurs du polynôme caractéristique analogue à l'expression donnée par les colonnes non nulles de la matrice des cofacteurs (voir à ce sujet la formule * dans I.3. et la note n°23). Nous reviendrons sur cette expression lors de la description de son héritage chez Cauchy réalisée dans la quatrième partie de cet article. Ce qui pourra servir à abréger le calcul de la valeur de Q dans plusieurs occasions. [Ibid]. Application de la méthode à l'exemple des oscillations d'un fil. illustre sa méthode en développant l'exemple des « oscillations d'un fil fixe par une de ses extrémités, et chargé d'un nombre quelconque de poids » : Soit n le nombre de poids, que nous supposerons, pour plus de simplicité, égaux entre eux et également éloignés les uns des autres ; imaginons que le fil ne fasse que des oscillations infiniments petites et dans le même plan : et soient nommées y', y'', y''',…., y (n) les distances des corps à la verticale, à commencer par le plus bas, et a la distance d'un corps à l'autre : on aura […]s) Q n θ n Prenons les différences de part et d'autre, en faisant varier ρ, et supposons ensuite ρ=ρ m , […] χdP dρ = - 2 ρ m [ν' m λ m '+ν'' m λ m ''+…ν (n) m λ m (n) = 2Q m ρ m donc on aura en général, Q = - 1 2 χρ dP dρ , • Lagrange d²y′ dt² + y′− y″ a =0 d²y″ dt² + -y′+y″−2y″′ a =0 d²y″′ dt² + -2y″+5y″′−3y i v a =0 d²y iv dt² + y iv − y v a -3 y″′−2y iv +y v a =0 ……………………………………………. d²y i v dt² + -( n−1) y ( n −1) +(2n−1) y ( n ) a [Ibid., p.535] dP dρ . [...] Faisons donc ces substitutions dans la dernière formule du n°30 [les expressions des solutions y (s) ], on aura l'expression générale des quantités y, et le problème sera résolu. [Ibid., p.536]aρ²) λ″ 2 = (1+2 aρ ²+ a²ρ 4 2 ) λ ′ …………………………………………………. λ iv = (1+3aρ²+ 3a 2 ρ 4 2 + a 3 ρ 6 2.3 )λ', λ v = (1+4 a ρ ²+ 6a 2 ρ 4 2 + 4a 3 ρ 6 2.3 + a 4 ρ 8 2.3.4 )λ', et ainsi de suite ; de sorte qu'on aura en général λ (m) =[I+(m-1)aρ²+ (m−1)( m−2) 4 a²ρ 4 + (m−1)( m−2)( m−3) 4.9 a 3 ρ 6 +…]λ'. Or il est visible que, pour satisfaire à la dernière équation ρ²λ (n) + -( n−1) λ ( n−1) +(2n−1) λ ( n) a =0 il faut supposer λ (n+1) =0,ce qui donne 1+naρ²+ ²+ n(n−1) a² 4 ρ 4 + n(n−1)( n−2) a 3 4.9 ρ 6 +….=0 équation d'où 'on tirera n valeurs de ρ² […]. P=1+naρ²+ n(n−1) a² 4 ρ 4 + n(n−1)( n−2) a 3 4.9 ρ 6 +…. d'où l'on tire [...] Q = - 1 2 χρ ). sont composées de deux mouvemens, synchrones chacun à celui d'un pendule simple. [d'Alembert 1758, p.152].1. La discussion dans un cadre mécanique chez d'Alembert, Lagrange et Laplace. Comme nous l'avons vu dans la partie précédente, d'Alembert avait abordé, dans son Traité de dynamique de 1743, le problème des petites oscillations de deux ou trois corps par une mise en oeuvre de la méthode des coefficients indéterminés qui permettait d'associer au système d'équations différentielles une équation polynomiale. La pratique de d'Alembert ne se réduit cependant pas à une application de la méthode des indéterminés et s'avère sous-tendue par une représentation mécanique du problème. Le principe directeur qui guide l'emploi de la méthode des coefficients indéterminés et ramène le problème à la résolution d'une équation algébrique de degré 2, est en effet basé sur une observation mécanique attribuée à Daniel Bernoulli: Je me contenterai de dire que l'on remarque aisément dans les valeurs de x & de y trouvées ci- dessus, la double oscillation que M. Bernouilli a observée dans le mouvement du pendule dont il s'agit ; chacune de ces oscillations est représentée par chacun des deux termes de la valeur de x & de celle de y. En effet, l'équation du mouvement d'un pendule simple de longueur λ, est - ddz= 2azdt² λT² , ou z=K×cof. 1 T 2a λ ; d'où il est facile de voir que les mouvemens des corps M, m Alembert évoque, sans le développer, un argument selon lequel il suffirait de faire subir une variation infiniment petite α aux coefficients de l'équation afin de se ramener au cas des racines inégales, la quantité α disparaissant à l'issu du calcul. Lorsqu'il entreprend en 1766 de généraliser la méthode aux oscillations d'un système quelconque de n corps, Lagrange reprend à son compte l'argument de d'Alembert et propose un calcul effectif pour le cas d'une racine double ρ 1 . Posant ρ 2 =ρ 1 +ω, ω étant une « quantité évanouissante » ( 46 ), Lagrange conclut :[…] il est évident que les termes de la valeur de y (s) qui répondent aux racines égales contiendront toujours l'angle t, et de plus des exponentielles ordinaires si ces racines sont positives, et des sinus et des cosinus si elles sont négatives.[Lagrange 1766, p.529].). La discussion sur la relation entre la stabilité et la nature des racines se développe chez d'Alembert sur le plan mécanique en mobilisant le principe de conservation des forces vives, « si on veut qu'ils [les corps] arrivent tous en même tems à la verticale », les oscillations sont nécessairement des expressions réelles de t [d'Alembert 1758, p.152]. La nature réelle des oscillations implique alors que les « parties imaginaires » des racines de « l'équation en ν » se « détruisent mutuellement » [Ibidem, p.165-166]. Mais d'Alembert va plus loin en affirmant que les oscillations devant « toujours être extrêmement petites, par la nature du problème », l'occurrence de racines imaginaires doit être rejetée car elle imposerait la présence de termes exponentielles, croissant à l'infini [Ibid., p.167]. En cas d'occurrence de racines multiples, la méthode des indéterminés ne permet pas de ramener le système à des équations indépendantes et d' Les enjeux de cette implication changent de nature lorsque Lagrange aborde, en 1774, le problème des variations séculaires des planètes par une mathématisation similaire à basée sur les tables astronomiques et trigonométriques, fournit quatre racines réelles distinctes. Pour Lagrange, cette conclusion numérique ne permet cependant pas de lever le « doute » sur la stabilité du système des quatre planètes tant le calcul des valeurs des racines est tributaire des valeurs attribuées aux masses des planètes. Lever le doute nécessiterait une démonstration algébrique de l'inégalité des racines mais la nature du problème -la résolution d'une équation algébrique générale-condamne à abandonner l'ambition d'une démonstration « générale » pour s'orienter vers un « artifice particulier ».Mais, comme les racines que nous venons de trouver dépendent des valeurs supposées aux masses des Planètes, on pourrait douter si, en changeant ces valeurs, on ne tomberait peut être pas dans les racines égales ou imaginaires. Pour lever tout à fait ce doute, il faudrait pouvoir démontrer, en général, que, quelles que soient les valeurs des masses, pourvu seulement qu'elles soient positives, les racines de l'équation dont il s'agit sont toujours réelles et inégales. Cela est facile lorsqu'on ne considère à la fois que l'action mutuelle de deux Planètes […] ; mais cette équation se complique et s'élève à mesure que le nombre des Planètes augmente ; c'est pourquoi il devient de plus en plus difficile de juger à priori de la qualité des racines. Cependant il ne parait pas impossible de parvenir, par quelque artifice particulier, à décider cette question d'une manière générale ; et comme c'est un objet également intéressant pour l'analyse et pour l'Astronomie physique, je me propose de m'en occuper. En attendant, je me contenterai de remarquer que, dans le cas présent, les racines trouvées sont trop différentes entre elles pour qu'un petit changement dans les masses adoptées puisse les rendre égales, et encore moins imaginaires.[Lagrange 1781, p.316].45 Dans cette conclusion, il faut cependant distinguer entre les deux qualités des racines que sont leurs natures (réelles, négatives) et leurs multiplicités. Dans le cas où les racines sont imaginaires ou réelles positives, la méthode s'applique et les oscillations s'expriment par une exponentielle réelle : elles ne sont donc pas bornées. En cas d'occurrence de racines multiples, la méthode ne permet plus l'obtention de n équations indépendantes et l'expression des solutions n'est plus valable. 46 On retrouvera des raisonnements basés sur l'introduction d'infiniment petits pour traiter le cas des racines multiples chez Cauchy en 1839 et Sylvester en 1882. Comme l'a montré Thomas Hawkins en 1975, un raisonnement par introduction d'infiniment petits pourrait être rendu mathématiquement rigoureux (et par conséquent arriver à des conclusions opposées à celles de Lagrange) en utilisant le théorème de Bolzano Weierstrass sur l'ensemble des matrices orthogonales, fermé et borné dans M n (Ë). 47 Ce type de solutions peut effectivement intervenir dans la résolution d'un système d'équations différentielles d'ordre n dont la matrice aurait des valeurs propres multiples. Il n'intervient cependant pas dans l'hypothèse symétrique ou plus généralement diagonalisable. L'absence de notion d'indépendance linéaire ne permet pas d'imaginer deux solutions s'exprimant à partir d'une même fonction e δt et tout de même « indépendantes ». Il y a ici deux familles indépendantes : celle des fonction (e δit ) dans l'espace des fonctions dérivables et celle des vecteurs de Ë n auquel est isomorphe l'espace des solutions de l'équation. C'est l'indépendance de cette dernière famille qui est nécessaire et qui peut donc être réalisée pour des racines multiples. celle des petites oscillations d'un fil traitées en 1766 ( 48 ). Dans la situation des petites oscillations d'un fil, les présupposés de stabilité du problème mécanique impliquaient des propriétés des racines de l'équation associée-les oscillations sont petites donc les racines sont réelles -, dans le cadre de l'astronomie, la stabilité du système du monde n'est au contraire pas assurée ( 49 ) : Avant de terminer cet Article, nous devons encore remarquer que, quoique nous ayons supposé que les racines a, b, c,… de l'équation en x soient réelles et inégales, il peut néanmoins arriver qu'il y en ait d'égales ou d'imaginaires ; mais il est facile de résoudre ces cas par les méthodes connues : nous observerons seulement que, dans le cas des racines égales, les valeurs de s, s 1 , s 2 ,…, u, u 1 , u 2 ,… contiendront des arcs de cercle, et que dans celui des racines imaginaires ces valeurs contiendront des exponentielles ordinaires ; de sorte que, dans l'un et l'autre cas, les quantités dont il s'agit croîtront à mesure que t croît ; par conséquent la solution précédente cessera d'être exacte au bout d'un certain temps ; mais heureusement ces cas ne paraissent pas avoir lieu dans le Système du monde. [Lagrange 1778, p.665]. La stabilité du système solaire ne pouvant être prise comme hypothèse, la généralisation de la méthode des petites oscillations d'un fil aux oscillations des planètes sur leurs orbites inverse la logique de la discussion sur la nature des racines qui se focalise sur l'implication : les racines sont réelles donc le système est stable. En 1781, Lagrange aborde la question de la stabilité du système solaire par un calcul effectif des solutions de l'équation algébrique associée. Le cas de Saturne et Jupiter est traité séparément en raison de leur éloignement ; l'étude des orbites des planètes Mars, Terre, Vénus et Mercure conduit à une équation du 4 e degré que Lagrange résout par application de sa méthode de réduction du degré par substitutions [Lagrange 1781, p.311]. L'application numérique, Cauchy sur le calcul des fonctions alternées envisagé dans le cadre de la genèse du concept de groupe, voir[Dahan Dalmedico 1979] ⎪ ⎪ ⎪ ⎩ ⎪ ⎪ ⎪ ⎨ ⎧ = + − + + = + + − + = + + + − ........., . . . , 0 ... ) ( , 0 ... ) ( , 0 ... ) ( ) 10 ( z s A y A x A z A y s A x A z A y A x s A zz yz xz yz yy xy xz xy xx La formule (8) exprime les fonctions Φ et Ψ comme des sommes des mêmes formes quadratiques Φ α Φ β . Pour obtenir la transformation désirée des fonctions Φ et Ψ, il ne reste qu'à réorganiser l'écriture par regroupement des variables en groupes de formes θ i et Θ i pour lesquelles Θ i =sθ i .La relation x α =Σ β { f(s) αβ f(s) (sΦ β -Ψ β ) exprime les x α à l'aide de factorisations f(s) αβ du déterminantPxx s de Cauchy, manifeste un héritage des pratiques spécifiques élaborées par Lagrange et Cauchy, depuis le mémoire publié par ce dernier en 1829, elle s'interprète comme le quotient d'un mineur par le déterminant f(s) dont il est extrait et la circonstance remarquable énoncée par Weierstrass implique que cette expression est toujours définie, même en l'occurrence de racines multiples de f(s)=0 ( 68 ). Pour réorganiser l'écriture par groupes de variables θ i et Θ i pour lesquelles Θ i =sθ i , Weierstrass décompose les fractions f( s) αβ f( s) en éléments simples à l'aide des pôles donnés par les racines s 1 , …, s m de l'équation f(s) =0 ( 69 ).Les variables sont structurées en groupes caractérisés ( 70 ), pour chaque racine s μ , par les termesf(s) ( 67 ). L'expression f( s) αβ f( s) , analogue au [ f(s) αβ f(s) )] s-1 = Σ μ [ f(s) αβ f(s) )] (s-sμ)-1 comportant son résidu [ f(s) αβ f(s) )] (s-sμ)-1 ( 71 ): ce qui permet de déduire : 67 D'un point de vue qui nous est contemporain, si on note B(s) la matrice des cofacteurs de la matrice caractéristique sA-B, ∀ ⇒ α f(s)x α = Σ β b αβ (s) [sA-B) βα 68 La circonstance remarquable est démontrée de la manière suivante. Si on développe le quotient f(s) αγ /f(s) en puissances croissantes de (s-s μ ) : f(s) αγ /f(s) = h αγ (s-s μ ) l +… , alors la théorie du déterminant implique :Φ est définie et ne s'annule donc pas pour des valeurs réelles des variables x i , non toutes nulles, le coefficient de (s-s μ ) 2l ne peut pas être nul et 2l≥l-1 donc l≥ -1.Chaque terme f(s) αγ doit par conséquent être divisible par (s-s μ ) λ-1 . 69 Cet examen des pôles des quotients par Weierstrass pourrait, selon Thomas Hawkins, manifester une influence de la résolution donnée par Cauchy en 1839 dans le cadre du calcul des résidus[Hawkins 1975, p.131]. 70 L'exemple suivant permet d'illustrer la notation de Weierstrass :71 Cette méthode est analogue à la manière dont ont exprime aujourd'hui les exponentielles de matrices intervenant dans la résolution des systèmes différentiels. S'il s'agit par exemple de calculer l'exponentielle dealors (sA-B)B(s) =f(s) ∑ − = αβ βγ αγ αβ γγ ) ( ) ( ) ( ) ( ) ) ( ) ( ( s f s f s f s f A ds s f s f d et ∑ + − − = + − − αβ μ βγ αγ αβ μ γγ ... ) ( ... ) ( 2 1 l l s s h h A s s lh x+1 x²+ x−2 = 1 3 [ 2 x−1 + 1 x+2 ] signifie [ x+1 x²+ x−2 ] s-1 = 2/3 +1/3 Pour Cauchy, le problème posé par l'occurrence de racines multiples manifeste un cas singulier limitant l'« étendue » d'une formule et nécessitant un traitement spécifique initialement mené par introduction d'infiniment petits. C'est par opposition à de tels cas singuliers qui « encombrent » les formules de l'algèbre que Cauchy introduit dès 1826 le calcul des résidus à l'aide duquel il donnera en 1839 une résolution homogène au problème des petites oscillations. Le renouvellement de la signification de la généralité qui accompagne cette exigence d'homogénéité va porter la discussion des petites oscillations de Cauchy à Weierstrass, en passant par Jacobi, Borchardt, Hermite, Dirichlet et Sylvester. La question se focalise alors sur le problème de la multiplicité des racines, d'abord abordé par des méthodes différentielles par Sturm, Cauchy et Sylvester. Ce dernier, après une première série de travaux consacrée à la nature des racines algébriques (1840-1842) articule la méthode différentielle à la théorie du déterminant et ses représentations géométriques en termes de « rectangle symétrique » par rapport à sa « diagonale ». Ses travaux qui, avec ceux d'Arthur Cayley, sont à l'origine de la théorie des invariants et voient l'introduction des termes « matrices » et « mineurs » (1850-1852) ( 72 ), sont investis dans un cadre arithmétique en relation avec les préoccupations d'Hermite sur les formes quadratiques et la décomposition en quatre carrés(1853- 1856). La question de la généralité est indissociable de l'identité algébrique du corpus mais tout en donnant, comme nous l'avons vu, une conclusion algébrique, générale et homogène à la discussion, Weierstrass s'appuie en 1858 sur des procédés de « transformation » de « formes » linéaires qui manifestent l'orientation arithmétique qu'ont pris les travaux sur l'équation des petites oscillations dans les années 1850. En réponse à un mémoire de Borchardt intitulé « Neue Eigenschaft der Gleichung mit deren Hülfe man die saecularen Storungen der Planeten bestimmt »[1846], Hermite adresse à Borchardt une lettre que celui-ci publiera dans son journal en 1857 sous le titre « Sur l'invariabilité du nombre des carrés positifs et des carrés négatifs dans la transformation des polynômes homogènes du second degré ». Hermite interprète les déterminants 72 Au sujet des origines de la théorie des invariants, consulter[Parshall 1989[Parshall et 2006.employés par Cauchy en 1829 comme des invariants caractérisant les classes d'équivalences des couples de formes quadratiques :Dans le cas où vous le jugeriez convenable, vous pourriez publier la démonstration suivante, du principe découvert par Jacobi, et employé par lui à la démonstration des belles formules pour les conditions de réalité des racines des équations algébriques, que vous avez données dans votre Mémoire sur l'équation à l'aide de laquelle, etc. Rien d'ailleurs n'est plus simple que d'établir ce principe que j'énoncerai ainsi : Quelque substitution réelle que l'on emploie pour réduire un polynôme homogène du second degré à une somme de carrés, le nombre des coefficients de ces carrés qui auront un signe donné sera toujours le même.[Hermite 1857, p.429].Dans un cadre arithmétique, le problème est présenté sous une forme semblable à la loi d'inertie, « réduire un polynôme homogène du second degré à une somme de carrés », et abordé par les méthodes propres à la théorie des formes quadratiques. On recherche les invariants qui caractérisent les coefficients des formes canoniques permettant de caractériser les classes d'équivalences des formes. Comme le formulera clairement Darboux qui, en 1874 généralisera les procédés élaborés par Hermite en 1857 pour élaborer une nouvelle démonstration du théorème de Weierstrass de 1858, l'invariant du couple de formes (f(x 1 ,…,x n ), x 1 ²+…+x n ²) qu'est le déterminant |f(x 1 , x 2 ,…,x n )-λ(x 1 ²+x 2 ²+…+x n ²) | ne permet pas de caractériser les différentes classes d'équivalences et il faut donc aller au-delà du déterminant en considérant ses « mineurs » (annexe 3) ( 73 ). Contrairement à la loi d'inertie de la théorie arithmétique des formes quadratiques, le problème porte ici sur la transformation simultanée d'un couple de formes envisagé comme un polynôme de formes quadratiques f(x 1 , x 2 ,…,x n )-λ(x 1 ²+x 2 ²+…+x n ²). En raison de son caractère polynomial, le problème s'insère pour Darboux dans « la théorie algébrique des formes quadratiques ». La mathématique des formes est-elle une algèbre ou une arithmétique ? C'est sur cette question que se développe la querelle entre Jordan et Kronecker de 1874. Pour Kronecker qui revendique l'héritage de Gauss, la théorie des formes bilinéaires est de nature arithmétique et ses méthodes doivent par conséquent relever d'un calcul d'invariants obtenus par des procédés effectifs de calculs de p.g.c.d. ( 74 ). Jordan donne au contraire une organisation algébrique à la théorie qu'il structure par l'action des groupes de substitutions (substitutions linéaires, orthogonales etc.) et une méthode de « réduction » des « formes » à des « formes canoniques simples ». Comme nous l'avons vu dans la première partie, le corpus de la discussion avait joué le rôle d'une histoire commune au travers de laquelle de premières identités s'étaient manifestées entre les deux théorèmes de Jordan et Weierstrass. L'étude que nous avons menée dans cet article nous permet d'aller plus loin. Elle montre que la discussion sur l'équation des petites oscillations s'identifie plus profondément à une pratique algébrique commune à Jordan et Weierstrass et consistant à transformer la forme des systèmes linéaires par des décompositions de la forme polynomiale d'une équation algébrique. Contrairement à la théorie arithmétique des formes quadratiques dans laquelle le terme « forme » bénéficie d'une définition mathématique explicite en relation avec la notion de relation d'équivalence, les significations des termes « formes » et « transformations » restent le plus souvent implicites et évoluent considérablement dans le cadre algébrique de la discussion. Dans sa Mécanique Analytique de 1788, Lagrange distinguait ce qu'on « était en droit d'attendre de la Dynamique », donner les équations fondamentales du mouvement, et la « charge » incombant « au calcul intégral » de donner à ces équations une « forme simple » propre à leurs intégrations.73 Darboux voit notamment la notion de diviseur élémentaire de Weierstrass en germe dans les invariants introduits par Sylvester en 1851 pour caractériser les intersections de coniques et quadriques. C'est à l'occasion de ces travaux que Sylvester introduit les termes de « mineurs » d'une « matrice ». Voir à ce sujet[Brechenmacher 2006d]. 74 C'est en effet dans ses travaux fondateurs sur l'arithmétique des formes quadratiques que les notions de formes et de classes d'équivalences avaient été définies par Gauss pour les fonctions homogènes à coefficients entiers ou rationnels. Lors de la querelle de 1874, Kronecker introduit ce que l'on désignerait aujourd'hui comme les facteurs invariants d'une matrice A sur un anneau principal. Si D(λ)=|A-λI|, dans la suite des p.g.c.d. des mineurs successifs Δ r (λ), Δ r-1 (λ), …, Δ 1 (λ), chaque polynôme est divisible par le précédent et si les quotients correspondants sont désignés par i 1 (λ), i 2 (λ),…i r (λ) et appelés les polynômes invariants de la matrice A(λ) la décomposition de ces polynômes en facteur irréductibles distincts sur K donne les diviseurs élémentaires de la matrice A(λ) sur le corps K.s c s s i )] ( ...[ )] ( [ ) ( 1 1 1 λ ϕ λ ϕ λ = , s d s d i )] ( ...[ )] ( [ ) ( 1 1 2 λ ϕ λ ϕ λ = , …, s l s l r i )] ( ...[ )] ( [ ) ( 1 1 λ ϕ λ ϕ λ = (c k >d k >….>l k ) Chez Cauchy la notion de « transformation d'une fonction homogène » était indissociable d'une représentation géométrique de transformation des axes de coordonnées d'une conique. Si la question qui semble aujourd'hui essentielle, et que l'on formulerait comme la caractérisation de la forme d'une matrice non nécessairement diagonalisable car présentant des valeurs propres multiples, n'avait pas été abordée par Lagrange, Laplace ou Cauchy il ne s'agissait pas là d'un défaut de généralité comme le sanctionne Kronecker en 1874 mais d'une question étrangère à la manière dont étaient envisagés les termes « formes » et « transformations » d'un système. Cette question était au contraire naturelle dans le cadre arithmétique des travaux d'Hermite et Weierstrass des années 1850 qui ouvraient la voie aux premiers travaux d'Elwyn Christoffel sur les formes bilinéaires d'une part( 75 ), dans le cadre algébrique des travaux de Jordan sur les groupes de substitutions d'autre part. Dans la résolution générale que donne ce dernier au problème de l'intégration des systèmes d'équations linéaires à coefficients constants, la décomposition en facteurs irréductibles du polynôme caractéristique permet de regrouper les variables en « un certain nombre de séries » et de « ramener » le système d'équations à une « suite » de « formes simples » dont l'intégration est connue (annexe 2)[Jordan 1871, p.787]. Aux diverses significations associées au terme « formes » chez Lagrange, Laplace ou Cauchy, répond chez Hermite, Weierstrass, Kronecker, Jordan ou Darboux une mathématique dont la « forme », la « transformation » est l'objet. Cette mathématique qui permet de poser, en toute généralité, la question de la caractérisation de la forme d'un système linéaire est-elle une algèbre ou une arithmétique ? Comme nous le détaillons dans un article consacré à la querelle de 1874[Brechenmacher 200 ?], si Jordan et Kronecker se réfèrent à une histoire commune dans laquelle ils identifient une pratique spécifique, consistant à aborder les transformations des couples de formes bilinéaires (A,B) par la décomposition de la forme polynomiale de l'équation |A+sB|=0, les deux géomètres opposent la généralité de deux méthodes (calculs d'invariants, réductions canoniques), deux cadres théoriques (formes bilinéaires, substitutions), deux disciplines (arithmétique, algèbre) dans lesquels s'insèrent cette pratique partagée par les deux savants. Comme l'illustre cette controverse, la manière dont une mathématique des formes s'élabore au XIX e siècle, en manifestant une tension entre arithmétique et algèbre et la rencontre de différents75 Dans deux mémoires successifs, consacrés à ce que nous désignerions comme le cas hermitien dans lequel les racines sont réelles comme dans le cas symétrique, et publiés en 1864, Christoffel s'appuie sur les résultats de Weierstrass de 1858 pour généraliser des travaux mécaniques de Clebsch [1860] et des résultats d'[Hermite 1854[Hermite , 1855[Hermite , 1856 sur les résidus biquadratiques, les propriétés arithmétiques des nombres a+bi (a et b entiers) et la décomposition d'un entier en somme de quatre carrés. Le premier mémoire se présente comme un développement mathématique du second, consacré à des problèmes de petites oscillations dans le cadre de la théorie de Cauchy selon laquelle la lumière correspond aux petites vibrations de molécules ponctuelles d'éther soumises à des forces attractives et répulsives. Le procédé nécessite l'intégration d'un système d'équations différentielles linéaires dont les coefficients sont des constantes complexes[Mawhin 1981] présentant des « propriétés remarquables car ils apparaissent comme des extensions de ces équations qui interviennent dans la théorie des perturbations séculaires des planètes et dans tant d'autres recherches » [Clebsch 1860, p.326] et généralisant le cas quadratique à ce que Christoffel décrit comme des « fonctions bilinéaires » en référence à un mémoire de 1857 dans lequel Jacobi généralisait la loi d'inertie des formes quadratiques aux « fonctions bilinéaires » Σa ij x i y j . Nous proposons dans cet article une approche complémentaire aux travaux menés par l'historien T. Hawkins de l'université de Boston et auxquels nos recherches sont très largement redevables. Entre 1974 et 1977, Hawkins a consacré plusieurs articles à l'histoire de la théorie spectrale des matrices, il en a fixé la structure qui a ensuite été reprise par les traités d'histoire des mathématiques proposant une histoire de l'algèbre linéaire. Une première étape voit une « origine » de la théorie spectrale dans les travaux de mécaniques du XVIII e siècle impliquant des systèmes différentiels linéaires à coefficients constants du type AY''=BY où A est une matrice symétrique et B une matrice symétrique et définie. L'intégration de ces systèmes repose sur la recherche de valeurs propres λ i telles que AX=λ i BX permettant d'écrire le système différentiel sous la forme DY''=Y où D=( λ 1 , λ 2 , … , λ n ) est une matrice diagonale. A cette première étape succède un développement théorique initié par Cauchy (1829) et complété par Weierstrass (1858) et qui se caractérise par la démonstration de la nature réelle des valeurs propres des matrices symétriques. La troisième étape correspond à l'organisation d'une théorie, la théorie des formes bilinéaires fixée par Frobenius en 1878, autour d'un théorème énoncé par Weierstrass en 1868 permettant de caractériser les classes de similitude des matrices par un système complet d'invariants, les diviseurs élémentaires. 3 Dans le cadre de son étude sur l'évolution des fondements de la mécanique des systèmes discrets chez Lagrange, M. Panza a mis en évidence le rôle essentiel joué par l'« interprétation mathématique des concepts mécaniques essentiels »[Panza 1992, p.205]. Nous verrons dans les troisième et quatrième parties de cet article que la pratique algébrique élaborée par Lagrange pour le problème des petites oscillations est indissociable d'une représentation mécanique consistant à envisager les oscillations d'un système de n corps comme la composition de n périodes propres. Comme nous le verrons dans le paragraphe I.3. et la note n°23, la pratique de Lagrange sera plus tard exprimée sous la forme d'une méthode revenant à donner une expression polynomiale générale des vecteurs propres d'une matrice comme Des recherches sur la transformation des fonctions thêta de plusieurs variables sont à l'origine de la publication, en 1866, de deux mémoires de Christoffel et Kronecker qui revendiquent la création d'une théorie des formes bilinéaires. L'origine de la théorie des formes bilinéaires, à Berlin, dans les années 1860 est présentée dans[Hawkins 1977] et[Brechenmacher 2006a]. Au sujet des premiers travaux de Christoffel sur les formes consulter plus particulièrement[Mawhin 1981]. Pour des compléments mathématiques sur le problème de la réduction canonique des couples de matrices, voir[Dieudonné 1946]. 10 En des termes qui nous sont contemporains, la notion de forme bilinéaire joue pendant longtemps un rôle analogue à celui que jouera la notion de matrice dans l'algèbre linéaire du XX e siècle. Dans la citation de Villarceau, u et s sont des fonctions de t, g, f et a des constantes. L'intervention de u et s est en miroir dans les équations, le système est donc symétrique. Nous verrons dans la troisième partie de cet article que cette propriété se dégage d'une pratique algébrique spécifique élaborée par Lagrange en 1766. 14 On dirait aujourd'hui que le système est stable et se ramène à des « équations distinctes qui s'intègrent isolément » s'il est diagonalisable dans Ë. Une matrice dont les valeurs propres sont toutes distinctes est diagonalisable mais la condition n'est pas nécessaire, une matrice présentant des valeurs propres multiples peut être diagonalisable ou non diagonalisable. La matrice du système d'équations différentielles linéaire à coefficients constants de Lagrange est toujours diagonalisable car symétrique. Il semble que les travaux de Weierstrass de 1858 aient influencé Jordan de manière indirecte, par l'intermédiaire d'un mémoire publié à l'Académie de Saint Petersbourg par Somof[1859]. Ce mémoire, porté à l'attention de Jordan par Yvon-Villarceau en 1872, contient un exposé de la méthode de Weierstrass appliquée au problème des petites oscillations. 21 Ce défaut, immédiatement corrigé par Jordan, est sans conséquence sur l'organisation théorique que celui-ci propose. Voir à ce sujet[Brechenmacher 2006a]. Contrairement au cas bilinéaire, dans le cas quadratique étudié par Weierstrass en 1858 les matrices sont symétriques donc toujours diagonalisables sur Ë. Une matrice est diagonalisable si et seulement si ses diviseurs élémentaires sont simples. 25 Le mémoire de Darboux concerne avant tout les surfaces, et sa méthode est insérée par Gundelfinger dans la troisième édition de la géométrie analytique de Hesse. Pour une description détaillée du travail de Darboux, voir l'article de Drach et Meyer dans L'encyclopédie des sciences mathématiquesde 1907. Il s'agit du calcul du Lagrangien L=T-V où T représente l'énergie cinétique et V l'énergie potentielle. Le système est obtenu après prise en compte des conditions initiales et développements de Taylor de V dont on néglige les termes supérieurs à l'ordre 2 en t selon le principe des petites oscillations.28 Dire que les solutions ont entre elles des rapports constants (ψ= fξ, φ= g ξ,…) et sont exprimables à l'aide de n solutions particulières indépendantes s'interprète, dans le cadre des mathématiques contemporaines, par la structure linéaire de l'ensemble des solutions formant un espace vectoriel de dimension n. La forme Φ étant supposée de déterminant non nul. La relation entre les travaux de Weierstrass et l'arithmétique des formes quadratiques sera développée en conclusion de cet article. J'ai donné dans un autre Mémoire (Tome VII des Savants étrangers) les expressions des inégalités séculaires des planètes[…]. Celles que j'ai donné n'en sont que les différentielles ; je m'étais proposé depuis longtemps de les intégrer ; mais le peu d'utilité de ce calcul pour les besoins de l'Astronomie, joint aux difficultés qu'il présentait, m'avait fait abandonner cette idée , et j'avoue que je ne l'aurais pas reprise, sans la lecture d'un excellent Mémoire Sur les inégalités séculaires du mouvement des noeuds et de l'inclinaison des orbites des planètes que M. de Lagrange vient d'envoyer à l'Académie, et qui paraîtra dans un des Volumes suivants. Cet illustre géomètre, au moyen d'une transformation heureuse, réduit le problème à l'intégration d'autant d'équations linéaires du premier ordre qu'il y a d'inconnues ; il donne ensuite une méthode fort ingénieuse pour les intégrer, et pour déterminer les constantes que renferme l'intégrale, quelque soit le nombre de planètes. En employant la même transformation, j'ai tiré les mêmes équations de mes formules ; j'ai de plus cherché si l'on ne pourrait pas déterminer d'une manière analogue les inégalités séculaires de l'excentricité et du mouvement de l'aphélie […] on aura ainsi une théorie complète et rigoureuse de toutes les inégalités séculaires des orbites des planètes.[Laplace 1775, p.354].La référence de Laplace à Lagrange manifeste la reconnaissance de l'efficacité d'une « méthode fort ingénieuse » ramenant la résolution de problèmes mécaniques à la considération d'une équation algébrique. C'est donc l'efficacité d'une méthode qui justifie la mathématisation du Pour la représentation mécanique qui sous tend les méthodes mathématique, voir plus généralement les conclusions faites par d'Alembert [1758, p.152-160], ou Lagrange [1766, p.532-539] en matière de fréquences d'oscillations. 44 1/r² désigne une racine de l'équation. En raison de l'effectivité que requiert de la méthode son usage en astronomie, Lagrange développe une nouvelle méthode pour la détermination des constantes des solutions aux conditions initiales et consistant en un procédé d'itération permettant de mener les calculs pour les planètes du système solaire[1778, p.634]. Cette méthode, dont la description dépasse l'objet de ce travail, est parfois désignée comme « méthode de Le Verrier » en algèbre linéaire[Gantmacher 1958]. La demande d'effectivité provenant de l'application de la méthode de Lagrange à l'astronomie se fait particulièrement ressentir pour le cas des variations séculaires qui nécessitent la prise en compte d'observations sur une très longue période[Lagrange, 1778 p.634]. La question de l'extension des prévisions mathématiques des variations séculaires à un temps indéterminé restera très débattue au XIX e siècle pour finalement recevoir une réponse négative chez Poincaré. Voir[Robadey 2006] et[Laskar 1992]. 49 Tout le problème de la stabilité du système solaire se résume donc au calcul des valeurs propres de deux matrices réelles (7×7 à l'époque car Neptune n'était pas encore découverte) A et B. Si ces valeurs propres sont toutes réelles et distinctes, alors les solutions sont quasi-périodiques, et les excentricités et inclinaisons ne présentent que des variations périodiques autour de leurs valeurs moyennes, mais si l'une des valeurs propres a une partie imaginaire non nulle, on obtient une instabilité exponentielle, une excentricité peut alors devenir très grande et entraîner la possibilité de rencontre de deux planètes. Les Φ α sont des formes linéaires qui constituent une base du dual E*. Il s'agit donc d'exprimer les variables x α dans cette base duale de manière à avoir une écriture des formes quadratiques comme somme de produits de formes linéaires Φ=Σk s1 Φ α Φ β . il s'agissait d'établir ; mais il donne lieu à une remarque essentielle : c'est que, dans son énoncé, on pourrait entendre par ordre de multiplicité d'une racine, non plus le nombre des dérivées, mais le nombre des fonctions Φ,…,Φ n qu'annule cette racine, quels que soient les arbitraires figurant dans ces fonctions. De La Forme Ne Peut Varier D&apos;une Quantité Supérieure À L&apos;ordre De Multiplicité De La Racine Considérée. C&apos;est Le Théorème, Qu, Ainsi une racine multiple pourra être considéré comme simple si elle n'annule pas tous les mineurs du premier ordre ; comme double si, annulant tous les mineurs du premier ordre, elle n'annule pas tous ceux du second et ainsi de suite. Faisons quelques applications de ce théorème. Soit d'abord la forme quadratique f(x 1 , x 2 ,…,x n )-λ(x 1 ²+x 2 ²+…+x n ²de la forme ne peut varier d'une quantité supérieure à l'ordre de multiplicité de la racine considérée. C'est le théorème qu'il s'agissait d'établir ; mais il donne lieu à une remarque essentielle : c'est que, dans son énoncé, on pourrait entendre par ordre de multiplicité d'une racine, non plus le nombre des dérivées, mais le nombre des fonctions Φ,…,Φ n qu'annule cette racine, quels que soient les arbitraires figurant dans ces fonctions. Ainsi une racine multiple pourra être considéré comme simple si elle n'annule pas tous les mineurs du premier ordre ; comme double si, annulant tous les mineurs du premier ordre, elle n'annule pas tous ceux du second et ainsi de suite. Faisons quelques applications de ce théorème. Soit d'abord la forme quadratique f(x 1 , x 2 ,…,x n )-λ(x 1 ²+x 2 ²+…+x n ²). L'équation qu'on obtient en égalant l'invariant à zéro a été traitée d'abord par Cauchy, puis par une foule de géomètres : MM. Borchardt, Sylvester, etc. On déduit la réalité de ses racines du théorème que nous venons d'établir. L'équation qu'on obtient en égalant l'invariant à zéro a été traitée d'abord par Cauchy, puis par une foule de géomètres : MM. Borchardt, Sylvester, etc. On déduit la réalité de ses racines du théorème que nous venons d'établir [….]. De plus, si elle a des racines multiples, une racine d'ordre p devra annuler tous les mineurs d'ordre p-1 de l'invariant. La méthode de M. Sylvester seule permet de démontrer ce dernier point et d'écarter la difficulté relative aux racines multiples, qui se présente dans la méthode de Cauchy et de M. Borchardt. Darboux 1874, p.367De plus, si elle a des racines multiples, une racine d'ordre p devra annuler tous les mineurs d'ordre p-1 de l'invariant. La méthode de M. Sylvester seule permet de démontrer ce dernier point et d'écarter la difficulté relative aux racines multiples, qui se présente dans la méthode de Cauchy et de M. Borchardt. [Darboux 1874, p.367]. . Bibliographie, Bibliographie. . R Baillaud, BAILLAUD, R. La formalisation de la dynamique par Lagrange : L'introduction du Calcul des Variations et l'Unification à partir du Principe de moindre Action. Yvon-Villarceau, W Barroso-Filho, C Comte, Mémoires de l'Académie des Sciences. ParisBlanchardin Sciences à l'Epoque de la Révolution éd. par R. RashedYvon-Villarceau, sa vie, son oeuvre, Mémoires de l'Académie des Sciences, Belles-Lettres et Arts de Besançon, 1957. BARROSO-FILHO, W., COMTE, C., [1988] La formalisation de la dynamique par Lagrange : L'introduction du Calcul des Variations et l'Unification à partir du Principe de moindre Action, in Sciences à l'Epoque de la Révolution éd. par R. Rashed, Paris : Blanchard, 1988, p. 329-348. . B Belhoste, BELHOSTE, B. ; Cauchy, P Benoit, K Chemla, J Ritter, Un mathématicien légitimiste au XIX e siècle. Paris; Belincoord.Cauchy, 1789-1857. Un mathématicien légitimiste au XIX e siècle, Paris : Belin, 1985. BENOIT, P., CHEMLA, K., et RITTER, J. (coord.). Histoires de fractions, fractions d'histoire. Birkhäuser, 1992. BIOT, J.BBâle; Boston, BerlinHistoires de fractions, fractions d'histoire, Bâle, Boston, Berlin : Birkhäuser, 1992. BIOT, J.B. Bachelier, 1823. BORCHARDT, C. [1846] Neue Eigenschaft der Gleichung, mit deren Hülfe man die saecularen Storungen der Planeten bestimmt. Essai de géométrie analytique appliquée aux courbes et aux surfaces du second ordre, 6 e éd. Paris12Jl. für reine u. angew Math.Essai de géométrie analytique appliquée aux courbes et aux surfaces du second ordre, 6 e éd., Paris : Bachelier, 1823. BORCHARDT, C. [1846] Neue Eigenschaft der Gleichung, mit deren Hülfe man die saecularen Storungen der Planeten bestimmt, Jl. für reine u. angew Math., 12 (1846), p. 38-45. Version française : J. math. pures appl., 12 (1847), p. 50-67. Poncelet's Closure Theorem. H Bos, C Kers, F Oort, Raven , P W , Expositiones Mathematicae. 5BOS, H., KERS, C., OORT, F, et RAVEN, P.W. [1987] Poncelet's Closure Theorem, Expositiones Mathematicae 5 (1987), p. 289-364. . F Brechenmacher, BRECHENMACHER, F. . Ecole des Hautes Etudes en Sciences sociales. 78Histoire du théorème de Jordan de la décomposition matricielleThèse de doctoratRegards croisés sur Camille Jordan, MatapliHistoire du théorème de Jordan de la décomposition matricielle (1870-1930), Thèse de doctorat, Ecole des Hautes Etudes en Sciences sociales, Paris, 2006. [2006b] Regards croisés sur Camille Jordan, Matapli, 78 (2006), p. 57-67. A controversy and the writing of a history: the discussion of "small oscillations. 1760-1860) from the standpoint of the controversy between Jordan and Kronecker (1874). 13A controversy and the writing of a history: the discussion of "small oscillations" (1760- 1860) from the standpoint of the controversy between Jordan and Kronecker (1874), Bulletin of the Belgian Mathematical Society, 13 (2006), p. 941-944. La controverse de 1874 entre Camille Jordan et Leopold Kronecker, Revue d'histoire des mathématiques. ParisSite expert des Ecoles Normales Supérieures et du Ministère de l'Education NationaleLes matrices : formes de représentations et pratiques opératoires (1850-1930), Paris : Site expert des Ecoles Normales Supérieures et du Ministère de l'Education Nationale, http://www.dma.ens.fr/culturemath/, 2006. [200 ?] La controverse de 1874 entre Camille Jordan et Leopold Kronecker, Revue d'histoire des mathématiques, à paraître en 2007-2008. . J Bret, BRET, J. Détermination de la longueur des axes principaux dans les surfaces du second ordre qui ont un centre. Ann. de math. 2Détermination de la longueur des axes principaux dans les surfaces du second ordre qui ont un centre, Ann. de math., 2 (1812), p. 33-37. . M Bullynck, BULLYNCK, M. . Vom Zeitalter Der Formalin Wissenschaften, CAUCHY, A. LUniversiteit Gent, GandThèse de doctoratVom Zeitalter der formalin Wissenschaften, Thèse de doctorat, Universiteit Gent, Gand, 2006. CAUCHY, A. L. Oeuvres Complètes D&apos;augustin, Cauchy, Gauthier-Villars et fils. ParisOEuvres complètes d'Augustin Cauchy, Paris : Gauthier-Villars et fils, 1882-1974. Mémoire sur les fonctions qui ne peuvent obtenir que deux valeurs égales et de signes contraires par suite des transpositions. Jl. Ec. Poly. t. 10, cah. 17 (1815. OEuvres (2)1Mémoire sur les fonctions qui ne peuvent obtenir que deux valeurs égales et de signes contraires par suite des transpositions, Jl. Ec. Poly., t. 10, cah. 17 (1815), p. 29-112, [OEuvres (2)1 ; Cours d'analyse de l'Ecole Royale Polytechnique. Paris, 1821OEuvres (2)3Cours d'analyse de l'Ecole Royale Polytechnique, Paris, 1821, [OEuvres (2)3]. Application du calcul des résidus à l'intégration des équations différentielles linéaires à coefficients constants. Exer. de math. 11826OEuvres (2)6, p. 252-255Application du calcul des résidus à l'intégration des équations différentielles linéaires à coefficients constants, Exer. de math., 1 (1826), [OEuvres (2)6, p. 252-255]. Leçons sur les applications du calcul infinitésimal à la géométrie. ParisOEuvres (2)5Leçons sur les applications du calcul infinitésimal à la géométrie, Paris, 1826, [OEuvres (2)5]. De la pression ou tension dans un corps solide. Exer. de math. 2OEuvres (2)7De la pression ou tension dans un corps solide, Exer. de math., 2 (1827), [OEuvres (2)7, p. 60-78]. Sur les centres, les plans principaux et les axes principaux des surfaces du second degré. Exer. de math. 31828OEuvres (2)8, p. 8-35Sur les centres, les plans principaux et les axes principaux des surfaces du second degré, Exer. de math., 3 (1828), [OEuvres (2)8, p. 8-35]. Sur l'équation à l'aide de laquelle on détermine les inégalités séculaires du mouvement des planètes. Exer. de math. 41829OEuvres (2) 9Sur l'équation à l'aide de laquelle on détermine les inégalités séculaires du mouvement des planètes, Exer. de math., 4 (1829), [OEuvres (2) 9, p. 174-195]. Méthode générale propre à fournir les équations de condition relatives aux limites des corps dans les problèmes de physique mathématique. Comptes rendus. 8OEuvres (1)4Méthode générale propre à fournir les équations de condition relatives aux limites des corps dans les problèmes de physique mathématique, Comptes rendus, 8 (1839), p.199-213, [OEuvres (1)4, p. 193-227]. Mémoire sur l'intégration des équations linéaires. Comptes rendus. 8OEuvres (1)11Mémoire sur l'intégration des équations linéaires, Comptes rendus, 8 (1839), p.369-373, [OEuvres (1)11, p. 202-211]. Mémoire sur les perturbations produites dans les mouvements vibratoires d'un système de molécules par l'influence d'un autre système, Comptes rendus. 30OEuvres (1)11Mémoire sur les perturbations produites dans les mouvements vibratoires d'un système de molécules par l'influence d'un autre système, Comptes rendus, 30 (1850), p.17-26, [OEuvres (1)11, p. 202-211]. . E B Christoffel, Jl. für reine u. angew Math. 63Verallgemeinerung einiger Theoreme des Herrn WeierstrassCHRISTOFFEL E. B. [1864a] Verallgemeinerung einiger Theoreme des Herrn Weierstrass, Jl. für reine u. angew Math., 63 (1864), p. 255-272. Ueber die kleinen Schwingungen eines periodisch eingerichteten Systems materieller Punkte. Jl. für reine u. angew Math. 63Ueber die kleinen Schwingungen eines periodisch eingerichteten Systems materieller Punkte, Jl. für reine u. angew Math., 63 (1864), p. 273-288. . Theorie der Bilinearen Formen, Jl. für reine u. angew Math. 68Theorie der Bilinearen Formen, Jl. für reine u. angew Math., 68 (1866), p. 253-272. Guillaume Gosselin and the Making of the French Algebraic Traditions. Cifoletti G Mathematics, Rhetoric. Jacques Pelletier, Princeton; Goldstein, Gray, RitterPrinceton UniversityPhd ThesisThe creation of the History of Algebra in the Sixteenth CenturyCIFOLETTI G. [1992] Mathematics and Rhetoric. Jacques Pelletier, Guillaume Gosselin and the Making of the French Algebraic Traditions, Phd Thesis, Princeton University, Princeton, 1992. [1995] The creation of the History of Algebra in the Sixteenth Century, in [Goldstein, Gray, Ritter 1995, p. 123-144]. . Clebsch A, CLEBSCH A. Ueber eine Classe von Gleichungen, welche nur reelle Wurzeln besitzen. Jl. für reine u. angew Math. 62Ueber eine Classe von Gleichungen, welche nur reelle Wurzeln besitzen, Jl. für reine u. angew Math., 62 (1863), p. 232-245. . D&apos;alembert , J , 1743ParisTraité de dynamiqueD'ALEMBERT, J. [1743] Traité de dynamique, Paris, 1743. Suites des recherches sur le calcul intégral, Histoire de l'Académie des Sciences. 1748BerlinSuites des recherches sur le calcul intégral, Histoire de l'Académie des Sciences, p. 249-291, Berlin, 1748. . Traité De Dynamique, 21758ParisTraité de dynamique, 2 de ed., Paris, 1758. . A Dahan Dalmedico, DAHAN DALMEDICO. A. La mathématisation des théories de l'élasticité par A.-L. Cauchy et les débats dans la physique mathématique française. Sciences et techniques en perspective, IXLa mathématisation des théories de l'élasticité par A.-L. Cauchy et les débats dans la physique mathématique française (1800-1840), Sciences et techniques en perspective, IX (1984- 1985), p. 1-100. Atti della Academia della scienze di Torino. 124Le formalisme variationnel dans les travaux de LagrangeLe formalisme variationnel dans les travaux de Lagrange, Atti della Academia della scienze di Torino, 124 (1990), p. 81-206. . Augustin-Louis Mathématisations, Cauchy Et L&apos;ecole Française, BlanchardParisMathématisations. Augustin-Louis Cauchy et l'Ecole Française, Paris : Blanchard, 1992. L'intégration des équations aux dérivées partielles linéaires à coefficients constants dans les travaux de Cauchy (1821-1830). Paris. DARBOUX, GL'intégration des équations aux dérivées partielles linéaires à coefficients constants dans les travaux de Cauchy (1821-1830), Rev. d'hist. des Sciences, XlV-1 (1992), Paris. DARBOUX, G. Mémoire sur la théorie algébrique des formes quadratiques. J. math. pures appl. XIXMémoire sur la théorie algébrique des formes quadratiques, J. math. pures appl., XIX (1874), p.347-396. Mémoires de la classe scientifique de l'Institut. J B Delambre, J.-L Le Comte, Lagrange, Notice sur la vie et les ouvrages de M. II e part. (1812. Lagrange, OEuvres I, p. IX-LIDELAMBRE, J.B. [1812] Notice sur la vie et les ouvrages de M. Le Comte J.-L. Lagrange, Mémoires de la classe scientifique de l'Institut, II e part. (1812), p. 28-80, [Lagrange, OEuvres I, p. IX-LI]. J Dhombres, Mathématisation et Communauté scientifique française. 36Archives internationales d'Histoire des SciencesDHOMBRES, J. [1986] Mathématisation et Communauté scientifique française (1775-1825), Archives internationales d'Histoire des Sciences, 36 (1986), p. 249-293. Une histoire de l'objectivité scientifique et le concept de postérité. Des sciences et des techniques : un débat, dir. par R. Guesnerie et F. Hartog, Paris : Editions de l'EHESS, Armand Colin. Une histoire de l'objectivité scientifique et le concept de postérité, in Des sciences et des techniques : un débat, dir. par R. Guesnerie et F. Hartog, Paris : Editions de l'EHESS, Armand Colin, 1998, p. 127-148. Réflexions intempestives sur l'enseignement et l'histoire : la composition des fonctions. Histoire de l'enseignement des mathématiques. 439Réflexions intempestives sur l'enseignement et l'histoire : la composition des fonctions, in Histoire de l'enseignement des mathématiques, Bulletin de l'APMEP, 439 (2002), p. 200-222. . J Dhombres, DHOMBRES, J. et N. Naissance d'un pouvoir : sciences et savants en France (1793-1824). ParisDIEUDONNE JNaissance d'un pouvoir : sciences et savants en France (1793-1824), Paris : Payot, 1989. DIEUDONNE J. Sur la réduction canonique des couples de matrices. Bull. Soc. Math France. 74Sur la réduction canonique des couples de matrices, Bull. Soc. Math France, 74 (1946), p. 130-146. J P Dirichlet, Recherches sur les formes quadratiques à coefficients et à indéterminées complexes. 24DIRICHLET J. P. G. [1842] Recherches sur les formes quadratiques à coefficients et à indéterminées complexes, Jl. für reine u. angew Math., 24 (1842), p. 533-618. Ueber die Stabilität des Gleichgewichts. Jl. für reine u. angew Math. 32Ueber die Stabilität des Gleichgewichts, Jl. für reine u. angew Math., 32 (1846), p. 3-8. . J Drach, W F Meyer, DRACH, J., MEYER, W.F. Théorie algébrique des formes bilinéaires, Encyclopédie des sciences mathématiques. B.G. Teubner. DUGAC, PParis; LeipzigGauthier-Villars2Théorie algébrique des formes bilinéaires, Encyclopédie des sciences mathématiques, I 2 (1907), p. 426-487, Paris : Gauthier-Villars, Leipzig : B.G. Teubner. DUGAC, P. . Karl Eléments D&apos;analyse De, Weierstrass, Arch. for Hist. of Ex. Sci. 10Eléments d'analyse de Karl Weierstrass, Arch. for Hist. of Ex. Sci., 10 (1973), p.41-176. . L Euler, EULER, L. De integratione aequationum differentialium altiorum gradum, Miscellanea Berolinensia 7. Basel22De integratione aequationum differentialium altiorum gradum, Miscellanea Berolinensia 7, Opera Omnia I, 22, (Basel 1936), p. 108-213. Du mouvement de rotation des corps solides autour d'un axe variable, Mémoire de l'académie des sciences de Berlin. Opera omnia. Berlin; ZurichRecherches sur la connaissance mécanique des corps, Mémoire de l'académie des sciences de BerlinOpera omnia (2)8 (Zurich, 1964)Recherches sur la connaissance mécanique des corps, Mémoire de l'académie des sciences de Berlin, Berlin, 1758, Opera omnia (2)8 (Zurich, 1964), p. 178-199. [1765b] Du mouvement de rotation des corps solides autour d'un axe variable, Mémoire de l'académie des sciences de Berlin, 1758, Opera omnia (2)8 (Zurich, 1964), p. 200-235. La théorie analytique de la chaleur. J Fourier, ParisFOURIER, J [1822] La théorie analytique de la chaleur. Paris. . C Fraser, FRASER, C. Lagrange's Early Contributions to the Principles and Methods of Mechanics. J L , Arch. for Hist. of Ex. Sci. 28J.L. Lagrange's Early Contributions to the Principles and Methods of Mechanics, Arch. for Hist. of Ex. Sci., 28 n°3 (1980), p. 197-241. Lagrange's Changing Approach to the Foundations of the Calculus of Variations. J L , Arch. for Hist. of Ex. Sci. 32J.L. Lagrange's Changing Approach to the Foundations of the Calculus of Variations, Arch. for Hist. of Ex. Sci., 32 n°2 (1985), p. 107-141. . H Freudenthal, FREUDENTHAL, H. Cauchy, Dictionary of Scientific Biography. Gillispie, C. C., New YorkScribner18Cauchy, in Dictionary of Scientific Biography, 18 vol., éd. par Gillispie, C. C., New York: Scribner, 1971. FROBENIUS, F. G. Ueber lineare Substitutionen und bilineare Formen. Jl. für reine u. angew Math. 84Ueber lineare Substitutionen und bilineare Formen, Jl. für reine u. angew Math., 84 (1878), p. 343-405. . D Galleto, GALLETO, D. . Gionale Lagrange E Le Origini Della Mecanica Analytica, Di Fisica, 2Lagrange e le origini della Mecanica Analytica, Gionale di Fisica, XXXII 2-3 (1991), p. 1- 126. F Gantmacher, The theory of matrices. Chelsea, 1959. GAUSS, C.FNew York2GANTMACHER, F. [1959] The theory of matrices, 2 Vol., New York : Chelsea, 1959. GAUSS, C.F. Cauchy Equations Différentielles ordinaires. réed. de Leipzig : Fleischer, 1801. GILAIN, C.ParisAcademic PressBruxelles : Culture et civilisationDisquitiones arithmeticae, Bruxelles : Culture et civilisation, 1968, réed. de Leipzig : Fleischer, 1801. GILAIN, C. [1981] Introduction au cours inédit de A-L. Cauchy Equations Différentielles ordinaires, Paris : Etudes Vivantes Coll., Academic Press, 1981. La théorie des équations différentielles au début du XIXe siècle, Sciences et techniques en perspective. La théorie des équations différentielles au début du XIXe siècle, Sciences et techniques en perspective, 4 (1983), p.13-20. . Arch. for Hist. of Ex. Sci. 42Sur l'histoire du théorème fondamental de l'algèbre : théorie des équations et calcul intégralSur l'histoire du théorème fondamental de l'algèbre : théorie des équations et calcul intégral, Arch. for Hist. of Ex. Sci., 42 (1991), p. 91-136. Ordinary differential equations. Companion Encyclopedia of the History and Philosophy of the Mathematical Sciences, éd. par I. Grattan-Guinness. Londres, New YorkRoutledge1Ordinary differential equations, in Companion Encyclopedia of the History and Philosophy of the Mathematical Sciences, éd. par I. Grattan-Guinness, Londres, New York : Routledge, 1994, vol. 1, p. 440-451. Alembert et l'intégration des expressions différentielles à une variable. Analyse et dynamique. Etudes sur l'oeuvre de d'Alembert, éd. par A. Michel et M. Paty. QuébecPresses de l'Université Lavald'Alembert et l'intégration des expressions différentielles à une variable, in Analyse et dynamique. Etudes sur l'oeuvre de d'Alembert, éd. par A. Michel et M. Paty, Québec : Presses de l'Université Laval, p. 207-235. . H Gispert-Chambaz, GISPERT-CHAMBAZ, H. analyse : Comparaison de la 1ère édition (1882-1887) et de la 2ème (1893) de son cours d'analyse de l'école Polytechnique. Camille Jordan, publications mathématiques d'Orsay. OrsayThèse de doctoratCamille Jordan et les fondements de l'analyse : Comparaison de la 1ère édition (1882-1887) et de la 2ème (1893) de son cours d'analyse de l'école Polytechnique, Thèse de doctorat, Orsay : publications mathématiques d'Orsay, 1982. . C Goldstein, GOLDSTEIN, C. Preuves par descente infinie en analyse diophantienne : programmes, contextes, variations, Cahier du Séminaire d'histoire des mathématiques de l'IHP. 2Preuves par descente infinie en analyse diophantienne : programmes, contextes, variations, Cahier du Séminaire d'histoire des mathématiques de l'IHP, 2/5 (1993), p. 25-49. Un théorème de Fermat et ses lecteurs, Saint-Denis : PUV (Histoires de science). C Goldstein, J Gray, J Ritter, dir.Un théorème de Fermat et ses lecteurs, Saint-Denis : PUV (Histoires de science), 1995. GOLDSTEIN, C., GRAY, J., RITTER, J. (dir.). Editions de la Maison des sciences de l'homme. ; L&apos;europe Mathématique, I Grattan-Guinness, Mythes, histoires, identités --Mathematical Europe: Myth, History, Identity. ParisL'Europe mathématique : Mythes, histoires, identités --Mathematical Europe: Myth, History, Identity, Paris : Editions de la Maison des sciences de l'homme, 1996. GRATTAN-GUINNESS, I. How it means: mathematical theories in physical theories. Activity Knowledge, ; Historiography, I I Ix, J Gray, Mathematical Perspectives : Essays on the History of Mathematics in Honor of Kurt.-R. Biermann éd. par J. Dauben. New York; BostonBirkhauser103Linear differential equations and group theory from Riemann to PoincaréKnowledge, Activity, and Historiography, in Mathematical Perspectives : Essays on the History of Mathematics in Honor of Kurt.-R. Biermann éd. par J. Dauben, New York : Academic Press, 1981. [1986] How it means: mathematical theories in physical theories. With examples from French mathematical physics of the early 19 th century, Estratto dal Vol. 103 (1986), Memorie di Scienze Fisiche e Naturali, serie V, vol. IX, partie II. GRAY, J. [1996] Linear differential equations and group theory from Riemann to Poincaré, Boston : Birkhauser, 1996. Traité des surfaces du second degré. J N P Hachette, 1813. HAMBURGER, M. [1873] Bemerkung über die Form der Integrale der linearen Differentialgleichungen mit veränderlicher Coefficienten. Paris76HACHETTE, J.N.P. [1813] Traité des surfaces du second degré, Paris, 1813. HAMBURGER, M. [1873] Bemerkung über die Form der Integrale der linearen Differentialgleichungen mit veränderlicher Coefficienten, Jl. für reine u. angew Math., 76 (1873), p. 113-125. . T Hawkins, HAWKINS, T. Cauchy and the spectral Theory of Matrices. Historia Mathematica. 2Cauchy and the spectral Theory of Matrices, Historia Mathematica, 2 (1975), p. 1-20. Weierstrass and the Theory of Matrices. Arch. for Hist. of Ex. Sci. 17Weierstrass and the Theory of Matrices, Arch. for Hist. of Ex. Sci., 17 (1977), p. 119-163. . C Hermite, Gauthier-VillarsParisOEuvres] OEuvres de Charles HermiteHERMITE, C. [OEuvres] OEuvres de Charles Hermite, Paris : Gauthier-Villars, 1905-1917. Sur la décomposition d'un nombre en quatre carrés. Comptes rendus. 37Sur la décomposition d'un nombre en quatre carrés, Comptes rendus, 37 (1855), p. 133-134, [Hermite, OEuvres, 1, p. 288-289]. Sur la théorie des formes quadratiques. 47Hermite, OEuvresSur la théorie des formes quadratiques, Jl. für reine u. angew Math., 47 (1854), [Hermite, OEuvres, 1, p. 234-263]. M Remarque Sur Un Théorème De, Cauchy, Comptes rendus. 1Remarque sur un théorème de M. Cauchy, Comptes rendus, 41 (1855), p.181-183, [Hermite, OEuvres, 1, p. 479-481]. Sur l'invariabilité du nombre des carrés positifs et des carrés négatifs dans la transformation des polynômes homogènes du second degré. 53Hermite, OEuvresSur l'invariabilité du nombre des carrés positifs et des carrés négatifs dans la transformation des polynômes homogènes du second degré, Jl. für reine u. angew Math., 53 (1857), p. 271-274. [Hermite, OEuvres 1. p. 429-433]. . O Hesse, HESSE, O. [1834] De binis quibuslibet functionibus homogeneis secundi ordinis per substitutiones lineares. Jl. für reine u. angew Math. Vorlesungen über analytische Geometrie des Raumes, insbesondere über Oberfläche zweiter Ordnung. Revidiert und mit Zusätzen vershen von Dr. S. Gundelfinger, 3 e ed., Leipzig, 1876. JACOBI, C.G.J12Vorlesungen über analytische Geometrie des Raumes, insbesondere über Oberfläche zweiter Ordnung. Revidiert und mit Zusätzen vershen von Dr. S. Gundelfinger, 3 e ed., Leipzig, 1876. JACOBI, C.G.J [1834] De binis quibuslibet functionibus homogeneis secundi ordinis per substitutiones lineares, Jl. für reine u. angew Math., 12 (1834), p. 191-268. Ueber eine elementare Transformation eines in bezug auf jedes von zwei Variabeln-Systemen linearen und homogenen Ausdrücks. Jl. für reine u. angew Math. 53Ueber eine elementare Transformation eines in bezug auf jedes von zwei Variabeln- Systemen linearen und homogenen Ausdrücks, Jl. für reine u. angew Math., 53 (1857), p. 583-590. . C Jordan, OEuvres] OEuvres de Camille JordanGauthier-VillarsParisJORDAN, C. [OEuvres] OEuvres de Camille Jordan, Paris : Gauthier-Villars, 1961. Traité des substitutions et des équations algébriques. 1870ParisTraité des substitutions et des équations algébriques, Paris, 1870. Sur la résolution des équations différentielles linéaires, Comptes rendus. Jordan, OEuvres, IV73Sur la résolution des équations différentielles linéaires, Comptes rendus, 73 (1871), p. 787- 791. [Jordan, OEuvres, IV, p. 313-318]. Sur les oscillations infiniment petites des systèmes matériels. Comptes rendus. Jordan, OEuvres, IV74Sur les oscillations infiniment petites des systèmes matériels, Comptes rendus, 74 (1872), p. 1395-1399. [Jordan, OEuvres, IV, p. 318-323]. Sur les polynômes bilinéaires, Comptes rendus. Jordan, OEuvres, III77Sur les polynômes bilinéaires, Comptes rendus, 77 (1873), p. 1487-1491. [Jordan, OEuvres, III, p. 7-11]. Mémoire sur les formes bilinéaires. J. math. pures appl. 2Mémoire sur les formes bilinéaires, J. math. pures appl., (2) 19 (1874), p. 35-54. [Jordan, OEuvres, III, p. 23-54]. . E Knobloch, KNOBLOCH, E. From Gauss to Weierstrass : determinant theory and its historical evaluations. The intersection of history and mathematics. BaselFrom Gauss to Weierstrass : determinant theory and its historical evaluations, in The intersection of history and mathematics, Basel, 1994, p. 51-66. . L Kronecker, KRONECKER, L. Ueber bilineare Formen, M'ber. Akad. Wiss. Berlin (1866). 68Kronecker, WerkeUeber bilineare Formen, M'ber. Akad. Wiss. Berlin (1866), p. 597-612, Jl. für reine u. angew Math., 68 (1866), p.273-285, [Kronecker, Werke, 1, p. 145-162]. Ueber Schaaren quadratischer Formen, M'ber. Akad. Wiss. Berlin (1868). 1Ueber Schaaren quadratischer Formen, M'ber. Akad. Wiss. Berlin (1868), p. 339-346, [Kronecker, Werke, 1, p. 163-174]. Ueber Schaaren von quadratischen und bilinearen Formen, M'ber. Akad. Wiss. Berlin (1874). 1Ueber Schaaren von quadratischen und bilinearen Formen, M'ber. Akad. Wiss. Berlin (1874), p. 59-76, [Kronecker, Werke, 1, p. 349-372]. Sur les faisceaux de formes quadratiques et bilinéaires, Comptes rendus. 78Sur les faisceaux de formes quadratiques et bilinéaires, Comptes rendus, 78 (1874), p. 1181-1182, [Kronecker, Werke, 1, p. 415-419]. Ueber Schaaren von quadratischen und bilinearen Formen, Nachtrag M'ber. Akad. Wiss. Berlin (1874). Kronecker, Werke, 1Ueber Schaaren von quadratischen und bilinearen Formen, Nachtrag M'ber. Akad. Wiss. Berlin (1874), p. 149-156 et 206-232, [Kronecker, Werke, 1, p. 373-413]. Ueber die congruenten Transformationen des bilinearen Formen, M'ber. Akad. Wiss. Berlin (1874). 1Ueber die congruenten Transformationen des bilinearen Formen, M'ber. Akad. Wiss. Berlin (1874), p. 397-447, [Kronecker, Werke, 1, p. 421-483]. . J L Lagrange, OEuvres] OEuvres de Lagrange. Gauthier-VillarsLAGRANGE, J.L. [OEuvres] OEuvres de Lagrange, Paris : Gauthier-Villars, 1867-1892. Solution de différents problèmes de calcul intégral. Miscellanea Taurinensia, 3 (1766). Lagrange, OEuvres, 1Solution de différents problèmes de calcul intégral, Miscellanea Taurinensia, 3 (1766), [Lagrange, OEuvres, 1, p. 471-668]. Nouvelle solution du problème du mouvement de rotation d'un corps de figure quelconque qui n'est animé par aucune force accélératrice, Nouv. mém. de l'acad. des sciences de Berlin (1775). 3Lagrange, OEuvresNouvelle solution du problème du mouvement de rotation d'un corps de figure quelconque qui n'est animé par aucune force accélératrice, Nouv. mém. de l'acad. des sciences de Berlin (1775), [Lagrange, OEuvres, 3, p. 577-616]. Recherches sur les équations séculaires des mouvements des noeuds, et des inclinaisons des orbites des planètes, Hist. de l'acad. des sciences. Lagrange, OEuvres, 6177Recherches sur les équations séculaires des mouvements des noeuds, et des inclinaisons des orbites des planètes, Hist. de l'acad. des sciences, 177 (1778), [Lagrange, OEuvres, 6, p. 635-709].] Théorie des variations séculaires des éléments des planètes. Théorie des variations séculaires des éléments des planètes ; Nouv. mém. de l'acad. des sciences de Berlin. Première Partie, 5Lagrange, OEuvresPremière Partie, Nouv. mém. de l'acad. des sciences de Berlin, [Lagrange, OEuvres, 5, p. 125-207]. Théorie des variations séculaires des éléments des planètes. Théorie des variations séculaires des éléments des planètes ; Seconde Partie, Nouv. mém. de l'acad. des sciences de Berlin (1784). Lagrange, OEuvres5Seconde Partie, Nouv. mém. de l'acad. des sciences de Berlin (1784), [Lagrange, OEuvres, 5, p. 201-344]. Méchanique analytique. 1788ParisMéchanique analytique. Paris, 1788. . P S Laplace, OEuvres] OEuvres complètes de Laplace. Gauthier-VillarsLAPLACE, P. S. [OEuvres] OEuvres complètes de Laplace, Paris : Gauthier-Villars, 1878-1912. Mémoire sur les solutions particulières des équations différentielles et sur les inégalités séculaires des planètes, Mem. de l'acad. des sciences de Paris, Partie I (1775). Laplace, OEuvres, 8Mémoire sur les solutions particulières des équations différentielles et sur les inégalités séculaires des planètes, Mem. de l'acad. des sciences de Paris, Partie I (1775), [Laplace, OEuvres, 8, p. 325-366]. Recherches sur le calcul intégral et sur le système du monde, Mem. de l'acad. des sciences de Paris, Partie II (1776). OEuvres, 8Recherches sur le calcul intégral et sur le système du monde, Mem. de l'acad. des sciences de Paris, Partie II (1776), [OEuvres, 8, p.369-501]. Mémoire sur les inégalités séculaires des planètes et des satellites, Mem. de l'acad. des sciences de Paris (1787). Laplace, OEuvres, 8Mémoire sur les inégalités séculaires des planètes et des satellites, Mem. de l'acad. des sciences de Paris (1787), [Laplace, OEuvres, 8, p. 49-92]. Mémoire sur les variations séculaires des orbites des planètes, Mem. de l'acad. des sciences de Paris (1789). 11Laplace, OEuvresMémoire sur les variations séculaires des orbites des planètes, Mem. de l'acad. des sciences de Paris (1789), [Laplace, OEuvres, 11, p. 295-306]. . Traité de mécanique céleste. 11799OEuvres, 1Traité de mécanique céleste, Vol.1, Paris, 1799, [OEuvres, 1]. . J Laskar, LASKAR, J. La Stabilité Du Système Solaire ; De, A Dahan Dalmedico, J-L Chabert, K Chemla, Chaos et déterminisme, sous la direction. ParisLa stabilité du système solaire, in Chaos et déterminisme, sous la direction de A. Dahan Dalmedico, J-L. Chabert, K. Chemla, Paris : Seuil, 1992, p.170-212. . V A Lebesgue, LEBESGUE, V.A. Thèses de mécanique et d'astronomie. Jl. de math. 2Thèses de mécanique et d'astronomie, Jl. de math. 2 (1837), p. 337-355. Uber die kleinen Schwingungen eines periodisch eigerichteten Systems materieller Punkte. J Mawhin, G Monge, J N P Hachette, Remarks on E.B. Christoffel's Paper. E.B. Christoffel, éd. par L. Butzer, F. FeherAachenApplication d'algèbre à la géométrie. t.4. cah. 11MAWHIN, J. [1981] Remarks on E.B. Christoffel's Paper : "Uber die kleinen Schwingungen eines periodisch eigerichteten Systems materieller Punkte". in E.B. Christoffel, éd. par L. Butzer, F. Feher, Aachen, 1981. MONGE, G. et HACHETTE, J.N.P. [1802] Application d'algèbre à la géométrie, Jl. Ec. Poly. t.4. cah. 11, 143-169. . T Muir, MUIR, T. The evolution of Lagrange's research programme in the analytical foundations of mechanics with particular respect to its realisation in the "Théorie des Fonctions analytiques. M Panza, The Theory of Determinants in the Historical Order of Development. LondresMacmillan and Co1The Theory of Determinants in the Historical Order of Development, Vol. 1, Londres : Macmillan and Co., 1906. PANZA, M. [1990] The evolution of Lagrange's research programme in the analytical foundations of mechanics with particular respect to its realisation in the "Théorie des Fonctions analytiques", Historia Scientarum, 1-2 (1991) et 1-3 (1992). The Origins of Analytical Mechanics in 18th century. A History of Analysis éd. par H. N. Jahnke. American Mathematical Society and London Mathematical SocietyThe Origins of Analytical Mechanics in 18th century, in A History of Analysis éd. par H. N. Jahnke, American Mathematical Society and London Mathematical Society, s.l., p. 137-153. Toward a History of Nineteenth-Century Invariant Theory. K H Par D Parshall, J Rowe, Mccleary, The British development of the theory of invariants. BostonAcademic Press1The History of Modern MathematicsPARSHALL, K.H. [1989] Toward a History of Nineteenth-Century Invariant Theory, in The History of Modern Mathematics, éd. par. D. Rowe et J. McCleary, Boston: Academic Press, 1989, Vol. 1, p. 157-206. [2006] The British development of the theory of invariants (1841-1895), British Soc. for the Hist. of Math. Bulletin, 21 (2006), p.186-199. Différentes modalités de travail sur le général dans les recherches de Poincaré sur les systèmes complexes (1870-1930). A Robadey, Thèse de doctoratUniversité Paris 7 -Denis Diderot, 2006. SOMOFF, JROBADEY, A. [2006] Différentes modalités de travail sur le général dans les recherches de Poincaré sur les systèmes complexes (1870-1930), Thèse de doctorat, Université Paris 7 -Denis Diderot, 2006. SOMOFF, J. Sur l'équation algébrique à l'aide de laquelle on détermine les oscillations très-petites d'un système de points matériels. Mém. Acad. Sci. St. Pétersbourg. 14Sur l'équation algébrique à l'aide de laquelle on détermine les oscillations très-petites d'un système de points matériels, Mém. Acad. Sci. St. Pétersbourg, (7) 1 no.14 (1859). . H Sinaceur, SINACEUR, H. Deux moments dans l'histoire du théorème d'algèbre de CH. F. Sturm, Revue d'histoire des sciences. Corps et modèles. 2VrinDeux moments dans l'histoire du théorème d'algèbre de CH. F. Sturm, Revue d'histoire des sciences, XLI-2 (1988), p. 99-132. [1991] Corps et modèles, Paris : Vrin, 1991. Sturm et les racines des équations, Revue d'histoire des sciences. Cauchy, Cauchy, Sturm et les racines des équations, Revue d'histoire des sciences, XLV-1 (1992), p. 51-67. . J J Sylvester, SYLVESTER, J. J. Sur une propriété nouvelle de l'équation qui sert à déterminer les inégalités séculaires des planètes. Nouvelles Annales de Mathematiques. Sur une propriété nouvelle de l'équation qui sert à déterminer les inégalités séculaires des planètes, Nouvelles Annales de Mathematiques (1852), p. 438-440. . C Sturm, STURM, C. Extrait d'un mémoire sur l'intégration d'un système d'équations différentielles linéaires, présenté à l'Académie des Sciences le 27 Juillet 1829 par M. Sturm. Bull. des sciences mathématiques. 12Extrait d'un mémoire sur l'intégration d'un système d'équations différentielles linéaires, présenté à l'Académie des Sciences le 27 Juillet 1829 par M. Sturm, Bull. des sciences mathématiques, 12 (1829), p. 313-322. . R Taton, TATON, R. Les Débuts De La Carrière Mathématique De Lagrange, La période turinoise. 27Symposia mathematicaLes débuts de la carrière mathématique de Lagrange. La période turinoise (1736-1766), Symposia mathematica, 27 (1986), p. 123-146. The rational mechanics of flexible or elastic bodies 1638-1788, Leonhardi Euleri Opera Omnia. C Truesdell, ) 11, partie II. Zurich. VIETE, F. [1591] In artem analyticem isagoge, Tours, 1591. WEIERSTRASS, KTRUESDELL, C. [1960] The rational mechanics of flexible or elastic bodies 1638-1788, Leonhardi Euleri Opera Omnia, (2) 11, partie II, p. 132-343, Zurich. VIETE, F. [1591] In artem analyticem isagoge, Tours, 1591. WEIERSTRASS, K. . Mathematische Werke Von, Karl Weierstrass, Mayer & Müller1894BerlinMathematische Werke von Karl Weierstrass, Berlin : Mayer & Müller, 1894. Ueber ein die homogenen Functionen zweiten Grades betreffendes Theorem, M'ber. Akad. der Wiss. Berlin (1858). 1Ueber ein die homogenen Functionen zweiten Grades betreffendes Theorem, M'ber. Akad. der Wiss. Berlin (1858), p. 207-220, [Weierstrass, Werke, 1, p. 233-246]. Zur Theorie der quadratischen und bilinearen Formen, M'ber. Akad. der Wiss. Berlin (1868). Werke, 2Zur Theorie der quadratischen und bilinearen Formen, M'ber. Akad. der Wiss. Berlin (1868), p. 310-338, [Weierstrass, Werke, 2, p. 19-43]. Nachtrag zu der am 4. märz 1858 in der Königl. Akademie der Wissenschaften gelesen Abhandlung : über ein die homogenen functionen zweiten grades betreffendes theorem, M'ber. Akad. der Wiss. Berlin (1879). 3Nachtrag zu der am 4. märz 1858 in der Königl. Akademie der Wissenschaften gelesen Abhandlung : über ein die homogenen functionen zweiten grades betreffendes theorem, M'ber. Akad. der Wiss. Berlin (1879), p. 430-439, [Weierstrass, Werke, 3, p. 139-148]. Bemerkungen zur Integration eines Systems linearer Differentialgleichungen mit constanten Coefficienten. Weierstrass, Werke. 1Communiqué à l'académié de Berlin le 18 octobre 1875Bemerkungen zur Integration eines Systems linearer Differentialgleichungen mit constanten Coefficienten, [Communiqué à l'académié de Berlin le 18 octobre 1875], [Weierstrass, Werke, 1, p. 75-76]. . E Weyr, WEYR, E. . Monatshefte für Mathematik und Physik. 1Zur Theorie der bilinearen FormenZur Theorie der bilinearen Formen, Monatshefte für Mathematik und Physik, 1 (1890), p. 161-235. Note sur les conditions des petites oscillations d'un corps solide de figure quelconque et la théorie des équations différentielles linéaires. A Yvon-Villarceau, Comptes rendus. 71YVON-VILLARCEAU, A. [1870] Note sur les conditions des petites oscillations d'un corps solide de figure quelconque et la théorie des équations différentielles linéaires. Comptes rendus, 71 (1870), p. 762-766.
sample_6710
0.796
arxiv
A spatial-temporal graph deep learning model for urban flood nowcasting leveraging heterogeneous community features 0123456789 Hamed Farahmand Yuanchang Xu Ali Mostafavi A spatial-temporal graph deep learning model for urban flood nowcasting leveraging heterogeneous community features 012345678910.1038/s41598-023-32548-x1 Scientific Reports | (2023) 13:6768 | https:// www.nature.com/scientificreports Flood nowcasting refers to near-future prediction of flood status as an extreme weather event unfolds to enhance situational awareness. The objective of this study was to adopt and test a novel structured deep-learning model for urban flood nowcasting by integrating physics-based and human-sensed features. We present a new computational modeling framework including an attention-based spatialtemporal graph convolution network (ASTGCN) model and different streams of data that are collected in real-time, preprocessed, and fed into the model to consider spatial and temporal information and dependencies that improve flood nowcasting. The novelty of the computational modeling framework is threefold: first, the model is capable of considering spatial and temporal dependencies in inundation propagation thanks to the spatial and temporal graph convolutional modules; second, it enables capturing the influence of heterogeneous temporal data streams that can signal flooding status, including physics-based features (e.g., rainfall intensity and water elevation) and humansensed data (e.g., residents' flood reports and fluctuations of human activity) on flood nowcasting. Third, its attention mechanism enables the model to direct its focus to the most influential features that vary dynamically and influence the flood nowcasting. We show the application of the modeling framework in the context of Harris County, Texas, as the study area and 2017 Hurricane Harvey as the flood event. Three categories of features are used for nowcasting the extent of flood inundation in different census tracts: (i) static features that capture spatial characteristics of various locations and influence their flood status similarity, (ii) physics-based dynamic features that capture changes in hydrodynamic variables, and (iii) heterogeneous human-sensed dynamic features that capture various aspects of residents' activities that can provide information regarding flood status. Results indicate that the ASTGCN model provides superior performance for nowcasting of urban flood inundation at the census-tract level, with precision 0.808 and recall 0.891, which shows the model performs better compared with other state-of-the-art models. Moreover, ASTGCN model performance improves when heterogeneous dynamic features are added into the model that solely relies on physics-based features, which demonstrates the promise of using heterogenous human-sensed data for flood nowcasting. Given the results of the comparisons of the models, the proposed modeling framework has the potential to be more investigated when more data of historical events are available in order to develop a predictive tool to provide community responders with an enhanced prediction of the flood inundation during urban flood.Background. Flood nowcasting is a process by which areas at imminent risk of inundation can be identified using the spatial and temporal features that convey information regarding current flooding status. As extreme weather events accompanied by heavy precipitation occur more frequently, causing catastrophic flood events,OPEN Scientific Reports | (2023) 13:6768 | https://doi.org/10.1038/s41598-023-32548-x www.nature.com/scientificreports/ flood nowcasting has become an essential capability for communities to better respond to the impacts of these events 1 . Flood nowcasting enables predictive flood monitoring, the ability to anticipate imminent flood risks and impacts and situational awareness as an extreme weather event unfolds 2 . Departing from the standard flood monitoring approaches using hydraulic and hydrological (H&H) models that predict flood inundation levels for hazard mitigation and infrastructure improvements prior to flood events 3,4 , flood nowcasting focuses on nearfuture prediction (e.g., next few hours) of spatial and temporal flood status based on the current status of flooding. The traditional approaches for flood monitoring 5 do not provide certain essential information (e.g., what areas will be inundated within the next few hours). Nowcasting will enable public officials, emergency managers, responders, and residents to better tailor decisions and actions by enhancing situational awareness during response and recovery 6 . Hence, urban flood nowcasting facilitates identifying areas that will require emergency aid in hours immediately ahead and areas that need issuance of evacuation notices due to the high risk of flood inundation. This forewarning is critical for reducing the adverse impacts of flood events. It also facilitates taking proper managerial actions to control flood inundation using hydrological infrastructures, such as flood gates and pumps [7][8][9] . The main approach for sensing flood status is the use of rainfall and stream gauges; however, due to cost and maintenance limitations, the number of these physical sensors is limited, which affects proper observability of flood status 10 , and hence, flood nowcasting. New techniques for enhancing situation awareness and emergency response actions leverage heterogeneous community-scale datasets (including both physical sensors and crowdsourced data) in advance to provide the predictive capability to infer the flooding status for the near future in spatial units (e.g., zip code, census tract, and neighborhood), information [11][12][13] . Multiple studies have been conducted to develop predictive tools using a wide range of physics-based features and quantitative techniques. Conventionally, H&H simulation models are used for predicting the extent of flooding in urban areas using geomorphological hydrodynamic features to estimate water depth in urban areas 14,15 . These models often rely on the data collected from rainfall and flood gauges to provide an estimate of the spatial extent of flood propagation 6,16 . Despite their satisfactory accuracy and predictive performance, extensive computational cost and the sparsity of the reliable hydrological data in urban areas limit the existing physics-based H&H models [17][18][19] for providing near-future estimation for spatial-temporal propagation 20 . To complement the standard models, recent studies tested data-driven models based on harnessing data sources, such as satellite images, crowdsourced data, and remote-sensing data, that can help estimate flood status in near future timeframes 3,[21][22][23][24] . Also, a growing number of researchers have used the predictive capability of various machine learning (ML) models for flood predictive monitoring [25][26][27][28][29][30] . These models can include more community features than tradition models to forecast flood status, which facilitates capturing the large number of heterogeneous community features needed for flood nowcasting 31,32 . In the following sections, we review the state-of-the-art in application of deep-learning models for flood nowcasting to identify gaps in the existing literature. We focus particularly on two major gaps: (1) the absence of a model architecture that enables capturing spatial and temporal dependencies in flood propagation and dynamically identifying influential features, and (2) limited efforts for integrating human sensing as an approach for collecting and extracting valuable temporal and spatial data. We also review the use of heterogenous humansensed data as a supplement for flood nowcasting to show the gap in the knowledge regarding the proper use of such data for improving the urban flood nowcasting models. Accordingly, we adopt a model proposed by Guo et al. 33 and test a novel graph-based deep-learning models that enable capturing spatial dependencies, as well as heterogeneous human-sensed features in flood propagation. We demonstrate the application of the proposed model in the context of the 2017 Hurricane Harvey flooding in Harris County, Texas. Related works Deep learning for flood nowcasting. Advances in machine learning techniques are responsible for the emergence of deep learning (DL), a sub-domain of ML that employs deep artificial neural network architectures and gradient descent algorithms for yielding more robust and computationally efficient predictive models [34][35][36][37][38] . Deep neural networks have been increasingly used for tasks that support flood predictive monitoring, such as flood depth mapping and flood detection. Multiple studies have applied DL techniques to improve the predictive performance of physics-based flood nowcasting models. For example, a convolutional neural networks (CNN) have been used in combination with conditional generative adversarial networks (cGAN) to improve the performance of physics-based flood forecast models 39 . In addition, a combined empirical mode decomposition (EMD) algorithm and encoder-decoder long short-term memory (En-De-LSTM) architecture have proved to yield a better prediction of peak flow values of streams during floods 40 . Recent data-driven models rely purely on the capability of DL models for flood prediction. For example, streamflow prediction using an integration of stacked autoencoders (SAE) and back propagation neural networks (BPNN) show higher accuracy compared with other tested ML models 41 . Also, Gated Recurrent Units (GRU)-based network architecture has been utilized for predicting the time series of stream sensors used for flood monitoring 42 . In a recent work by Dong et al. 39 , a Fast GRNN-FCN (fast, accurate, stable, and tiny gated recurrent neural network-fully convolutional network) was proposed for forecasting the water level in channel network sensors to provide flood signals in flood control network 43 . While the use of DL models for flood prediction is becoming prevalent in the literature and practice, the current research trends lack a computational data-driven modeling framework that enables a near-future prediction of flood status in spatial blocks (e.g., census tracts or zip codes). This gap is due mainly to: (1) inability of the existing models to capture the spatial interdependencies; (2) limitations in extracting features that provide indication of flood status in spatial blocks (due mainly to a limited number of physical sensors). The inability to predict near-future flood status in spatial blocks is a major hindrance to flood nowcasting. To address this gap, in this study, we propose a spatial-temporal graph deep-learning model. Incorporating attention mechanisms into spatial-temporal deep-learning models for flood prediction elicits superior results compared to other state-of-the-art model architecture, and also improves interpretability of the model results 44 . These studies often leverage the ability of different DL models for time-series forecasting and early warning detection utilizing sensors that collect rainfall and streamflow data. Nevertheless, most recent studies have: (1) employed DL architectures that enable incorporating spatial correlation, and (2) created DL architectures that enable more feature incorporation. For spatial correlation, graph neural networks can capture the spatial similarity of model units 45 while an attention mechanism that enables the model to focus on the characteristic data when processing large numbers of features 46 and enable use of heterogeneous data to provide reliable prediction in urban units. In the next sections, we discuss the application of graph neural networks for spatial and temporal prediction as well as using heterogeneous data in flood predictive monitoring, which form the points of departure for this study. Other than the deep learning models for flood nowcasting, coupled hydatic and hydrologic models that use multiple GPUs for forecasting urban flooding in real time r near real time have gain attention in the literature. The advantage of these models is that they can provide accurate flood maps using various surface and social properties as well as hydraulic and hydrologic properties. For example, coupled hydrologic-hydraulic model (HiResFlood-UCI) 47 for flash flood modeling has been developed to increase the efficacy of the hydraulic modeling to produce high-resolution flood maps. A fully coupled hydrologic-hydraulic modeling framework was also developed for flood prediction and modeling for both riverbank and overland inundation, which shows superior performance 48 . To enhance the performance of these models and reducing uncertainty, different approaches such as assimilation of satellite-based synthetic aperture radar (SAR) observations into the coupled mode have been proposed 49 . Besides, techniques such as remote-sensing have also been used for calibrating these models to improve their precision for flood detection 50 . Graph neural networks for spatial-temporal prediction. Graph neural networks generalize convolution to data in a graph structure 51 . With their superior capability to characterize spatial and temporal dependencies for time-series predictions, Graph Convolutional Networks (GCNs) characterize networked data with spatial and temporal dependencies for time-series prediction using spatial and temporal convolutions. These models (referred to as spatio-temporal graph convolutional network (STGCN) models) are used for prediction problems such as traffic flow prediction 52,53 , disease diagnosis 54 , bike-demand prediction 55 , point-of-interest (POI) recommendation 53 , pedestrian flow prediction 56 , trajectory prediction 57 , and road network flood inundation prediction 2 . STGCN model architectures have been developed based on the problem characteristics. For example, dual-channel based graph convolutional networks (DC-STGCN) consider both daily and weekly correlation of the traffic data 58 . Discriminative spatio-temporal graph convolutional network (DSTGCN) were used for action recognition in to inner-class action distribution 59 . Wang et al. 5 developed an auto-STGCN algorithm that facilitates the detection of the optimal STGCNs models automatically using a reinforcement learning technique 60 . An attention mechanism allows DL models to focus more on the useful parts of features 46 . In graph neural networks, the attention mechanism allows the model to learn a dynamic and adaptive combination of the adjacency matrices and select the most relevant information 61 . Attention-based GCNs adaptively capture dynamic spatial and temporal correlation of heterogeneous data and its interpretability power 33 . The combination of attention mechanism and STGCN structure, therefore, could provide a powerful testbed for problems in which heterogeneous features with complex spatial and temporal correlation exist. The application of attentionbased STGCNs in the literature, however, is limited to traffic flow prediction 33 . Because of the characteristics of the urban flood nowcasting problem, attention-based STGCNs may provide models that could account for spatial interdependencies, as well as for the temporal correlations among features related to flood inundation status. Heterogeneous human-sensed data for flood nowcasting. To complement the information sensed by physical sensors, other sources of data with distinct levels of reliability, aggregation, and the need for preprocessing have been tested in recent studies 31 . Satellite images, drone-recorded videos and images, and images captured by other cameras provide reliable information; however, limitations of data acquisition and challenges in data processing restrict extensive use of such data for flood predictive monitoring and vulnerability assessment 62-65 . Blumberg et al. 1 employed hurricane-related photos provided by volunteers to simulate flood inundation during 2012nHurricane Sandy in Hoboken and Jersey City, New Jersey. On the other hand, human-sensed crowdsourced data have become more available in different formats that can provide geo-located information regarding the flood status in a timely manner. For example, studies have analyzed anonymized social media content using ML and DL techniques and employed the extracted information for enhancing flood situational awareness 32,66-68 . In another study example, Huang et al. 69 integrated tweet data gathered by remote sensing and river water gauges to improve near real-time flood inundation maps. Nevertheless, the tweet activity data has also proven to expedite the detection of flood inundation and flood-related events when combined with satellite flood signals 70 . However, there are limitations in terms of content analysis and ensuring the credibility of the extracted information from social media 71 . Furthermore, social media data might be biased by factors such as distance to impacted areas, the popularity of the user, and demographic characteristics of users 72 . Recently, the digital trace of human activities (such as cellphone and location-based data) has also been deployed for flood prediction. The rationale is that the changes in the level of human activity and the concentration of human activity can indicate signals regarding flood status 73 . The combined use of different sources of data-physical flood sensors data, crowdsourced social media data, and telemetry-based human activity data provides opportunities to gather a more extensive set of indicators related to flood status for use in flood predictive monitoring 74 . Integrating such heterogeneous data requires a modeling framework that is able to recognize and focus on key data Point of departure. The review of the current state of the art shows two gaps in the knowledge for urban flood nowcasting: (1) the absence of a deep-learning structure that combines attention mechanism and graphbased convolutional network structure for extracting information from heterogeneous features with complex spatial and temporal correlation; and (2) the lack of a proper flood nowcasting modeling framework for integrating heterogeneous human-sensed features that can carry valuable flood-related information along with the physical sensor data. Recognizing these gaps, this study presents a deep-learning modeling framework including an adopted attention-based spatial-temporal graph convolution network (ASTGCN) model and streams of data that could be collected as a flood event unfolds, preprocessed, and fed into the prediction model to consider spatial and temporal features as well as dependencies in order to enable reliable urban flood nowcasting. The proposed model was tested in the context of flooding caused by the 2017 Hurricane Harvey in Harris County, Texas. The model performance and its implications for flood nowcasting, as well as enhancing situation awareness, are discussed. The novelty of this study is the creation a framework that addresses major limitations in the application of data-driven techniques for flood nowcasting by (1) focusing on graph-based architectures that enable co-location dependency between urban units for considering the spatial aspect of flood propagation, (2) identifying and processing various heterogeneous physics-based and human-sensed data that carry information for inferring flood status in spatial units, and (3) utilizing an attention-based time-series forecasting architecture for considering the temporal aspect of flood prediction and focusing on information with higher importance when processing large amounts of heterogeneous features. Methods Problem definition and abstraction. In this study, we model the study area as a network of census tracts to capture the spatial interdependence in urban flood propagation and recession. We used the census tract as the spatial unit for various reasons: its scale is neither so coarse as to lose the resolution nor so fine as to lose observability of flood status due to missing data. This makes the census tract a suitable spatial scale for aggregating and interpolating both human-sensed data and physics-based data while maintaining data accuracy and keeping it informative for flood nowcasting. Next, the purpose of any urban prediction model is to provide emergency managers and people with actionable data. Therefore, the alignment of spatial units of the outputs with the administrative boundaries make the results more insightful and valuable for decision makers. In addition, one issue that is associated with the use of human-sensed data is that these data are biased toward highly populated areas. Therefore, if the spatial unit is smaller in the locations with higher population, the bias is alleviated to some extent. Finally, demographic data is available for administrative boundaries with proper accuracy. Therefore, future research can focus on the issues related to the associated between model performance in areas with different demographic characteristics to investigate crucial aspects of the model such as fairness and demographic biases. We created an undirected graph G = (V , E, A) , where V is the set of N nodes, each representing a census tract in the study area; set E includes edges in graph G that represent the connection between different nodes; and matrix A N×N is the adjacency matrix of graph G . Entries of matrix A are determined based on the proximity and the extent to which two census tracts have similar features that potentially influence their flooding status. Therefore, matrix A is built upon the distance between census tracts and a set of static features, such as elevation, land use, and distance to stream, that impact the flooding status of particular areas 75 . At each timestep, each node in the graph G holds a vector of temporal features (more discussion about the features are provided in the next section) that contain information that is used as the model input for nowcasting flood in the model. These temporal features capture various physics-based and human-sensed data inputs that are aggregated and preprocessed into the same sampling frequency. Figure 1 shows a schematic representation of the graph model, as well as static and dynamic features that are used for feeding the model for flood nowcasting. Figure 2 shows the overview of the steps for the development and evaluation of the model. Overall, the design plan for the study involves four steps 76,77 : data collection, data preprocessing, model development, and model evaluation. First, we present the data used for the development of the model. The data includes ground truth data: static features, which represent the dependency between flooding status of different areas in the adjacency matrix; and dynamic features that provide indications of temporal propagation and recession of urban flooding in each census tract. We also elaborate on the data preprocessing needed for the preparation of static features and the construction of time series of the dynamic features. Then we present the model architecture and mechanisms used in the DL model for urban flood nowcasting. Finally, we discuss the performance evaluation metrics of the model, parameter tuning for optimizing the model performance, and comparison of the model performance with other state-of-the-art models. Overview of the model development and evaluation. Data collection and preprocessing. Ground truth. We used traffic condition data for 19,712 road segments in Harris County provided by the private company INRIX as proxies to determine if a certain road section was flooded. INRIX collects location-based data from both sensors and vehicles. The INRIX traffic data contains the average traffic speed of each road segment at 5-min intervals and their corresponding historical average traffic speed. Each road segment's identification information, such as name, geographic locations defining its head and end coordinates, and length, is also available from the INRIX data set. Previous research shows that road segments flooded due to Hurricane Harvey can be indicated by detecting the road segments with NULL values for their average traffic speed 20 www.nature.com/scientificreports/ main roads in inundation estimation. We found that this data division helps to reduce the data imbalance problem by capturing more flooded segments. The filtered data is used to determine the percentage of roads flooded as the indicator of the flood extent in census tracts. To do so, we characterized the flood status of each census tract as the ratio of flooded roads to the total number of roads. www.nature.com/scientificreports/ Static features. Static features were used to develop the adjacency matrix and assign weights of connection between nodes in the graph model. We developed the adjacency matrix primarily based on the distance between the centroids of census tracts. In addition, we incorporated the impact of six static features (five features in the Table 1 and physical distance) that characterize flood propagation in an area in the adjacency matrix. The rationale is that nodes that have similar static features would have similar flood propagation behavior. Table 1 shows static features including floodplain, land use, watershed, distance to coast and distance to stream and the description of how they are calculated. These features were collected for each census tract. For the features available for each point, the value of the centroid of the census tract is considered. Elevation from the sea level was calculated using the digital elevation model (DEM) of the study area. Distance to Galveston coast and distance to closest main streamflow were calculated by mapping the study area and the streams that discharge stormwater from the area into Galveston Bay. Moreover, we coded 22 watersheds within the study area, and each census tract was associated with the watershed within which its centroid falls. Similarly, we mapped the 100-year floodplain and determined whether the centroid of the census tract falls inside the floodplain. The resulting binary variable was then used as a static feature. Finally, we used the land-use map of Harris County and determined the ratio of residential area to total land area as a feature that is a determinant of the land properties. As a summary, ground truth is used as the dependent variable in the classification in the model. In addition, in case of static and dynamic features, the rationale for selecting static features is to capture similarities between spatial units of analysis to assign weights between them. The degree of influence was determined by testing different weights for the influence of static features versus physical distance. For dynamic features, the rationale for selecting features is (1) ability to provide temporal flood-related information and (2) availability of the temporal data with proper spatial resolution. The degree of influence of dynamic features were tested by developing different models that use different data inputs and investigating the performance of each model. Dynamic features. Dynamic features capture temporal changes that can indicate the flood propagation and can be used by the model for flood nowcasting. We considered both physics-based and human-sensed features. For physics-based features, we used the data recorded by the 175 flood gauge stations in Harris County. These flood gauge stations are located on the main channels and bayous to provide residents with timely information on rainfall accumulation and water elevation in the stream 78 . We collected the rainfall and stream elevation from the official website of Harris County Flood Control District 78 . We constructed three time series for each census tract based on the flood gauge data, including short-term rainfall intensity, long-term flood intensity, and water elevation. For short-term rainfall intensity, we used the accumulated rainfall in the past 2 h recorded by the flood gauge (Table 1). For long-term rainfall intensity, we used the accumulated rainfall in the past 24 h recorded by the flood gauges. Also, we used the ratio of recorded water elevation to the threshold elevation of flooding in each flood gauge as the water elevation indicator. It should be noted that the frequency of readings of rainfall and water elevation varies across time; in such cases, we performed interpolation and extrapolation to extract the value of the time series based on the available readings. The number of flood gauges is fewer than the number of census tracts; therefore, we used the weighted average of readings of the two closest flood gauges to determine measurements for each census tract. Weights are proportional to the inverse of the distance between the centroid of the census tract and the flood gauge. Figure 3 illustrates the process for determining physics-based features for each census tract based on the flood gauge data. Physics-based features provide a reliable source for indicators needed for flood nowcasting; however, due to limitations such as sparsity of data points and lack of sufficient data (limited number of physical sensors) for inferring flood status in near future, we used a number of human-sensed data types to supplement the data www.nature.com/scientificreports/ needed for flood nowcasting. We used three different types of human-sensed data ( Table 1): records of 3-1-1 flood reports, Twitter activity, and the telemetry-based digital trace of human activity. We collected 4275 floodrelated 3-1-1 reports for the study period from the official website of the City of Houston 79 . Then, we filtered reports based on report type so that only reports that indicated flooding were included. More 3-1-1 flood reports during a certain timeframe in an area indicate a higher risk of flooding 75 ; thus, we spatially aggregated the number of reports in each timestep and created a time series showing the number of floods reported through the 3-1-1 platform for each census tract. Social media platforms are another means by which people disseminate information regarding flooding in near real-time. Hence, the relevant data collected from social media can improve flood nowcasting. We incorporated flood-related information posted by Twitter users as an input for our flood nowcasting model. The geotagging feature of Twitter links tweets with accurate longitude and latitude of the location from which tweets originate 80 . Although a small percentage of tweets have geotagged, this small percentage generates thousands of tweets that provide reliable insights into flood status, especially areas lacking physical sensors. To examine social media attention, we used collected tweets for the study time period (August 25, 2017, to September 2, 2017) in 84 super-neighborhoods in Houston. Twitter PowerTrack API (application programming interface) was used for collecting the 29,256 geotagged tweets during the study time period. Two filters were applied to ensure the relevance of the tweets. The first filter identifies the tweets, whose geotags like in our predefined bounding boxes, posted by the users whose profiles show their location Harris County. The second filter was the keywords (i.e., the names and abbreviations of the areas) that identify the tweets specifically related to the study area 71 . Regarding the use of Twitter data, it should be noted that multiple research studies show that crowdsourced data such as Twitter data are subject to various biases such as population bias, spatial bias, and sample bias 80,81 . Particularly, there are studies that investigate the biases in geotagged tweets for Hurricane Harvey 75 . However, one of the potential promises of the model developed in this study is to alleviate the biases in the use of different data sources for flood prediction by data integration. For example, studies show that the crowdsourced data is biased toward less vulnerable populations and the areas with higher population 80 , therefore, solely relying on these data poses great biases on the predictions while including flood sensor data that are somehow evenly distributed across the county chiefly based on the flood exposure and without consideration of population, reduces the bias in the model prediction. In addition to flood reports and social media activities, recent studies show that telemetry-based human activity fluctuations, which is registered by the concentration of aggregated usage of cellphone users in specific areas can signal flood inundation or other disaster-related impacts 82,83 . To incorporate information regarding human activity in our flood nowcasting model, we obtained digital traces of human activities for the study timeframe from Mapbox. We chose Mapbox as the source of the telemetry data due to its ability to collect temporal and www.nature.com/scientificreports/ spatial telemetry-based human activity with a proper level of aggregation. Human activity is collected, aggregated, and normalized by Mapbox based on the geography information updates of locations of users' devices (such as cell phones) from applications that use Mapbox Software Development Kit (SDK). Human activity here is calculated as the density of the usage of cellphone users in specific areas that are recorded, aggregated, and anonymized by Mapbox SDK globally contributing to live location updates. (The data is gathered from app developers who access Mapbox data through the SDK. Mapbox records locations of users of the maps service.) Mapbox provided a 4-h temporal resolution as raw data. In terms of spatial resolution, tiles represent square geographic areas approximately 100 m per side, a size which varies depending on latitude. The more users located in a tile at time t , the greater the human activity index. Data might not exist for all spatial units, as data is derived from cell phone activity depending on the updates of the geography information of cell phone users. Moreover, to preserve privacy and the data aggregation process, traces are excluded from tiles with small numbers of users. The raw index of human activity is normalized. Normalization is compartmented separately by month and type of trace and yields a normalized activity index for each tile in each 4-h time period of human activity provided by Mapbox. The normalized values range between 0 and 1. We created time series of human activity by aggregating tiles into census tracts and averaging the activity indexes for all the tiles that fall into a census tract in a certain timestep. Thus, we used linear interpolation to aggregate indexes of human activity for each 30-min timestep as the time period considered for our model. Table 1 also provides a summary of dynamic features used for flood nowcasting in this study. ASTGCN model. Graph adjacency matrix. Considering that the graph represents an area, and each node represents a census tract, co-location of two census tracts can imply similarities between their state of flooding. Therefore, we considered the distance between census tracts as the major determinant of the weights in the adjacency matrix. In addition to physical distance, we considered static features that imply similarity in flooding status of two areas. In particular, we considered features that influence flooding status in a flood-prone urban area: (1) whether the area is inside the 100-year floodplain, (2) distance to the closest main streamflow, (3) distance to the outlet (Galveston Bay in our study area), (4) the watershed in which that the area is located, and (5) the land-use pattern. To include these static features in our adjacency matrix, we created a vector of size five for each census tract containing the static features and calculated the Euclidean distance similarity for each pair of census tracts. To combine the impact of static features and co-location dependency, we used the weighted average of the Euclidean distance similarity and the physical distance. Based on the early experiments on the model for tuning the weights for the adjacent matrix, we found that choosing 0.1 as the weight for Euclidean distance similarity and 0.9 as the weight for physical distance yields the best result. Model architecture. We adopted the ASTGCN model architecture design from the model proposed by Guo et al. 33 that was developed primarily as an attention-based graph convolutional network for forecasting traffic flow. The original model framework includes three independent input components and employs information fusion to consider different temporal properties of the traffic flow and to deal with the seasonality of the traffic data. In the case of flood nowcasting, however, there is often no seasonality in the temporal changes of major features-such as rainfall, stream elevation, and human activity-during the hazard period. Hence, we used a single input component in our architecture that consists of time series of three physics-based and three human-sensed dynamic features recorded for each node of the graph. Thus, given the six dynamic features, and N nodes in the graph model of the area, all the features over the T timesteps form X = (x 1 , x 2 , . . . , x t , . . . , x T ) T as the input, where x t includes all the features for all the nodes at timestep t . Moreover, we used the percentage of inundated roads (determined based on INRIX traffic data) as the target variable and used y i t to represent the flooding status of census tract i at timestep t. As shown in Fig. 4, the ASTGCN model consists of spatial-temporal (ST) blocks and a fully connected layer. Each ST block consists of a spatial attention module and a temporal attention module that is followed by a spatial-temporal convolution module on the graph model. The attention modules are included to capture the spatial and temporal correlation of the dynamic heterogeneous input features in the nowcasting flood status. These www.nature.com/scientificreports/ modules enable the network to adjust the weights of the features and determine the pieces of data upon which the model needs to rely more heavily to have generate predictions. The output is then fed into the spatial-temporal convolution module that captures the dependencies between different nodes based on the adjacency matrix and the time series of input features. The model includes L ST blocks, where the input for (l + 1) th block is: where C l denotes features of the input data in the (l + 1) th layer, τ l denotes the length of the temporal dimension in the l th layer, which for l = 1 , equals T . The spatial attention is then determined as follows: where P s and b s are N × N learnable parameters, and W 1C l , W 2C l ×τ l , and W 3C l are also learnable parameters that are fed into sigmoid function σ as the activation function. Similarly, the temporal attention module captures the strength of information between two timesteps i and j . After processing at the attention modules, the data becomes more valuable for the convolution layer as it extracts and captures both dynamic spatial and temporal dependencies. The data is then fed into the spatial-temporal convolution module, which also has spatial and temporal dimensions. For applying convolution of the network structure, Guo et al. 33 used the spectral graph theory, and for each timestep, graph convolutions operate on the graph to extract correlation in the spatial dimension based on the developed adjacency matrix. Given D as the degree matrix and A as the adjacency matrix, Laplacian matrix ( L ) is defined as follows: The normalized form of the Laplacian matrix is used to apply convolution on the graph as follows: where * G operates a convolution on the graph G given the signal x and U is Fourier basis. Guo et al. 33 adopt a Chbyshev polynomial to approximate the eigenvalue decomposition on the Laplacian matrix and get the neighborhood of 0 to k − 1-order of each node by g θ as follows: where θ consist of K polynomial coefficients, T k (x) = 2xT k−1 (x) − T k−2 (x) and L is determined as follows: and max is the maximum eigenvalue of the Laplacian matrix. The Hadamard product of T k L and SAtt ′ is used in the approximation to include the effect of the spatial attention. Doing so, we can perform required number of filters for each node at each timestep and ensure that the neighboring information has been captured in the spatial dimension. Next, we use the similar standard temporal convolution to update the information based on the past timesteps; for the l th layer, we have: where * represents standard convolution, parameters of temporal kernel, and ReLU is the rectified linear unit activation function. The model in this study includes three appended ST blocks that are stacked to a fully connected layer that uses a softmax activation function for classifying the dependent variable, flood status. Model evaluation. The original ASTGCN model that has been adopted by this study is a regression model. However, based on the nature of this study, we transformed the task to classification. The reason for transferring the model from regression to classification is mainly the imbalance in the predictor variable (i.e., the road data). As a common issue in flood prediction task, the data is often imbalance toward non-flooded values. Our experiments on both regression and classification tasks showed that splitting flood extent can reduce the imbalance in the data and better capture the flooding in the model prediction. In addition, interpretability of the performance of the model in classification task is the other reason. Although metrics such as MAE and RMSE can be compared for different models in the regression task, the comparison cannot provide proper insight on the model performance on failure to capture flooding (recall) and incorrect detection of flood (precision), which are very important to understand the performance of predictive models in rare event predictions. We employed various classification metrics which can capture the performance of the model on the imbalance data. Accuracy, precision, recall, and F1 score are used for the case that the target variable is a categorical variable capturing the status of flooding. Our target variable has three different classes, thus we employed macro precision, recall, F1 score, and accuracy as model evaluation parameters to highlight the performance of the model on the minority class. (1) www.nature.com/scientificreports/ It should be noted that while this study adopted the ASTGCN model structure, it provides various modifications and adjustments to make the model suit for the problem in this study versus the traffic prediction task in the initial version of the ASTGCN model proposed by 33 . These adjustments have been performed to ensure that the model proposed by Guo et al. 33 is properly adopted for the purpose of this study 84 . These adjustments include (1) transforming the model structure to perform a classification task instead of the regression task in the original model. This has been done by modifying the activation function and using evaluation metrics fitted for classification task, (2) varying the number of layers to yield the optimal model performance by doing multiple experiments, (3) modifying the method for determining the weights for the formation of the graph adjacency matrix based on features other than the distance to capture similarity in flood-related features, and (4) stacking and feeding various curated data into the model (versus feeding the model by single feature aggregated in different time periods in the original model). X l = x 1 , x 2 , x 3 , . . . , x T l ∈ R N×C l ×τ l (2) SAtt = P s · σ X l W 1 W 2 W 3 X l T + b s (3) L = D − A (4) g θ * G x = g θ (L)x = g θ U�U T x = Ug θ (�)U T x (5) g θ * G x = K−1 k=0 θ k T k L x Results Study context. As one of the most flood-prone areas in the United States, Harris County has experienced several devastating floods since the latter half of the twentieth century. Notably, Hurricane Harvey, as a Category 4 hurricane, made landfall in Texas on August 25, 2017. Hurricane Harvey led to a catastrophic flood that necessitated 100,000 rescue requests in the week following its landfall in Harris County, as well as damage to 80,000 structures 75 . Contained within Harris County's 1777 square miles are 22 primary watersheds. Detailed information regarding individual watersheds can be found at the Harris County Flood Control District website 85 . Each watershed has independent flooding management issues. Some of them merge and drain into one of the major creeks or bayous, but ultimately, all stormwater drains into Galveston Bay. We defined our study timeline from August 25, 2017, to September 3, 2017, and we collected the sets of data required for the flood nowcasting model for 787 census tracts in Harris County. Implementation details. In this study, we used data from August 25 to August 30, 2017, as our training set, and data from August 31, 2017, to September 3, 2017, as our test dataset. We used 30-min intervals to give us 288 timesteps for training the data and 192 timesteps for testing the model. We split the data in a way that both training and testing sets capture portions of flood propagation and recession due to Hurricane Harvey. There were two main factors that governed the decision for data split. First, to perform proper prediction, both training and testing datasets need to include sufficient (and ideally close) ratio between the number of observations in each classes of the response variable. However, the fact is that the flooding mainly occurs in the specific timeframe and it is challenging to split the data in a way that both datasets include a reasonable case of flooding. To deal with this issue, we plotted the flood status time series to understand what threshold would best divide the data into train and test set that capture sufficient flood cases. It leads to selecting the existing train/test datasets in which the ratio of the test dataset is slightly larger than the convention. Besides, the other consideration is that the model needs to see sufficient number of data points to perform proper prediction based on the time series of the observed data. therefore, the test set cannot be as small as the conventional models employ (e.g., 10% of the entire dataset). Accordingly, all the dynamic features were extracted and underwent data preprocessing required for feeding into the model. In cases that the dynamic features were not available in the time units of the study, linear interpolation and extrapolation were used to extract the required values for the missing timesteps. We categorized flooding statuses into three classes: in each timestep, census tracts with fewer than 1% of roads flooded are considered as "no flood, " census tracts with 1%-10% of roads flooded are considered as "moderate flood, and census tracts with more than 10% roads flooded are considered as "severe flood. " The selection of the ratio for determining classes of flood extent was primarily done by a combination of testing different ratios and authors' judgement. In fact, we plotted the different ratios to see which ratio can better reflect the flood extent in the area in accordance with other ground truths such as flood maps during Hurricane Harvey. In should be noted that since the ground truth in this study captures road/street flooding, it does not perfectly match with flood maps since not all flood inundations cause street flooding. however, the overall comparison can be made using the flood maps and the historical information regarding the flood impact during 2017 Hurricane Harvey in Harris County. In this case, the model solves a classification problem in which the objective is to minimize the misclassified samples. We performed hyperparameter tuning by focusing on the learning rate and dropout rate to select the model with the best performance. Model performance and comparison. Along with model implementation and to better evaluate the model performance, we used different state-of-the-art models against which ton compare the performance of the ASTGCN model. Moreover, we examined the extent to which the integration of human-sensed data can improve the performance of a model that relies solely on physics-based data for flood nowcasting. To this end, we ran four different experiments. First, we ran the model on the attention-based spatial-temporal graph convolution network model fed by physics-based data (model 1). Next, we employed the same ASTGCN model and employed both physics-based and human-sensed features as input (model 2). To assess the impact of the attention mechanism on the model performance, we used a relatively similar spatial-temporal graph convolutional network (STGCN) model (model 3) adopted from Yu et al. 86 . Finally, we used a long-short term memory (LSTM) model (model 4) as the baseline for model performance comparison. Table 2 shows the performance of the models in terms of precision, recall, F1 score, and model accuracy. Comparing the performance of graph-based models (models 1, 2, and 3) with the LSTM model, we can see that the graph-based models show significantly better performance in terms of precision, recall, and F1 score, while all the models have proper accuracy. The poor performance of the LSTM model in macro precision, recall, and www.nature.com/scientificreports/ F1 score shows that the model is unable to classify minority classes (i.e., flooded areas), which indicates that the model cannot provide insight for flood nowcasting. Comparing the performance of graph-based models, the STGCN model demonstrates highest recall and accuracy. However, the precision is 9.28% lower than the model with the highest precision, model 2, which uses physics-based and human-sensed input. This considerable difference is also reflected in the F1 score. The implication is that model 3 properly captures flooded cases (high recall), which is particularly valuable for flood nowcasting since it ensures the majority of the flooded areas are captured; however, the downside is that it erroneously captures many non-flooded cases. Finally, the comparison of model 1 and model 2 reveals valuable insights for flood nowcasting and risk prediction. As shown in Table 2, model 2 over-perform model 1 in major evaluation metrics, including precision, recall, and F1 score. Particularly, model 2 yields 2.92% higher precision, 8.13% higher recall, and a 4.99% higher F1 score. Therefore, it can be seen that the use of human-sensed features as the supplement to physics-based input for flood nowcasting in the graph-based model significantly improves the predictive performance of the model. This finding shows the benefit of using heterogeneous community data and integrating different dynamic features for flood nowcasting. It reinforces the need for developing pipelines for collecting, preprocessing and integrating human-sensed data that becomes available during a flood event to improve awareness. Figure 5 shows an instance of the prediction performance for model 2. As can be seen in boxes (I), (II), and (III), the model performed well in the case of the clusters of flooded areas, although in some cases (box (II)), there are misclassified regions. These region errors might indicate the impact of capturing the spatial dependency on the predictive performance that enables the model to identify the inundation hot spots and aid decision-makers to detect regions that need to be prioritized for emergency response in near future. On the other hand, as we can see in the red circles in Fig. 5b, particular areas that are not in the flooded clusters have been classified incorrectly. This result might indicate the need for more data, particularly human-sensed data, which can signal inundation of areas where flooding is difficult to detect by the co-location dependency. Figure 6 also shows two cases of flood nowcasting performance by model 2, which shows significant differences in predictive performance. As shown in Fig. 6a, the model has performed properly in identifying the majority of the flooded area; however, in considerable misclassified areas are evident in Fig. 6b. Considering that Fig. 6a shows a timestep close to the start time of the test set (timestep 2), while Fig. 6b is a timestep that captures the third day in the test set (timestep 136), it might be inferred that the model performance decays as the time passes, which can be addressed by updating the model during the flood event. Conclusions A crucial step for effective and timely disaster response and recovery is situational awareness, how the situation is evolving, and how community actors and residents respond to the evolving situation 87 . In this regard, flood nowcasting plays a pivotal role in enhancing situational awareness by providing a realistic prediction of the areas at risk of flood inundation in near future. In this study, we adopted an attention-based spatial-temporal graph convolution network (ASTGCN) model for urban flood forecasting. The model employs both physics-based and human-sensed features, as well as static features that capture spatial dependency in terms of flood propagation. In the ASTGCN model, the attention mechanism enables automatically updating the importance of spatial and temporal dependencies for flood nowcasting, and the spatial and temporal convolutions extract the local dependencies in the model. We demonstrated the application of the model and compared its performance in the context of flooding following Hurricane Harvey in Harris County, Texas, in August 2017. The results indicate that, in general, the graph-based structure significantly improves prediction of flooded areas. For example, the model performs significantly better than the conventional long-term short-term memory models in terms of precision and recall, which are metrics of interest in prediction tasks using an imbalanced data set. Moreover, the attention mechanism improves the model precision and helps to capture the majority of flooded areas. The results also indicate that the ASTGCN model performs significantly better if it employs heterogeneous human-sensed data as a supplement of the physics-based data that traditionally used by hydraulic and hydrologic models. This finding is particularly significant since it demonstrates the promise of developing data pipelines for data fusion using physics-based data collected by flood gauges and sensors and data that is either generated by residents or captures the digital trace of residents' activity. The main contributions of this study are twofold: first, we adopted and tested a novel graph deep-learning model for urban flood nowcasting. Second, the study showed the value of leveraging human-sensed data to complement physical flood sensor data for observing flood status across a region to improve flood nowcasting. Through these contributions, this study advances the body of knowledge related smart flood resilience. The advances in a structured deep-learning model provide opportunities for employing model architectures that extract information from spatial and temporal dependencies 2 and modules that extract information by putting more attention on the varying spatial and temporal features 44 . Moreover, the increasing availability of heterogeneous human activity data in near real-time calls for pipelines that leverage the information embedded in such data that can provide signals for urban flooding. The novel deep learning-modeling approaches and the availability of human-sensed data advance smart flood resilience by providing tools and pipelines that help people better respond and react to floods through enhanced predictive flood exposure and risk mapping before and during floods. This study, in particular, demonstrates the promise of integrating physics-based and human-sensed data into a graph-based deep-learning model that captures spatial and temporal dependencies for flood nowcasting. Also, this study showed the promise of data-driven models to complement physics-based H&H models for predictive flood monitoring and situational awareness. It should be noted that the one of the main challenges in urban flood prediction studies is the scarcity of the required data in urban scale and limited data availability. The ideal case is to have data of various flood events to train model on specific events and test it on the other events to evaluate the model performance. However, this is only possible for various flood prediction studies that solely rely on sensor data 43 . When it comes to leverage emerging datasets such as human activity and crowdsourced data, some of the datasets (i.e., Mapbox and Twitter data) are currently available only for limited number of events (e.g., Hurricane Harvey in this study). Nevertheless, the availability of these datasets is increasing, and therefore, it is valuable to test the applicability of these data for future employment in larger scale. In fact, we aimed at using the existing datasets, acknowledging the www.nature.com/scientificreports/ abovementioned limitation in data scarcity, and aiming at limiting the impact of the data scarcity on the model performance by different techniques. While the model performance cannot guarantee the same model performance in the future events due to the data limitations, the comparison made by using various model structures shows the potential for the superior performance of the proposed framework (i.e., employing graph-based models and data integration to capture different flood signals). Future studies can focus on developing techniques to reduce the computational demand of the existing models to make the use of these models more feasible for flood nowcasting once more data streams are fed into the model. Moreover, further studies can generalize the approach demonstrated in this paper by testing the model on other flood cases and utilizing other types of physics-based and human-sensed features as inputs. As mentioned earlier, one limitation of this study is that the model was tested in a single event and region, as the data used in this study was not available for historical events. As various physical sensor and human-sensed data become more available in future events, however, the model could be employed and tested in other events and contexts. Data availability All data were collected through a CCPA-and GDPR-compliant framework and utilized for research purposes. The data that support the findings of this study are available from Mapbox and INRIX, but restrictions apply to the availability of these data, which were used under license for the current study. The data can be accessed upon request by the data providers. Other data we use in this study are all publicly available. Figure 1 . 1Schematic representation of the problem abstraction; the study area is modeled as a graph; static features and distance are used to determine weights, and physics-based and human-sensed dynamic features are used for predicting the extent of flooding. Figure 2 . 2Overview of the model framework, including steps for collecting and preprocessing ground truth and features, developing the ASTGCN model architecture, and evaluating the performance of the model. Figure 3 . 3Schematic illustration of calculating census tracts' distances and weights of two closest flood gauges as inputs to the census tract physic-based features. Scientific Reports | (2023) 13:6768 | https://doi.org/10.1038/s41598-023-32548-x Figure 4 . 4Model architecture, including model input, spatial-temporal blocks, attention layers, and the fully connected layer at the end.Scientific Reports | (2023) 13:6768 | https://doi.org/10.1038/s41598-023-32548-x Figure 6 . 6An example of model flood nowcasting performance; (a) a proper prediction (August 31, 00:30 a.m.-01:00 a.m.) versus (b) model prediction with more misclassification (September 2, 8:30 p.m.-9:00 p.m.). Scientific Reports | (2023) 13:6768 | https://doi.org/10.1038/s41598-023-32548-x . We filtered the road segments with speedlimit ≥ 30 mph to only account for theScientific Reports | (2023) 13:6768 | https://doi.org/10.1038/s41598-023-32548-x Table 1 . 1Static and dynamic features used for urban flood nowcasting.Influencing factor Feature Static feature Floodplain Whether or not the area is inside the 100-year floodplain Land use Percentage of the residential area Watershed The watershed that the area falls inside it Distance to coast Distance to Galveston coast Distance to stream Distance to the closest main stream flow Dynamic feature Physics-based features Short-term rainfall intensity Estimated accumulated rainfall in past 2 h Long-term rainfall intensity Estimated accumulated rainfall in past 24 h Water elevation Estimated ratio of water level to the flooding threshold, based on average readings of two closest channels Human-sensed features Flood reports Number of reported flooding in the neighborhood through 3-1-1 platform Social media activity Number of flood-related filtered tweets Human activity Activity index of telemetry-based digital trace of human activity Table 2 . 2Evaluation metrics for performance comparison of different models. Significant values are in [bold]. *ASTGCN with physic-based features. **ASTGCN with physic-based and human-sensed features.Figure 5. An example of model overall predictive performance (August 31, 6:00 a.m.-6:30 a.m.); (a) ground truth versus (b) model prediction.Criteria/Model ASTGCN-I* (model 1) ASTGCN-II** (model 2) STGCN (model 3) LSTM (model 4) Precision 0.785 0.808 0.733 0.416 Recall 0.824 0.891 0.906 0.413 F1 score 0.802 0.842 0.819 0.414 Accuracy 0.975 0.979 0.999 0.981 https://doi.org/10.1038/s41598-023-32548-x www.nature.com/scientificreports/Scientific Reports | (2023) 13:6768 | © The Author(s) 2023 AcknowledgementsThe authors would like to acknowledge funding support from the National Science Foundation project CRISP 2.0 Type 2 #1832662: Anatomy of Coupled Human-Infrastructure Systems Resilience to Urban Flooding: Integrated Assessment of Social, Institutional, and Physical Networks and the funding support from the X-Grant program (Presidential Excellence Fund) from Texas A&M University. Any opinions, findings, and conclusion or recommendations expressed in this research are those of the authors and do not necessarily reflect the view of the funding agencies.Code availabilityThe code that supports the findings of this study is available from the corresponding author upon request.Competing interestsThe authors declare no competing interests.Additional informationCorrespondence and requests for materials should be addressed to H.F.Reprints and permissions information is available at www.nature.com/reprints.Publisher's note Springer Nature remains neutral with regard to jurisdictional claims in published maps and institutional affiliations.Open Access This article is licensed under a Creative Commons Attribution 4.0 InternationalLicense, which permits use, sharing, adaptation, distribution and reproduction in any medium or format, as long as you give appropriate credit to the original author(s) and the source, provide a link to the Creative Commons licence, and indicate if changes were made. The images or other third party material in this article are included in the article's Creative Commons licence, unless indicated otherwise in a credit line to the material. If material is not included in the article's Creative Commons licence and your intended use is not permitted by statutory regulation or exceeds the permitted use, you will need to obtain permission directly from the copyright holder. To view a copy of this licence, visit http:// creat iveco mmons. org/ licen ses/ by/4. 0/. Street-scale modeling of storm surge inundation along the new jersey hudson river waterfront. A F Blumberg, N Georgas, L Yin, T O Herrington, P M Orton, J. Atmos. Ocean. Technol. 328Blumberg, A. F., Georgas, N., Yin, L., Herrington, T. O. & Orton, P. M. Street-scale modeling of storm surge inundation along the new jersey hudson river waterfront. J. Atmos. Ocean. Technol. 32(8), 1486-1497 (2015). Spatio-temporal graph convolutional networks for road network inundation status prediction during urban flooding. F Yuan, Y Xu, Q Li, A Mostafavi, Comput. Environ. Urban Syst. 97101870Yuan, F., Xu, Y., Li, Q. & Mostafavi, A. Spatio-temporal graph convolutional networks for road network inundation status predic- tion during urban flooding. Comput. Environ. Urban Syst. 97, 101870 (2021). Flood hazard mapping combining hydrodynamic modeling and multi annual remote sensing data. L Giustarini, M Chini, R Hostache, F Pappenberger, P Matgen, Remote Sens. 710Giustarini, L., Chini, M., Hostache, R., Pappenberger, F. & Matgen, P. Flood hazard mapping combining hydrodynamic modeling and multi annual remote sensing data. Remote Sens. 7(10), 14200-14226 (2015). Potential impacts of climate change on flood-induced travel disruptions: A case study of Portland. H Chang, Ann. Assoc. Am. Geogr. 1004Chang, H. et al. Potential impacts of climate change on flood-induced travel disruptions: A case study of Portland, Oregon, USA. Ann. Assoc. Am. Geogr. 100(4), 938-952 (2010). Hyper-resolution monitoring of urban flooding with social media and crowdsourcing data. R Q Wang, H Mao, Y Wang, C Rae, W Shaw, Comput. Geosci. 111Wang, R. Q., Mao, H., Wang, Y., Rae, C. & Shaw, W. Hyper-resolution monitoring of urban flooding with social media and crowd- sourcing data. Comput. Geosci. 111, 139-147 (2018). A real-time hydrological model for flood prediction using GIS and the WWW. W Al-Sabhan, M Mulligan, G A Blackburn, Comput. Environ. Urban Syst. 271Al-Sabhan, W., Mulligan, M. & Blackburn, G. A. A real-time hydrological model for flood prediction using GIS and the WWW. Comput. Environ. Urban Syst. 27(1), 9-32 (2003). Assessing the vulnerability of hydrological infrastructure to flood damage in coastal cities of developing nations. R I Ogie, T Holderness, S Dunn, E Turpin, Comput. Environ. Urban Syst. 68Ogie, R. I., Holderness, T., Dunn, S. & Turpin, E. Assessing the vulnerability of hydrological infrastructure to flood damage in coastal cities of developing nations. Comput. Environ. Urban Syst. 68, 97-109 (2018). Agent-based tsunami evacuation modeling of unplanned network disruptions for evidence-driven resource allocation and retrofitting strategies. A Mostafizi, H Wang, D Cox, L A Cramer, S Dong, Nat. Hazards. 883Mostafizi, A., Wang, H., Cox, D., Cramer, L. A. & Dong, S. Agent-based tsunami evacuation modeling of unplanned network disruptions for evidence-driven resource allocation and retrofitting strategies. Nat. Hazards 88(3), 1347-1372 (2017). Rapid assessment of disaster damage using social media activity. Y Kryvasheyeu, Sci. Adv. 231500779Kryvasheyeu, Y. et al. Rapid assessment of disaster damage using social media activity. Sci. Adv. 2(3), e1500779 (2016). Bayesian modeling of flood control networks for failure cascade characterization and vulnerability assessment. S Dong, T Yu, H Farahmand, A Mostafavi, Comput. Civ. Infrastruct. Eng. 357Dong, S., Yu, T., Farahmand, H. & Mostafavi, A. Bayesian modeling of flood control networks for failure cascade characterization and vulnerability assessment. Comput. Civ. Infrastruct. Eng. 35(7), 668-684 (2019). Local floods induce large-scale abrupt failures of road networks. W Wang, S Yang, H E Stanley, J Gao, Nat. Commun. 1012114Wang, W., Yang, S., Stanley, H. E. & Gao, J. Local floods induce large-scale abrupt failures of road networks. Nat. Commun. 10(1), 2114 (2019). Rethinking flood risk communication. E Rollason, L J Bracken, R J Hardy, A R G Large, Nat. Hazards. 923Rollason, E., Bracken, L. J., Hardy, R. J. & Large, A. R. G. Rethinking flood risk communication. Nat. Hazards 92(3), 1665-1686 (2018). A novel emergency situation awareness machine learning approach to assess flood disaster risk based on Chinese Weibo. H Bai, H Yu, G Yu, X Huang, Neural Comput. Appl. Bai, H., Yu, H., Yu, G., Huang, X. A novel emergency situation awareness machine learning approach to assess flood disaster risk based on Chinese Weibo. Neural Comput. Appl. 1-16 (2020). Real-time flood forecasting based on a high-performance 2-D Hydrodynamic model and numerical weather predictions. X Ming, Q Liang, X Xia, D Li, H J Fowler, Water Resour. Res. 567Ming, X., Liang, Q., Xia, X., Li, D. & Fowler, H. J. Real-time flood forecasting based on a high-performance 2-D Hydrodynamic model and numerical weather predictions. Water Resour. Res. 56(7), e2019WR025583 (2020). Simulation of a flash-flood event over the Adriatic Sea with a high-resolution atmosphere-ocean-wave coupled system. A Ricchi, D Bonaldo, G Cioni, S Carniel, M M Miglietta, Sci. Rep. 111Ricchi, A., Bonaldo, D., Cioni, G., Carniel, S. & Miglietta, M. M. Simulation of a flash-flood event over the Adriatic Sea with a high-resolution atmosphere-ocean-wave coupled system. Sci. Rep. 11(1), 1-11 (2021). Hydraulic model tests for propagation of flow and sediment in floods due to breaking of a natural landslide dam during a mountainous torrent. T Itoh, A Ikeda, T Nagayama, T Mizuyama, Int. J. Sediment Res. 332Itoh, T., Ikeda, A., Nagayama, T. & Mizuyama, T. Hydraulic model tests for propagation of flow and sediment in floods due to breaking of a natural landslide dam during a mountainous torrent. Int. J. Sediment Res. 33(2), 107-116 (2018). Exploring spatio-temporal-theme correlation between physical and social streaming data for event detection and pattern interpretation from heterogeneous sensors. M S Dao, K Zettsu, S Pongpaichet, L Jalali, R Jain, Proc. -2015 IEEE Int. Conf. Big Data. -2015 IEEE Int. Conf. Big DataDao, M. S., Zettsu, K., Pongpaichet, S., Jalali, L., Jain, R. (2015) Exploring spatio-temporal-theme correlation between physical and social streaming data for event detection and pattern interpretation from heterogeneous sensors, in Proc. -2015 IEEE Int. Conf. Big Data, IEEE Big Data 2015, 2690-2699 (2015). Novel use of social media to assess and improve coastal flood forecasts and hazard alerts. J M Brown, Sci. Rep. 111Brown, J. M. et al. Novel use of social media to assess and improve coastal flood forecasts and hazard alerts. Sci. Rep. 11(1), 1-10 (2021). The emerging role of satellite rainfall data in improving the hydro-political situation of flood monitoring in the under-developed regions of the world. F Hossain, N Katiyar, Y Hong, A Wolf, Nat. Hazards. 432Hossain, F., Katiyar, N., Hong, Y. & Wolf, A. The emerging role of satellite rainfall data in improving the hydro-political situation of flood monitoring in the under-developed regions of the world. Nat. Hazards 43(2), 199-210 (2007). A network percolation-based contagion model of flood propagation and recession in urban road networks. C Fan, X Jiang, A Mostafavi, Sci. Rep. 101Fan, C., Jiang, X. & Mostafavi, A. A network percolation-based contagion model of flood propagation and recession in urban road networks. Sci. Rep. 10(1), 1-12 (2020). Simultaneous calibration of multiple hydrodynamic model parameters using satellite altimetry observations of water surface elevation in the Songhua River. L Jiang, H Madsen, P Bauer-Gottwein, Remote Sens. Environ. 225Jiang, L., Madsen, H. & Bauer-Gottwein, P. Simultaneous calibration of multiple hydrodynamic model parameters using satellite altimetry observations of water surface elevation in the Songhua River. Remote Sens. Environ. 225, 229-247 (2019). Satellite-derived digital elevation model (DEM) selection, preparation and correction for hydrodynamic modelling in large, low-gradient and data-sparse catchments. A A Jarihani, J N Callow, T R Mcvicar, T G Van Niel, J R Larsen, J. Hydrol. 524Jarihani, A. A., Callow, J. N., McVicar, T. R., Van Niel, T. G. & Larsen, J. R. Satellite-derived digital elevation model (DEM) selec- tion, preparation and correction for hydrodynamic modelling in large, low-gradient and data-sparse catchments. J. Hydrol. 524, 489-506 (2015). Flood mapping tools for disaster preparedness and emergency response using satellite data and hydrodynamic models: A case study of bagmathi basin India. G Amarnath, K Matheswaran, P Pandey, N Alahacoon, S Yoshimoto, Proc. Natl. Acad. Sci. India Sect. A Phys. Sci. 874Amarnath, G., Matheswaran, K., Pandey, P., Alahacoon, N. & Yoshimoto, S. Flood mapping tools for disaster preparedness and emergency response using satellite data and hydrodynamic models: A case study of bagmathi basin India. Proc. Natl. Acad. Sci. India Sect. A Phys. Sci. 87(4), 941-950 (2017). Flash-flood hazard assessment using ensembles and Bayesian-based machine learning models: Application of the simulated annealing feature selection method. F S Hosseini, Sci. Total Environ. 711135161Hosseini, F. S. et al. Flash-flood hazard assessment using ensembles and Bayesian-based machine learning models: Application of the simulated annealing feature selection method. Sci. Total Environ. 711, 135161 (2020). Real-time probabilistic flood forecasting using multiple machine learning methods. D T Nguyen, S.-T Chen, Water. 123787Nguyen, D. T. & Chen, S.-T. Real-time probabilistic flood forecasting using multiple machine learning methods. Water 12(3), 787 (2020). Flood forecasting system based on integrated big and crowdsource data by using machine learning techniques. S Puttinaovarat, P Horkaew, IEEE Access. 8Puttinaovarat, S. & Horkaew, P. Flood forecasting system based on integrated big and crowdsource data by using machine learning techniques. IEEE Access 8, 5885-5905 (2020). Improving the accuracy of a flood forecasting model by means of machine learning and chaos theory. G Furquim, G Pessin, B S Faiçal, E M Mendiondo, J Ueyama, Neural Comput. Appl. 275Furquim, G., Pessin, G., Faiçal, B. S., Mendiondo, E. M. & Ueyama, J. Improving the accuracy of a flood forecasting model by means of machine learning and chaos theory. Neural Comput. Appl. 27(5), 1129-1141 (2015). Flood depth mapping in street photos with image processing and deep neural networks. Alizadeh Kharazi, B Behzadan, A H , Comput. Environ. Urban Syst. 88101628Alizadeh Kharazi, B. & Behzadan, A. H. Flood depth mapping in street photos with image processing and deep neural networks. Comput. Environ. Urban Syst. 88, 101628 (2021). A deep learning algorithm for simulating autonomous driving considering prior knowledge and temporal information. S Chen, Y Leng, S Labi, Comput. Civ. Infrastruct. Eng. 354Chen, S., Leng, Y. & Labi, S. A deep learning algorithm for simulating autonomous driving considering prior knowledge and temporal information. Comput. Civ. Infrastruct. Eng. 35(4), 305-321 (2020). Prediction of rainfall time series using modular soft computingmethods. C L Wu, K W Chau, Eng. Appl. Artif. Intell. 263Wu, C. L. & Chau, K. W. Prediction of rainfall time series using modular soft computingmethods. Eng. Appl. Artif. Intell. 26(3), 997-1007 (2013). Rapid spatio-temporal flood prediction and uncertainty quantification using a deep learning method. R Hu, F Fang, C C Pain, I M Navon, J. Hydrol. 575Hu, R., Fang, F., Pain, C. C. & Navon, I. M. Rapid spatio-temporal flood prediction and uncertainty quantification using a deep learning method. J. Hydrol. 575, 911-920 (2019). F J Chang, K Hsu, L.-C Chang, Flood Forecasting Using Machine Learning Methods. MDPIChang, F. J., Hsu, K. & Chang, L.-C. Flood Forecasting Using Machine Learning Methods (MDPI, 2019). Attention based spatial-temporal graph convolutional networks for traffic flow forecasting. S Guo, Y Lin, N Feng, C Song, H Wan, Proc. AAAI Conf. AAAI Conf33Guo, S., Lin, Y., Feng, N., Song, C. & Wan, H. Attention based spatial-temporal graph convolutional networks for traffic flow forecasting. Proc. AAAI Conf. Artif. Intell. 33(01), 922-929 (2019). Empirical evaluation of gated recurrent neural networks on sequence modeling. J Chung, C Gulcehre, K Cho, Y Bengio, Chung, J., Gulcehre, C., Cho, K., Bengio, Y. Empirical evaluation of gated recurrent neural networks on sequence modeling (2014). Deep learning. Y Lecun, Y Bengio, G Hinton, Nature. 5217553LeCun, Y., Bengio, Y. & Hinton, G. Deep learning. Nature 521(7553), 436-444 (2015). Prediction of Yangtze River streamflow based on deep learning neural network with El Niño-Southern Oscillation. S Ha, D Liu, L Mu, Sci. Rep. 111Ha, S., Liu, D. & Mu, L. Prediction of Yangtze River streamflow based on deep learning neural network with El Niño-Southern Oscillation. Sci. Rep. 11(1), 1-23 (2021). A novel perspective on travel demand prediction considering natural environmental and socioeconomic factors. Z Xu, Z Lv, J Li, H Sun, Z Sheng, IEEE Intell. Transp. Syst. Mag. 151Xu, Z., Lv, Z., Li, J., Sun, H. & Sheng, Z. A novel perspective on travel demand prediction considering natural environmental and socioeconomic factors. IEEE Intell. Transp. Syst. Mag. 15(1), 136-159 (2022). A novel approach for predicting water demand with complex patterns based on ensemble learning. Z Xu, Z Lv, J Li, A Shi, Water Resour. Manag. 3611Xu, Z., Lv, Z., Li, J. & Shi, A. A novel approach for predicting water demand with complex patterns based on ensemble learning. Water Resour. Manag. 36(11), 4293-4312 (2022). Physics informed data driven model for flood prediction: Application of deep learning in prediction of urban flood development. K Qian, A Mohamed, C Claudel, Qian, K., Mohamed, A., Claudel, C. Physics informed data driven model for flood prediction: Application of deep learning in prediction of urban flood development (2019). Streamflow prediction using deep learning neural network: Case study of Yangtze River. D Liu, W Jiang, L Mu, S Wang, IEEE Access. 8Liu, D., Jiang, W., Mu, L. & Wang, S. Streamflow prediction using deep learning neural network: Case study of Yangtze River. IEEE Access 8, 90069-90086 (2020). A flood forecasting model based on deep learning algorithm via integrating stacked autoencoders with BP neural network. F Liu, F Xu, S Yang, Proc. -2017 IEEE 3rd Int. Conf. Multimed. Big Data. -2017 IEEE 3rd Int. Conf. Multimed. Big DataLiu, F., Xu, F., Yang, S. A flood forecasting model based on deep learning algorithm via integrating stacked autoencoders with BP neural network, in Proc. -2017 IEEE 3rd Int. Conf. Multimed. Big Data, BigMM 2017, 58-61 (2017). Decentralized flood forecasting using deep neural networks. M Sit, I Demir, Sit, M., Demir, I. Decentralized flood forecasting using deep neural networks (2019). A hybrid deep learning model for predictive flood warning and situation awareness using channel network sensors data. S Dong, T Yu, H Farahmand, A Mostafavi, Comput. Civ. Infrastruct. Eng. Dong, S., Yu, T., Farahmand, H., Mostafavi, A. A hybrid deep learning model for predictive flood warning and situation awareness using channel network sensors data. Comput. Civ. Infrastruct. Eng. (2020) Interpretable spatio-temporal attention LSTM model for flood forecasting. Y Ding, Y Zhu, J Feng, P Zhang, Z Cheng, Neurocomputing. 403Ding, Y., Zhu, Y., Feng, J., Zhang, P. & Cheng, Z. Interpretable spatio-temporal attention LSTM model for flood forecasting. Neu- rocomputing 403, 348-359 (2020). T-GCN: A temporal graph convolutional network for traffic prediction. L Zhao, IEEE Trans. Intell. Transp. Syst. 219Zhao, L. et al. T-GCN: A temporal graph convolutional network for traffic prediction. IEEE Trans. Intell. Transp. Syst. 21(9), 3848-3858 (2020). A review on the attention mechanism of deep learning. Z Niu, G Zhong, H Yu, Neurocomputing. 452Niu, Z., Zhong, G. & Yu, H. A review on the attention mechanism of deep learning. Neurocomputing 452, 48-62 (2021). A high resolution coupled hydrologic-hydraulic model (HiResFlood-UCI) for flash flood modeling. P Nguyen, J. Hydrol. 541Nguyen, P. et al. A high resolution coupled hydrologic-hydraulic model (HiResFlood-UCI) for flash flood modeling. J. Hydrol. 541, 401-420 (2016). CREST-iMAP v1.0: A fully coupled hydrologic-hydraulic modeling framework dedicated to flood inundation mapping and prediction. Z Li, Environ. Model. Softw. 141105051Li, Z. et al. CREST-iMAP v1.0: A fully coupled hydrologic-hydraulic modeling framework dedicated to flood inundation mapping and prediction. Environ. Model. Softw. 141, 105051 (2021). Assimilation of probabilistic flood maps from SAR data into a coupled hydrologic-hydraulic forecasting model: A proof of concept. C Di Mauro, Hydrol. Earth Syst. Sci. 257di Mauro, C. et al. Assimilation of probabilistic flood maps from SAR data into a coupled hydrologic-hydraulic forecasting model: A proof of concept. Hydrol. Earth Syst. Sci. 25(7), 4081-4097 (2021). Calibration and sequential updating of a coupled hydrologic-hydraulic model using remote sensing-derived water stages. M Montanari, Hydrol. Earth Syst. Sci. 133Montanari, M. et al. Calibration and sequential updating of a coupled hydrologic-hydraulic model using remote sensing-derived water stages. Hydrol. Earth Syst. Sci. 13(3), 367-380 (2009). The graph neural network model. F Scarselli, M Gori, A C Tsoi, M Hagenbuchner, G Monfardini, IEEE Trans. Neural Netw. 201Scarselli, F., Gori, M., Tsoi, A. C., Hagenbuchner, M. & Monfardini, G. The graph neural network model. IEEE Trans. Neural Netw. 20(1), 61-80 (2009). Spatio-temporal graph structure learning for traffic forecasting. Q Zhang, J Chang, G Meng, S Xiang, C Pan, Proc. AAAI Conf. AAAI Conf34Zhang, Q., Chang, J., Meng, G., Xiang, S. & Pan, C. Spatio-temporal graph structure learning for traffic forecasting. Proc. AAAI Conf. Artif. Intell. 34(01), 1177-1185 (2020). AST-GCN: Attribute-augmented spatiotemporal graph convolutional network for traffic forecasting. J Zhu, IEEE Access. 9Zhu, J. et al. AST-GCN: Attribute-augmented spatiotemporal graph convolutional network for traffic forecasting. IEEE Access 9, 35973-35983 (2021). Covid-19 classification by FGCNet with deep feature fusion from graph convolutional network and convolutional neural network. S H Wang, V V Govindaraj, J M Górriz, X Zhang, Y D Zhang, Inf. Fusion. 67Wang, S. H., Govindaraj, V. V., Górriz, J. M., Zhang, X. & Zhang, Y. D. Covid-19 classification by FGCNet with deep feature fusion from graph convolutional network and convolutional neural network. Inf. Fusion 67, 208-229 (2021). Predicting station-level hourly demand in a large-scale bike-sharing network: A graph convolutional neural network approach. L Lin, Z He, S Peeta, Transp. Res. Part C Emerg. Technol. 97Lin, L., He, Z. & Peeta, S. Predicting station-level hourly demand in a large-scale bike-sharing network: A graph convolutional neural network approach. Transp. Res. Part C Emerg. Technol. 97, 258-276 (2018). Pedestrian flow prediction in open public places using graph convolutional network. M Liu, L Li, Q Li, Y Bai, C Hu, ISPRS Int. J. Geo-Inf. 107455Liu, M., Li, L., Li, Q., Bai, Y. & Hu, C. Pedestrian flow prediction in open public places using graph convolutional network. ISPRS Int. J. Geo-Inf. 10(7), 455 (2021). SociAl-STGCNN: A social spatio-temporal graph convolutional neural network for human trajectory prediction. A Mohamed, K Qian, M Elhoseiny, C Claudel, Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition. the IEEE Computer Society Conference on Computer Vision and Pattern RecognitionMohamed, A., Qian, K., Elhoseiny, M., Claudel, C. SociAl-STGCNN: A social spatio-temporal graph convolutional neural network for human trajectory prediction, in Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recogni- tion, 14412-14420 (2020). Dual-channel based graph convolutional networks for network traffic forecasting. C Pan, J Zhu, Z Kong, H Shi, W Yang, Dc-Stgcn, Electron. 1091014Pan, C., Zhu, J., Kong, Z., Shi, H. & Yang, W. DC-STGCN: Dual-channel based graph convolutional networks for network traffic forecasting. Electron 10(9), 1014 (2021). A discriminative STGCN for skeleton oriented action recognition. L Feng, Commun. Comput. Inf. Sci. 1333Feng, L. et al. A discriminative STGCN for skeleton oriented action recognition. Commun. Comput. Inf. Sci. 1333, 3-10 (2020). Auto-STGCN: Autonomous spatial-temporal graph convolutional network search based on reinforcement learning and existing research results. C Wang, K Zhang, H Wang, B Chen, Wang, C., Zhang, K., Wang, H., Chen, B. Auto-STGCN: Autonomous spatial-temporal graph convolutional network search based on reinforcement learning and existing research results (2020). Edge attention-based multi-relational graph convolutional networks. C Shang, Shang, C. et al. Edge attention-based multi-relational graph convolutional networks (2018). Flood warning and management schemes with drone emulator using ultrasonic and image processing. B Srikudkao, Adv. Intell. Syst. Comput. 361Srikudkao, B. et al. Flood warning and management schemes with drone emulator using ultrasonic and image processing. Adv. Intell. Syst. Comput. 361, 107-116 (2015). Integration of remote sensing data and GIS for accurate mapping of flooded areas. P A Brivio, R Colombo, M Maggi, R Tomasoni, Int. J. Remote Sens. 233Brivio, P. A., Colombo, R., Maggi, M. & Tomasoni, R. Integration of remote sensing data and GIS for accurate mapping of flooded areas. Int. J. Remote Sens. 23(3), 429-441 (2002). Rapid flood inundation mapping using social media, remote sensing and topographic data. J F Rosser, D G Leibovici, M J Jackson, Nat. Hazards. 871Rosser, J. F., Leibovici, D. G. & Jackson, M. J. Rapid flood inundation mapping using social media, remote sensing and topographic data. Nat. Hazards 87(1), 103-120 (2017). Unraveling the complexity of human behavior and urbanization on community vulnerability to floods. M Hemmati, H N Mahmoud, B R Ellingwood, A T Crooks, Sci. Rep. 111Hemmati, M., Mahmoud, H. N., Ellingwood, B. R. & Crooks, A. T. Unraveling the complexity of human behavior and urbanization on community vulnerability to floods. Sci. Rep. 11(1), 1-15 (2021). Understanding the evolutions of public responses using social media: Hurricane Matthew case study. F Yuan, M Li, R Liu, Int. J. Disaster Risk Reduct. 51101798Yuan, F., Li, M. & Liu, R. Understanding the evolutions of public responses using social media: Hurricane Matthew case study. Int. J. Disaster Risk Reduct. 51, 101798 (2020). Geographic situational awareness: Mining tweets for disaster preparedness, emergency response, impact, and recovery. Q Huang, Y Xiao, ISPRS Int. J. Geo-Inf. 43Huang, Q. & Xiao, Y. Geographic situational awareness: Mining tweets for disaster preparedness, emergency response, impact, and recovery. ISPRS Int. J. Geo-Inf. 4(3), 1549-1568 (2015). Twitter speaks: A case of national disaster situational awareness. A Karami, V Shah, R Vaezi, A Bansal, J. Inf. Sci. 463Karami, A., Shah, V., Vaezi, R. & Bansal, A. Twitter speaks: A case of national disaster situational awareness. J. Inf. Sci. 46(3), 313-324 (2019). . 10.1038/s41598-023-32548-xScientific Reports |. 136768Scientific Reports | (2023) 13:6768 | https://doi.org/10.1038/s41598-023-32548-x Reconstructing flood inundation probability by enhancing near real-time imagery with real-time gauges and tweets. X Huang, C Wang, Z Li, IEEE Trans. Geosci. Remote Sens. 568Huang, X., Wang, C. & Li, Z. Reconstructing flood inundation probability by enhancing near real-time imagery with real-time gauges and tweets. IEEE Trans. Geosci. Remote Sens. 56(8), 4691-4701 (2018). Early flood detection for rapid humanitarian response: Harnessing near real-time satellite and twitter signals. B Jongman, J Wagemaker, B Romero, E De Perez, ISPRS Int. J. Geo-Inf. 44Jongman, B., Wagemaker, J., Romero, B. & de Perez, E. Early flood detection for rapid humanitarian response: Harnessing near real-time satellite and twitter signals. ISPRS Int. J. Geo-Inf. 4(4), 2246-2266 (2015). A graph-based method for social sensing of infrastructure disruptions in disasters. C Fan, A Mostafavi, Comput. Civ. Infrastruct. Eng. 3412Fan, C. & Mostafavi, A. A graph-based method for social sensing of infrastructure disruptions in disasters. Comput. Civ. Infrastruct. Eng. 34(12), 1055-1070 (2019). Flood risk assessment and associated uncertainty. H Apel, A H Thieken, B Merz, G Blöschl, Nat. Hazards Earth Syst. Sci. 42Apel, H., Thieken, A. H., Merz, B. & Blöschl, G. Flood risk assessment and associated uncertainty. Nat. Hazards Earth Syst. Sci. 4(2), 295-308 (2004). Unraveling the temporal importance of community-scale human activity features for rapid assessment of flood impacts. F Yuan, Y Yang, Q Li, A Mostafavi, Yuan, F., Yang, Y., Li, Q., Mostafavi, A. Unraveling the temporal importance of community-scale human activity features for rapid assessment of flood impacts (2021). An ontology-based framework for heterogeneous data management and its application for urban flood disasters. Z Wu, Y Shen, H Wang, M Wu, Earth Sci. Inform. 132Wu, Z., Shen, Y., Wang, H. & Wu, M. An ontology-based framework for heterogeneous data management and its application for urban flood disasters. Earth Sci. Inform. 13(2), 377-390 (2020). Estimating flood extent during Hurricane Harvey using maximum entropy to build a hazard distribution model. W Mobley, A Sebastian, W Highfield, S D Brody, J. Flood Risk Manag. 12S112549Mobley, W., Sebastian, A., Highfield, W. & Brody, S. D. Estimating flood extent during Hurricane Harvey using maximum entropy to build a hazard distribution model. J. Flood Risk Manag. 12(S1), e12549 (2019). DeepPTP: A deep pedestrian trajectory prediction model for traffic intersection. Z Lv, J Li, C Dong, Y Wang, Koreascience. or.kr. 157Lv, Z., Li, J., Dong, C., Wang, Y., et al. DeepPTP: A deep pedestrian trajectory prediction model for traffic intersection. Koreascience. or.kr 15(7) (2021). Blind travel prediction based on obstacle avoidance in indoor scene. Z Lv, J Li, H Li, Z Xu, Y Wang, Lv, Z., Li, J., Li, H., Xu, Z., Wang, Y. Blind travel prediction based on obstacle avoidance in indoor scene. hindawi.com (2021). Harris county flood warning system. Harris County, Fws , 16Harris County FWS, Harris county flood warning system, 2018. [Online]. Available: https:// www. harri scoun tyfws. org/. Accessed: 16 Aug 2020. 3-1-1 Help and Information. Houston, Texas"Houston, Texas 3-1-1 Help and Information. " [Online]. Available: https:// www. houst ontx. gov/ 311/. Accessed: 18 Oct 2021. Spatial biases in crowdsourced data: Social media content attention concentrates on populous areas in disasters. C Fan, Comput. Environ. Urban Syst. 83101514Fan, C. et al. Spatial biases in crowdsourced data: Social media content attention concentrates on populous areas in disasters. Comput. Environ. Urban Syst. 83, 101514 (2020). Silence of the Tweets: incorporating social media activity drop-offs into crisis detection. R Samuels, J E Taylor, N Mohammadi, Nat. Hazards. 1031Samuels, R., Taylor, J. E. & Mohammadi, N. Silence of the Tweets: incorporating social media activity drop-offs into crisis detec- tion. Nat. Hazards 103(1), 1455-1477 (2020). Early indicators of COVID-19 spread risk using digital trace data of population activities. X Gao, Gao, X. et al. Early indicators of COVID-19 spread risk using digital trace data of population activities (2020). Community-scale big data reveals disparate impacts of the texas winter storm of 2021 and its managed power outage. C. -C Lee, M Maron, A Mostafavi, Lee, C. -C., Maron, M., Mostafavi, A. Community-scale big data reveals disparate impacts of the texas winter storm of 2021 and its managed power outage (2021). Deep Learning in the COVID-19 Epidemic: A deep Model for Urban Traffic Revitalization Index. Z Lv, ElsevierLv, Z. et al. Deep Learning in the COVID-19 Epidemic: A deep Model for Urban Traffic Revitalization Index (Elsevier, 2021). . C Houston, Harris County Flood Control District. Houston, C. Harris County Flood Control District, 1-15 (2017). Spatio-temporal graph convolutional networks: A deep learning framework for traffic forecasting. B Yu, H Yin, Z Zhu, Yu, B., Yin, H., Zhu, Z. Spatio-temporal graph convolutional networks: A deep learning framework for traffic forecasting (2017). Big data analytics for disaster response and recovery through sentiment analysis. J R Ragini, P M R Anand, V Bhaskar, Int. J. Inf. Manag. 42Ragini, J. R., Anand, P. M. R. & Bhaskar, V. Big data analytics for disaster response and recovery through sentiment analysis. Int. J. Inf. Manag. 42, 13-24 (2018).
sample_6738
0.8464
arxiv
ESTUDO CINÉTICO DE DECOMPOSIÇÃO TÉRMICA DE ESPUMAS RÍGIDAS DE POLIURETANO POR REDE NEURAL ARTIFICIAL Bárbara D L Ferreira Departamento de Química Universidade Federal de Minas Gerais -UFMG Belo Horizonte -MG 31270-901Brasil Virgínia R Silva Centro de Desenvolvimento da Tecnologia Nuclear -CDTN/CNEN 31270-901Belo Horizonte -MGBrasil Maria Irene Yoshida Departamento de Química Universidade Federal de Minas Gerais -UFMG Belo Horizonte -MG 31270-901Brasil Rita C O Sebastiao Departamento de Química Universidade Federal de Minas Gerais -UFMG Belo Horizonte -MG 31270-901Brasil ESTUDO CINÉTICO DE DECOMPOSIÇÃO TÉRMICA DE ESPUMAS RÍGIDAS DE POLIURETANO POR REDE NEURAL ARTIFICIAL Graphical AbstractThermal analysis data of two Rigid Polyurethane Foam samples: loaded with (Al 2 O 3 ) and no inorganic filler are modeled by neural network supporting physical correlation.Kinetic models of solid thermal decomposition are traditionally used for individual fit of isothermal decomposition experimental data. However, this methodology can provide unacceptable errors in some cases. To solve this problem, a neural network (MLP) was developed and adopted in this work. The implemented algorithm uses the rate constants as predetermined weights between the input and intermediate layer and kinetic models as activation functions of neurons in the hidden layer. The contribution of each model in the overall fit of the experimental data is calculated as the weights between the intermediate and output layer. In this way, the phenomenon is better described as a sum of kinetic processes. Two rigid polyurethane foam samples: loaded with Al 2 O 3 and no inorganic filler were used in this work. The R 3 model described the thermal decomposition kinetic process for all temperatures for both foams with smaller residual error. However, the network residual errors are on average 10 2 times lower compared to this individual kinetic model. This improved methodology allows detailed study of physical processes and therefore a more accurate determination of kinetic parameters such as the activation energy and frequency factor. INTRODUÇÃO Estudos cinéticos de decomposição térmica no estado sólido são de grande interesse científico e industrial. 1 Três metodologias relevantes no tratamento teórico de cinética de decomposição em sólidos são: (i) descrição do processo por modelos cinéticos, (ii) associação e correção dos modelos cinéticos por rede neural artificial e (iii) modelo isoconversional. A metodologia de ajuste por modelos cinéticos consideram que as reações de decomposição térmica de sólidos ocorrem na interface do produto-reagente. Este processo cinético, com base na formação e crescimento de núcleos, pode ser estudado por análise de dados de decomposição térmica nos quais a redução da massa é medida num intervalo de tempo à temperatura constante. Os núcleos de reação são preferencialmente formados em imperfeições da estrutura e os modelos cinéticos são usados para explicar as curvas experimentais. Um determinado modelo é escolhido devido a sua melhor correlação para ajustar os dados experimentais. No entanto, em muitas situações, o erro residual do modelo não é aceitável na descrição do processo total, embora, para regiões específicas de decomposição, o modelo possa ser apropriado, sendo apenas uma primeira aproximação. Os modelos podem ser representados por uma equação geral do tipo: Em que representa a fração de decomposição, o tempo, a constante de velocidade e é o parâmetro de iniciação. Os parâmetros de ajuste e definem o modelo físico. Em alguns trabalhos já publicados pelo nosso grupo, foi construído um programa computacional baseado na teoria de redes neurais de múltiplas camadas para determinar o conjunto de modelos que melhor descrevem a cinética de decomposição térmica de sólidos. Nestes trabalhos foram estudados a cinética de decomposição do acetato de Ródio e os fármacos Lamivudina e Efavirenz, usados no coquetel anti-HIV. [2][3][4] Esta análise permite a correção matemática do modelo cinético e a determinação do processo físico global com erro experimental de ajuste das curvas bem menor que a utilização de apenas um dos modelos, o que consequentemente fornece informações preciosas sobre o material estudado. O método consiste na linearização da rede neural pela fixação dos pesos de interconexão entre a camada de entrada e a camada intermediária, fazendo com que cada neurônio da camada oculta represente um modelo cinético a ser ponderado pelo neurônio na camada de saída. A rede neural representa um poderoso método de rotina para estudar este tipo de reação. Outra abordagem, descrita por Friedman, consiste em tratar os materiais por técnicas termogravimétricas em que a fração de decomposição é medida em função da temperatura á diferentes razões de aquecimento do sólido. Curvas experimentais são comparadas e os valores de decomposição, comuns a todas as curvas, são tratados a fim de se obter os parâmetros cinéticos (energia de ativação e fator de frequência) do processo. A equação geral que descreve esta metodologia é No presente trabalho estaremos interessados em investigar a cinética de decomposição de espumas rígidas de poliuretano (ERPU), sem e com adição de carga inorgânica contendo grande quantidade de Al 2 O 3 , pela metodologia de redes neurais. As espumas rígidas de poliuretano (ERPU) é uma das diversas formas em que se encontra o poliuretano (PU), um polímero formado essencialmente pela reação de condensação de um isocianato com um poliol. Nesta reação há dispersão de um gás, causada pelo aquecimento e evaporação de um agente de expansão durante o processo de polimerização, que origina uma estrutura tridimensional altamente reticulada de baixa densidade. As ERPU podem ser usadas em ampla faixa de temperatura, de -200°C a +150°C, por possuir alto ponto de amolecimento, além de ser resistente a produtos químicos e apresentar um baixo coeficiente de condutividade térmica, em virtude do gás de expansão preso nas unidades celulares e da baixa condutividade do próprio polímero. Devido a estas propriedades, é um dos mais eficientes isolantes térmicos usados na construção civil. Sua desvantagem é ser altamente inflamável, mas esta característica pode ser contornada com a adição de substâncias que retardam a propagação das chamas, como dibromo propanol, o tris(dicloropropilfostato), (TCPP) e a alumina. [5][6][7][8][9][10][11]24 Em geral, os aditivos retardantes de chama são substâncias químicas que ao serem adicionadas aos polímeros interferirão nas condições da combustão. Essas substâncias podem ser classificadas de acordo com sua composição química como retardantes orgânicos reativos ou não reativos e os inorgânicos. Os dois primeiros apresentam compostos de fósforo e de halogênios, em especial cloro e bromo, e se diferenciam apenas pela presença ou não desses grupos funcionais presos quimicamente à cadeia polimérica. Dentre os retardantes de chamas inorgânicos podem ser citados o hidróxido de alumínio ou alumina trihidratata, material inerte de alta estabilidade. A alumina é preferível frente aos compostos contendo halogênio e fósforo que são extremamente tóxicos e prejudiciais ao meio ambiente. [11][12][13][14][15][16][17] TEORIA DOS MODELOS CINÉTICOS A cinética da decomposição térmica de materiais é baseada na nucleação e no crescimento dos núcleos ativos presentes na superfície do cristal. 18 A existência de pontos reativos separados, relacionados com as imperfeições dos cristais, provoca um aumento da energia de Gibbs do sistema e, consequentemente, a sua reatividade. 19 Diversos modelos físicos são utilizados para descrever a fração decomposta, , em função do tempo de decomposição. Sendo definido como a quantidade de perda de massa no tempo t normalizado para a massa total perdida. 20 Os modelos físicos estão apresentados na Tabela 1 e em geral são classificados de acordo com a forma da curva e com o tempo de aceleração e desaceleração. 19 Avrami-Erofeev A u 0 1 ln k kt    Prout-Tompkins A x 0 ln 1 ln k t k     1  k Desaceleração Modelo geométrico -contração Contração Linear R 1 0 ) 1 ( 1 k kt     Contração Superficial R 2 0 2 1 ) 1 ( 1 k kt     Contração Volumétrica R 3 0 3 1 ) 1 ( 1 k kt     Modelo de Difusão Uma Dimensão D 1 0 2 k kt   Duas Dimensões D 2 0 ) 1 ln( ) 1 ( k kt        Três Dimensões D 3 0 2 3 1 ) 1 ( 1 k kt           Ginstling-Brounshtein D 4 0 3 2 ) 1 ( 3 2 1 k kt       As reações de decomposição, em que predomina a etapa de aceleração, se caracterizam por apresentar apenas o fenômeno de nucleação. Nessas reações a formação de núcleos pode ocorrer de forma instantânea ou com velocidade de nucleação constante e o modelo exponencial é mais usado para descrever o evento. 18,21 Já as reações em que se observa uma nucleação caótica seguida do crescimento desses núcleos, os modelos de Avrami-Erofeev ou Prout-Tompkins são mais utilizados. 22 Nas reações onde há apenas o crescimento dos núcleos, as curvas de desaceleração são mais apropriadas e dois fenômenos são responsáveis pela cinética dessas decomposições: a contração e a difusão. A contração é responsável pelo desenvolvimento rápido de núcleo em toda a extensão da superfície do cristal. Já a difusão é responsável pelo controle da taxa de reação, uma vez que a continuidade da reação requer o transporte dos reagentes para a camada de produto. [18][19][20][21][22] A determinação do modelo físico no processo de decomposição de materiais é crucial para o estudo da cinética das reações e pode ser feita por análise de microscopia, através de softwares comerciais, geralmente restritos a no máximo três modelos para ajustar os dados experimentais ou por redes neurais artificiais, que ponderam a contribuição de todos os onze modelos físicos no processo. [2][3][4]23 REDE NEURAL MLP APLICADA A DECOMPOSIÇÃO TÉRMICA DE SÓLIDOS , 21 ,Tabela 1. Modelos Cinéticos de Decomposição TérmicaModelos Símbolos Equações Cinéticas Aceleração Lei Potencial P n 0 1 k kt n     , 4 , 3 , 2  n Sigmoide Avrami-Erofeev A m m = 2, 3, 4... A metodologia adotada nesse trabalho utiliza um algoritmo proposto originalmente porSebastião e colaboradores em 2003 e em 2004 para o estudo da decomposição térmica do acetato de ródio e acetado de ródio(II), respectivamente. A rede MLP possui três camadas, uma de entrada, uma intermediária e uma de saída. Nas camadas de entrada e de saída há apenas um neurônio e na camada intermediária o número de neurônios é variável, dependendo da quantidade de modelos cinéticos que se deseja incluir no estudo. A metodologia possui três etapas principais: a primeira etapa do algoritmo consiste em fixar os pesos de interconexão entre os neurônios da camada de entrada e a camada intermediária e os bias dos neurônios na camada intermediária. 2-4 Essas constantes são armazenadas no vetor W 1 , responsável pela linearização da rede, modelos cinéticos no ajuste experimental dos dados. Essa etapa é importante para que não ocorra perda de informação química ao longo do processo, além de garantir que os modelos mostrados na Tabela 1 possam ser usados como função de ativação para cada neurônio da camada intermediária dessa rede. Já na segunda etapa do algoritmo, é realizada uma transformação não-linear em que cada neurônio da camada intermediária é ativado por uma função de ativação, f, correspondente ao modelo cinético. Como resultado tem-se o vetor B que determina os estados dos neurônios ativados como Nesta notação, , representa o estado do neurônio da camada de entrada, ou seja os dados experimentais de t. As funções matemáticas utilizadas para ativar os neurônios são os modelos cinéticos descritos na Tabela 1. Essas funções matemáticas são adequadas por terem similaridade com o impulso nervoso. Dessa forma, os estados de neurônios intermediários são representados na Equação 5. Vale ressaltar que essa estrutura de rede não é rígida, sendo possível adicionar ou excluir alguns modelos da camada intermediária, dependendo do sistema em estudo. 4 decomposição térmica com intuito de obter suas curvas TG dinâmicas, mostradas na Figura 1. As curvas TG foram obtidas em uma termobalança TGA-50H SHIMADZU, em cadinho de alumina, atmosfera de ar síntético com fluxo de 100 mL/min e razão de aquecimento de 10 °C/min. As curvas TG para as amostras das espumas rígidas de poliuretano contendo glicerol sem adição de carga e com adição de 10% de carga com alumina proveniente de rejeito industrial apresentadas na Figura 1 exibem perfis semelhantes, com dois estágios em seus processos de decomposição. A primeira etapa de perda de massa é relativa à degradação dos grupos uretanos que ocorre na faixa de 215°C a 350°C. Já o segundo estágio refere-se à degradação dos resíduos da primeira decomposição que ocorre na faixa de 400°C a 620°C para ambas as espumas.Assim, como o processo de decomposição dos grupos uretanos ocorre em temperatura mais baixa, em torno de 228°C, essa foi escolhida por ser a primeira observação experimental, além de apresentar perda de massa significativa nessa temperatura, para as respectivas amostras.A temperatura em que o processo de decomposição se inicia, para os grupos uretano, nas espumas sem e com adição de alumina é a mesma, uma vez que a adição de 10% carga não altera a Os parâmetros cinéticos de energia de ativação, Ea, e fator de frequência, A, foram calculados considerando-se a teoria de Arrhenius e as constantes de velocidade obtidas por todos os modelos cinéticos nas quatro temperaturas investigadas para as duas amostras. Os resultados são apresentados na Tabela 3. O gráfico de Arrhenius obtido para o modelo R3 é apresentado na Figura 6, em que podemos observar que a linearidade entre os dados garante a validade da teoria.Figura 6. Grafico de Arrhenius (ln k x 1/T) para o modelo R3 para as amostras de espumas rígidas de poliuretano contendo glicerol como agente reticulador, a) sem adição de carga contendoConsiderando o modelo R3 como o modelo que mais contribuiu para o menor erro residual da rede e é também o modelo de menor erro de ajuste individual, o valor da energia de ativação e do fator de frequência para a espuma ERPU-0%Al 2 O 3 é de 56,308 kJ.mol -1 e 75,751s -1 , já para a espuma ERPU-10%Al 2 O 3 os valores são de 65,205 kJ.mol -1 e 78,060s -1 , nessa ordem. Estes valores são condizentes com a literatura. 9,15 Tabela 3. Energia de Ativação e o Fator de Frequência de acordo com os modelos cinéticos para as espumas ERPU-0%Al 2 O 3 e ERPU-10%Al 2 O 3 O maior valor de energia de ativação para a espuma com alumina indica que essa necessita de um pouco mais de energia, cerca de 8,897 kJ.mol -1 , que a espuma sem alumina no processo de decomposição dos grupos uretanos presente em sua estrutura. Fato esse que corrobora com as propriedades retardantes de chama do material, mesmo com a presença de uma pequena quantidade de carga em sua estrutura. Essa barreira energética é responsável pela menor locomoção/difusão do combustível no interior da rede da espuma. CONCLUSÃO O processo de decomposição térmica de espumas rígidas de poliuretano com glicerol como reticulador, com e sem adição de carga inorgânica, é estudado no presente trabalho. Uma rede neural artificial do tipo MLP foi proposta para o estudo, com a particularidade de assumir os neurônios da camada intermediária como modelos cinéticos de decomposição, uma vez que possuem características semelhantes ao impulso nervoso. A linearização da rede por esta metodologia garante que informações químicas não serão perdidas no processo de ajuste pela rede neural, ou seja, a rede neural, sob esta concepção, não deve ser entendida como um simples mecanismo de ajuste matemático. Esta rede MLP é uma poderosa ferramenta para tratar o fenômeno de decomposição térmica de sólidos, pois os erros residuais de ajuste são menores do que os resultados obtidos quando são utilizados os modelos individualmente. Além disso, com essa abordagem é possível calcular a contribuição de cada modelo na descrição experimental dos dados. Esta metodologia funciona, pois a rede neural propõe considerar o valor assintótico correto da fração de massa além de alterar a escala de tempo do processo nos modelos cinéticos. Essas alterações permitem a redução no erro residual em média 10 2 vezes menor, para ambas as espumas, quando comparado com o melhor modelo cinético individual que descreve o processo, R3. Com este melhor ajuste, a rede neural MLP possibilita o estudo físico detalhado do processo e consequentemente o cálculo mais preciso dos parâmetros cinéticos como a energia de ativação e o fator de frequência. A metodologia apresentada nesse trabalho não é restrita ás espumas rígidasOs valores e são os pesos de interconexão entre a camada de entrada e a camada intermediária e correspondem aos valores das constantes e , nessa ordem, obtidos pelos mostra a Equação 4. 2-4 Cada neurônio intermediário, até , tem sua contribuição para o estado do neurônio da camada de saída, , sendo ponderados pelos pesos de interconexão entre a camada intermediária e a de saída pelo vetor . O vetor pode ser exemplificado como apresenta a Equação 6. E na terceira e última etapa ocorre uma transformação linear, resultando no vetor Y que é a resposta da rede, Assim, a função erro da rede pode ser calculada pela diferença entre o estado do neurônio da camada de saída e os dados de decomposição obtidos experimentalmente, Com essa estrutura de rede é possível calcular a contribuição dos diversos modelos cinéticos através do algoritmo de optimização por Levenberg-Marquart, PARTE EXPERIMENTAL As amostras de espumas rígidas de poliuretano (ERPU) utilizadas nesse trabalho contém glicerol como agente reticulador. A primeira amostra é uma ERPU sem carga (ERPU-0%Al 2 O 3 ) e a segunda amostra recebeu cerca de 10% de carga inorgânica contendo alumina (ERPU-10%Al 2 O 3 ). A carga utilizada é proveniente do filtro eletrostático da etapa de calcinação do processo Bayer, fornecido por indústrias de produção de alumínio do Estado de Minas Gerais. 24 Ambas as espumas foram sintetizadas utilizando-se poliol de origem vegetal, produzido através da modificação química (esterificação) de óleo extraído das sementes de Ricinus communis, popularmente conhecida no Brasil como Mamona. 25,26 Essas espumas foram submetidas à Figura 1. Curva TG dinâmica para amostras das espumas rígidas de poliuretano contendo glicerol a) sem adição de carga e b) com adição de 10% de rejeito industrial contendo alumina, respectivamente estabilidade térmica dos compósitos, já que o resíduo inorgânico não altera quimicamente a matriz polimérica e a densidade de ligações cruzadas no polímero. Porém, testes de chama realizados nestas mesmas amostras mostram uma redução de cerca de 30% nos tempos de auto extinção da chama para as espumas com 10% de carga, quando comparadas às ERPU sem carga, o que evidencia o efeito retardante de chamas desta carga na matriz polimérica. Quatro curvas TG isotérmicas experimentais, referentes ao início do processo de degradação dos grupos uretano, para cada ERPU, foram obtidas nas mesmas condições das curvas TG dinâmicas e são apresentadas na Figura 2. Figura 2. Dados experimentais (*) e o ajuste fornecido pela rede (-) para as amostras de espumas rígidas de poliuretano contendo glicerol como agente reticulador, a) sem adição de carga contendo alumina (ERPU-0%Al 2 O 3 ) e b) com adição de 10% de carga contendo alumina (ERPU-10%Al 2 O 3 ) nas temperaturas: i)220°C, ii)228°C, iii)230° e iv)232°C, respectivamente As curvas isotérmicas experimentais, mostradas na Figura 2 nas temperaturas de 220°C, 228°C, 230° e 232°C para as amostras de espumas rígidas de poliuretano contendo glicerol como agente reticulador sem e com adição de 10% de carga contendo alumina, proveniente de rejeito industrial, foram usadas nesse trabalho para investigar a cinética de decomposição dos grupos uretanos presentes no polímero. RESULTADOS E DISCUSSÕES Inicialmente, as constantes de velocidade k e k 0 foram obtidas a partir do ajuste de cada isoterma experimental pelos modelos físicos. Esses dados foram organizados na matriz W 1 para serem utilizados no algoritmo da rede. O erro residual de ajuste de cada isoterma pelos modelos individuais para as amostras de ERPU-0%Al 2 O 3 e ERPU-10%Al 2 O 3 são apresentados na Figura 3. Os modelos D3 e Au apresentaram erros muito elevados (9,23 e 5,64, respectivamente) à temperatura de 232ºC para a amostra ERPU-0%Al 2 O 3 . Já para a amostra da espuma com alumina, os modelos D3 e F1 apresentam erros muito elevados (6,88 e 5,12, respectivamente) à temperatura de 220ºC e para efeito de melhor visualização do gráfico, esses dados não estão apresentados na Figura 3. Figura 3. Erro individual dos modelos cinéticos para as amostras de espumas rígidas de poliuretano contendo glicerol como agente reticulador, a) sem adição de carga contendo alumina (ERPU-0%Al 2 O 3 ) e b) com adição de 10% de carga contendo alumina (ERPU-10%Al 2 O 3 ) nas temperaturas (*)220°C, (O)228°C, (□)230° e (►)232°C, respectivamente Como pode ser observado na Figura 03a, em geral, para a amostra sem carga, todos os modelos apresentam elevado erro de ajuste para a isoterma à 232ºC. Por outro lado, os modelos R3, D4 e D2 se mostraram mais adequados, por apresentarem menores erros na descrição das quatro isotermas estudadas. Na Figura 3b, para a amostra com 10% de carga, podemos notar que o modelo cinético de contração volumétrica, R3, é também o modelo cinético que melhor descreve a decomposição térmica do grupo uretana presente na espuma em todas as temperaturas. Para esta amostra, os modelos D4, D2 e R2 também apresentam razoáveis valores de erros de ajuste nas quatro temperaturas. Uma rede neural MLP foi proposta com o intuito de indicar a contribuição dos modelos físicos que melhor descrevem o processo de decomposição térmica para as duas amostras nas quatro temperaturas. Em uma análise inicial, o estudo foi realizado utilizando-se uma rede neural com todos os modelos físicos sendo considerados como função de ativação na camada intermediária. A Figura 2 apresenta os ajustes promovidos pelas redes neurais às isotermas experimentais das espumas. Como pode ser observado, foi obtida uma excelente concordância entre os dados experimentais de decomposição térmica e o ajuste da rede neural. Os erros residuais obtidos pela rede são da ordem de 10 -5 para ambas as espumas analisadas, conforme apresentado na Tabela 2. Tabela 2. Erro residual da Rede MLP proposta para as espumas rígidas de poliuretano ERPU- 0%Al 2 O 3 e ERPU-10%Al 2 O 3 em suas respectivas temperaturas ERPU Temperatura /°C 220 228 230 232 Erro Rede / 10 -5 0% Al 2 O 3 0,27001 1,1780 1,0424 13,666 10% Al 2 O 3 5,7918 1,1453 0,74509 0,37268 A Figura 4 apresenta uma comparação do erro residual da rede MLP e o modelo R3. Como podemos observar, a rede MLP reduziu substancialmente o erro residual em todas as temperaturas para as duas amostras. Esta redução do erro residual da rede frente ao ajuste individual do modelo pode ser explicada com base no fator de correção , que introduz um parâmetro de ajuste e indica a contribuição de cada modelo no ajuste total e em casos de modelos assintóticos, como os de Avrami-Erofeev, representa também o valor do resíduo remanescente do processo de decomposição. Figura 4. Erro residual das redes neurais MLP (*) e do modelo R3(O) para as amostras de espumas rígidas de poliuretano contendo glicerol como agente reticulador, a) sem adição de carga contendo alumina (ERPU-0%Al 2 O 3 ) e b) com adição de 10% de carga contendo alumina (ERPU- 10%Al 2 O 3 ) nas temperaturas 220°C, 228°C, 230° e 232°C, respectivamente Os valores da contribuição de cada modelo , em cada temperatura estão apresentados na Figura 5. Os valores apresentados estão normalizados e considerados em valor absoluto em cada temperatura. 15 Figura 5. Contribuição dos modelos cinéticos para as amostras de espumas rígidas de poliuretano contendo glicerol como agente reticulador, a) sem adição de carga contendo alumina (ERPU- 0%Al 2 O 3 ) e b) com adição de 10% de carga contendo alumina (ERPU-10%Al 2 O 3 ) nas temperaturas (*)220°C, (O)228°C, (□)230° e (►)232°C, respectivamente, respectivamente Analisando a Figura 5 podemos concluir que o modelo cinético de contração volumétrica, R3, é o modelo que mais contribui (e o que possui menor erro individual) para o ajuste da rede MLP em todas as temperaturas analisadas para as duas espumas. Para a espuma sem carga, podemos verificar na Figura 5a, por exemplo, que à temperatura de 228ºC, os quatro modelos cinéticos que mais contribuem no ajuste total da curva são R3, Am2, Au e D1. Embora os modelos que apresentem menor erro de ajuste individual sobre a curva total sejam R3, D4 e D2. Esta análise é interessante, pois a função matemática que descreve o estado do neurônio da camada de saída é composta por um somatório de onze funções correspondentes aos modelos cinéticos, ponderadas por sua contribuição no ajuste total da curva. Desta forma, nem sempre o modelo que apresenta um erro individual menor é o que tem maior contribuição quando os outros modelos são também considerados, pois cada modelo vai contribuir para determinadas regiões no ajuste total da curva. Para a amostra com carga à temperatura de 220º C, os modelos que mais contribuem para o ajuste total são R3, R2 e Am2. As curvas experimentais de decomposição das duas amostras diferem pouco, mas conforme explicado anteriormente, a carga de 10% de alumina acrescida nessa espuma de poliuretano não é o suficiente para modificar as propriedades térmicas desse material. Essa carga afeta somente a difusão do oxigênio presente na cadeia polimérica da espuma por meio da formação de uma barreira protetora. [14,16] alumina (ERPU-0%Al 2 O 3 ) e b) com adição de 10% de carga contendo alumina (ERPU-10%Al 2 O 3 ) respectivamente Modelo Cinético ERPU-0%Al 2 O 3 ERPU-10%Al 2 O 3 Ea /kJ mol -1 A /s -1 Ea /kJ mol -1 A /s -1 D 1 54,038 65,785 60,052 774,77 D 2 56,295 90,030 66,161 6752,4 D 3 60,167 26,665 77,935 536,10 D 4 57,587 20,489 69,743 24,890 R 1 52,040 40,266 52,175 200,26 R 2 55,039 46,636 61,215 438,45 R 3 56,308 75,751 65,205 78,060 Am 4 57,819 122,54 57,396 734,74 Am 2 56,905 1799,4 63,900 1176,3 AU 62,703 479,85 60,490 1286,4 F 1 59,049 65,785 63,755 774,77 pode ser aplicado a outros sistemas, o que sugere um poderoso método de rotina no. estudas, e pode ser aplicado a outros sistemas, o que sugere um poderoso método de rotina no . A Tseng, J Seet, E J Phillips, Brit, J. Clin. Pharmaco. 182Tseng, A.; Seet, J.; Phillips, E. J.; Brit. J. Clin. Pharmaco. 2014, 79, 182. . R C O Sebastião, J P Braga, M I Yoshida, J. Therm. Anal. Calorim. 74811Sebastião, R. C. O.; Braga, J. P.; Yoshida, M. I.; J. Therm. Anal. Calorim. 2003, 74, 811. . R C O Sebastião, J P Braga, M I Yoshida, Thermochim. Acta. 107Sebastião, R. C. O.; Braga, J. P.; Yoshida, M. I.; Thermochim. Acta 2004, 412, 107. . B D L Ferreira, B C R Araujo, R C O Sebastião, 10.1007/s10973-016-5855-2J Therm Anal Calorim. Ferreira, B.D.L., Araujo, B.C.R., Sebastião, R.C.O. et al. J Therm Anal Calorim (2016). doi:10.1007/s10973-016-5855-2. . V B Veronese, R K Menger, M M D C Forte, C L Petzhold, J. Appl. Polym. Sci. 120530Veronese, V. B.; Menger, R. K.; Forte, M. M. D. C.; Petzhold, C. L.; J. Appl. Polym. Sci. 2011, 120, 530. . T Hentschel, H Münstedt, Hentschel, T.; Münstedt, H.; Polymer 2011, 2, 3195. Fiber and Polymers. O Demiryürek, E Koç, 10237Demiryürek, O.; Koç, E.; Fiber and Polymers 2009, 10, 237. Polyurethane and Related Foams: Chemistry and Technology. K Ashida, CRC Taylor & Francis6Boca Ratonth ed.Ashida, K.; Polyurethane and Related Foams: Chemistry and Technology, 6 th ed., Boca Raton: CRC Taylor & Francis, 2007. Em Handbook of Polymer Foams, Eaves, D. D Eaves, Shawbury: Rapra Technology Limited. cap. 4.Eaves, D.; Em Handbook of Polymer Foams, Eaves, D.; ed.; Shawbury: Rapra Technology Limited, 2004, cap. 4. . S Chuayjuljit, A Maungchareon, O Savari, J. Reinf. Plast. Compos. 218Chuayjuljit, S.; Maungchareon, A.; Savari, O.; J. Reinf. Plast. Compos. 2010, 29, 218. . G Oertel, Polyurethane Handbook, Hanser Gardner Publications2New Yorkth ed.Oertel, G.; Polyurethane Handbook, 2 th ed., Hanser Gardner Publications: New York, 1994. . M Rabello, Aditivação De Polimeros, Artliber EditoraSão Paulo1° ed.Rabello, M. Aditivação de Polimeros, 1° ed., Artliber Editora: São Paulo, 2000. . T Sato, Thermochim. Acta. 8869Sato, T.; Thermochim. Acta 1985, 88, 69. . M Thirumal, D Khastgir, N K Singha, B S Manjunath, Y P Naik, Cell. Polym. 26245Thirumal, M.; Khastgir, D.; Singha, N. K.; Manjunath, B. S.; Naik, Y. P.; Cell. Polym. 2007, 26, 245. . R Gu, M M Sain, S K Konar, Ind, Crop. Prod. 273Gu, R.; Sain, M. M.; Konar, S. K.; Ind. Crop. Prod. 2013, 42, 273. . E Feyz, Y Jahani, M Esfandeh, J. Appl. Polym. Sci. 1203435Feyz, E.; Jahani, Y.; Esfandeh, M.; J. Appl. Polym. Sci. 2011, 120, 3435. . H Hatakeyema, N Tanamachi, H Matsumura, S Hirose, T Hatakeyama, Thermochim. Acta. 155Hatakeyema, H.; Tanamachi, N.; Matsumura, H.; Hirose, S.; Hatakeyama, T.; Thermochim. Acta 2005, 431,155. The Foundations of Chemical Kinetics. F N Yeremin, Mir: Moscow20Yeremin, F. N.; The Foundations of Chemical Kinetics, Mir: Moscow, 2001. 20 . K Galwey, M E Brown, Stud. Phys. Theor. Chem. 75Galwey, K.; Brown, M. E.; Stud. Phys. Theor. Chem. 1999, 86, 75. . F Rodante, S Vecchio, M Tomassetti, Thermochim. Acta. 3947Rodante, F.; Vecchio, S.; Tomassetti, M.; Thermochim. Acta 2002, 394, 7. Em Chemistry of the Solid State. P W Tompkins, Tompkins, P. W. M.; Em Chemistry of the Solid State; . W E Garner, Ed; London, Butterworths Scientific PublicationGarner, W. E.; Ed; London: Butterworths Scientific Publication, 1983, 184-211. . M Avrami, J. Chem. Phys. Avrami, M.; J. Chem. Phys. 1939, 7, 1103. . J Tarrío-Saavedra, J López-Beceiro, S Naya, M Francisco-Fernández, R J Artiaga, J. Therm. Anal. Calorim. 1181253Tarrío-Saavedra, J.; López-Beceiro, J.; Naya, S.; Francisco-Fernández, M.; Artiaga, R. J.; J. Therm. Anal. Calorim. 2014, 118, 1253. . M I Yoshida, V R Silva, P C C Pinto, S S Sant´anna, M C Silva, C F Carvalho, J. Therm. Anal. Calorim. 1091429Yoshida, M. I.; Silva, V. R.; Pinto, P. C .C.; Sant´Anna, S. S.; Silva, M. C.; Carvalho, C. F.; J. Therm. Anal. Calorim. 2012, 109,1429. . V R Silva, M A Mosiewicki, M I Yoshida, M C Silva, P M Stefani, N E Marcovich, Polym. Test. 32438Silva, V. R.; Mosiewicki, M. A.; Yoshida, M. I.; Silva, M. C.; Stefani, P. M.; Marcovich, N. E.; Polym. Test.2013, 32, 438. . V R Silva, M A Mosiewicki, M I Yoshida, M C Silva, P M Stefani, N E Marcovich, Polym. Test. 32665Silva, V. R.; Mosiewicki, M. A.; Yoshida, M. I.; Silva, M. C.; Stefani, P. M.; Marcovich, N. E.; Polym. Test. 2013, 32, 665.
sample_6937
0.5496
arxiv
Ferrimagnetos de ising con dilución* April-June 2004. 2004 Nuri Hurtado Centro de Física Teórica y Computacional. Facultad de Ciencias Universidad Central de Venezuela (UCV) 1041ACaracasVenezuela Gloria María Buendía Departamento de Física Facultad de Ciencias, Universidad de Oriente. Cumaná Universidad Simón Bolívar (USB) 1080, 2000CaracasVenezuela Venezuela Maracaibo Ferrimagnetos de ising con dilución* Scientific Journal from the Experimental Faculty of Sciences 122April-June 2004. 2004Compensation temperatureisingferrimagneticmonte carloquenched ResumenHemos realizado un estudio numérico de un modelo mixto de Ising en 3 dimensiones diluido con diferentes concentraciones de impurezas no magnéticas, formando un desorden tipo quenched en el sistema. Nuestros resultados preliminares indican que tanto la temperatura de compensación del sistema, como la temperatura a la cual el sistema pasa de una fase ordenada a una fase desordenada, decaen en forma lineal con la concentración de impurezas, para un porcentaje de impurezas inferior al 30%, por encima de este valor la temperatura de compensación desaparece.Palabras clave: Ising; ferrimagnetismo; monte carlo; temperatura de compensación; quenched.Diluted ising ferrimagnetsAbstractWe perform numerical studies of a three dimensional Ising mixed model at different concentrations of quenched non magnetic impurities. Our preliminary results indicate that both, the compensation temperature and the temperature that signal the transition from an ordered to a disordered phase, decrease linearly with the concentration of impurities, for concentrations below 30%. For percentages of impurities above 30% the compensation temperature disappears. Introducción Los modelos mixtos de Ising han sido utilizados con éxito para simular varios aspectos del comportamiento magnético de materiales ferrimagnéticos, entre ellos la existencia de temperaturas de compensación T comp (1,2). A la T comp la magnetización total del sistema se anula por que las magnetizaciones de las subredes se cancelan, a diferencia del punto crítico T c en el que tanto la magnetización total como las magnetizaciones de las subredes se hacen cero. La existencia de la T comp tiene importantes aplicaciones tecnológicas principalmente en el área de grabado termomagnético de información (3). Trabajos previos indican que la T comp es muy sensible a las interacciones entre moléculas vecinas, así como también al campo cristalino y a los campos magnéticos externos (1)(2)(3)(4)5). En general como el comportamiento de un sistema puro es muy diferente al de un sistema con impurezas (6), es de esperarse que la presencia de éstas afecte la temperatura de compensación. Conocer esta dependencia puede tener interesantes aplicaciones prácticas, ya que variando el porcentaje y el tipo de impurezas se podría variar el rango de la temperatura de compensación. Modelo y Métodos En una red cúbica de tamaño L ( )( ) ( )( ) H J S J i i j j i i k k nnn nn å å 1 2 [1] donde J 1 y J 2 son las interacciones a primeros y segundos vecinos, D y H representan el campo cristalino y el campo externo respectivamente, todos en unidades de energía. Los valores de los parámetros: J 1 = -0,5, J 2 = 1,00, D = 1,00 y H = 1,00 se mantuvieron fijos para todas las muestras. Los factores e i , introducen la dilución, ya que e = 0 (1) equivale a la ausencia (presencia) de un espín en el sitio i de la red. El valor de e i se elige aleatoriamente. Definimos l como el número promedio de impurezas "quenched" en la red por sitio, este valor está asociado al número de ceros "fijos" en la red debidos a la ausencia de un espín, no debe confundirse con los espines S que eventualmente pueden tomar el valor cero. En este trabajo preliminar se utiliza una red relativamente pequeña, por lo que nuestros resultados presentarán evidentes efectos de tamaño finito, sin embargo la temperatura de compensación, al no ser un valor crítico, es menos afectada por estos efectos. Se usa el método de Monte Carlo con 4 10 3 x pasos para calentar el sistema y 4 10 4 x pasos para el cálculo de promedios configuracionales. Se hace un barrido secuencial de la red para generar las configuraciones, utilizando el algoritmo de baño térmico. Para cada valor de l, se repite el procedimiento para 15 distribuciones distintas de impurezas. Cada una de esas distribuciones permanece fija respecto a variaciones de temperatura y tiempo, lo que en la literatura se conoce como desorden tipo "quenched". Se calculan: la magnetización total del sistema, [ ] [ ] m M M M S = = + [2] las magnetizaciones de las subredes, es decir, que para esta temperatura la magnetización total del sistema se hace cero. [ ] m M = [ ] m M S S = [3] donde M i i i s e = å M S S j j j = å e Resultados y Discusión En ausencia de campo externo la temperatura a la cual la susceptibilidad diverge indica en general una transición en el sistema de una fase ordenada a otra desordenada. El sistema estudiado tiene un campo externo, por lo que el máximo de la susceptibilidad no necesariamente indica un cambio de fase. Nuestros resultados indican que la susceptibilidad de nuestro modelo posee dos máximos, el de menor altura ocurre a una temperatura T m superior a la temperatura a la que ocurre el pico de mayor altura. A T m se observa que el sistema va de una fase ordenada a otra desordenada (4). Para temperaturas superiores a T m la magnetización total del sistema y las magnetizaciones de las subredes son siempre cero. En la Figura 1 mostramos la altura del segundo máximo de la susceptibilidad vs. el número promedio de impurezas por sitio l. La línea indica un ajuste de tipo c l max µ 1 2 , que fue el mejor ajuste encontrado para estos datos. Estudios numéricos previos de modelos de Ising con impurezas en 2 y 3 dimensiones (7,8) muestran, al igual que en nuestro modelo, una disminución en la altura y la posición de los máximos de susceptibilidad con el aumento de la concentración de impurezas. En la Figura 2 mostramos la dependencia de T m (mínima temperatura a la cual todas las magnetizaciones van a cero), y de la temperatura de compensación T comp , respecto el número promedio de impurezas por sitio, l. Un ajuste lineal de T m nos da la relación T m = (-3,0 ± 0,1) l + (2,83 ± 0,04). Encontramos que el valor obtenido como punto de corte es del orden del valor numérico que se obtiene en otros trabajos del mismo modelo pero sin impurezas (4), T* m = (2,65 ± 0,05). Encontramos que existe una concentración de impurezas del orden del 30% para la cual ambas temperaturas coinciden. Por encima de este valor T comp desaparece. Un ajuste lineal nos dice que T comp = (-1,45 ± 0,08) l+(2,25 ± 0,01), que coincide dentro de los errores estadísticos con valores previos para el caso puro (4), T* comp = (2,20 ± 0,05). Los valores para el sistema puro fueron obtenidos para redes de mayor tamaño, lo cual parece indicar que pese a que el ta- Temperatura de compensación (círculos vacíos), T comp , y temperatura mínima a la cual todas las magnetizaciones se hacen cero (círculos llenos), T m , en función del número promedio de impurezas del sistema. Las líneas representan los ajustes de tipo lineal. maño de la red en este trabajo es pequeño, los resultados son relativamente confiables dentro de un margen de error. Scientific Conclusiones En este trabajo preliminar, hemos utilizado el método de Monte Carlo para determinar la temperatura de compensación, T comp , y el comportamiento de la altura de los máximos de la susceptibilidad magnética y la temperatura a la cual ocurren estos máximos, T m , en un modelo mixto de Ising tridimensional, en presencia de diferentes concentraciones de impurezas, quenched, no magnéticas distribuidas aleatoriamente sobre la red. Encontramos que la altura del segundo máximo de susceptibilidad (el que corresponde al cambio de una fase desordenada a una ordenada) parece decaer con el inverso de la raíz cuadrada del número promedio de impurezas por sitio, l, y que la temperatura a la cual se obtienen estos máximos de susceptibilidad disminuye de forma lineal con l. Estos resultados, aunque preliminares debido al tamaño del sistema, son consistentes con los obtenidos por otros autores (7,8). Nuestros resultados indican que, la temperatura s o r d e n , e l p r o m e d i o t é r m i valores del número promedio de impurezas por sitio, l, donde [ ] indica el promedio sobre distribuciones de deconstante de Boltzman K B se tomará como 1 a lo largo de este trabajo. La T comp se obtiene cuando las magnetizaciones de las subredes son iguales en mó-Scientific Journal from the Experimental Faculty of Sciences, at La Universidad del Zulia Volume 12 Nº 2, April-June 2004 Figura 1 . 1Altura de los máximos de susceptibilidad en función del número promedio de impurezas en el sistema. La línea representa un ajuste de tipo , con L= 24, se colocan en forma alternada espines de tipo s= ±1/2 y S = 0, ± 1. El Hamiltoniano que describe este sistema viene dado por la expresión, de compensación, T comp , también disminuye linealmente con el aumento de la concentración de impurezas, este resultado es novedoso y puede tener interesantes aplicaciones. Encontramos que para un porcentaje de impurezas, de aproximadamente 30%, ambas temperaturas se hacen comparables. Para porcentajes mayores de impurezas la temperatura de compensación desaparece. . M Buendía G, M A Novotny, J Phys Conds Matter. 9BUENDÍA G.M., NOVOTNY M.A. J Phys Conds Matter 9: 5951-5964, 1997. . A Bobak, Jascur, J. Phys Rev B. 51BOBAK A., JASCUR J. Phys Rev B 51: 11533-11537, 1995. . J Nuttall C, Day P, Chem Mater. 10NUTTALL C.J., DAY P. Chem Mater 10: 3050-3057, 1998. . M Buendía G, Hurtado N, Phys Stat Sol (b). 220BUENDÍA G.M., HURTADO N. Phys Stat Sol (b) 220: 959-967, 2000. Rev Mex de Fís 49 Supl. Hurtado N, Buendía G.M, HURTADO N., BUENDÍA G.M. Rev Mex de Fís 49 Supl. (2): 183-185, 2003. . B Harris A, J Phys C. 7HARRIS A.B. J Phys C 7: 1671-1692, 1979. . D P Landau, Phys Rev B. 22LANDAU D.P. Phys Rev B 22: 2450-2455, 1980. . C M Soukoulis, S Grest G, Y M Velgakis, Phys Rev B. 40SOUKOULIS C.M., GREST G.S., VELGAKIS Y.M. Phys Rev B 40: 467-470, 1989. . Scientific Journal from the Experimental Faculty of Sciences. 12La Universidad del ZuliaScientific Journal from the Experimental Faculty of Sciences, at La Universidad del Zulia Volume 12 Nº 2, April-June 2004
sample_6975
0.9406
arxiv
L'utilisation des splines bidimensionnels pour l'estimation de lois de maintien en arrêt de travail Frédéric Planchet ISFA Université Lyon 1 β Winter & Associés γ Pascal Winter ISFA Université Lyon 1 β Winter & Associés γ L'utilisation des splines bidimensionnels pour l'estimation de lois de maintien en arrêt de travail DisabilityKaplan-Meiersplinesestimation * RESUME L'objectif de ce travail est de proposer un modèle d'ajustement paramétrique bi-dimensionnel pour des lois de maintien en incapacité de travail. La méthode proposée s'appuie sur des splines en dimension 2 ; elle est appliquée à un portefeuille réel, et le barème de provisionnement qui en résulte est comparé au barème de référence du BCAC.MOTS-CLEFS :Arrêt de travail, Kaplan-Meier, splines, estimation.ABSTRACTThe aim of this paper is to propose an operational two-dimensional parametric adjustment for laws of maintenance in disability. The method suggested rests on splines in dimension 2; it is applied to a real data set, and the scale of reserving which results from it is compared with the scale of reference of the BCAC. Introduction L'estimation de lois de maintien d'expérience en arrêt de travail constitue un pré-requis incontournable pour l'évaluation de provisions mathématiques sur des portefeuilles dont le comportement diffère a priori de la norme proposée par le BCAC (cf. l'article A335-1 du Code des Assurances). L'expérience montre que le taux de sortie de l'arrêt de travail dépend notamment, à population fixée, de l'âge au début de l'arrêt et de l'ancienneté de cet arrêt. Cette observation conduit à élaborer des tables doublement indicées, par l'âge à l'entrée d'une part et par l'ancienneté d'autre part. C'est ce type de présentation qui est par exemple retenu par le BCAC dans les tables réglementaires qu'il propose. Cependant, les méthodes statistiques couramment utilisées pour construire des lois de maintien sont essentiellement mono-dimensionnelles : c'est ainsi le cas pour l'estimation des taux bruts via l'estimateur de Kaplan-Meier, qui est à certains égards le meilleur en présence de censure (cf. DROESBEKE et al. [1989]), et également pour les méthodes d'ajustement paramétrique classiques, de type Makeham, logit ou splines (cf. PLANCHET [2004]). En ce qui concerne l'estimation des taux bruts, des travaux s'intéressent à la généralisation de l'estimateur de Kaplan-Meier en dimension supérieure à un ; plus précisément, ces travaux concernent l'estimation de Kaplan-Meier en présence d'hétérogénéité (cf. XIE et LIU [2000]). L'estimation des taux bruts pour chaque âge à l'entrée par Kaplan-Meier classique reste toutefois actuellement la méthode la plus robuste pour produire les taux bruts. Au surplus, la perte d'information que représente la non prise en compte de la loi conjointe selon les deux dimensions du problème est faible et peu pénalisante en pratique. Lorsque l'on souhaite ajuster les taux bruts ainsi obtenus (voir par exemple LONDON [1985] pour les motivations d'un ajustement), l'approche usuelle consistant à « recoller » des tables uni-dimensionnelles construites pour chaque âge à l'entrée possible (décrite par exemple dans GAUMET [2001]) rend délicate la prise en compte de la dynamique des taux de sortie en fonction de l'âge à l'entrée. Parallèlement, des approches développées depuis quelques années dans le cadre de la détermination de tables de mortalité prospectives proposent des modèles naturellement bidimensionnels : il s'agit notamment du modèle de Lee-Carter (cf. LEE et CARTER [1992] et LEE [2000]) et de ses variantes de type log-Poisson proposées par BROUHNS et al. [2002], ou d'autres approches comme les modèles de type géostatistique de DEBON et al. [2004]. Dans le but de construire des tables de maintien en arrêt de travail avec des méthodes bidimensionnelles, a priori mieux adaptées au contexte que l'approche usuelle rappelée cidessus, on peut tenter d'adapter les modèles de type Lee-Carter au contexte de l'arrêt de travail, en faisant jouer à l'âge le rôle de l'ancienneté et à l'année calendaire le rôle de l'âge à l'entrée. Toutefois les travaux de LELIEUR [2005] montrent que dès lors que l'on sort du contexte de très grands échantillons dans lesquels ces méthodes ont été développées pour travailler sur des portefeuilles nécessairement de taille plus réduite, une instabilité des coefficients liées aux fluctuations d'échantillonnage et à une certaine « sur-paramétrisation » apparaît et rend ces modèles inopérants, ou du moins peu efficaces. Cette difficulté est contournée dans le cas de la mortalité en réduisant le nombre de paramètres du modèle au travers d'une spécification de la forme fonctionnelle de la dépendance en fonction de l'âge et de l'année des coefficients concernés (cf. LELIEUR [2005]). La transposition au cas de l'arrêt de travail, effectuée par WINTER [2005], s'avère globalement peu satisfaisante, les modèles de Lee-Carter ou log-Poisson s'avérant peu à même de bien prendre en compte la forme particulière des taux de sortie pour ce risque. L'objectif du présent travail est de présenter une nouvelle méthode utilisant les splines en dimension 2. L'utilisation des splines dimension 2 est initialement née dans le contexte d'applications industrielles, et est devenu une méthode classique dans ce domaine : on pourra notamment consulter RISLER [1991] et DE BOOR [1978. On pourra se reporter à BESSE et CARDOT [2001] pour une synthèse des méthodes statistiques de lissage dans les espaces fonctionnels. L'utilisation de splines bi-dimensionnels dans le domaine de la construction de lois de maintien constitue une innovation, même si en dimension un il s'agit d'un outil souvent utilisé. Après avoir exposé l'approche par splines, on présente une application sur le cas d'un portefeuille d'arrêt de travail pour le risque incapacité ; l'application à la construction d'un barème de provisionnement de ce risque est ensuite présentée. Le présent travail est inspiré d'un travail de recherche effectué dans le cadre de l'Institut de Science Financière et d'Assurances de l'Université Lyon 1 par WINTER [2005]. L'ajustement par splines Présentation générale L'ajustement à une loi continue suppose implicitement que la courbe des taux de sortie peut être représentée sur toute la plage d'ancienneté considérée par une seule fonction paramétrique. En pratique, du fait par exemple de ruptures dans l'évolution des taux bruts, cette condition apparaît assez restrictive dès lors que l'on veut rester dans le cadre d'une fonction « simple ». L'idée du lissage par splines est de découper la plage de la fonction à ajuster en sousintervalles, puis d'ajuster sur chaque sous-intervalle une fonction simple, en prenant des précautions pour le raccordement aux points de jonction. Un découpage bien choisi doit en effet permettre d'utiliser sur chaque sous-intervalle une fonction sensiblement plus simple que la fonction qu'il aurait fallu ajuster globalement. Les polynômes sont des fonctions simples et peuvent à ce titre être utilisés pour construire des lissages par spline ; en pratique, on considère en général des polynômes de degré 3 qui vont nous permettre de construire des splines cubiques. Le raccordement de ces arcs se fera en imposant aux points de jonction la continuité ainsi que l'égalité des pentes et des courbures. La formalisation mathématique de cette approche en dimension un est relativement simple ; toutefois, en dimension deux elle s'avère un peu plus délicate et nécessite un minimum de formalisme, détaillé ci-après. On peut simplement retenir que l'idée est de fixer arbitrairement des noeuds pour subdiviser la surface à ajuster surface en zones. Ensuite, on ajuste un polynôme de degré 3 (en dimension 2) à chaque subdivision, en utilisant un critère de type moindres carrés. Enfin, pour des raisons évidentes de continuité et de régularité, ce « patchwork » de polynômes de degré 3 est contraint à être de classe 2 C (ou 1 C ). Mise en oeuvre dans le cas de lois de maintien bi-dimensionnelles Soit ) , ( x t P un polynôme de degré n en fonction de t et x. Il est entièrement défini par la donnée de 2 1) ( + n paramètres : { } ∑ ∈ = 2 0 n j i j i ij x t a x t P , , ) , ( ) , ( K ,(1 ) On note à présent { } 2 0 n j i ij a A , , ) , ( ) ( K ∈ = la matrice des coefficients du polynôme ) , ( x t P . On note également ⎟ ⎟ ⎟ ⎟ ⎠ ⎞ ⎜ ⎜ ⎜ ⎜ ⎝ ⎛ = n n t T M 1 et ⎟ ⎟ ⎟ ⎟ ⎠ ⎞ ⎜ ⎜ ⎜ ⎜ ⎝ ⎛ = n n x X M 1 et ⎟ ⎟ ⎟ ⎟ ⎟ ⎠ ⎞ ⎜ ⎜ ⎜ ⎜ ⎜ ⎝ ⎛ = −1 1 0 n n nx X M ' le vecteur dérivé terme à terme. On obtient ainsi la représentation matricielle du polynôme : ) , ( . . x t P X A T n n = τ . (2 ) Calculs préliminaires Les conditions de régularité nécessitent le calcul des dérivées partielles premières et secondes de ) , ( x t P . On obtient aisément : { } { } { } { } { } { } { } { } { } { } ∑ ∑ ∑ ∑ ∑ ∈ − − ∈ − ∈ − ∈ − ∈ − = ∂ ∂ ∂ − = ∂ ∂ − = ∂ ∂ = ∂ ∂ = ∂ ∂ n n j i j i ij n n j i j i ij n n j i j i ij n n j i j i ij n n j i j i ij x t ija x t x t P x t a j j x t x P x t a i i x t t P x t ja x t x P x t ia x t t P , , * , ,) , ( , , * , , ) , ( , , * , , ) , ( , , * , , ) , ( , , * , , ) , ( ) , ( ) () , ( ) ( ) , ( ) , ( ) , ( K K K K K K K K K KX A T x t x t P X A T x t x P X A T x t t P X A T x t x P X A T x t t P ′ ′ = ∂ ∂ ∂ ′ ′ = ∂ ∂ ′ ′ = ∂ ∂ ′ = ∂ ∂ ′ = ∂ ∂ . . ) , ( . . ) , ( . . ) , ( . . ) , ( . . ) , ( τ 2 τ 2 2 τ 2 2 τ τ (4 ) Noeuds On appelle noeuds les points intérieurs de la table choisis pour définir les zones sur lesquelles un unique polynôme va être appliqué. Ces points doivent choisis aussi judicieusement que possible, en fonction de la forme et l'allure générale de la surface à représenter. Par ailleurs, le choix du nombre de noeuds influe grandement sur les résultats obtenus. Un faible nombre de noeuds conduit à un lissage peu fidèle, un nombre élevé engendre quand à lui un lissage trop fidèle et donc irrégulier. Pour plus de simplicité, on ne définit ici que des droites horizontales et verticales, distinctes des bords de la table. Les intersections de ces droites forment alors les noeuds. Si on définit h droites horizontales, et v droites verticales, on obtient hv noeuds, et la table est subdivisée en ) )( ( 1 1 + + v h parties. On indice alors ces parties avec h k , ,K 0 = et v l , ,K 0 = , ce qui conduit à ) )( ( 1 1 + + v h polynômes à estimer et à recoller. Dans notre problématique d'ajustement, la fonction brute est connue et donc représentable graphiquement. Une manière de choisir les noeuds est alors l'analyse préalable des données brutes. Les grandes tendances pourront être conservées avec un maillage épais ; néanmoins, certaines irrégularités (les pics en particulier) seront effacées. Pour éviter ceci, il faut encadrer ces irrégularités par la plus petite maille possible. Une approche possible est donc de considérer que plus la variation de la fonction à ajuster est brutale, plus le maillage doit être petit si l'on veut conserver ces variations. DE BOOR [1978] signale un point sensible : si une irrégularité se présente diagonalement par rapport aux composantes, les noeuds scindant la surface brute en rectangles peuvent ne pas être adaptés. On peut alors considérer un découpage de la surface à lisser en triangles. Cette approche empirique de détermination des noeuds peut être remplacée par une approche de sélection automatisée. Dans la présente étude, le choix des noeuds est réalisé automatiquement par l'algorithme d'optimisation retenu (cf. infra). Le critère s'appuie sur un résultat prouvé par DE BOOR et FIX [1973] fournissant une majoration de la distance entre la fonction spline et la fonction à ajuster. Cette inégalité permet alors de définir un critère de choix d'un jeu de noeuds efficace en recherchant la stratégie qui minimise la majoration. Le détail de l'approche est décrit dans DE BOOR et FIX [1973]. Conditions Limites Pour des raisons de continuité, le raccordement entre les splines est soumis à des contraintes sur les dérivés des polynômes. Rappelons que dans la représentation matricielle du problème chaque ligne représente une ancienneté, chaque colonne un âge. Contraintes horizontales : ancienneté fixe Si 1 P et 2 P sont adjacents horizontalement, alors leurs valeurs et leurs dérivées partielles premières et secondes en fonction de t doivent être égale, ceci pour tout âge variant sur l'ensemble de définition induit par le spline. En notant ) ( , j i a et ) ( , j i b les paramètres des splines adjacents, ces contraintes s'écrivent : ( 6 ) avec t fixé et pour tout x variant dans l'ensemble de définition du spline. Cela conduit à écrire : ∑∑ ∑∑ = = = = = n j n i j i ij n j n i j i ij x t b x t a 0 0 0 0 ,(5 )0 0 0 = − ∑ ∑ = = n j n i i ij ij j t b a x ) ( ) , , ( ) ( , , ) ( 0 0 0 0 0 K K = − ⇔ = ∀ = − ⇔ τ = ∑ B A T n j t b a n n i i ij ij ,(7 )et 0 0 1 1 = − ∑ ∑ = = − n j n i i ij ij j it b a x ) ( ) , , ( ) ( , , ) ( 0 0 0 0 1 K K = − ′ ⇔ = ∀ = − ⇔ τ = ∑ B A T n j it b a n n i i ij ij (8 ) Si 0 ≠ t , ces équations forment un système libre de ) ( 1 2 + n équations avec 2 1 2 ) ( + n paramètres. Contraintes verticales : âge fixe De même, si 1 P et 2 P sont adjacents horizontalement, alors leurs valeurs et leurs dérivées partielles premières et secondes en fonction de x doivent être égale, ceci pour toute ancienneté variant sur l'ensemble de définition induit par le spline. Avec un raisonnement similaire à celui décrit supra, on obtient le système : ) , , ( ) ( , , ) ( 0 0 0 0 0 K K τ = = − ⇔ = ∀ = − ∑ n n j j ij ij X B A n i x b a ) , , ( ) ( , , ) ( 0 0 0 0 1 K K τ = = ′ − ⇔ = ∀ = − ∑ n n j j ij ij X B A n i jt b a(9 ) Contraintes aux noeuds : âge et ancienneté fixes On cumule les deux contraintes précédentes. Par ailleurs, en un noeud, il se trouve non plus deux mais quatre polynômes adjacents. Contraintes en bord de table En bord de table, il n'y a pas de contraintes de régularité, puisque le polynôme n'est pas raccordé à un autre. Choix du critère d'optimisation On combine un critère de fidélité et un critère de régularité, comme décrit supra. Critère de fidélité Ici, SP représente la surface des splines raccordés. Les polynômes ajustés doivent être le plus fidèle possible à la surface brute. Pour ceci, on utilise un critère des moindres carrés pour chaque spline : ( ) ∑∑ − ω x t t x t x q x t SP 2 , , ) , ((10 ) où t x, ω est le poids associé au point t x q , . Notons que la sommation doit inclure les bornes, c'est-à-dire les points se trouvant sur les droites définissant l'emplacement des noeuds. Critère de régularité Comme dans le lissage de Whitaker-Henderson, on introduit un critère permettant de contrôler la régularité du spline. La fidélité à elle seule n'est pas suffisante pour l'obtention d'une courbe régulière. En effet, outre le choix du nombre de noeuds, plus une courbe est fidèle aux données brutes, moins elle sera régulière. Le meilleur moyen de contrôler la régularité est de minimiser la dérivée seconde des polynômes. Avec la norme 2 L , cette contrainte s'écrit : dsdy y s P D y s ∫∫ λ 2 2 ) , ( ) , ((11 ) Résolution Le système à résoudre combine finalement la fidélité aux données brutes, la régularité de la surface ajustée et les contraintes aux noeuds. On combine les deux premières contraintes pour former la fonction à minimiser. La troisième constituera les contraintes du problème d'optimisation. On obtient alors le critère d'optimisation suivant : x représentent les abscisses et ordonnées du noeud correspondant à l'intersection de la (k-1) ème droite verticale et de la (l-1) ème droite horizontale (rappelons que les droite sont indicées de 1 à k (resp. 1 à l), et qu'elles sont distinctes des bords ; on a donc ) )( ( 2 2 + + v h noeuds). Pour des polynômes de degré n, on a alors ) ( 1 4 + n hv équations pour ) )( )( ( ( ) dsdy y s P D y s q x t SP x t t x t x ∫∫ ∑ ∑ λ α − + − ω α 2 2 2 1 ) , ( ) , ( ) ( ) , ( , ,(12 )1 1 1 + + + n v h paramètres. Ce système décrit une condition de régularité 1 C pour la PP-Surface estimée. Il est facilement généralisable à une condition 2 C : il faut alors ajouter 2 équations aux contraintes présentées ci-dessus : ) , ,( ) ).( ( , , * , 0 01 τ K = − ′ ′ − l k l k l k n P P t T et ) , , ( ). ( ). ( * , , , 0 0 τ 1 K = ′ ′ − − l k n l k l k x X P P(14 ) C'est ce qui sera retenu dans la suite. 1 Il s'agit de la matrice carrée composée des dérivées secondes de P. L'approche de DE BOOR [1978] En pratique l'introduction simplifiée ci-dessus est formalisée au travers des B-splines, qui fournissent un cadre de travail particulièrement bien adapté pour la description des problèmes d'ajustement à des fonctions splines. Dans son ouvrage sur les splines, DE BOOR détaille ce cadre de travail. Les deux notions principales sont la différence divisée k ème et les B-splines, qui permettent d'exprimer les « pp functions » (piecewise polynomial functions). La généralisation de l'approche en dimension deux se fait dans un second temps à l'aide des produits tensoriels. Le problème traité ici est suffisamment simple pour se passer de ce formalisme, toutefois indispensable pour des questions plus complexes. Application Afin d'illustrer la pertinence de la méthode proposée, nous l'avons mise en oeuvre sur un portefeuille, dans l'optique de proposer une En pratique, l'estimateur de Kaplan Meier donne lieu à un calcul que lorsqu'une personne sort de l'état ( i T ). Par ailleurs, en toute rigueur, il n'y a pas d'ex aequo, car la probabilité que deux personnes sortent exactement au même instant est nulle presque sûrement. Néanmoins, comme les observations dont nous disposons sont volumineuses, et que, la durée des arrêts est comptée en jours (observations discrètes), on est confronté à la présence d'ex aequo. On utilise donc la formule approchée suivante : Présentation des données { } ∏ ≤ ⎟ ⎟ ⎠ ⎞ ⎜ ⎜ ⎝ ⎛ − = ∈ ∀ t T i x i x x i T n T d t S AncMax AncMin t ) ( ) ( ) ( , , 1 K K(15 ){ } ∏ = ⎟ ⎟ ⎠ ⎞ ⎜ ⎜ ⎝ ⎛ − = ∈ ∀ t AncMin i x x x i n i d t S AncMax AncMin t ) ( ) ( ) ( 1 K K(16 ) On obtient ainsi une estimation de la fonction de survie journalière pour tous les âges, présentée ci-après : Fig. 2 : Taux de sortie d'incapacité bruts (Kaplan-Meier) On observe que les taux bruts sont très erratiques, le choix d'une unité de temps petite (le jour) accentuant encore cette variabilité. Une analyse de la variance donnée par l'estimateur de Greenwood 2 nous permet de conclure que les âges 61, 62, 63 et 64 sont très volatils, les âges 22, 23, 24 sont très volatils, surtout lorsque l'ancienneté est élevée et que la croissance du logarithme de la variance est constante pour les grands âges, alors que sur les âges faibles, la courbe croit beaucoup au début pour ensuite se stabiliser : 2 L'expression utilisée est ∑ = − = t AncMin i x x x x x x i d i n i n i d t S t S Var )) ( ) ( )( ( ) ( ) ( ) ( 2 . Fig. 3 : Estimateur de Greenwood de la variance On considérera donc par la suite les âges d'entrée allant de 25 jusqu'à 60 ans, on considérant que ceux-ci sont stables. Les taux de sortie pour les âges en dehors de cette plage pourront être ensuite déterminés par extrapolation (cf. infra). Ajustement par splines Présentation des résultats Il faut noter ici que si les calculs ne posent pas de problème numérique particulier, ils dépassent les capacités d'un simple outil bureautique tel qu'Excel et nécessitent le recours à des logiciels plus performants. La détermination des paramètres de l'ajustement a été effectuée dans le présent travail en utilisant la librairie « spline » proposée par MatLab. Cette librairie s'appuie sur les algorithmes présentés dans DE BOOR [1978]. La matrice des poids Ω est construite à l'aide des effectifs sous risques initiaux : pour chaque âge, le coefficient de pondération est proportionnel à l'effectif. La fonction λ est prise constante égale à l'unité. Enfin, le coefficient α vaut 0.001. Ce coefficient a été déterminé expérimentalement après différentes tentative. Il apparaît comme le meilleurs compromis entre fidélité et régularité sur la base de nos données. On obtient ainsi les taux suivants : Fig. 4 : Taux de sortie d'incapacité en fonction de l'âge à l'entrée et de l'ancienneté On constate notamment à l'examen du graphe ci-dessus une « pliure » à 6 mois, ainsi que des vaguelettes pour certaines anciennetés ; ceci est la conséquence que les durées des arrêts ne prennent en pratique pas toutes les valeurs possibles exprimées en jours, les prescripteurs d'arrêt ayant tendance à arrondir les durées dans une unité plus en phase avec la durée de l'arrêt (la semaine par exemple). La surface est bien entendu très régulière : elle est par construction de classe 2 C . Son expression paramétrique est relativement lourde, mais reste manipulable simplement dans des outils informatiques, par exemple pour calculer des provisions. Test de la validité du modèle La validité du modèle est testée au travers d'une version ad hoc du test du Chi2. On effectue des regroupements sur les âges et sur les anciennetés, pour obtenir des classes bidimensionnelles. Le test du Chi2 reste valable dans ce contexte puisque la somme de deux variables indépendantes avec une distribution du Chi2 est une variable Chi2, de degré de liberté la somme des degrés de liberté. On obtient alors la statistique : On note d'ailleurs une forte parenté entre les deux approches, l'allure générale des courbes étant proche. De plus chacun des deux modèles permet de combiner un critère de régularité et un critère de fidélité aux données. L'approche par splines présente l'avantage, non négligeable en pratique, de conduire à une formulation entièrement paramétrique de la Une approche alternative On peut observer que l'approche retenue conduit à des coefficients de provisionnement très réguliers : en effet, ces coefficients sont obtenus par deux intégrations successives à partir des taux de sortie, qui sont ajustés par des splines (une première intégration pour obtenir la fonction de survie, puis une seconde pour calculer le coefficient de provisionnement). De ce fait, même si nous étions parti de taux de sortie relativement irréguliers, les coefficients de provisionnement seraient réguliers (les tables du BCAC en sont une illustration, les taux de sortie étant très irréguliers). On peut envisager d'exploiter cette propriété de régularisation du mécanisme de calcul des provisions pour proposer la démarche d'ajustement suivante : à partir des taux bruts, on détermine les espérances de maintien résiduel (qui s'interprètent comme des coefficients de provisionnement à taux zéro) : On note bien l'effet de régularisation associé au calcul d'un coefficient de provisionnement, en rapprochant ce graphe de celui obtenue à la Fig. 2 : ci-dessus. On ajuste alors un modèle à splines sur cette surface afin de la régulariser, ce qui conduit à : Le graphique ci-dessus met de plus en évidence l'instabilité du barème du BCAC, qui explique les irrégularités que l'on observe (la surface d'expérience étant quant à elle par construction régulière). L'avantage de la méthode d'ajustement retenue est de conduire mécaniquement à des barèmes très réguliers, a priori plus en phase avec la réalité. Conclusion L'utilisation d'un ajustement des taux bruts par des splines bi-dimensionnels permet de construire une surface de taux de sortie paramétrique. Sa mise en oeuvre numérique ne pose pas de difficulté majeure avec des outils adaptés. L'intérêt de cette approche, par rapport aux méthodes usuelles, repose principalement sur la prise en compte directe dans le modèle de la dépendance entre les lois de maintien aux différents âges d'entrée possibles. On obtient ainsi une prise en compte directe des interactions dans les deux directions (âge et ancienneté). Au surplus, cette approche bi-dimensionnelle permet d'obtenir des lois de maintien pour des âges à l'entrée pour lesquels les observations sont insuffisantes pour construire directement la loi d'expérience, par simple interpolation. Enfin, le caractère paramétrique du modèle permet de disposer de valeurs des taux de sortie quelle que soit l'unité de temps retenue, ce qui simplifie les calculs de provisions, quel que soit le fractionnement de la rente. La mise en oeuvre des techniques présentées ici dans le cas de l'invalidité est immédiat ; des travaux sont en cours dans le prolongement de cette étude pour construire, à partir de la surface ajustée des taux de maintien conditionnels 4 , une surface « au premier jour », avec l'objectif de disposer ainsi d'un outil permettant de tarifer des contrats individuels qui prendraient en charge les premiers jours de l'arrêt. Nous nous inspirons pour cela de la démarche proposée par BONCHE et al. [2005]. . n termes. Ces expressions s'écrivent simplement sous forme matricielle : de privilégier soit la régularité, soit la fidélité. Les contraintes aux noeuds s'expriment sous la forme du système linéaire suivant : x l'échantillon sous risque à l'âge x juste avant le jour t et ) (t d x le nombre de sorties d'incapacité pour l'âge x et l'instant i T (par reprise d'activité, passage en invalidité, décès ou fin de garanties). Fig. 5 : 5Taux de sortie d'incapacité -lissage de Whittaker-HendersonLa statistique du Chi2 introduite en 3.3.2 ci-dessus est égal à 6,62, soit une valeur inférieure à celle obtenue par les splines, et qui conduit donc également à accepter l'ajustement au même seuil. Fig. 6 : 6Espérance de maintien résiduel brute table d'expérience certifiable. Les aspects en lien avec la certification, et notamment la justification du caractère prudent de la table d'expérience obtenue, ne sont pas abordés ici, notre objectif étant d'illustrer les étapes de la mise en oeuvre des splines. Le lecteur intéressé par ces aspects pourra se reporter à PLANCHET [2004]. La constitution de la base de données constitue en soi un travail délicat et décisif, car il conditionne la qualité et la robustesse des estimations effectuées ensuite ; cette étape n'est pas abordée ici, et nous nous contentons de fournir un bref descriptif des données brutes après mise en forme.Le portefeuille utilisé contient environ 170 000 arrêts, observés sur quatre ans. Il s'agit d'arrêts d'une durée supérieure à onze jours, du fait des dispositions de la convention collective concernée. Dans la suite on étudiera donc des lois conditionnelles au fait que la durée de l'arrêt est supérieure (strictement) à 10 jours. Les données sont également partiellement censurées à droite, mais le taux de censure reste faible (et systématiquement inférieur à 10%). L'information transmise permet d'effectuer les calcul de Kaplan-Meier avec un pas quotidien. Au global l'étude porte sur environ 615 000 arrêts, dont 22 500 censurés à droite, soit 3,7% de l'effectif. La moyenne globale de l'échantillon n'est pas estimable aisément, à cause de la présence des censures. Cependant, la durée moyenne d'arrêt pour les individus non censurés est de 88 jours (plus 10 jours de troncature droite si on les compte depuis le début) et l'écart- type de 176 jours. De même, la durée moyenne d'observation pour les individus censurés est de 328 jours avec 10 jours en option, et l'écart type vaut 284 jours. On porte une attention particulière aux grandeurs suivantes, calculées âge par âge : effectifs d'arrêts observés, proportions d'arrêts non censurés (rapportées sur les effectifs globaux) et nombre d'arrêts ayant une durée supérieure à 1095 jours ; on obtient le graphe suivant : Fig. 1 : Analyse du nombre d'arrêt en fonction de l'âge à l'entrée 3.2. Estimation des taux bruts L'estimateur de Kaplan-Meier est calculé âge par âge : Fig. 7 :Espérance de maintien résiduel lisséeOn peut ensuite « redescendre » aux taux de sortie par dérivation. On obtient alors les taux de sortie suivants :Fig. 8 : Taux de sortie après ajustement spline des espérances de maintienL'allure générale de la surface est relativement proche des résultats précédents, et la valeur de la statistique de test du même ordre de grandeur. Toutefois, il nous semble qu'il est plus pertinent d'effectuer l'ajustement au niveau le « moins intégré » possible, et donc au niveau des taux de sortie. 4. Application : calcul d'un barème de provisionnement L'utilisation la plus immédiate de la table d'expérience construite ci-dessus est l'obtention d'un barème de provisionnement de rentes d'incapacité. Pour un taux technique i fixé, le coefficient de provisionnement s'exprime de la manière suivante : avec x l'âge de l'assuré lors de l'entrée dans l'état, y l'ancienneté dans l'état et INC L le coefficient de la table de maintien en incapacité.Incidemment, on peut noter que dans le cadre du modèle retenu il n'est pas indispensable de discrétiser les flux, ce qui permet d'utiliser une version continue de la formule ci-dessus :Cette formulation présente l'avantage d'éviter les problématiques de choix d'un pas de discrétisation, d'une part, et d'ajustement en fonction du fractionnement, d'autre part. Dans l'expression ci-dessus, les paramètres x et y peuvent être non entiers.Le barème ainsi obtenu a l'allure suivante, avec un taux technique de 3% :Fig. 9:Barème de provisionnement d'incapacité d'expérienceOn retrouve bien entendu une allure très proche de laFig. 7: ci-dessus. Le barème du BCAC au même taux conduit quant à lui à la surface suivante :Incidemment, on note une certaine irrégularité du barème BCAC, conséquence directe de l'utilisation de taux de sortie non ajustés dans la démarche retenue par cet organisme. La forme générale des deux barèmes est toutefois, comme on pouvait s'y attendre, très proche. La comparaison des deux séries de coefficients est effectuée en calculantFig. 11 : Comparaison avec les coefficients BCAC On constate que globalement le barème BCAC conduit à sur-provisionner d'environ 5% à 10% en milieu de table. Pour les anciennetés importantes, les deux tables donnent des résultats proches. Par contre, au moment de la survenance, les résultats d'expérience sont au dessus du BCAC : l'effectif restant après le premier mois varie de 30% à 50% pour le BCAC, et de 50% à 70% pour les taux d'expérience. Ensuite, pour une ancienneté de 1 mois, le BCAC conduit à sur provisionner de 30% à 40%. L'écoulement des sorties est donc sensiblement différent dans les deux populations, ce qui justifie ex post l'intérêt du barème d'expérience.∑ − = + + = y k k x y k INC x y INC x y INC i L L PM 36 0 12 1 1 ) ( , (18 ) x y ( ) ∫ +∞ + − = 0 1 dt rt L L PM x y t INC x y INC x y INC exp , (19 ) avec ( ) i r + = 1 ln la version continue du taux technique et ( ) ⎟ ⎟ ⎟ ⎠ ⎞ ⎜ ⎜ ⎜ ⎝ ⎛ θ θ µ − = ∫ + + y t x x y t INC d L 0 exp . Fig. 10 : Barème de provisionnement d'incapacité BCAC Splines t x Splines t x BCAC t x e e e t x , , , ) , ( − ∀ ; elle conduit à la représentation suivante : Voir WINTER [2005] pour le détail de la mise en oeuvre. On rappelle que la durée d'arrêt minimale dans l'étude est de 11 jours. Comparaison avec d'autres méthodesIl est apparu intéressant de comparer l'approche par splines avec la méthode (non paramétrique) de Whittaker-Henderson, qui constitue, avec la méthode proposée dans KIMELDORF et JONES[1967], une version simple et assez naturelle de lissage bayésien (on pourra consulter sur ce sujet TAYLOR[1992]). La méthode de Whittaker-Henderson appliquée sur les mêmes données conduit à la représentation suivante des taux de sortie 3 : Besse P, Cardot H, Modélisation statistique de données fonctionnelles. Université de Toulousesupport de coursBESSE P., CARDOT H. [2001] « Modélisation statistique de données fonctionnelles », Université de Toulouse, support de cours. Analyse de l'impact sur la prime pure d'une baisse de la franchise en intégrant l'effet d'un système bonus-malus. Bonche S, L Brau, Olympio N, ISFA, Mémoire de groupe de travailBONCHE S., BRAU L., OLYMPIO N. [2005] « Analyse de l'impact sur la prime pure d'une baisse de la franchise en intégrant l'effet d'un système bonus-malus » , ISFA, Mémoire de groupe de travail. A Poisson log-bilinear regression approach to the construction of projected lifetables. Brouhns N, M Denuit, J K Vermunt, Insurance: Mathematics and Economics. 31BROUHNS N., DENUIT M., VERMUNT J.K. [2002] « A Poisson log-bilinear regression approach to the construction of projected lifetables », Insurance: Mathematics and Economics, vol. 31, 373-393. Debon A, Martinez-Ruiz F, Montes F, Dynamic Life Tables: A Geostatistical Approach. IME CongressDEBON A., MARTINEZ-RUIZ F., MONTES F. [2004] « Dynamic Life Tables: A Geostatistical Approach », IME Congress. « Splines approximation by quasi interpolants. C De Boor, Fix G, J. Approx. Theory. 8105DE BOOR C., FIX G. [1973] « Splines approximation by quasi interpolants ». J. Approx. Theory 8, 19-45, p102,105. A practical guide to splines. De Boor, Springer VerlagBerlinDE BOOR [1978] A practical guide to splines. Berlin: Springer Verlag. J J Droesbeke, B Fichet, Tassi P, Analyse statistique des durées de vie. ParisEconomicaDROESBEKE J.J., FICHET B., TASSI P. [1989] « Analyse statistique des durées de vie ». Paris : Economica. ] « Construction de tables d'expérience pour l'entrée et le maintien en incapacité. Gaumet A, ISFA, Mémoire d'actuariatGAUMET A. [2001] « Construction de tables d'expérience pour l'entrée et le maintien en incapacité », ISFA, Mémoire d'actuariat. . Kimeldorf G.S, A Jones D, Xix Tsa, KIMELDORF G.S, JONES D.A. [1967], « Bayesian graduation », TSA, XIX. « The Lee-Carter method of forecasting mortality, with various extensions and applications. R D Lee, North American Actuarial Journal. 4LEE, R.D. [2000] « The Lee-Carter method of forecasting mortality, with various extensions and applications ». North American Actuarial Journal 4, 80-93. Modelling and forecasting the time series of US mortality. R D Lee, L Carter, Journal of the American Statistical Association. 87LEE, R.D., CARTER, L. [1992] « Modelling and forecasting the time series of US mortality ». Journal of the American Statistical Association 87,659-671. Lelieur V, Construction de tables de mortalité prospectives : le cas des petites populations. ISFA, Mémoire d'actuariatLELIEUR V. [2005] « Construction de tables de mortalité prospectives : le cas des petites populations ». ISFA, Mémoire d'actuariat. London D, The revision of estimates. LONDON D. [1995], « The revision of estimates », Actex. Planchet F, Modèles de durée. support de coursPLANCHET F. [2004] « Modèles de durée », ISFA, support de cours. Méthodes mathématiques pour la CAO. J J Risler, Probabilités, analyse des données et statistique. Paris : Editions Technip. Masson SAPORTA G.ParisRISLER J.J. [1991] Méthodes mathématiques pour la CAO. Paris : Masson SAPORTA G. [1990] Probabilités, analyse des données et statistique. Paris : Editions Technip. Taylor G , A bayesian interpretation of Whittaker-Henderson graduation. 1123TAYLOR G. [1992], « A bayesian interpretation of Whittaker-Henderson graduation », Insurance: Mathematics and Economics, vol. 11, 7-16. -23 - « Méthodes bidimensionnelles pour l'ajustement de lois de maintien d'expérience en arrêt de travail. Winter P, ISFA, Mémoire d'actuariatWINTER P. [2005] « Méthodes bidimensionnelles pour l'ajustement de lois de maintien d'expérience en arrêt de travail ». ISFA, Mémoire d'actuariat. Adjusted Kaplan-Meier Estimator and Log-rank Test with Inverse Probability of Treatment Weighting for Survival Data. J Xie, Liu C, Statist. Med. 00XIE J., LIU C. [2000] « Adjusted Kaplan-Meier Estimator and Log-rank Test with Inverse Probability of Treatment Weighting for Survival Data », Statist. Med., vol. 00:1-6
sample_7067
0.773
arxiv
Robust Relationship Between Mid-latitudes CAPE and Moist Static Energy in Present and Future Simulations Submitted for publication in Geophysical Research Letters 13 Dec 2022 Ziwei Wang Department of the Geophysical Sciences University of Chicago ChicagoIllinois Center for Robust Decision-making on Climate and Energy Policy (RDCEP) University of Chicago ChicagoIllinois Elisabeth J Moyer Department of the Geophysical Sciences University of Chicago ChicagoIllinois Center for Robust Decision-making on Climate and Energy Policy (RDCEP) University of Chicago ChicagoIllinois Robust Relationship Between Mid-latitudes CAPE and Moist Static Energy in Present and Future Simulations Submitted for publication in Geophysical Research Letters 13 Dec 2022manuscript submitted to Geophysical Research Letters manuscript submitted to Geophysical Research LettersCorresponding author: Elisabeth Moyer, moyer@uchicago.edu -1- Convective available potential energy (CAPE), a metric associated with severe weather, is expected to increase with warming. Under the most widely-accepted theory, developed for strongly convective regimes, mean CAPE should rise following the Clausius-Clapeyron (C-C) relationship at 6-7%/K. We show here that although the magnitude of CAPE change in high-resolution model output is only slightly underestimated with simple theories, it is insufficient to describe the distributional changes, which has a down-sloping structure and is crucial for impact assessment. A more appropriate framework for understanding CAPE changes uses the tight correlation between CAPE and moist static energy (MSE) surplus. Atmospheric profiles develop appreciable CAPE only when MSE surplus becomes positive; beyond this point, CAPE increases as ∼25% of the rise in MSE surplus. Because this relationship is robust across climate states, changes in future CAPE distributions can be well-captured by a simple scaling of present-day data using only three parameters. Introduction Convective Available Potential Energy (CAPE), loosely defined as the vertically integrated buoyancy of a near-surface air parcel, is a metric closely associated with the extreme convective weather events that can cause substantial socioeconomic damages (e.g., Johns & Doswell, 1992). CAPE is derived from the difference between the temperature profile of a parcel rising pseudo-adiabatically from the surface and that of the background environment (Moncrieff & Miller, 1976), which determines the maximum possible updraft velocity during undiluted ascent. In meteorology, CAPE is used to predict thunderstorm events and in particular hail (Groenemeijer & van Delden, 2007;Kunz, 2007;Kaltenböck et al., 2009). Studies have also used the covariate of CAPE and wind shear to explain differences in thunderstorm frequency across locations (Brooks et al., 2003(Brooks et al., , 2007 or across climate states (Trapp et al., 2009;Diffenbaugh et al., 2013). Studies of CAPE in observations have tended to focus on decadal-scale trends, often finding large increases. For example, Gettelman et al. (2002) found trends equivalent to ∼50%/K in 15 tropical radiosonde stations. (See SI Section S1 for a wider review.) Model studies of CAPE under climate change have tended to produce smaller effects. Several recent studies that simulate the tropics using convection-permitting models (0.2-4 km resolution) without advection, i.e. approximating radiative-convective equilibrium, find CAPE increases of 8%/K (Muller et al., 2011), 8%/K (Romps, 2011), 12%/K (Singh & O'Gorman, 2013), 7%/K (Seeley & Romps, 2015), and 6-7%/K from theory (Romps, 2016). Analyses of coarser-resolution global models have found even smaller changes in the tropical W. Pacific, of ∼4.5%/K (Ye et al., 1998, at 4 • x 5 • ) and ∼5%/K (Chen et al., 2019, at 1 • ). In the mid-latitudes, changes may be larger: Chen et al. (2019) show ∼10%/K over a selected region of the continental United States. Theoretical frameworks to explain climatological CAPE fall into two groups. One approach assumes that environmental profiles are fully determined by surface temperature, and predicts the background environmental temperature profile by considering the effects of convective entrainment. Singh and O'Gorman (2013) proposed a "zero-buoyancy model" based on the assumption that entrainment makes actual in-cloud buoyancy in an ascending convective plume small relative to CAPE, and Singh and O'Gorman (2015) evaluated its applicability in radiative-convective equilibrium simulations. Zhou and Xie (2019) extended the model to use an ensemble of plumes. The zero-buoyancy concept is intended to represent convective regions such as the tropics, where environmental temperature profiles are largely set by convection, with horizontal advection playing a negligible role. It would not be expected to explain variations in CAPE across space or on short timescales over mid-latitudes land. A second approach, which may be more generally applicable, treats surface and midtropospheric conditions as independent variables. Early efforts sought to characterize empirical relationships in CAPE as a function of near-surface temperature and moisture (Williams & Renno, 1993;Ye et al., 1998). Emanuel and Bister (1996) (henceforth EB96) considered the moist static energy h instead and described the relationship as CAP E = A · (h s − h m )(1) where h s and h m are moist static energy (MSE) at near-surface (boundary layer) and mid-troposphere, respectively. The dimensionless constant A in EB96 reduces to (1− T /T s ), analogous to a Carnot efficiency, where T s is the near-surface temperature and T relates to the temperature of those levels emitting radiation to space. In this perspective, CAPE represents the maximum possible kinetic energy that could be generated given a heat transfer of (h s − h m ). Recent work has further extended on EB96 and tested applicability to mid-latitudes CAPE. Agard and Emanuel (2017) (henceforth AE17) and Li and Chavas (2021) use a similar functional form but slightly different formulations for the slope A and for the 'threshold' term. Li and Chavas (2021) confirm that their model broadly captures both the spatial pattern and diurnal variation of CAPE in renalysis data over the continental United States. These theories do not fully predict future CAPE, since they provide no guidance on future changes in the threshold term relative to h s , i.e. on changes in the shape of the environmental temperature profile. However, because all are grounded in simple mathematical definitions -for moderately convective conditions, a linear CAPE dependence on surface MSE is a necessary consequence in any dataset where mid-tropospheric conditions are decoupled from the surface -they should provide a useful framework for understanding model-projected changes. In this work we use a modified formulation with a different threshold term. Mathematically, CAPE is proportional to the vertically integrated difference between h s and the local "saturation MSE" h * z , neglecting the virtual temperature effect and difference in q * between parcel and environment (Emanuel, 1994;Randall, 2012). If we assume the shape of the environmental temperature profile does not vary strongly with h s , the definition of CAPE can be reduced to: CAP E = A · (h s − h * m )(2) where h * m is the minimum value of mid-tropospheric saturation MSE, and we term the difference h s −h * m the 'MSE surplus'. The value of A must be determined empirically, and because its value depends on the shape of environmental profiles, it does not necessarily remain constant between climate states. Despite the interest in understanding potential future CAPE increases, few studies have systematically evaluated these frameworks, especially in the continental midlatitudes where severe thunderstorm impacts are greatest. In this work, we diagnose CAPE relationship to surface and mid-tropospheric conditions in both observation and highresolution convection-permitting model simulations of continental North America, to determine what aspects of the relationship are robust under climate change. Our goal is to quantify projected CAPE changes in the mid-latitudes and to provide a simple framework that explains them. Data Description and Methodology Data Description The convection-permitting model output used here is a paired set of present and future dynamically downscaled simulations over continental North America from the Weather Research and Forecasting model (WRF, version 3.4.1) run at 4 km resolution. Both runs are described in , and model output is available from NCAR Research Data Archive ds612.0 . The present-day simulation (CTRL) is forced by ERA-Interim reanalysis for initial and boundary conditions; the future simulation is a pseudo-global-warming (PGW) scenario that applies a spatially varying offset to ERA-Interim based on the CMIP5 multi-model mean projection under RCP8.5. In both runs, spectral nudging is applied to levels above the planetary boundary layer. Note that hot and dry biases over the Central U.S. lead to a small underestimation of CAPE in the high tail by 6-10% Wang et al., 2021), but this bias does not necessarily affect fractional future changes. In this work, we use the years 2001-2012 and equivalent future period. For 'paired' comparisons we match each profile in CTRL with its equivalent in PGW. We calculate surfaced-based CAPE and subset to 80 grid points that match the International Global Radiosonde Archive (IGRA) weather stations as in Wang et al. (2021). See SI Section S2 for spatial distribution of stations and further model validation. Most analyses here use observations in summertime (MJJA) only, when convection is most active, following Sun et al. (2016) and K. L. Rasmussen et al. (2017). Methodology To maintain the focus on highly convective conditions, many comparisons here involve values for profiles above the 73rd quantile in CAPE, which corresponds to CAPE >1000 J/kg in CTRL (e.g. Figure 3 and Figure 4, left). When computing linear fits, we use orthogonal distance regression (ODR) because it is most appropriate in conditions where errors in both dependent and independent variables matter. When computing fractional changes between CTRL and PGW climate states, we define them as ln(PGW/CTRL)/∆T. See SI Section S3 for details on subsetting and averaging, and Schwarzwald et al. (2021) for discussion of ODR. Synthetic profiles We construct five synthetic CAPE distributions to help understand the minimal information needed to realistically reproduce future distributional changes. All are constructed based an assumed 3.92 K surface temperature increase, the mean change for profiles above the 73rd CAPE quantile. (Note that this change is smaller than the 4.65 K average for the entire dataset; see SI Section S3.) All cases but #4 take the CTRL profiles and CAPE values as the baseline. One case (#1) is a simple transformation of the CTRL CAPE distribution, and three (#2-4) require re-calculating CAPE for a set of synthetic atmospheric profiles. See SI Section S4 for further details. 1. For Clausius-Clapeyron scaling, shown for illustrative purposes only, we simply multiply each CTRL CAPE value by 1.27 (e 0.061·3.92 ), where 6.1%/K is the C-C change for the mean temperature of high-CAPE profiles, 301.8 K. We omit several systematic changes that largely cancel: C-C would be changed by -0.4%/K by including the projected reduction in surface RH, by -0.1%/K by treating profiles separately, and by +0.6%/K by incorporating the rise in the Level of Neutral Buoyancy (LNB). 2. For the constant offset case, we add 3.92 K to each CTRL profile at each level from surface to 200 hPa, near the level of neutral buoyancy in the mean CTRL profile. From 200 hPa we linearly interpolate to zero change at 75 hPa. We also adjust surface RH by -0.9%, the mean change above the 73rd CAPE percentile. 3. For the lapse rate adjustment synthetic case, we modify the constant offset procedure to also include a change in lapse rate. That is, we linearly interpolate between the 3.92 K surface warming and a similarly derived 200 hPa warming of 4.94 K. We apply the same surface RH adjustment as in constant offset. 4. For the SO13 case, we add 3.92 K to surface temperatures and calculate a climatological mean profile using the zero-buoyancy model of Singh and O'Gorman (2013). We use an entrainment rate of 0.62 and column RH of 0.44. We construct profiles in both CTRL and PGW environments, so that the theory provides a selfconsistent prediction of changes. 3 Results Changes in CAPE distributions We begin our analysis by asking: in mid-latitudes model projections, how much and how does CAPE change with warming? Over the entire dataset, mean CAPE rises 61% between CTRL and PGW, from 684 to 1103 J/kg, yielding a 10%/K increase given the mean surface temperature rise of 4.65 K (assuming incremental changes). The mean change may not be the most relevant metric, however, since mid-latitude CAPE distributions are zero-inflated even in the convective summertime, and the strongest temperature changes occur in conditions where CAPE is small or zero. An alternate approach that emphasizes changes in higher-CAPE conditions is to take an orthogonal regression to the density distribution of paired profiles in present and future runs (Figure 1, left, solid line). This distribution shows a clear shift upwards, even though weather systems are not identical in the two runs and the scatter is therefore large. The regression slope gives a CAPE increase of 45% or 8.0%/K, slightly larger than Clausius Clapeyron (6.1%/K). By contrast, the constant offset synthetic overpredicts CAPE increases (11.7%/K) and the SO13 theory underpredicts them (5.8%/K); see SI Section S5.1. The orthogonal regression implicitly assumes that the change in CAPE distributions is a simple multiplicative shift. To test this assumption, we also show in Figure 1 a quantile regression, which compares individual quantiles of CTRL and PGW distributions. The future CAPE distribution is in fact narrower than in the simple multiplicative case. Comparing to the orthogonal regression, the lower quantiles lie above the 45% line and the most extreme quantiles (>∼3000 J/kg) below it (left panel, dots). This narrowing effect is even more clear in a plot of the quantile ratio of future vs. present-day CAPE (right, black); it manifests as a downward slope. Both the constant offset (green) and SO13 (purple) cases also show similar narrowing, despite their different mean predicted changes. Distributional changes in model CAPE therefore resemble an offset with a small lapse rate adjustment that lowers CAPE. Because the SO13 theory was developed to represent the mean profile in highly convective conditions, we also test whether it can capture the present-future CAPE change of the averaged late-afternoon (00 UTC) profile in our simulations, but the underprediction remains substantial. (See SI Section 5.1.) Changes in mid-latitudes lapse rates require a new explanatory framework. Changes in environmental profiles To quantify the effect of changing environmental lapse rates on future CAPE, we examine mean CAPE in surface temperature and humidity (T-H) space following Wang et al. (2021). Since surface T and H uniquely define the moist adiabat on which a parcel rises, a change in CAPE for a given T,H is due only to an altered environmental profile. This approach allows decomposing CAPE changes into two governing factors: f samp is the fractional change that would result from only changed surface T,H sampling (Figure 2, top row) and f env is that resulting from only changes in environmental profiles (Figure 2, bottom row). Both factors are defined for CTRL CAPE >1000 J/kg conditions. In these model runs, increased sampling of warmer surface conditions in PGW would more than double CAPE from its CTRL value (f samp ∼ 2.2) if lapse rates did not change. However, CAPE contours shift strongly in the PGW run, so that warmer or wetter sur- 98.9%, respectively). We begin the x-axis at 40% to omit quantiles where CTRL CAPE is zero. Model future CAPE changes resemble a constant offset with a small lapse rate adjustment. face conditions are required to achieve the same CAPE. If T,H sampling remained the same, CAPE would fall by a third due to environmental effects alone (f env ∼ 0.64). The combined effect is f samp ·f env = 1.40, close to the 1.45 derived from orthogonal regression in Figure 1. (See SI Section S5.2 for details on calculations.) The effects seen in Figure 2 do not necessarily mean there is substantial excess warming at altitude. Most of the environmental damping of potential CAPE increases occurs even in the constant offset case of uniform warming, because present-day environmental profiles are correlated with surface temperature. Since upper tropospheric temperature is relatively homogeneous, extreme local surface temperature necessarily implies a steep lapse rate. Under climatological warming, surface temperatures that were previously extreme become associated with more normal lapse rates instead. For this reason even the constant offset case shows an f env of 0.77, i.e. apparent potential CAPE increases are damped by 23% by this covariance effect alone. (The total derived CAPE change in constant offset is 1.71, close to its orthogonal regression slope of 1.72.) Excess warming at altitude is therefore required only to explain the residual difference between effects in PGW (f env = 0.64) and in constant offset (f env = 0.77). Changes in temperature profiles between present and future runs are in fact very subtle. If the entire dataset is averaged, warming is actually greater at surface than at altitude (∆T s = 4.65 K and ∆T 200 = 4.05 K), an effect that would tend to amplify CAPE. However, as discussed in Methods, when data is subdivided to include only conditions that can produce substantial CAPE, lapse rate changes are weakly positive (∆T s = 3.92 K and ∆T 200 = 4.94). That is, in conditions favorable for convection, future environmental changes should slightly dampen the CAPE increase expected from surface warming alone. CAPE-MSE framework It is clear that CAPE in our dataset must exhibit a strong relationship with surface MSE, since the contours of CAPE in T-H space in Figure 2 are closely aligned with those of MSE. (See SI Section S5.2; this effect was also shown by previous paper, e.g. Donner et al. (1999).) The relationship is in fact reasonably linear in each climate state (Figure 3, left, which shows all CAPE values >1000 J/kg), but shifts as the climate warms. In both CTRL and PGW model runs, the x-intercept to the fitted regression matches the mean mid-tropospheric saturation MSE to < 0.3%: on average, CAPE does not develop unless surface MSE (h s ) exceeds saturation MSE (h * m ) in the mid-troposphere. These results suggest that the more fundamental relationship is between CAPE and MSE surplus (h s − h * m ), as in Equation 2. When CAPE is plotted against MSE surplus (Figure 3, right), residual variance does indeed become smaller (24% vs. 31% for CTRL and 8% vs. 26% for PGW) and intercepts become almost zero (0.67 and 1.07 kJ/kg for CTRL and PGW, respectively). The relationship between CAPE and MSE surplus is in fact sufficiently fundamental that it holds across climate states. Fitted slopes are nearly identical in CTRL and PGW runs, at 0.27 (Figure 3, right). In this perspective, the effects of climate change reduce to only a greater sampling of conditions with high MSE surplus. Furthermore, the relationship between CAPE and MSE surplus is robust across other temporal and spatial comparisons as well. Fitted slopes and variance explained remain similar when the dataset is divided by latitude (northern vs. southern stations), by daytime vs. nighttime profiles, by anomalously warm vs. cold years, or even by winter vs. summers (SI Section S5.3). Using an alternative fitting method (all samples above 1000 J/kg CAPE instead of binned median values) produces smaller slopes (0.17 and 0.16 for CTRL and PGW), but they remain consistent across all comparisons. The fact that WRF output and observations are well-described by Eq. 2 -CAP E = A × (h s − h * m ) -will naturally follow if the mid-troposphere is reasonably decoupled from the surface. If variation in h * m is uncorrelated with that in h s , a linear relationship between CAPE and MSE surplus is a straightforward mathematical consequence. As a partial test of this condition, we plot saturation MSE profiles for data subset by a variety of CAPE thresholds (SI Section S5.4). In all conditions with any appreciable CAPE (>100 J/kg), the minimum of saturation MSE in the mid-troposphere remains nearly constant across subsets, suggesting that mid-tropospheric temperature and h * m are not strongly coupled to surface conditions in these mid-latitudes simulations. A simple lapse rate adjustment framework While theories of future CAPE based only on surface conditions do not work well in the mid-latitudes, we consider whether adding a single parameter to describe mid-tropospheric effects can yield accurate predictions of future CAPE distributions. As described in Section 2.3, we construct a transformation of present-day atmospheric profiles based on only 3 parameters: mean changes in surface temperature and humidity, and a separate value for warming at 200 hPa (∆T s , ∆ RH, ∆T 200 ). To evaluate how well this lapse rate adjustment captures CAPE changes in actual model output, we show also results for a twoparameter transformation -the constant offset shift with RH adjustment, which uses only mean surface ∆T s and ∆ RH -and for reference, a simple C-C scaling applied to each individual profile. See Section 2.3 and SI Section S5.5 for details. The three-parameter lapse rate adjustment transformation does indeed capture the characteristics of future CAPE changes (in high-CAPE conditions). In the CAPE-MSE perspective (Figure 4, left), it realistically captures the future relationship, both in its slope and x-intercept. In the quantile ratio perspective (Figure 4, right), it reproduces both the downsloping structure and the magnitude of fractional change in the high CAPE quantiles. On a T-H diagram, lapse rate adjustment reproduces the future CAPE contours well while other transformations produce clear discrepancies (SI Section S5.5). Note that in the highest CAPE conditions, future changes in model output and in lapse rate adjustment begin to approach Clausius-Clapeyron, but remain above it. Changes in the 99th quantile are 6.9%/K in WRF and 7.1%/K in lapse rate adjustment, while the C-C line in Figure 4 is shown as a constant 6.1%/K, and would be similar even if treated more realistically. (See Methodology, and SI Section 5.5 for more extensive comparisons.) While mid-latitudes CAPE is too complex to be treated with simple scalings, a relatively straightforward 3-parameter transformation appears to reproduce its full distributional change in a future warmer climate. Future changes in CAPE as quantile ratio plots, with dots marking quantiles at 1% increments. As in Figure 1, four x-axis ticks mark 1000-4000 J/kg, and PGW/CTRL CAPE values are on the numerator/denominator. All the synthetic future (scatters) fractional changes are referenced to CTRL. CAPE-MSE instead of the CAPE-MSE surplus framework is shown because the latter requires further assumptions about how the mid-tropospheric MSE would change. The lapse rate adjustment synthetics best reproduce future CAPE. Discussion Increases in severe weather events, which are associated with high CAPE, are a substantial societal concern under global warming. We show here that the projected increase in mean mid-latitudes CAPE in high-resolution model output is substantially higher than in theories developed under assumptions appropriate for the tropics, which are close to Clausius-Clapeyron (C-C). The discrepancy is smaller for the most extreme conditions, but even in the highest quantiles in this analysis, model CAPE changes are over 20% above C-C. This difference translates to large changes in the projected occurrence of CAPE exceeding a given threshold. For example, incidences of summertime CAPE >2000 J/kg, a commonly-used threshold for severe weather, rise twice as much in model projections as in Clausius-Clapeyron scaling: from 13% in CTRL to over 24% in the future PGW projection, vs. to only 19% under C-C scaling. The midlatitudes apparently require a different framework for understanding CAPE changes than the convective tropics. Both the influence of advection and the strong surface diurnal variation means that mid-tropospheric values cannot be predicted from surface conditions. Furthermore, the wide range of surface conditions in the mid-latitudes continental U.S. mean that lapse rate effects vary spatially across the domain, with upper tropospheric warming strongest in the subtropics and lapse rates changes actually negative north of 33N (SI Section S7). Nevertheless, we find that future CAPE distributional changes can be well-captured by a simple synthetic transformation based only on three changes averaged over the entire domain (∆T s , ∆RH s , and either ∆T 200 or ∆T 650 ). These three parameters can be folded into a single metric of "MSE surplus", the difference between surface MSE and mid-tropospheric saturation MSE. In the model output described here, CAPE does exhibit a strong dependence on MSE surplus, as expected: in each climate state the relationship is a straightforward mathematical consequence. We show here that the relationship is robust even across climate states (empirical slopes of 0.27 and 0.26 in Figure 3) implying that atmospheric structure does not change dramatically. These results can be compared to prior theories based on analogies to heat engines. The slope A can be thought of as the maximum conversion rate of MSE surplus to mechanical work. Similarly, theories such as EB96 treated CAPE as the maximum work possible given a flow of energy between hot and cold reservoirs, and therefore predicted a Carnot-like slope of (1 − T /T s ). This theoretical value can be derived by constructing a mean atmospheric profile (using all incidences of CAPE > 1000 J/kg); our dataset yield theoretical slopes of 0.18 for both radiosonde observations and CTRL model output, similar to the 0.14 in Emanuel and Bister (1996). This value is lower than the empirical slopes of Figure 3 (right), but is nearly identical to slopes derived without fitting the binned median values: 0.18 for observations and 0.17 for CTRL. It appears that the heat engine framework does capture some physical constraint on CAPE, though MSE surplus (h s −h * m ) is the more fundamental regressor. Note that CAPE represents only the potential production of kinetic energy, not the true conversion rate, which is affected by factors that reduced efficiency below Carnot (e.g. Romps, 2008). Understanding how CAPE responds to CO 2 -induced warming is a key scientific question with significant societal consequences. This work suggests that in the mid-latitudes, the decoupling of surface and mid-troposphere means that changes in CAPE can be larger than predicted by theories developed for the convective tropics. We find that a simple 3-parameter transformation captures not only future mean increases in midlatitudes CAPE but their full distributional shifts. It does remain an outstanding question how the presentday mapping of CAPE to convective updraft velocities and extreme convective events may alter under climate change. However, the strong and consistent dependence of CAPE on MSE surplus provides a simple but robust framework for predicting and understanding changes in CAPE distributions. Figure 1 . 1(Left) Comparison of CAPE in present (CTRL) and future (PGW) model runs as a density plot of paired profiles (see Methodology), using all pairs where both have nonzero CAPE. Dashed line is the one-to-one line; solid line is the orthogonal regression; and dots are quantiles of the distribution (large dots, ∆ = 1% increments from 0-0.99; small dots ∆=0.1% above 0.99). (Right) Quantile ratio plot, constructed by taking the ratio of future CAPE quantiles over those of present climate from actual model output (black, dots as in L. panel), and three synthetic datasets: C-C scaling (light blue), constant offset (limegreen), and SO13 (purple). All data are used and zeroes are included. For internal consistency, SO13 changes are computed relative to its own CTRL distribution; see methods for details. Gray horizontal line marks the mean CAPE fractional change from the orthogonal distance regression line in left panel. Four vertical tick bars mark the percentiles matching 1000, 2000, 3000, and 4000 J/kg (73.2%, 86.5%, 95.1%, and Figure 2 . 2(Top) Density heatmap of T-H bins sampled and (bottom) of mean CAPE in eachT-H bin, in CTRL (left) and PGW (right) runs during summer (MJJA). Bins shown are all those with 3 or more observations. Solid and dashed lines mark RH of 100 and 50%. In bottom row, dashed/dotted lines mark CAPE contours at 2000 and 4000 J/kg (with contours cut off at RH=100% to avoid artifacts). Both future distributions move up and to the right. The PGW run samples higher maximum temperatures (top), which in fixed environmental conditions would lead to higher CAPE by fsamp = 2.2, but CAPE contours also shift (bottom), reducing CAPE changes by fsamp = 0.62. Note that CAPE contours resemble those of moist static energy (SI Section S5.2); their future shift means that higher MSE on average is required for a given CAPE value. Figure 3 . 3Relationships between CAPE in N. America summertime and MSE (left) and MSE surplus (right), for CTRL (blue, dotted) and PGW (red, solid) runs. Here we use all cases where CAPE is larger than 1000 J/kg. Lines are fitted orthogonal regressions. MSE surplus is calculated as hs-h * m , where h * m is the minimum saturation MSE in each profile. Color shading increments are 1.5% for the left panel and 0.75% for the right panel. Median in CAPE bins are used for the orthogonal regression to remove the role of uneven sampling across low to high CAPE conditions. Slopes of CAPE-MSE (left) are 0.249 and 0.239 for CTRL and PGW, respectively, and of CAPE-MSE surplus (right) are 0.271 and 0.270. Figure 4 . 4Comparison of present and future CAPE in model output (black) and synthetics, with those built from existing theories (C-C scaling, light blue; and from this work in the bottom row (constant offset, dark orange; lapse rate adjustment, green). (Left): Fitted regression lines of the future CAPE-MSE relationship as in Figure 3. Model CTRL is shown for reference (dashed black). See SI Section S5.5 for more details, including table of slopes and x-intercepts. (Right) Acknowledgements The authors thank Dan Chavas, Tiffany Shaw, Funing Li, Zhihong Tan, and Osamu Miyawaki for constructive comments, and the National Center for Atmospheric Research (NCAR) for providing the WRF dataset. This work is supported by the Center for Robust Decision-making on Climate and Energy Policy (RD-CEP), funded by the NSF Decision Making Under Uncertainty program, Award SES-1463644, and was completed in part with resources provided by the University of Chicago Research Computing Center.Data Availability StatementThe 4-km WRF Convection-permitting model output is downloaded from NCAR RDA https://rda.ucar.edu/datasets/ds612.0/ (http:// doi.org/10.5065/D6V40SXP). The IGRA radiosonde data is downloaded from https:// www.ncei.noaa.gov/products/weather-balloon/integrated-global-radiosonde-archive (http://doi.org/10.7289/V5X63K0Q). Clausius-Clapeyron scaling of peak CAPE in continental convective storm environments. V Agard, K Emanuel, 10.1175/JAS-D-16-0352.1Journal of the Atmospheric Sciences. 749Agard, V., & Emanuel, K. (2017). Clausius-Clapeyron scaling of peak CAPE in con- tinental convective storm environments. Journal of the Atmospheric Sciences, 74 (9), 3043-3054. doi: 10.1175/JAS-D-16-0352.1 . H E Brooks, A R Anderson, K Riemann, I Ebbers, H Flachs, Brooks, H. E., Anderson, A. R., Riemann, K., Ebbers, I., & Flachs, H. (2007). Climatological aspects of convective parameters from the NCAR/NCEP reanalysis. 10.1016/j.atmosres.2005.08.005Atmospheric Research. 832Climatological aspects of convective parameters from the NCAR/NCEP re- analysis. Atmospheric Research, 83 (2), 294-305. doi: 10.1016/j.atmosres.2005 .08.005 The spatial distribution of severe thunderstorm and tornado environments from global reanalysis data. Atmospheric Research. H E Brooks, J W Lee, J P Craven, 10.1016/S0169-8095(03)00045-0Brooks, H. E., Lee, J. W., & Craven, J. P. (2003). The spatial distribution of se- vere thunderstorm and tornado environments from global reanalysis data. At- mospheric Research, 67-68 , 73-94. doi: 10.1016/S0169-8095(03)00045-0 Changes in Convective Available Potential Energy and Convective INhibition under global warming. J Chen, A Dai, Y Zhang, K L Rasmussen, 10.1175/JCLI-D-19-0461.1J. Climate. 336American Meteorological SocietyChen, J., Dai, A., Zhang, Y., & Rasmussen, K. L. (2019). Changes in Convective Available Potential Energy and Convective INhibition under global warming. J. Climate, 33 (6), 2025-2050. (Publisher: American Meteorological Society) doi: 10.1175/JCLI-D-19-0461.1 Robust increases in severe thunderstorm environments in response to greenhouse forcing. N S Diffenbaugh, M Scherer, R J Trapp, 10.1073/pnas.1307758110PNAS110Diffenbaugh, N. S., Scherer, M., & Trapp, R. J. (2013). Robust increases in severe thunderstorm environments in response to greenhouse forcing. PNAS , 110 (41), 16361-16366. doi: 10.1073/pnas.1307758110 . L J Donner, C J Seman, R S Hemler, Donner, L. J., Seman, C. J., & Hemler, R. S. (1999). Three-dimensional cloudsystem modeling of GATE convection. 10.1175/1520-0469(1999)0561885:TDCSMO2.0.CO;2J. Atmos. Sci. 5612Three-dimensional cloud- system modeling of GATE convection. J. Atmos. Sci., 56 (12), 1885-1912. doi: 10.1175/1520-0469(1999)056 1885:TDCSMO 2.0.CO;2 Atmospheric convection. K Emanuel, Oxford University PressEmanuel, K. (1994). Atmospheric convection. Oxford University Press. Retrieved from https://books.google.com/books?id=VdaBBHEGAcMC Moist convective velocity and buoyancy scales. K Emanuel, M Bister, 10.1175/1520-0469(1996)0533276:MCVABS2.0.CO;2J. Atmos. Sci. 5322Emanuel, K., & Bister, M. (1996). Moist convective velocity and buoyancy scales. J. Atmos. Sci., 53 (22), 3276-3285. doi: 10.1175/1520-0469(1996)053 3276: MCVABS 2.0.CO;2 Multidecadal trends in tropical Convective Available Potential Energy. A Gettelman, D J Seidel, M C Wheeler, R J Ross, 10.1029/2001JD001082Journal of Geophysical Research: Atmospheres. 107Gettelman, A., Seidel, D. J., Wheeler, M. C., & Ross, R. J. (2002). Multi- decadal trends in tropical Convective Available Potential Energy. Jour- nal of Geophysical Research: Atmospheres, 107 , ACL 17-1-ACL 17-8. doi: 10.1029/2001JD001082 Sounding-derived parameters associated with large hail and tornadoes in the netherlands. P H Groenemeijer, A Van Delden, Atmospheric Research. 832Groenemeijer, P. H., & van Delden, A. (2007). Sounding-derived parameters asso- ciated with large hail and tornadoes in the netherlands. Atmospheric Research, 83 (2), 473-487. Severe local storms forecasting. R H Johns, I Doswell, A Charles, 10.1175/1520-0434(1992)0070588:SLSF2.0.CO;2Weather and Forecasting. 12Johns, R. H., & Doswell, I., Charles A. (1992, 12). Severe local storms forecast- ing. Weather and Forecasting, 7 (4), 588-612. doi: 10.1175/1520-0434(1992) 007 0588:SLSF 2.0.CO;2 Evaluation of thunderstorm indices from ECMWF analyses, lightning data and severe storm reports. Atmospheric Research. R Kaltenböck, G Diendorfer, N Dotzek, 10.1016/j.atmosres.2008.11.00593Kaltenböck, R., Diendorfer, G., & Dotzek, N. (2009). Evaluation of thunderstorm in- dices from ECMWF analyses, lightning data and severe storm reports. Atmo- spheric Research, 93 (1), 381-396. doi: 10.1016/j.atmosres.2008.11.005 The skill of convective parameters and indices to predict isolated and severe thunderstorms. M Kunz, Natural Hazards and Earth System Sciences. 72Kunz, M. (2007). The skill of convective parameters and indices to predict isolated and severe thunderstorms. Natural Hazards and Earth System Sciences, 7 (2), 327-342. Midlatitude continental CAPE is predictable from large-scale environmental parameters. F Li, D R Chavas, 10.1029/2020GL091799Geophysical Research Letters. 488Li, F., & Chavas, D. R. (2021). Midlatitude continental CAPE is predictable from large-scale environmental parameters. Geophysical Research Letters, 48 (8), e2020GL091799. doi: 10.1029/2020GL091799 . C Liu, K Ikeda, R Rasmussen, M Barlage, A J Newman, A F Prein, Liu, C., Ikeda, K., Rasmussen, R., Barlage, M., Newman, A. J., Prein, A. F., . . . . D Yates, Yates, D. (2017). Continental-scale convection-permitting modeling of the current and future climate of north america. 10.1007/s00382-016-3327-9Clim Dyn. 491Continental-scale convection-permitting modeling of the current and future climate of north america. Clim Dyn, 49 (1), 71-95. doi: 10.1007/s00382-016-3327-9 The dynamics and simulation of tropical cumulonimbus and squall lines. M W Moncrieff, M J Miller, 10.1002/qj.49710243208Quarterly Journal of the Royal Meteorological Society. 102432Moncrieff, M. W., & Miller, M. J. (1976). The dynamics and simulation of tropical cumulonimbus and squall lines. Quarterly Journal of the Royal Meteorological Society, 102 (432), 373-394. doi: 10.1002/qj.49710243208 Intensification of precipitation extremes with warming in a cloud-resolving model. C J Muller, P A O&apos;gorman, L E Back, 10.1175/2011JCLI3876.1J. Climate. 2411Muller, C. J., O'Gorman, P. A., & Back, L. E. (2011). Intensification of precipi- tation extremes with warming in a cloud-resolving model. J. Climate, 24 (11), 2784-2800. doi: 10.1175/2011JCLI3876.1 High resolution WRF simulations of the current and future climate of North America. Research Data Archive at the National Center for Atmospheric Research. D Randall, Rasmussen, C Liu, 10.5065/D6V40SXPPrinceton University PressComputational and Information Systems Laboratory.Atmosphere, clouds, and climateRandall, D. (2012). Atmosphere, clouds, and climate. Princeton University Press. Rasmussen, & Liu, C. (2017). High resolution WRF simulations of the current and future climate of North America. Research Data Archive at the National Center for Atmospheric Research, Computational and Information Systems Laboratory. (accessed 30 Oct 2019, https://doi.org/10.5065/D6V40SXP) . K L Rasmussen, A F Prein, R M Rasmussen, K Ikeda, C Liu, Rasmussen, K. L., Prein, A. F., Rasmussen, R. M., Ikeda, K., & Liu, C. (2017). Changes in the convective population and thermodynamic environments in convection-permitting regional climate simulations over the united states. Climate Dynamics. Changes in the convective population and thermodynamic environments in convection-permitting regional climate simulations over the united states. Climate Dynamics. The dry-entropy budget of a moist atmosphere. D M Romps, Journal of Atmospheric Sciences. 6512Romps, D. M. (2008). The dry-entropy budget of a moist atmosphere. Journal of Atmospheric Sciences, 65 (12), 3779-3799. Response of tropical precipitation to global warming. D M Romps, 10.1175/2010JAS3542.1J. Atmos. Sci. 681Romps, D. M. (2011). Response of tropical precipitation to global warming. J. At- mos. Sci., 68 (1), 123-138. doi: 10.1175/2010JAS3542.1 Clausius-Clapeyron scaling of CAPE from analytical solutions to RCE. D M Romps, doi: 10 .1175/JAS-D-15-0327.1Journal of the Atmospheric Sciences. 739Romps, D. M. (2016). Clausius-Clapeyron scaling of CAPE from analytical solu- tions to RCE. Journal of the Atmospheric Sciences, 73 (9), 3719-3737. doi: 10 .1175/JAS-D-15-0327.1 Changes in future precipitation mean and variability across scales. K Schwarzwald, A Poppick, M Rugenstein, J Bloch-Johnson, J Wang, D Mcinerney, E J Moyer, 10.1175/JCLI-D-20-0001.1Journal of Climate. 347Schwarzwald, K., Poppick, A., Rugenstein, M., Bloch-Johnson, J., Wang, J., McIn- erney, D., & Moyer, E. J. (2021). Changes in future precipitation mean and variability across scales. Journal of Climate, 34 (7), 2741-2758. doi: 10.1175/JCLI-D-20-0001.1 Why does tropical Convective Available Potential Energy (CAPE) increase with warming?. J T Seeley, D M Romps, 10.1002/2015GL066199Geophysical Research Letters. 4223Seeley, J. T., & Romps, D. M. (2015). Why does tropical Convective Available Po- tential Energy (CAPE) increase with warming? Geophysical Research Letters, 42 (23), 10,429-10,437. doi: 10.1002/2015GL066199 Influence of entrainment on the thermal stratification in simulations of Radiative-Convective Equilibrium. M S Singh, P A O&apos;gorman, 10.1002/grl.50796Geophysical Research Letters. 4016Singh, M. S., & O'Gorman, P. A. (2013). Influence of entrainment on the thermal stratification in simulations of Radiative-Convective Equilibrium. Geophysical Research Letters, 40 (16), 4398-4403. doi: 10.1002/grl.50796 Increases in moist-convective updraught velocities with warming in Radiative-Convective Equilibrium: Increases in updraught velocities with warming. M S Singh, P A O&apos;gorman, 10.1002/qj.2567Quarterly Journal of the Royal Meteorological Society. 141692Singh, M. S., & O'Gorman, P. A. (2015). Increases in moist-convective updraught velocities with warming in Radiative-Convective Equilibrium: Increases in up- draught velocities with warming. Quarterly Journal of the Royal Meteorological Society, 141 (692), 2828-2838. doi: 10.1002/qj.2567 An evaluation of dynamical downscaling of central plains summer precipitation using a WRF-based regional climate model at a convection-permitting 4 km resolution. X Sun, M Xue, J Brotzge, R A Mcpherson, X.-M Hu, X.-Q Yang, 10.1002/2016JD024796Journal of Geophysical Research: Atmospheres. 12123Sun, X., Xue, M., Brotzge, J., McPherson, R. A., Hu, X.-M., & Yang, X.-Q. (2016). An evaluation of dynamical downscaling of central plains summer precipita- tion using a WRF-based regional climate model at a convection-permitting 4 km resolution. Journal of Geophysical Research: Atmospheres, 121 (23), 13,801-13,825. doi: 10.1002/2016JD024796 Transient response of severe thunderstorm forcing to elevated greenhouse gas concentrations. R J Trapp, N S Diffenbaugh, A Gluhovsky, 10.1029/2008GL036203Geophysical Research Letters. 136Trapp, R. J., Diffenbaugh, N. S., & Gluhovsky, A. (2009). Transient response of se- vere thunderstorm forcing to elevated greenhouse gas concentrations. Geophys- ical Research Letters, 36 (1). doi: 10.1029/2008GL036203 Reanalyses and a highresolution model fail to capture the "high tail" of CAPE distributions. Z Wang, J A Franke, Z Luo, E J Moyer, 10.1175/JCLI-D-20-0278.1Journal of Climate. 3421Wang, Z., Franke, J. A., Luo, Z., & Moyer, E. J. (2021). Reanalyses and a high- resolution model fail to capture the "high tail" of CAPE distributions. Journal of Climate, 34 (21), 8699-8715. doi: 10.1175/JCLI-D-20-0278.1 . E Williams, N Renno, 1Williams, E., & Renno, N. (1993, 01). An analysis of the conditional instability of the tropical atmosphere. AAOTCI 2.0.CO;2Monthly Weather Review. 121121An analysis of the conditional instability of the tropical atmosphere. Monthly Weather Review , 121 (1), 21-36. doi: 10 .1175/1520-0493(1993)121 0021:AAOTCI 2.0.CO;2 CAPE variations in the current climate and in a climate change. B Ye, A D Del Genio, K K Lo, .-W , doi: 10 .1175/1520-0442-11.8.1997Journal of Climate. 118Ye, B., Del Genio, A. D., & Lo, K. K.-W. (1998). CAPE variations in the current climate and in a climate change. Journal of Climate, 11 (8), 1997-2015. doi: 10 .1175/1520-0442-11.8.1997 A conceptual spectral plume model for understanding tropical temperature profile and convective updraft velocities. W Zhou, S.-P Xie, J. Atmos. Sci. 769Zhou, W., & Xie, S.-P. (2019). A conceptual spectral plume model for understand- ing tropical temperature profile and convective updraft velocities. J. Atmos. Sci., 76 (9), 2801-2814.
sample_7084
0.9954
arxiv
Accelerating the Convex Hull Computation with a Parallel GPU Algorithm 25 Sep 2022 Alan Keith alan.keithpaz@gmail.com Instituto de Informática Universidad Austral de Chile Valdivia Chile nd Héctor Ferrada Instituto de Informática Universidad Austral de Chile Valdivia Chile rd Cristóbal A. Navarro Instituto de Informática Universidad Austral de Chile Valdivia Chile Accelerating the Convex Hull Computation with a Parallel GPU Algorithm 25 Sep 2022Index Terms-Convex hullGPU ComputingFilteringParallel ReductionWarp Shuffle Resumen-The convex hull is a fundamental geometrical structure for many applications where groups of points must be enclosed or represented by a convex polygon. Although efficient sequential convex hull algorithms exist, and are constantly being used in applications, their computation time is often considered an issue for time-sensitive tasks such as real-time collision detection, clustering or image processing for virtual reality, among others, where fast response times are required. In this work we propose a parallel GPU-based adaptation of heaphull, which is a state of the art CPU algorithm that computes the convex hull by first doing a efficient filtering stage followed by the actual convex hull computation. More specifically, this work parallelizes the filtering stage, adapting it to the GPU programming model as a series of parallel reductions. Experimental evaluation shows that the proposed implementation significantly improves the performance of the convex hull computation, reaching up to 4× of speedup over the sequential CPU-based heaphull and between 3× ∼ 4× over existing GPU based approaches.I. INTRODUCCIÓNEl cómputo de la cerradura convexa, o convex hull en ingles, es una tarea fundamental y de suma importancia para diversas aplicaciones de la ciencia y tecnología, como por ejemplo en geometría computacional, gráfica computacional y modelamiento de formas, entre otras. El convex hull es requerido frecuentemente para detección de colisiones, cálculo de interferencias, análisis de formas, reconocimiento de patrones, generación de estadísticas, sistemas de información geográfica, entre otras muchas disciplinas [1], [2],[13].La convexidad es una propiedad relevante para variadas ramas de la ciencia que requieren de análisis geométrico. Una cerradura, que contiene un conjunto de puntos, es convexa si para todo par de puntos pertenecientes a esta, el segmento de línea recta que los une está completamente dentro de ella [4]. Uno de los primeros problemas identificados en el campo de la geometría computacional es el de calcular la forma convexa más pequeña, llamada convex hull, que encierra un conjunto de puntos[5]. Así, dado un conjunto de puntos en un espacio en d dimensiones, el convex hull es su mínimo subconjunto convexo que contiene todos los puntos, tal como se muestra en la Figura 1. En otras palabras, dado un conjunto de puntos S, definimos que CH(S) es la envolvente o cierre convexo de S si i) CH(S) es convexo, ii) S está contenido en CH(S) y iii) Figura 1. Cálculo del Convex Hull CH(S) es el menor conjunto convexo que contiene a S. Para el caso de 2 dimensiones (2D), el convex hull corresponde al polígono convexo más pequeño que contiene a todos los puntos del conjunto. Intuitivamente podemos definir al convex hull como "si S es un conjunto finito de puntos en el plano e imaginamos rodear el conjunto con una banda elástica; cuando se suelte el elástico este asumirá la forma del convex hull"[5].El cómputo del convex hull suele realizarse directamente sobre los puntos de entrada. Sin embargo, en muchos casos -dependiendo de la instancia de entrada -es conveniente primero realizar un filtrado de puntos, descartando elementos que son evidentemente innecesarios para el proceso final. Lo anterior da lugar a las siguientes dos etapas: 1. Filtrado. Este paso consiste en descartar el máximo número de puntos que evidentemente no pertenecen al convex hull, por medio de una validación matemática de bajo costo computacional; esto incluye a puntos que están sobre alguno de los lados de este polígono y no son vértices del segmento de recta. 2. Convex hull. Recibe como entrada los puntos que han pasado el filtro de la etapa anterior y calcula el convex arXiv:2209.12310v1 [cs.DC] Resumen-The convex hull is a fundamental geometrical structure for many applications where groups of points must be enclosed or represented by a convex polygon. Although efficient sequential convex hull algorithms exist, and are constantly being used in applications, their computation time is often considered an issue for time-sensitive tasks such as real-time collision detection, clustering or image processing for virtual reality, among others, where fast response times are required. In this work we propose a parallel GPU-based adaptation of heaphull, which is a state of the art CPU algorithm that computes the convex hull by first doing a efficient filtering stage followed by the actual convex hull computation. More specifically, this work parallelizes the filtering stage, adapting it to the GPU programming model as a series of parallel reductions. Experimental evaluation shows that the proposed implementation significantly improves the performance of the convex hull computation, reaching up to 4× of speedup over the sequential CPU-based heaphull and between 3× ∼ 4× over existing GPU based approaches. Index Terms-Convex hull, GPU Computing, Filtering, Parallel Reduction, Warp Shuffle I. INTRODUCCIÓN El cómputo de la cerradura convexa, o convex hull en ingles, es una tarea fundamental y de suma importancia para diversas aplicaciones de la ciencia y tecnología, como por ejemplo en geometría computacional, gráfica computacional y modelamiento de formas, entre otras. El convex hull es requerido frecuentemente para detección de colisiones, cálculo de interferencias, análisis de formas, reconocimiento de patrones, generación de estadísticas, sistemas de información geográfica, entre otras muchas disciplinas [1], [2], [13]. La convexidad es una propiedad relevante para variadas ramas de la ciencia que requieren de análisis geométrico. Una cerradura, que contiene un conjunto de puntos, es convexa si para todo par de puntos pertenecientes a esta, el segmento de línea recta que los une está completamente dentro de ella [4]. Uno de los primeros problemas identificados en el campo de la geometría computacional es el de calcular la forma convexa más pequeña, llamada convex hull, que encierra un conjunto de puntos [5]. Así, dado un conjunto de puntos en un espacio en d dimensiones, el convex hull es su mínimo subconjunto convexo que contiene todos los puntos, tal como se muestra en la Figura 1. En otras palabras, dado un conjunto de puntos S, definimos que CH(S) es la envolvente o cierre convexo de S si i) CH(S) es convexo, ii) S está contenido en CH(S) y iii) Figura 1. Cálculo del Convex Hull CH(S) es el menor conjunto convexo que contiene a S. Para el caso de 2 dimensiones (2D), el convex hull corresponde al polígono convexo más pequeño que contiene a todos los puntos del conjunto. Intuitivamente podemos definir al convex hull como "si S es un conjunto finito de puntos en el plano e imaginamos rodear el conjunto con una banda elástica; cuando se suelte el elástico este asumirá la forma del convex hull" [5]. El cómputo del convex hull suele realizarse directamente sobre los puntos de entrada. Sin embargo, en muchos casos -dependiendo de la instancia de entrada -es conveniente primero realizar un filtrado de puntos, descartando elementos que son evidentemente innecesarios para el proceso final. Lo anterior da lugar a las siguientes dos etapas: I-A. Algoritmos para el cómputo del convex hull El problema de calcular el convex hull de un conjunto de puntos ha sido ampliamente estudiado en la geometría computacional. Se han propuesto muchos algoritmos teóricamenté optimos para conjuntos de puntos de baja y alta dimensión. Este fue uno de los primeros problemas en el campo a ser estudiado desde el punto de vista de la complejidad computacional, determinando que el tiempo asintóticoóptimo para todo algoritmo basado en comparaciones dentro del modelo RAM 1 , es de es O(n log n), dónde n es la cantidad de puntos de entrada [4], [8]. Además, mediante un proceso lineal, es posible reducir el problema de ordenar n puntos a encontrar el convex hull en este mismo conjunto; confirmando que la envolvente convexa se puede calcular en un tiempoóptimo de O(n log n), ya que esta es la cota inferior al problema de ordenamiento. La Tabla I muestra los tiempos asintóticos de los algoritmos de convex hull históricamente más conocidos para dos dimensiones. Consideremos n el número de puntos en el conjunto de entrada, h el número de vértices del polígono de salida. Nótese que h ≤ n, por lo que nh ≤ n 2 . I-B. Algoritmo Heaphull El trabajo de Ferrada et al. [3] está basado en el desarrollo de una técnica de optimización que reduce el costo computacional para construir el convex hull. Este método preprocesa el conjunto de puntos de entrada, filtrando todos los puntos dentro de un polígono de ocho vértices en tiempo O(n) y devuelve un conjunto reducido de puntos candidatos para encontrar el convex hull, los cuales se encuentran semi ordenados y distribuidos en cuatro colas de prioridad (una para cada cuadrante). Los resultados experimentales muestran que en el peor de los casos (cuando todos los puntos se encuentran sobre una circunferencia) un pequeño desplazamiento radial aleatorio de los puntos hace de este método el más rápido. Además, al aumentar la magnitud de este desplazamiento, el rendimiento del método propuesto escala a un ritmo más rápido que las otras implementaciones testeadas. En términos de eficiencia de memoria, esta implementación logra usar de 3× a 6× menos memoria que otros métodos. Este algoritmo es esencialmente una técnica de filtrado que se conforma de cuatro etapas relevantes, (1) construcción de un octágono con los puntos extremos, (2) filtrado de puntos y agrupación en colas de prioridad, (3) ordenamiento parcial y (4) cálculo del convex hull. Las primeras tres etapas toman tiempo O(n), mientras que la etapa de cálculo del convex hull toma O(n log n ), donde n es el tamaño del conjunto filtrado P ⊆ P . El Algoritmo 1 muestra la idea de heaphull. for j = 1 to n do 5: if P [j] is outside the convex octagon CP (E) then 6: i ← FINDQUEUE(P, n, j) find Qi for P [j] 7: store j in the priority queue Qi I-C. Paralelismo GPU en el cómputo del Convex Hull Las GPU (Graphic Process Unit) se han utilizado para acelerar el rendimiento de diversas aplicaciones, como la simulación de partículas, el modelado molecular y el procesamiento de imágenes. La arquitectura GPU esta basada en el paralelismo masivo, proporcionando cientos de cores (elementos de procesamiento), donde cada core es un procesador pipeline multi-etapa. Los cores se agrupan para generar un multiprocesador (SM) de caracter SIMD al nivel de grupos de 32 threads. Cada SM tiene su propio conjunto de registros y memoria local, y los cores dentro del mismo SM tienen memoria compartida limitada. Este trabajo propone una adaptacion del algoritmo heaphull al modelo de programacion GPU, para acelerar su rendimiento y aprovechar el paralelismo de datos disponible en la etapa de filtrado. En particular se busca responder las siguientes preguntas: ¿Cuánto mejora el desempeño de la etapa de filtrado al paralelizar en GPU el algoritmo heaphull? Al paralelizar heaphull ¿Se logra que el algoritmo sea más eficiente que otros que ya usan paralelismo? El resto de este artículo se divide en 5 secciones. En la primera sección se describe el trabajo relacionado, considerando especialmente los algoritmos que realizan un esfuerzo por paralelizar la etapa de filtrado. Para esto se clasificaron en algoritmos secuenciales tradicionales, algoritmos secuenciales que explotan el filtrado previo, algoritmos paralelos de filtrado en CPU y algoritmos paralelos de filtrado en GPU. En la segunda sección se define en detalle la metodología de investigación implementada. En la sección 3 se presenta el diseño del algoritmo paralelo en CPU y en GPU. En la sección 4 se presentan los resultados de rendimiento (speedup, eficiencia y comparación entre CPU y GPU). Finalmente en la sección 5 se desarrollan las conclusiones. II. TRABAJO RELACIONADO Existen varios métodos prácticos conocidos e implementaciones de software robustas que abordan el cómputo del convex hull de manera secuencial. Desde 1970 se han desarrollado varios algoritmos clásicos [9], como Graham scan [6], Gift wrapping [7], Incremental method [10], Divide-and-Conquer [11], Monotone chain [12], and Quick-Hull [13]. II-A. Convex hull con etapa de filtrado Realizar un filtrado eficiente del conjunto de puntos puede tener un gran impacto en el tiempo final de cálculo. Vyšniauskaitė [14] en 2006 propuso una idea de la filtración a priori de puntos, presentado dos nuevos algoritmos basados en la búsqueda de puntos extremos y en la subdivisión del conjunto de puntos en arreglos más pequeños. También Sharif [15] el 2011 propone un método híbrido para calcular el convex hull, basado en dos algoritmos ya existentes, es decir, Quickhull y GrahamScan, intentando eliminar las deficiencias en las dos técnicas mencionadas anteriormente usando el primero para realizar un filtrado y realizando el cálculo final con el segundo de estos. II-B. Convex hull paralelo Para mejorar la eficiencia computacional del convex hull se han hecho algunas contribuciones valiosas rediseñando e implementando algoritmos de convex hull secuenciales en paralelo, explotando el potencial de cálculo masivo de las GPU. La mayoría de estas implementaciones se han desarrollado teniendo como base el algoritmo QuickHull [9]. II-B1. Paralelismo en CPU: Como se muestra la publicación de Chen y otros [16] el convex hull puede ser calculado de forma paralela en el modelo PRAM (Máquina de acceso aleatorio paralelo), siendo el algoritmo directamente implementable en CPUs multicore. En 1987 Goodrich [17] diseñó un algoritmo paralelo para encontrar el convex hull que se ejecuta en tiempo O(log n) utilizando O(n/log n) procesadores en el modelo computacional CREW (concurrent read and exclusive write) PRAM, que esóptimo. Una de las técnicas que utilizan para alcanzar estos límitesóptimos es el uso de una estructura de datos paralela que llaman "hull tree". Miller [18] en 1988 presentó algoritmos paralelos para identificar los puntos extremos del convex hull, concentrándose en el desarrollo de estos en tiempo polilogarítmico para una variedad de máquinas paralelas y analizándolos usando notación O. Asimismo, Liu [19] en 2015 hace una revisión completa de los algoritmos paralelos existentes a la fecha, categorizándolos según su arquitectura y considerando sus tiempos de ejecución en notación O y el número de procesadores necesarios para esto. Berkman [20] en 1996 desarrolló un algoritmo paralelo para encontrar el convex hull en tiempo O(log log n) usando n/log log n procesadores en una arquitectura PRAM CRCW (Concurrent read concurrent write) común. Para romper la barrera de tiempo Ω(log n/log log n) requerida para generar el convex hull, introduce una estructura de datos, unárbol balanceado de altura doblemente logarítmica y usa este para representarlo. El algoritmo demuestra el poder del "paradigma doblemente logarítmico de divide y vencerás". Nakagawa [21] presentó una implementación de algoritmo paralelo simple para calcular el convex hull y evaluar el rendimiento en los procesadores de cuatro núcleos duales, logrando un factor de aceleración de aproximadamente 7 utilizando 8 procesadores. Como el factor de aceleración de más de 8 no es posible, su implementación paralela para calcular el convex hull es casióptima. Waghmare [22] presenta un algoritmo de convex hull usando clustering K-means, en el que los puntos en 2D se agrupan en clusters diferentes y luego se calculan los convex hull para cada uno de estos. El algoritmo se implementa en modo MPI, OpenMP e híbrido. Los resultados indican que el enfoque híbrido supera al enfoque MPI y OpenMP por separado. II-B2. Paralelismo en GPU: El trabajo relacionado en computación paralela para el cálculo del convex hull en GPU muestra que se puede alcanzar mejor velocidad y rendimiento, como se evidencia en el trabajo de Tang et al. [23], y Jiayin et al [9]. Estos algoritmos basados en GPU trabajan sobre la optimización del filtrado de puntos, realizando la etapa posterior de cálculo en forma secuencial. Mei G. [26] en 2016 propuso una versión paralela en CUDA (GPU) para el cálculo de convex hull para dos [27] y tres [28] dimensiones, alcanzando aceleraciones de aproximadamente 4x en promedio y 5x ∼ 6x en los mejores casos, la cual llama CudaChain. Realizando solo una mejora de filtrado, afirma que el 95 % de puntos de entrada se pueden descartar en la mayoría de las pruebas experimentales. Anterior a esto, usó GPUs para mejorar la fase de filtrado en la búsqueda de puntos extremos sobre datos sintéticos y con el uso de la biblioteca qhull (implementación de Quickhull en C++), la idea básica era descartar los puntos que se ubican dentro de un polígono convexo formado por 16 extremos [29]. Por otro lado, Stein [30] en 2012 hizo una versión paralela para el convex hull en 3 dimensiones que se basa en el enfoque QuickHull y comienza construyendo un tetraedro inicial utilizando cuatro puntos extremos, descarta los puntos internos y distribuye los puntos externos a las cuatro caras y continúa luego iterativamente. En su trabajo, Stein afirma que su implementación superó al Qhull basado en CPU en 30 veces para 10 millones de puntos y 40 veces para 20 millones de puntos. En 2020 Masnadi [31] presenta ConcurrentHull, una nueva técnica basada en el filtrado de puntos para conjuntos de datos 2D y 3D. Su implementación, que es una combinación de filtrado, divide y vencerás, y computación paralela, permite ser empleada en un entorno de computación distribuida. Su algoritmo tiene una versión para CPU y otra para GPU (CUDA). Los resultados muestran que tiene una ganancia de rendimiento con grandes tamaños de datos de entrada y tiene la ventaja de poder manejar grandes conjuntos de datos. Si bien las soluciones propuestas informan un speedup importante para las condiciones establecidas para las pruebas, nuestro trabajo busca no solo mejorar los tiempos de ejecución si no ponemos especial atención en el porcentaje de filtrado a obtener en la fase paralela, lo cual tiene el mayor impacto en el tiempo de cálculo posterior. Nuestro trabajo compara las dos soluciones más actuales (CudaChain y ConcurrentHull) con la nuestra (GPU Heaphull), comparando la solución en el peor caso y en el caso promedio. III. PARALELIZACIÓN DEL ALGORITMO HEAPHULL El primer paso de la versión paralela consiste en encontrar los cuatro puntos extremos en las direcciones norte, sur, este y oeste del conjunto de puntos y formar el cuadrilátero que definen. Tras este paso, se tienen puntos distribuidos en cuatro regiones, formadas por los puntos fuera del cuadrilátero. En cada uno de ellas existe un punto que es el más cercano a la esquina correspondiente. Tras la obtención de estos cuatro puntos adicionales, se obtiene un octágono que divide los puntos restantes externos en ocho regiones que se pueden tratar individualmente siguiendo la misma regla. La paralelización en GPU se realiza acelerando la reducción de mínimos y máximos para formar el polígono de filtrado, usando el enfoque de Shuffle Warp Reduce, el cual permite que conjuntos de 32 threads, llamados warps, puedan comunicar sus registros de forma eficiente. A diferencia de la versión tradicional de heaphull, que implementa la búsqueda de los 8 puntos en cada paso del bucle, en la versión GPU se ejecuta un kernel de reducción para encontrar los primeros 4 puntos extremos, seguido de un segundo kernel de reducción para encontrar los 4 puntos de las esquinas. La razón de por qué se deben ejecutar dos kernels en sucesión es debido a que la búsqueda de los puntos secundarios requiere de los primeros 4 puntos. En el segundo paso de la búsqueda de los puntos de esquina, se utilizan distancias de Manhattan, es decir, para cada esquina c i , 1 ≤ i ≤ 4, se encuentra el punto en P que minimiza la suma de las distancias vertical y horizontal a la esquina correspondiente. Si bien la distancia de Manhattan es una métrica que puede entregar puntos mas distantes a la esquina que la distancia Euclidiana, esto tiende a ocurrir con baja frecuencia, y cuando ocurre, se puede ver que el punto elegido todavía se encuentra muy cerca del más cercano por distancia Euclidiana [3]. La ventaja de usar la distancia Manhattan es que no requiere del cómputo de raíces cuadradas, lo cual lo convierte en una métrica mas rápida de calcular que la distancia euclidiana. En el paso siguiente se realiza el descarte de los puntos que deben ser filtrados y se crean las colas. Para la creación de las 4 colas se usa un arreglo donde se asigna el número de cola (1, 2, 3 o 4) a la posición donde se encuentra un punto que si pertenece a la cola respectiva y un 0 cuando ha sido descartado. Luego, en la CPU se crean las 4 colas con los respectivosíndices guardados para ser entregadas a la sección correspondiente del algoritmo secuencial heaphull. El Algoritmo 2 muestra los pasos computacionales del proceso. Como referencia, también se implementó una versión paralela de heaphull en CPU multi-core. Se probaron dos versiones; una con el patrón reduce de OpenMP para mínimos y máximos, y otra usando la técnica de divide and conquer. Comparaciones de rendimiento mostraron que estaúltima logra mayor aceleración, de hasta 3x para el filtrado, siendo la escogida. IV. EVALUACIÓN EXPERIMENTAL A fin de comparar experimentalmente el desempeño de nuestra solución paralela en GPU, incluimos como baseline las implementaciones de: heaphull tradicional [3], CudaChain [26] y ConcurrentHull [31]; esteúltimo permite el manejo de una mayor cantidad de puntos y consigue mejores resultados en esas condiciones. Para las pruebas se utilizó un computador con Procesador Intel®Core™i5-8300H CPU (2.30GHz × 8), 8 GB de memoria RAM, tarjeta gráfica NVIDIA GeForce GTX 1050 Ti, CUDA Version 11.6 en Ubuntu 20.04 LTS. IV-A. Tiempos de Ejecución Para cada implementación se crean tests puntos de tamaños desde 10 4 hasta 10 8 . Cada test se ejecuta 100 veces y se calcula el tiempo promedio de ejecución en cada algoritmo. Los tiempos promedio de búsqueda de puntos extremos para las pruebas experimentales en las versiones de heaphull secuencial, paralelo en CPU y paralelo en GPU se pueden ver en la Tabla II y en el gráfico de la Figura 2. Los resultados de heaphull paralelo CPU solo son una referencia; los gráficos futuros solo usan la versión secuencial (Heaphull CPU). IV-A1. Desempeño caso Promedio (Dist. Normal): En la Tabla III se pueden ver los tiempos de cálculo de la versión secuencial de heaphull, CudaChain, ConcurrentHull y nuestra implementación en GPU, en milisegundos para 10 4 a 10 8 puntos. Nuestra solución es la que obtiene mejores tiempos en los casos con 10 5 puntos o más. En la Figura 3 podemos ver el gráfico de los tiempos en milisegundos para el cálculo de convex hull en las cuatro implementaciones anteriores. El Speedup obtenido se puede ver en la Tabla IV y en la Figura 4, pudiendo identificarse que al trabajar con 10 8 puntos se logra una disminución de tiempo de hasta 4,4× respecto al En relación al porcentaje de filtrado de puntos, heaphull secuencial y la versión en GPU de este logran porcentajes para puntos provenientes de una distribución normal sobre el 99,99 % en promedio (igual porcentaje para mismos puntos de entrada). En el caso de CudaChain logra un filtrado de 98,86 % en promedio en el mejor caso (10 8 puntos de entrada) y en el peor caso para este (10 4 puntos de entrada) llega a un 91,6 %, mientras que heaphull en sus dos versiones logra un 99,87 % para esa misma cantidad de puntos. IV-A2. Desempeño Peor Caso (Circunferencia): Para el peor caso (los puntos sobre la circunferencia) con 10 7 puntos nuestra implementación paralela en GPU demora en encontrar el convex hull 6104,58 ms, sin embargo con 2 % de distorsión el tiempo disminueye a 4973,3 ms; el primero representa un speedup de 0,96 respecto del algoritmo secuencial de heaphull, sin embargo en el segundo caso se obtiene un speedup de 1,41. Con una distorsión de sólo 2 %, los porcentajes de filtrado para 10 8 puntos se mantienen en 10.50 % en promedio, con tiempos de ejecución del algoritmo completo similares al caso promedio. La versión codificada del algoritmo tiene un comportamiento con un speedup no relevante cuando se trata de cantidades de puntos inferiores a los 10 7 puntos. Además, cuando se trata del peor caso no hay una mejora significativa respecto a la versión secuencial. En general, los mejores tiempos se logran al trabajar con 10 7 y 10 8 puntos, en estos casos el speedup es mayor a 4x. V. DISCUSIÓN Y CONCLUSIONES Nuestro trabajo presenta un implementación paralela en GPU basada en el algoritmo heaphull que mejora el tiempo de filtrado y el tiempo total de cálculo del convex hull, manteniendo las mismas garantías asintóticasóptimas del algoritmo tradicional para 2D. El algoritmo se basa en realizar un filtrado con un octágono que permite descartar todos los puntos que se encuentran en su interior y lograr en el caso promedio filtrar el 99, 99 % de los puntos del conjunto de entrada, quedando una cantidad muy reducida de puntos para el cálculo del convex hull; conservando así la eficiente del filtrado del algoritmo heaphull original. El mayor impacto en desempeño se logra al trabajar con grandes volúmenes de puntos de entrada (sobre 10 7 ), siendo un aporte importante en esta arista para el cálculo del convex hull, lo que es característico en la presente era del Big Data. En comparación con otras implementaciones en GPU se obtienen mejores tiempos totales, considerando que se está trabajando sobre un algoritmo que ya resulta ser el más rápido secuencial y en 2D, esto es un importante aporte al desarrollo futuro de implementaciones que puedan requerir el cálculo en tiempo real de grandes volúmenes de puntos. Dentro de las limitaciones de la solución propuesta se encuentra el uso de memoria de GPU, el cual se ve aumentado por la necesidad de crear arreglos para almacenar losíndices que son resultado de las reducciones para poder conservar el arreglo original de puntos de entrada. Como trabajo futuro tenemos previsto ofrecer un nuevo diseño e implementación del convex hull con algoritmos que sean paralelizables (Jarvis March, Quickhull, Kirkpatrick-Seidel, Chan's algorithm) para comprobar si alguno de ellos, a pesar de aumentar la complejidad del algoritmo, puede lograr mejores tiempos aún al aprovechar el paralelismo de la GPU. Por otra parte, la implementación de la solución para más dimensiones puede ser un importante aporte, por sobre todo en 3D, pero se debe considerar que el tamaño requerido de memoria crece en potencias según la cantidad de dimensiones, lo cual puede dificultar el cálculo de grandes volúmenes de datos en la GPU. También en el trabajo futuro está, siguiendo el modelo de heaphull, el uso eficiente de memoria, lo cual podría ser un importante aporte de la mano de grandes volúmenes de datos, logrando data más compacta y facilitando el cálculo de mayores números de datos. Algorithm 1 heaphull, Ferrada et al. [3]. To compute the convex hull CH[1..h] in 2D Require: n points in 2D, stored in an array P [1..n]. Ensure: an array CH[1..h] with the h points of the hull in counterclockwise order. 1: procedure HEAPHULL(P, i = 1 to 4 do add the CH for points of Qi (O(ni log ni) time) 13: CH ← CH ∪ HULL(Qi, ni) Algorithm 2 2GPUfilter. Para calcular el octágono de filtrado de P [1..n] en 2D Require: n valores de punto flotante, en 2D, almacenados en un arreglo P [1..n]. Ensure: un arreglo Q[1..n ] con losíndices de la cola a la que pertenece cada uno de los puntos. 1: procedure GPUFILTER(P, P [j] está fuera del octágono CP (E) then 6: encuentra Qi para P [j] (tiempo O( 1 . 1Filtrado. Este paso consiste en descartar el máximo número de puntos que evidentemente no pertenecen al convex hull, por medio de una validación matemática de bajo costo computacional; esto incluye a puntos que están sobre alguno de los lados de este polígono y no son vértices del segmento de recta. 2. Convex hull. Recibe como entrada los puntos que han pasado el filtro de la etapa anterior y calcula el convexhull con algún algoritmo tradicional. De esta forma, el posterior cálculo del convex hull es realizado con un número reducido de puntos, siempre y cuando el paso anterior haya logrado descartar algunos puntos, acelerando y simplificando la selección de puntos del convex hull. El cálculo en sí es realizado por algoritmos conocidos como Graham Scan [6], Jarvis March [7] u otro. Cuadro I TIEMPOS DE ALGORITMOS PARA EL CÁLCULO DEL CONVEX HULL EN 2D.Algoritmo Tiempos Autor Fuerza Bruta O(n 4 ) Anónimo Gift Wrapping O(nh) Chand & Kapur, 1970 Graham Scan O(n log n) Graham, 1972 Jarvis March O(nh) Jarvis, 1973 QuickHull O(nh) Eddy, 1977, Bykat, 1978 Divide-and-Conquer O(n log n) Preparata & Hong, 1977 Monotone Chain O(n log n) Andrew, 1979 Incremental O(n log n) Kallay, 1984 Marriage-before-Conquest O(n log n) Kirkpatrick & Seidel, 1986 Cuadro II TIEMPO PROMEDIO DE BÚSQUEDA DE PUNTOS EXTREMOS EN MS.Puntos Tiempo CPU Tiempo CPU Paralelo Tiempo GPU 10 4 0,0460 0,1000 0,0433 10 5 0,4600 0,4000 0,0814 10 6 5,0120 2,4000 0,8505 10 7 56,8020 18,0000 6,9785 10 8 793,7420 289,1300 67,0598 0 100 200 300 400 500 600 700 800 900 10⁴ 10⁵ 10⁶ 10⁷ 10⁸ Tiempo en ms Cantidad de Puntos Tiempo CPU Tiempo CPU Paralelo Tiempo GPU Figura 2. Tiempos promedio de filtrado para las versiones secuencial, paralela en CPU y paralela en GPU. Cuadro III TIEMPO PROMEDIO CÓMPUTO DEL CONVEX HULL EN EL CASO PROMEDIO.Puntos Heaphull CudaChain ConcurrentHull GPU HH 10 4 0,1201 6,4803 882,0300 0,1575 10 5 1,2014 12,0930 902,0700 0,9940 10 6 12,0824 24,1600 956,3200 7,0058 10 7 139,9730 224,2051 1211,6300 35,1825 10 8 2054,5416 1517,1612 2201,5500 464,8182 0 500 1000 1500 2000 2500 10⁴ 10⁵ 10⁶ 10⁷ 10⁸ Tiempo en ms Cantidad de Puntos Heaphull CPU CudaChain ConcurrentHull GPU heaphull Figura 3. Tiempos para el cómputo del convex hull en el caso promedio algoritmo secuencial de heaphull y de 3,2× respecto a Cuda- Chain, el cual ya logra un speedup de hasta 6× comparado con la librería de Quickhull (Qhull en C++). No se considera en el gráfico el speedup frente a ConcurrentHull de menos de 10 7 puntos para poder mantener una escala apreciable. Cuadro IV SPEEDUP SOLUCIÓN DESARROLLADA SOBRE HEAPHULL, CUDACHAIN Y CONCURRENTHULL, CASO PROMEDIO. Puntos Heaphull CudaChain ConcurrentHull 10 4 0,7625 41,1448 5600, 1905 10 5 1,2087 12,1660 907,5151 10 6 1,7246 3,4486 136,5040 10 7 3,9785 3,5303 34,4384 10 8 4,4201 3,2640 4,7364 Para 10 8 puntos el speedup es de 1, 04 en el peor caso. En la Tabla V se encuentran los tiempos de ejecución en el peor caso. En la figura 5 se puede ver el gráfico con los tiempos de para cada versión.Cuadro V TIEMPOS PARA EL CÓMPUTO DEL CONVEX HULL EN EL PEOR CASO.Figura 5. Tiempos de cómputo del convex hull en el peor caso0,8 1,2 1,7 4,0 4,4 41,1 12,2 3,4 6,4 3,3 34,4 4,7 0 5 10 15 20 25 30 35 40 45 10⁴ 10⁵ 10⁶ 10⁷ 10⁸ Speedup Cantidad de puntos Línea base Speedup heaphull CudaChain ConcurrentHull Figura 4. Speedup implementación desarrollada sobre heaphull, CudaChain y ConcurrentHull, caso promedio. Puntos Heaphull CudaChain ConcurrentHull GPU HH 10 4 1,0153 86,7300 90,0223 1,6400 10 5 15,0671 112,5680 96,3250 23,6950 10 6 241,7010 445,2650 1256,3600 427,0750 10 7 5861,8900 6459,5251 6201,5522 6104,5800 10 8 95278,10 121426,00 123045,20 91559,80 0 20000 40000 60000 80000 100000 120000 140000 10⁴ 10⁵ 10⁶ 10⁷ 10⁸ Tiempo (ms) Cantidad de Puntos Heaphull CPU CudaChain ConcurrentHull GPU heaphull Bajo el modelo de costos RAM, es posible realizar cualquier cálculo matemático simple entre dos palabras de memoria, de tamaño O(log n) bits, en tiempo constante. Srungarapu et al.[24] propuso en 2011 una implementación optimizada en GPU para encontrar el convex hull para conjuntos de puntos de dos dimensiones. Su implementación trata de minimizar el impacto de los patrones de acceso irregular a los datos, logrando un speedup de hasta 14 veces sobre la implementación estándar secuencial en CPU.En 2011 Jurkiewicz y Danilewski[25] presentaron una propuesta de implementación de algoritmo de cálculo del convex hull implementada en su totalidad en GPU, sin filtrado y basado en 3 algoritmos secuenciales distintos, con pruebas experimentales con conjuntos de entrada de 10 7 puntos, obteniendo resultados en reducción de tiempo de hasta 100 veces para el máximo de puntos al compararse con una librería que utiliza algoritmos similares, pero que su desempeño se encuentra muy por debajo de la media. Finding minimal enclosing boxes. J O&apos;rourke, 10.1007/BF00991005Int. J. Comput. Inf. Sci. 143J. O'Rourke: Finding minimal enclosing boxes, Int. J. Comput. Inf. Sci. 14 (3) (1985) 183-199, http://dx.doi.org/10.1007/BF00991005. M C Lin, U D Manocha, J Cohen, Collision detection. Algorithms and applications. M.C. Lin, U.D. Manocha, J. Cohen: Collision detection. Algorithms and applications, 1996. A filtering technique for fast convex hull construction in R 2. Héctor Ferrada, Cristobal Navarro, Nancy Hitschfeld, Computational and Applied Mathematics Journal. 364112298Héctor Ferrada, Cristobal Navarro and Nancy Hitschfeld: A filtering technique for fast convex hull construction in R 2 . Computational and Applied Mathematics Journal, 364:112298, 2019. Introduction to Algorithms, Second Edition. T H Cormen, E Leiserson Ch, R L Rivest, C Stein, MIT Press and McGraw-HillSection 33.3: Finding the convex hullCormen T H., Leiserson Ch. E., Rivest R. L. and Stein C.: Introduction to Algorithms, Second Edition. MIT Press and McGraw-Hill (2001). Section 33.3: Finding the convex hull, 947-957. Convex hulls: basic algorithms. F P Preparata, M I Shamos, Computational Geometry. Texts and Monographs in Computer Science. New York, NYSpringerPreparata F.P., Shamos M.I. (1985) Convex hulls: basic algorithms. In: Computational Geometry. Texts and Monographs in Computer Science. Springer, New York, NY An efficient algorithm for determining the convex hull of a planar set. R L Graham, Information Processing Letters I. Graham, R. L.: An efficient algorithm for determining the convex hull of a planar set, Information Processing Letters I (1972) 132-133. On the identification of the convex hull of a finite set of points in the plane. R A Jarvis, Information Processing Letters. 21Jarvis, R. A.: On the identification of the convex hull of a finite set of points in the plane. Information Processing Letters, 2(1):18-21 (1973) Optimal parallel algorithms for computing convex hulls and for sorting. S G Akl, 10.1007/BF02243071Computing. 331Akl, S. G., "Optimal parallel algorithms for computing convex hulls and for sorting", Computing (1984) 33: 1. https://doi.org/10.1007/BF02243071, pages 1-11. Zhang &amp; Jiayin, Mei, &amp; Gang, Xu, Kun Yang, A Novel Implementation of QuickHull Algorithm on the GPU. arxiv. Jiayin, Zhang & Mei, Gang & Xu, Nengxiong & Yang, Kun.: A Novel Implementation of QuickHull Algorithm on the GPU. arxiv (2015) The complexity of incremental convex hull algorithms in R d. M Kallay, Information Processing Letters. 194197Kallay, M.: The complexity of incremental convex hull algorithms in R d , Information Processing Letters, Volume 19, Issue 4, 1984, Page 197. Convex hulls of finite sets of points in two and three dimensions. F P Preparata, S J Hong, Commun. ACM. 20F. P. Preparata and S. J. Hong.: Convex hulls of finite sets of points in two and three dimensions. Commun. ACM 20, 2 (February 1977), 87-93. Another efficient algorithm for convex hulls in two dimensions. A M Andrew, Information Processing Letters. 95Andrew, A. M.: Another efficient algorithm for convex hulls in two dimensions, Information Processing Letters, 9(5):216-219 (1979). C Barber, Bradford, David P Dobkin, Hannu Huhdanpaa, The Quickhull Algorithm for Convex Hulls. 22Barber, C. Bradford and Dobkin, David P. and Huhdanpaa, Han- nu.: The Quickhull Algorithm for Convex Hulls, ACM Trans. Math. Softw.,22(4),469-483(1996) A priori filtration of points for finding convex hull. Technological and Economic Development of Economy. Laura Vyšniauskaitė, &amp;šaltenis, Vydūnas, 12.341-346.10.3846/13928619.2006.9637764Vyšniauskaitė, Laura &Šaltenis, Vydūnas. (2006). A priori filtration of points for finding convex hull. Technological and Economic Develop- ment of Economy. 12. 341-346. 10.3846/13928619.2006.9637764. A new approach to compute convex hull. Innovative Systems Design and Engineering. Muhammad Sharif, 2Sharif, Muhammad. (2011). A new approach to compute convex hull. Innovative Systems Design and Engineering. 2. 187-193. Optimal parallel algorithms for computing convex hulls. W Chen, K Nakano, T Masuzawa, N Tokura, IEICE Transactions. 9Chen W., Nakano K., Masuzawa T., and Tokura N., "Optimal parallel algorithms for computing convex hulls," IEICE Transactions, vol. J75- D1, no. 9, pp. 809-820, 1992. Finding the convex hull of a sorted point set in parallel. Goodrich Michael, T , 10.1016/0020-01900020-0190Information Processing Letters. 264Goodrich Michael T., Finding the convex hull of a sorted point set in parallel, Information Processing Letters, Volume 26, Issue 4, (1987), Pages 173-179, ISSN 0020-0190, https://doi.org/10.1016/0020- 0190(87)90002-0. Efficient parallel convex hull algorithms. R Miller, Q F Stout, 10.1109/12.9737IEEE Transactions on Computers. 3712Miller R. and Stout Q. F. , "Efficient parallel convex hull algorithms,ïn IEEE Transactions on Computers, vol. 37, no. 12, pp. 1605-1618, Dec. 1988. doi: 10.1109/12.9737 Parallel Algorithms for Constructing Convex Hulls. Jigang Liu, 6029LSU Historical Dissertations and ThesesLiu, Jigang, "Parallel Algorithms for Constructing Convex Hulls."(1995). LSU Historical Dissertations and Theses. 6029. https://digitalcommons.lsu.edu/gradschool disstheses/6029 A fast parallel algorithm for finding the convex hull of a sorted point set. O Berkman, B Schieber, U Vishkin, Internat. J Comput. Geom. Appl. 6Berkman O., Schieber B., Vishkin U., "A fast parallel algorithm for finding the convex hull of a sorted point set", Internat. J Comput. Geom. Appl. 6, pp. 231-242, 1996. A Simple Parallel Convex Hulls Algorithm for Sorted Points and the Performance Evaluation on the Multicore Processors. M Nakagawa, D Man, Y Ito, K Nakano, 2009 International Conference on Parallel and Distributed Computing, Applications and Technologies. Higashi HiroshimaM. Nakagawa, D. Man, Y. Ito and K. Nakano, "A Simple Parallel Convex Hulls Algorithm for Sorted Points and the Performance Evaluation on the Multicore Processors,"2009 International Conference on Parallel and Distributed Computing, Applications and Technologies, Higashi Hiroshima, 2009, pp. 506-511. Convex Hull Using K-Means Clustering in Hybrid (MPI/OpenMP) Environment. V N Waghmare, D B Kulkarni, 10.1109/CICN.2010.402010 International Conference on Computational Intelligence and Communication Networks. BhopalV. N. Waghmare and D. B. Kulkarni, "Convex Hull Using K-Means Clustering in Hybrid (MPI/OpenMP) Environment,"2010 International Conference on Computational Intelligence and Communication Net- works, Bhopal, 2010, pp. 150-153. doi: 10.1109/CICN.2010.40 GPU accelerated convex hull computation. Min &amp; Tang, Jie-Yi &amp; Zhao, Tong, Dinesh Manocha, Computers & Graphics. 36Tang, Min & Zhao, Jie-Yi & Tong, Ruo-feng & Manocha, Dinesh.: GPU accelerated convex hull computation. Computers & Graphics. 36. 498-506 (2012) Fast Two Dimensional Convex Hull on the GPU. S Srungarapu, D P Reddy, K Kothapalli, P J Narayanan, 10.1109/WAINA.2011.642011 IEEE Workshops of International Conference on Advanced Information Networking and Applications. SingaporeS. Srungarapu, D. P. Reddy, K. Kothapalli and P. J. Narayanan, "Fast Two Dimensional Convex Hull on the GPU,"2011 IEEE Workshops of International Conference on Advanced Information Networking and Applications, Singapore, 2011, pp. 7-12. doi: 10.1109/WAINA.2011.64 Efficient Quicksort and 2D Convex Hull for CUDA, and MSIMD as a Realistic Model of Massively Parallel Computations. T Jurkiewicz, P Danilewski, Jurkiewicz, T., & Danilewski, P. (2011). Efficient Quicksort and 2D Convex Hull for CUDA, and MSIMD as a Realistic Model of Massively Parallel Computations. CudaChain: an alternative algorithm for finding 2D convex hulls on the GPU. Gang Mei, 1-26.10.1186/s40064-016-2284-4SpringerPlus. 5Mei, Gang. (2016). CudaChain: an alternative algorithm for finding 2D convex hulls on the GPU. SpringerPlus. 5. 1-26. 10.1186/s40064-016- 2284-4. CudaPre2D: A Straightforward Preprocessing Approach for Accelerating 2D Convex Hull Computations on the GPU*. Mei, Guo Sixu, 10.1109/PDP2018.2018.00119Mei, Gang & Sixu, Guo. (2017). CudaPre2D: A Straightforward Pre- processing Approach for Accelerating 2D Convex Hull Computations on the GPU*. 10.1109/PDP2018.2018.00119. CudaPre3D: An Alternative Preprocessing Algorithm for Accelerating 3D Convex Hull Computation on the GPU. Advances in Electrical and Computer Engineering. Mei, Nengxiong Xu, 15.35-44.10.4316/AECE.2015.02005Mei, Gang & Xu, Nengxiong. (2015). CudaPre3D: An Alternative Preprocessing Algorithm for Accelerating 3D Convex Hull Computation on the GPU. Advances in Electrical and Computer Engineering. 15. 35- 44. 10.4316/AECE.2015.02005. Gang Mei, arXiv:1405.3454A Straightforward Preprocessing Approach for Accelerating Convex Hull Computations on the GPU. arXiv preprintMei, Gang. (2014). A Straightforward Preprocessing Approach for Accelerating Convex Hull Computations on the GPU. arXiv preprint arXiv:1405.3454. A Stein, E Geva, J El-Sana, 10.1016/j.cag.2012.02.0120097-8493CudaHull: Fast parallel 3D convex hull on the GPU. 36Stein A., Geva E., El-Sana J.: CudaHull: Fast parallel 3D convex hull on the GPU, Computers & Graphics, Volume 36, Issue 4 (2012) Pages 265-271,ISSN 0097-8493, https://doi.org/10.1016/j.cag.2012.02.012. ConcurrentHull: A Fast Parallel Computing Approach to the Convex Hull Problem. Sina &amp; Masnadi, Joseph Laviola, 10.1007/978-3-030-64556-446Masnadi, Sina & LaViola, Joseph. (2020). ConcurrentHull: A Fast Parallel Computing Approach to the Convex Hull Problem. 10.1007/978- 3-030-64556-4 46.
sample_7156
0.7466
arxiv
SOBRE LA ECUACIÓN DE TRANSFERENCIA RADIATIVA RELATIVISTA ESPECIAL 14 Nov 2007 Mauricio F Duque Departamento de Física Universidad Nacional de Colombia BogotáColombia Electronic Presente dirección: AIfA BonnGermany D Leonardo Castañeda lcastanedac@unal.edu.co-leonardo@astro.uni-bonn.de***caduqued@unal.edu.co Observatorio Astronómico Nacional Universidad Nacional de Colombia BogotáColombia C Carlos A Duque Departamento de Matemáticas Universidad Nacional de Colombia BogotáColombia Departamento de Ingenería Mecánica y Mecatrónica Universidad Nacional de Colombia BogotáColombia D SOBRE LA ECUACIÓN DE TRANSFERENCIA RADIATIVA RELATIVISTA ESPECIAL 14 Nov 2007Electronic address: Con el fin de introducir de una manera clara y directa a los estudiantes de pregrado en física y/o astronomía en el tema de la transferencia radiativa, se realiza una revisión pedagógica explicando la manera de obtener la ecuación de transferencia radiativa, sus restricciones y los diferentes tipos de interacción presentes entre la radiación y la materia. Debido a que en la literatura encontrada sobre transferencia radiativa la covarianza no es explícitamente desarrollada, se hace necesario mostrar de manera explícita los cálculos en detalle y discutir sobre los efectos relativistas especiales. Descriptores: Transferencia Radiativa, Relatividad Especial.The purpose is to introduce in a clear and direct way the students of undergraduate courses in physics and/or astronomy to the subject of radiative transfer. A pedagogical revision is made in order to obtain the radiative transfer equation, its restrictions and the different types of interactions present between the radiation and the matter. Because in the classical literature about radiative transfer the covariance is not fully developed, we show in an explicit manner detail calculations and then we discuss the relativistic effects.. La teoría de la transferencia radiativa fue desarrollada por S. Chandrasekhar, en trabajos desarrollados entre 1944 a 1949, y expuesta en su texto [1]; en esta teoría, se describe la dispersión y absorción de la radiación electromagnética por el medio interestelar [2]. Dicha descripción se puede realizar en la aproximación fenomenológica usando la variable intensidad específica [3] o en la aproximación cinemática por medio de la función de distribución. En la actualidad el estudio de la transferencia radiativa se presenta en diferentes campos de investigación como son astrofísica relativista, cosmología, geofísica, entre otros. Precisamente debido a su gran aplicabilidad en diferentes y variados campos de investigación, actualmente la transferencia radiativa constituye en sí misma un campo de investigación a nivel análitico y computacional; surge también un creciente interés en el estudio de los aspectos relativistas del transporte de radiación debido a la necesidad de considerarlos en el modelamiento y estudio de ambientes realistas, dada su gran influencia en tales modelos, como lo son el estudio de atmósferas terrestres y/o estelares, o la corroboración de teorías acerca de la radiación detectada por los telescopios de rayos-X CHANDRA y XMM-NEWTON. Aunque existe excelente bibliografía sobre transferencia radiativa [3,4,5,6], el carácter covariante de la misma es apenas mencionado, y los cálculos intermedios para su respectiva determinación o demostración no son desarrollados explícitamente, razón por la cuál el presente trabajo resulta ser un complemento a dicha bibliografía, al desarrollar explícitamente los cálculos, además de discutir acerca de las restricciones que se presentan en el transporte relativista de radiación y como a pesar de la covarianza, resultan notorios los efectos relativistas especiales. El presente trabajo se desarrolla comenzando con una introducción a la transferencia radiativa (sección II), donde se explica la metodología de obtención de la ecuación clásica y las limitaciones que son impuestas en el estudio del transporte de radiación no polarizada; posteriormente en la sección III se discute la generalización de la ecuación covariante de Boltzmann y los efectos relativistas especiales que se presentan al tener en cuenta el movimiento de la materia con la cual interactúa la radiación. Porúltimo, en la sección IV se realizan los cálculos intermedios para mostrar el carácter invariante relativista especial de la ecuación de transferencia radiativa y se distinguen los efectos relativistas que se presentan. II. TRANSFERENCIA RADIATIVA CLÁSICA La transferencia radiativa (ó transporte de radiación) describe la interacción de la radiación al propagarse por un medio, teniendo en cuenta el punto de vista cuántico, en términos de cantidades macroscópicas. Por lo tanto, la transferencia radiativa proporciona información de los efectos macroscópicos de procesos cuánticos entre la radiación y la materia [2,3,7]. Para el estudio del proceso de transporte de radiación se determina la cantidad de energía dE ν por unidad de frecuencia dν, que está atravesando un elemento de superficie dA con vector normal n, en el punto p (tal como se muestra en la Figura 1), en un intervalo de tiempo dt, donde la radiación está contenida en unángulo sólido dΩ alrededor de la dirección de propagación k [8], es decir, dE ν = I ν dA dt dΩ dν n k, (1) = I ν dA dt dΩ dν cos(α), donde la intensidad específica I ν es una variable que da información de los efectos macroscópicos de la interacción de la radiación (i.e., la energía), al fluir a través de la materia [3,4,5]. Debido a que esta variación dE ν depende α p n k dΩ dA Figura 1. Transporte de radiación en el punto p del elemento deárea dA del punto, dirección, frecuencia y tiempo de interacción, entonces la intensidad específica se podrá escribir como I ν ≡ I(r, k; t, ν),(2) es decir, la intensidad específica va a dependerá de la posición (r), del momento del fotón [p = (hν/c)k] y del tiempo de interacción (t). Así la transferencia radiativa se puede ver como el cambio en la función de distribución f (r, p; t) de fotones al recorrer el espacio de fase en un tiempo (t) [9]. La manera de relacionar la intensidad específica con la función de distribución viene dada por I(r, k; t, ν) = 2hν 3 c 2 f (r, p; t),(3) donde la multiplicación por un factor de 2 corresponde a los dos posibles estados independientes de polarización del campo de radiación [10]. Por lo tanto, la variación de la intensidad específica I νó equivalentemente el cambio de la función de distribución f (r, p; t) representa la manifestación macroscópica del transporte de radiación a través de la materia. Debido a que en general la radiación no se propaga en la misma dirección a la normal al elemento deárea dA de la Figura 1, se considera un cilindro en dirección n ′ , coń area dA ′ (en las tapas del cilindro) y longitud ds, donde dA ′ = dA cos(α) es la proyección del elemento deárea del material sobre el plano definido por el vector normal n ′ , de manera que los elementos deárea dA y dA ′ están relacionados según la dirección de propagación de la radiación. De esta forma la variación de la intensidad específica al recorrer una distancia ds, debido a las interacciones g(r, k; t, ν) está dada por dI(r, k; t, ν) ds ≡ dr ds · ∂I(r, k; t, ν) ∂r + dk ds · ∂I(r, k; t, ν) ∂k + dt ds ∂I(r, k; t, ν) ∂t + dν ds ∂I(r, k; t, ν) ∂ν = g(r, k; t, ν), donde el significado físico de cada uno de los términos de la ecuación (4) es: (dr/ds) es la dirección de propagación del campo de radiación (i.e., k); (dk/ds) es el cambio en la dirección de propagación en el momento en que es transportada; (dt/ds) expresa el inverso de la velocidad de los fotones [12]; y (dν/ds) representa el corrimiento en la frecuencia del campo a medida que se desplaza una distancia ds. El término g(r, k; t, ν) representa las interacciones entre la radiación y la materia, y por lo tanto dichas interacciones son simplemente un tipo o combinaciones de procesos como absorción, emisión y/o dispersión (ver sección II B para los diferentes tipos de interacción). De la relación (4) se puede ver que al no presentarse interacción (i.e., g(r, k; t, ν) = 0) la intensidad específica es constante a lo largo de la trayectoria del rayo. La validez de la ecuación de transferencia (4), se restringe a tratar al campo de radiación como una colección de partículas clásicas puntuales, donde el carácter cuántico de la descripción se presenta en la interacción entre la radiación y la materia (e.g., absorción de fotones poŕ atomos, que resulta enátomos excitados o ionizados) y no en cuantizar el campo electromagnético [13]. Por otro lado, al asumir que el transporte de radiación se realiza por medio de rayos, implica queésta descripción olvida efectos tales como difracción, interferencia y reflexión ya que estos son efectos ondulatorios de la radiación y no se pueden describir en esta aproximación [6,. Debido a las limitaciones al despreciar efectos refractivos, el término referente al cambio en la dirección de propagación se omite, aunque este debe ser incluido cuando se utilicen coordenadas curvilíneasó se presente doblamiento gravitacional de la luz, así el transporte de radiación sea en un medio no refractivo [14]. Además de la anterior limitación, en transferencia radiativa clásica se asume que la materia con la cual esta interactuando el campo de radiación se encuentra en reposo y no hay presentes campos gravitacionales intensos, es decir, no se tienen en cuenta efectos relativistas especiales ni generales, de manera que no hay corrimiento en la frecuencia a medida que el fotón se desplaza. Por lo tanto la ecuación de transferencia radiativa dI ν /ds [ecuación (4)] para un medio no refractivo, sin efectos relativistas y en coordenadas curvilíneas es dI ν ds = 1 c ∂I ν ∂t + k ∇ r + dk ds ∇ k I ν = g ν (r, k; t),(5) donde los términos ∇ r y ∇ k denotan diferenciación con respecto a la posición y a los cosenos directores de k, respectivamente. Como las coordenadas rectangulares son un caso especial de las coordenadas curvilíneas, la expresión (5) en ese sistema de coordenadas omite el tercer término, ya que la dirección de la base no cambia a lo largo de la trayectoria dada por ds, por lo tanto la conocida ecuación de transferencia radiativa clásica en coordenadas rectangulares viene dada por dI ν ds = 1 c ∂I ν ∂t + k ∇ r I ν = g ν (r, k; t).(6) B. Interacción Debido a que la transferencia radiativa da los aspectos macroscópicos de la interacción cuántica entre la radiación con la materia,ésta es insuficiente para describir interacciones entre los fotones, y las interacciones que se presentan se restringen al caso que la trayectoria seguida por el fotón entre interacciones es una linea recta y se desplaza con una velocidad igual a la del vacío c, i.e., se asume a la materia como un polvo de electrones yátomos, y por lo tanto las interacciones son simplemente un tipo o combinaciones de procesos como: Emisión Estimulada. Emisión Espontánea. Absorción. Dispersión. donde la diferencia entre la emisión espontánea y la estimulada, radica en que la primera es independiente del campo de radiación, por lo tanto es simplemente una fuente de energía. Cuando los fotones no siguen trayectorias rectas entre las colisiones, además de tener en cuenta las anteriores interacciones se debe incluir efectos de refracción, donde elíndice de refracción varíe continuamente con respecto a la posición, y la trayectoria del fotón es una curva [6, Cap. 5]. Aunque la transferencia radiativa sea una aproximación al estudio de la interacción de la radiación con la materia, esta es una gran herramienta que permite estudiar ambientes y condiciones que no se pueden realizar en un laboratorio terrestre. Algunas de sus aplicaciones en astrofísica son, el estudio y modelamiento de la transferencia radiativa a través de atmósferas estelares, de galaxias llenas de polvo (ver [15] y referencias contenidas ahí), y en un proceso de acreción [16,17]; y en el campo cosmológico e.g. son el estudio del efecto Sunyaev -Zel´dovich [18]. III. TRANSFERENCIA RADIATIVA RELATIVISTA ESPECIAL Debido a que en general la materia con la cual interactúa la radiación no esta en reposo, para describir completamente la transferencia radiativa en estos casos, se debe incluir los efectos que induce dicho movimiento. Al tener en cuenta el que la materia esté en movimiento constante, se debe hacer referencia con respecto a cual observador se esta analizando la transferencia de radiación. Por ello se considera dos observadores, uno Euleriano (laboratorio) y uno Lagrangiano (comóvil, i.e., moviéndose atado a la materia), de manera equivalente a como se definen en mecánica de fluidos [19]. Ya que estos dos observadores se relacionan vía las transformaciones de Lorentz y partiendo de la sección II, en la cual se analizo la transferencia radiativa cuando la materia estaba en reposo con respecto a un observador, i.e., la determinada por un marco (u observador) Lagrangiano, se analiza la transferencia de radiación para un observador Euleriano. Como la física no puede depender del observador (i.e., el sistema de referencia ver [5,Cap. 4] y [20, Págs. 1 -4]), se debe escribir la ecuación de transferencia radiativa de manera covariante, es decir, que la forma funcional sea invariante bajo transformaciones de Lorentz. Para dicho propósito y recurriendo a que la transferencia radiativa es un caso particular de la física cinética, se utiliza la generalización covariante de la ecuación de Boltzmann [3, Págs. 418 -419] df (X, P) dτ ≡ dx µ dτ ∂f (X, P) ∂x µ + dp µ dτ ∂f (X, P) ∂p µ = G(X, P),(7) donde x µ y p µ son las componentes de los correspondientes cuadri-posición X (c-posición) y cuadri-momento P (c-momento) de la partícula (fotón); y τ es el parámetro afín que usualmente es el tiempo propio. La validez de la ecuación (7) implícitamente asume que la función de distribución f (X, P) es un invariante relativista. Al expandir explícitamente la anterior ecuación, hay una dependencia de ocho parámetros (las cuatro componentes de la c-posición más las cuatro componentes del c-momento) que establece que la ecuación covariante de Boltzmann se desarrolla en un espacio ocho dimensional, pero debido a que la norma del c-momento siempre es una característica inherente del sistema (proporcional a la masa en reposo m 0 , la cual es un invariante relativista) establece una ligadura P 2 ≡ p µ p µ = −m 2 0 c 2 [20, Págs. 45 -47], de manera que solo tres de las cuatro componentes de c-momento son independientes, por tal razón la ecuación (7) al igual que su versión clásica (4) se restringen a un espacio siete dimensional. Como las partículas que componen el campo de radiación son fotones (partículas con masa en reposo cero) cuya velocidad es c y tiempo propio τ nulo, en la ecuación (7) el parámetro afín tiempo propio ya no es una variablé util y por ello se emplea un nuevo parámetro afín η, el cual es la longitud de trayectoria recorrida del fotón. Por lo tanto, la visión cinética covariante de la ecuación de transferencia radiativa es dx µ dη ∂f (X, P) ∂x µ + dp µ dη ∂f (X, P) ∂p µ = G(X, P),(8) donde el c-momento P del fotón se define como p µ ≡ dx µ /dη, con η el parámetro afín longitud de trayectoria recorrida del fotón. Debido a que la relatividad especialúnicamente ingresa los efectos cinemáticos entre observadores que se estén moviendo a velocidad constante uno con respecto al otro, las condiciones impuestas en la sección de transferencia radiativa clásica II acerca de que no hay fuerzas que afecten la trayectoria del fotón (conservación del momento), también son validas en la visión relativista especial y sus efectos serán que el fotón se propague en una linea recta, pero con dirección, longitud de onda y frecuencia (por la constancia de la velocidad de la luz, el cambio en la frecuencia se debe compensar con el cambio en la longitud de onda) que dependen del observador, por lo tanto el término dp µ /dη en (8) es cero (i.e., la conservación del c-momento). Entonces la ecuación covariante de la transferencia radiativa no polarizada en un medio no refractivo es p µ ∂f (X, P) ∂x µ = G(X, P). Como se mencionó, el carácter covariante bajo boost de Lorentz de una ecuación significa que esta sea invariante en su forma para observadores que están relacionados por una transformación de Lorentz (boost). Por lo tanto, al demostrar que la ecuación de transferencia radiativa, desde el punto de vista cinético es covariante [ecuación (9)] y teniendo en cuenta las mismas condiciones tanto clásicas como relativistas especiales acerca de que no hay fuerzas que afecten la trayectoria del fotón, i.e., la correspondiente conservación del momento (desde el punto de vista clásico) y el c-momento (desde el punto de vista relativista), al expandir elíndice µ, y como las componentes del c-momento P son p µ = hν(1, {1/c}k), se obtiene la ecuación de transferencia radiativa clásica (6). Los efectos cinemáticos en este momento no aparecen, sino que ellos van a hacerse relevantes al combinar los dos observadores. A. Efectos Relativistas Como se mencionó en la sección III laúnica manera de distinguir los efectos relativistas, es comparar lo que dos observadores ven cuando cada uno se encuentra en un estado movimiento diferente. Para el caso relativista especial los efectos observados son: Aberración: La dirección de propagación del fotón depende del estado de movimiento del observador. Corrimiento Doppler: Corrimiento en la frecuencia y por lo tanto en la longitud de onda para compensar la constancia de la velocidad del fotón. Advectivo: Arrastre del fotón por un medio en movimiento. En este punto se debe aclarar que el arrastre del fotón no producirá que su velocidad de propagación sea mayor a la velocidad de la luz en el vacío (c), ya que al propagarse un campo de radiación a través de un medio diferente al vacío (donde dicho medio se caracteriza por uníndice de refracción n, tal que n > 1) su velocidad de propagación esta dada por v = c/n, es decir, que disminuye con respecto a c. B. Término de interacción G(X, P) Debido a que los fenómenos de interacción G(X, P) no pueden depender del sistema de referencia, ya que implicaría que mientras un observador "ve" que se presenta una absorción, otro observador que esta relacionado al anterior por medio de una transformación de Lorentz observaría que la interacción con el campo de radiación es una emisión estimulada. Por lo tanto por el primer postulado de la relatividad La Física no depende del observador ni de su estado cinématico [20], se entiende que los procesos físicos que ocurren en la naturaleza son validos para cualquier observador inercial, y lo que sucede es que cada observador inercial observa el mismo proceso físico pero con diferente valor numérico y dirección, por consiguiente es cuando los efectos cinemáticos descritos en la sección anterior afectan los términos de interacción, en el sentido que los mismos procesos físicos son observados por distintos marcos inerciales pero que suceden a distintos valores de energía y de dirección de propagación para cada observador inercial. IV. INVARIANCIA DE LA ECUACIÓN DE TRANSFERENCIA RADIATIVA La ecuación de transferencia radiativa clásica es invariante bajo transformaciones de Lorentz, por lo tanto para mostrar dicha invariancia se tiene que la ecuación de transferencia del marco comóvil (Σ ′ ) 1 c ∂I ′ ∂t ′ + k ′ ∇ ′ I ′ = g ′ ,(10) debe ser funcionalmente igual al del marco de laboratorio (Σ) 1 c ∂I ∂t + k ∇I = g,(11) cuando los dos marcos (Σ ′ y Σ) están relacionados por un boost en dirección arbitraria. La transformación de Lorentz que relaciona dos marcos inerciales con velocidad relativa (v) entre sí, es la transformación de Lorentz (boost) de velocidad β (donde β ≡ v c y β ≡| β |) y dirección arbitraria [21] Λ µ ′ ν = γ −γ β −γ β I + (γ − 1) β −2 β β ,(12) por completez de la demostración se escribe explícitamente ∂ µ y P µ , los cuales son: ∂ µ = ∂ ∂x µ = 1 c ∂ ∂t , ∇ ,(13)P µ = E c , P = hν c (1, k) .(14) Recordando que un c-vector contravariante x µ ′ en el sistema de referencia Σ ′ está relacionado con su correspondiente c-vector covariante x ν en el sistema de referencia Σ por x µ ′ = Λ µ ′ ν x ν ,(15) y para c-vectores covariantes x µ ′ = Λ ν µ ′ x ν ,(16) donde Λ µ ′ ν Λ α µ ′ = δ α ν es el símbolo delta de Kronecker. Retomando la transformación de Lorentz (12), y reemplazando los términos β por una notación vectorial más conocida β, las transformaciones entre los marcos Σ − Σ ′ y Σ ′ − Σ, respectivamente son Λ µ ′ ν = γ −γβ −γβ I + (γ − 1)β −2 ββ (17) y Λ ν µ ′ = γ γβ γβ I + (γ − 1)β −2 ββ ,(18)siendo ββ una diada, γ 2 = (1 − β 2 ) −1 y β = v c . Para demostrar la invariancia de la ecuación de transferencia radiativa (6), primero se debe transformar el cvector divergencia [ecuación (13)] por medio de la transformación de Lorentz, lo cual viene dado por ∂ µ′ = Λ α µ′ ∂ α ,(19) obteniendo para cada una de sus componentes 1 c ∂ ∂t ′ = γ 1 c ∂ ∂t + β ∇ ,(20)∇ ′ = γβ 1 c ∂ ∂t + ∇ + (γ − 1)β −2 ββ ∇,(21) y segundo se debe realizar la transformación de Lorentz del c-vector momento del fotón [ecuación (14)], obteniendo para cada una de sus componentes ν ′ = γν (1 − β k) ,(22)k ′ = ν ν ′ −γβ + k + (γ − 1)β −2 ββ k .(23) Las expresiones desde la ecuación (20) hasta la ecuación (23), son las necesarias para demostrar la invariancia de la ecuación de transferencia radiativa, adicionalmente los efectos relativistas corrimiento Doppler y aberración (sección III A) se pueden observar en las transformaciones de cada una de las componentes de c-vector momento del fotón, por lo tanto reagrupando y ordenando los términos se obtiene que el factor de corrimiento entre las frecuencias ν ′ y ν esta dado por ν ′ ν = γ(1 − β k),(24) y utilizando β −2 = γ 2 γ 2 −1 en la ecuación (23), el efecto de aberración entre las direcciones de propagación k ′ y k viene dado por k ′ = ν ν ′ k − γβ 1 − γβ k γ + 1 ,(25) una visión gráfica del comportamiento de estos efectos [ecuaciones (24) y (25)] se puede ver en el apéndice A. Utilizando la relación de la intensidad invariante I [3, Págs. 413 -414] la cual viene dada por I ≡ I ′ ν ′3 = I ν 3 ,(26) y la relación entre las frecuencias ν y ν ′ [ecuación (24)], la expresión entre las [ecuación (26)] intensidades en los marcos Euleriano y Lagrangiano, quedan determinadas como: I ′ = γ 3 (1 − β k) 3 I.(27) Remplazando las cantidades en el marco comóvil por las correspondientes al marco del laboratorio (las cuales se relacionan vía las transformaciones de Lorentz), se tiene que 1 c ∂ ∂t ′ I ′ + k ′ ∇ ′ I ′ = g ′(28) Remplazando en la ecuación (28) los resultados de (21), (25) y (27) se tiene γ 1 c ∂ ∂t + β ∇ γ 3 (1 − β k) 3 I + 1 γ(1−β k) k − γβ 1 − γβ k γ+1 ∇ + γβ 1 c ∂ ∂t + γ γ+1 ββ ∇ γ 3 (1 − β k) 3 I = g ′ .(29) Suponiendo que no se presentan efectos de refracción o doblamiento gravitacional de la luz (ya que en el marco comóvil se determina la ecuación de transferencia radiativa sin doblamiento gravitacional de la luzó refracción, en el marco de laboratorio se debe observar lo mismo, debido a que la física para ambos observadores debe ser la misma), las variaciones de γ(1 − β k) son nulas, i. e., no se presentan. Por lo tanto factorizando el término γ 2 (1 − β k) 2 en la expresión (29) se encuentra γ 2 (1 − β k) 1 c ∂ ∂t + β ∇ I + k − γβ 1 − γβ k γ + 1 ∇ + γβ 1 c ∂ ∂t + γ γ + 1 β ∇ I = G,(30)donde G = g ′ γ 2 (1−β k) 2 . Expandiendo los términos y agrupándolos en un paréntesis con un factor común 1 c ∂I ∂t y uno con ∇I se encuentra 1 c ∂I ∂t γ 2 − γ 2 β k + γk β − γ 2 β 2 + γ 3 β kβ 2 γ+1 + k ∇I + γ 2 − γ 2 β k + γ 2 k β γ+1 − γ + γ 2 (β k) γ+1 − γ 3 β 2 γ+1 + γ 4 β 2 (β k) (γ+1) 2 β ∇I = G.(31) Simplificando por separado el primero y el segundo paréntesis se encuentra γ 2 − γ 2 β k + γk β − γ 2 β 2 + γ 3 β kβ 2 γ + 1 = 1, (32) y γ 2 − γ 2 β k + γ 2 k β γ + 1 − γ + γ 2 (β k) γ + 1 − γ 3 β 2 γ + 1 + γ 4 β 2 (β k) (γ + 1) 2 = 0,(33) por lo tanto se obtiene la ecuación de transferencia radiativa en el marco del laboratorio como 1 c ∂I ∂t + k ∇I = G,(34) la cual es funcionalmente idéntica a la del marco comóvil (28). De lo anterior se distingue que los efectos cinemáticos relativistas se presentan en la transformación de la frecuencia y dirección de propagación, i.e., corrimiento Doppler y aberración. La anterior demostración [23] muestra que tanto para un observador Euleriano como para un observador Lagrangiano (i.e., un marco de laboratorio y un marco comóvil, respectivamente) determinan el mismo tipo de ecuación de transferencia radiativa, sin nungun efecto aparente de su estado de movimiento. Por tal razon, en el estudio de procesos que involucran la transferencia radiativa en medios en movimiento,ó observadores moviéndose se requiere de un marco mixto, es decir, un marco donde las variables dependientes estén en el marco de laboratorio y las variables independientes estén en el marco de comóvil. V. CONCLUSIONES La demostración de la invariancia relativista especial de la ecuación de transferencia radiativa, encuentra que aun cuando no existe ningún tipo de interacción entre la radiación y la materia, se presentan los efectos rela tivistas de aberración y corrimiento Doppler, como consecuencia de que la ma teria esté en movimiento y dichos efectos son independientes del tipo de inte racción entre la radiación y la materia; el presente trabajo sirve como com plemento y aclaración del por qué de la necesidad de marcos mixtos en el tratamiento relativista de la ecuación de transferencia radiativa. El efecto de corrimiento Doppler (factor de corrimiento) tiene un comportamiento irregular, ya que a medida que la norma del boost tiende a su valor máximo este va a cero cuando elángulo entre los observadores es cero, lo cual muestra que cuando un observador va en la misma dirección de propagación de la radiación y a medida que su velocidad aumenta, este sistema observa que la frecuencia que mide y la que tiene la radiación tienden a ser las mismas, esto se observa en la figura 5. El efecto de aberración tiene un valor límite π a diferencia del factor de corrimiento que puede variar hasta infinito. En la figura 7 se observa que sin importar elángulo entre los observadores a medida que la norma del boost aumenta la aberración tiende a su valor límite, siempre y cuando elángulo entre los observadores sea diferente de cero. Adicionalmente en la figura 8 se encuentra que el efecto de aberración es independiente del boost cuando elángulo entre los observadores es 0ó π. AGRADECIMIENTOS Los autores desean agradecer al Departamento de Física de la Universidad Nacional de Colombia donde este trabajo fue desarrollado, adicionalmente desean agradecer por los valiosos comentarios por parte del referí que hicieron más completo el presente trabajo. APÉNDICE A: COMPORTAMIENTO DE LOS EFECTOS DE CORRIMIENTO DOPPLER Y ABERRACIÓN A continuación se presenta el comportamiento de los efectos relativistas de corrimiento Doppler (24) y aberración (25), con respecto alángulo entre la dirección de propagación k y el boost β. Corrimiento Doppler El factor de corrimiento [ecuación (24)] está dado por ν ′ ν = 1 − β k 1 − β 2 ,(A1) donde el término k indica la dirección de propagación de la radiación. Debido a que en la ecuación (A1) se presenta el producto escalar β k, el factor de corrimiento depende de las variables independientes β ≡| β | y θ, siendo θ eĺ angulo entre la dirección de propagación k y el boost β, de manera que la expresión (A1) se puede escribir como ν ′ ν = 1 − β cos(θ) 1 − β 2 ,(A2) donde se ha tomado que la norma del vector dirección de propagación | k | es igual a la unidad [22]. El comportamiento del factor de corrimiento (A2) se puede observar en la figura 3. Figura 3. Comportamiento del factor de corrimiento con respecto a la norma del boost | β | y elángulo θ. Una visión detallada del comportamiento del factor de corrimiento (figura 3) se puede observar en la figura 4 (boost constantes en magnitud) y en la figura 5 (ángulos constantes). En la figura 4 se observa como el factor de corrimiento para un boost igual a cero es igual a la unidad, ya que esto significa que son dos sistemas que están en reposo relativo entre si, pero que sus ejes pueden estar rotando unángulo θ entre ellos. Para un boost diferente de cero (e.g., β = 0,5ó β = 0,99) se puede observar como el factor de corrimiento no solo va a depender de la norma de la velocidad relativa entre los sistemas inerciales sino de su dirección de manera que el factor ν ′ /ν crece a medida que la norma del boost y su dirección tienden hacia sus valores extremos, respectivamente. En la figura 5 se observa como el factor de corrimiento para unángulo θ igual a cero tiende a cero, ya que esto significa dos sistemas que se encuentran dirigidos en la misma dirección, pero a medida que aumenta la velocidad relativa entre ellos la frecuencia de la radiación que ve uno de ellos tiende a ser nula, ya que uno de los sistemas al aumentar su velocidad relativa respectó al otro sistema, se aproximaría a la velocidad de propagación de la onda por lo que no vería ninguna onda, por lo tanto el factor de corrimiento entre los observadores seria nulo. Para uń angulo diferente de cero (e.g., θ = π/2ó θ = π/4) como el factor de corrimiento crece rápidamente a medida que la velocidad relativa entre los sistemas tiende a la unidad. k µ ∂ µ ,(B2) es invariante. Para ello se consideran las reglas de transformación k µ = Λ µ ρ ′ k ρ ′ ,(B3)∂ µ = Λ σ ′ µ ∂ σ ′ ,(B4) donde Λ es una transformación ortogonal conálgebra Λ µ σ ′ Λ ρ ′ µ = δ ρ ′ σ ′ .(B5) La transformación Λ contiene como caso particular los boost de Lorentz. De está manera es directo mostrar que [11] Ya que se desea es determinar cuanta intensidad varió en un rayo (energía) debido a interacciones, se asume que el cilindro está paralelo a la dirección de propagación de la radiación. La suposición de que el cilindro encierre al rayo, es determinar que elúnico mecanismo de variación del campo de radiación es debido a interacciones, y no a que los fotones decaen espontáneamente, o que se salieron por los lados del cilindro (la limitación cuántica del tamaño del cilindro esta relacionada con el principio de incertidumbre), para ver dicha limitación dirijase a [5, Págs. 72 -73]. [12] Se debe aclarar que el término dt/ds ≡ 1/v con v la velocidad de propagación de la radiación, es siempre c, ya que la materia con la que interactúa el campo de radiación se supone es polvo, de manera que la interacción juega el papel de disminuí la energía, que se va a reflejar en un cambio en la frecuencia, longitud de onda y dirección de propagación, (i.e., ν, λ, y k, respectivamente), pero no en la velocidad de propagación. [13] Para transferencia radiativa cuántica y comoésta se relaciona con la descripción fenomenológica se puede ver C. G. Sudarshan, Phys. Rev. A 23, 062802 (1981). [14] Ya que en coordenadas curvilíneas, los vectores de la base rotan con respecto a la trayectoria determinada por el vector de propagación k, la presencia del segundo termino de la ecuación (4) se compensa con la diferenciación espacial en la dirección en que el fotón se desplaza (i. e., el segundo y tercer termino de la ecuación (4)). Figura 4 .Figura 5 . 45Comportamiento Comportamiento del factor de corrimiento á angulos constantes Figura 8 . 8Comportamiento del efecto de aberración á angulos constantes radiativa es mostrar que el operador k µ ∂ µ = k ρ ′ ∂ ρ ′ ,(B6)con lo cual se muestra de una manera directa la invarianza de la ecuación de transferencia radiativa. Sin embargo, dado el carácter educativo que pretende el artículo, nuestro enfoque se realza más sobre los efectos cinématicos y su interpretación física, dado que en los libros de texto y en la bibliografía especializada se dejan de lado y no se explotan a fondo sus riquezas. AberraciónEl término de aberración [ecuación (25)] viene dado pordonde el término k indica la dirección de propagación de la radiación. Debido a que en la ecuación (A3) se presenta el producto escalar β k, el término de aberración depende de las variables independientes β ≡| β | y θ, siendo θ eĺ angulo entre la dirección de propagación k y el boost β, de manera que la expresión (A3) se puede escribir comoComo el efecto relativista de aberración ecuación (A4), es realmente un efecto relativista sobre elángulo entre la dirección de propagación k y el boost β ya que la norma del vector dirección de propagación (ya sea | k | como | k ′ |) es siempre igual a la unidad[22], al realizar el producto punto a ambos lados de la igualdad de la ecuación (A4) con β se obtiene quey reemplazando el factor de corrimiento (A2) en la relación (A6), se encuentra que el efecto de aberración esdonde se ha utilizado que γ 2 β 2 = γ 2 − 1. El comportamiento del efecto de aberración (A7) se puede observar en la figura 6. Una visión detallada del comportamiento del efecto de aberración (figura 6) se puede observar en la figura 7 (boost constantes en magnitud) y en la figura 8 (ángulos constantes). En la figura 7 se observa como el efecto de aberración para un boost nulo es igual a la unidad, ya que esto significa que son dos sistemas que están en reposo relativo entre si, pero que sus ejes pueden estar rotando unángulo θ entre ellos. Para un boost diferente de cero (e.g., β = 0,5 o β = 0,99) se puede observar como el efecto de aberración no solo va a depender de la norma de la velocidad relativa entre los sistemas inerciales sino de su dirección de manera que la aberración θ ′ crece hacia su valor líimite a medida que la norma del boost y su dirección (i.e., β y θ, respectivamente) tienden hacia sus valores extremos, respectivamente. Figura 6. Comportamiento del efecto de aberración con respecto a la norma del boost (| β |) y θ elángulo entre la dirección de propagación k y el boost β.Figura 7. Comportamiento del efecto de aberración a boost constantesEn la figura 8 se observa como el efecto de aberración para unángulo θ igual a 0ó π es independiente de la velocidad relativa entre los marcos de referencia (i.e., el boost), mientras que paraángulos con valor diferente a los anteriores valores (e.g., θ = π/2ó θ = π/4) la aberración θ ′ crece hacia su valor líimite a medida que la norma del boost y su dirección (i.e., β y θ, respectivamente) tienden hacia sus valores extremos, respectivamente.APÉNDICE B: MÉTODO DIRECTODe acuerdo con (10), la ecuación de transferencia radiativa se puede escribir como:Dada la invarianza de I y g, una manera compacta de demostrar la invarianza de la ecuación de transferencia . S Chandrasekhar, Radiative Transfer, Oxford University PressOxfordS. Chandrasekhar, Radiative Transfer (Oxford Univer- sity Press., Oxford, 1950). . G B Rybicki, J. Astrophys. Astron. 1795G. B. Rybicki, J. Astrophys. Astron. 17, 95 (1996). D Mihalas, B Weibel-Mihalas, Foundations of Radiation Hydrodynamics. New YorkDover Publications, IncD. Mihalas and B. Weibel-Mihalas, Foundations of Ra- diation Hydrodynamics (Dover Publications, Inc., New York, 1999). An Introduction to the Study of Stellar Structure. S Chandrasekhar, Dover Publications, Inc183New YorkS. Chandrasekhar, An Introduction to the Study of Stellar Structure (Dover Publications, Inc., New York, 1967), p. 183. G B Rybicki, A P Lightman, Radiative Processes in Astrophysics. New YorkJohn Wiley & Sons, IncG. B. Rybicki and A. P. Lightman, Radiative Processes in Astrophysics (John Wiley & Sons, Inc., New York, 1979). G C Pomraning, The Equations of Radiation Hydrodynamics. OxfordPergamon Press LtdG. C. Pomraning, The Equations of Radiation Hydrody- namics (Pergamon Press Ltd., Oxford, 1973). . M F Duque, L Castañeda, C , N C Forero, Rev. Col. Fís. 362405M. F. Duque, L. Castañeda C., and N. C. Forero, Rev. Col. Fís. 36 N o 2, 405 (2004). Donde se utiliza la visión de la radiación como un rayo. Donde se utiliza la visión de la radiación como un rayo; esta visión es valida para el caso en que las dimensiones físicas del sistema L, sean muy grandes en comparación con la longitud de onda de la radiación λ. i.e., L ≫ λesta visión es valida para el caso en que las dimensiones físicas del sistema L, sean muy grandes en comparación con la longitud de onda de la radiación λ (i.e., L ≫ λ). Macroscópicamente la radiación se puede describir por la intensidad específica, y desde una visión microscópica el campo de radiación esta compuesto por un conjunto de fotones que es descrito por una función de distribución de Boltzmann. Ver [3, Págs. 311 -312Macroscópicamente la radiación se puede describir por la intensidad específica, y desde una visión microscópica el campo de radiación esta compuesto por un conjunto de fotones que es descrito por una función de distribución de Boltzmann (Ver [3, Págs. 311 -312]). T Padmanabhan, Theoretical Astrophysics (Cambridge University Press. Cambridge, EnglandI. Astrophysical ProcessT. Padmanabhan, , Theoretical Astrophysics (Cambrid- ge University Press, Cambridge, England, 2000), vol. I. Astrophysical Process, chap. 6. . D Semionov, V Vansevičius, astro-ph/0501146ArXiv Astrophysics eprintsD. Semionov and V. Vansevičius, ArXiv Astrophysics e- prints (2005), astro-ph/0501146. . S L Shapiro, Astrophys. J. 180343S. L. Shapiro, Astrophys. J. 180, 531 (1973); 185, 69 (1973); 189, 343 (1974); Titarchuk. R A Sunyaev, L , Astron. Astrophys. 86374R. A. Sunyaev and L. G. Titar- chuk, Astron. Astrophys. 86, 121 (1980); 143, 374 (1985). . L Titarchuk, T Zannias, Astrophys. J. 493863L. Titarchuk and T. Zannias, Astrophys. J. 493, 863 (1998). Dispersión Compton de la radiación cósmica de fondo por un gas de electrones calientes contenidos dentro de un cumulo de galaxias, el cual permite medir la constante de Hubble y distancias cosmológicas. Astrophys. Space Sci. Y. B. Zel´dovich and R. A. Sunyaev4301Dispersión Compton de la radiación cósmica de fondo por un gas de electrones calientes contenidos dentro de un cumulo de galaxias, el cual permite medir la constante de Hubble y distancias cosmológicas, ver Y. B. Zel´dovich and R. A. Sunyaev, Astrophys. Space Sci. 4, 301 (1969). L D Landau, E M Lifshitz, Course of Theoretical Physics. OxfordButterworth-HeinemannL. D. Landau and E. M. Lifshitz, , Course of Theoreti- cal Physics (Butterworth-Heinemann, Oxford, 1997), vol. B F Schutz, A First Course in General Relativity. Cambridge, EnglandCambridge University PressB. F. Schutz, A First Course in General Relativity (Cam- bridge University Press, Cambridge, England, 2000). Utilizando la notación de Mihalas & Mihalas [3] (Págs. Utilizando la notación de Mihalas & Mihalas [3] (Págs. 135 -136). No se debe confundir el término k dirección de propagación (cuya norma siempre es igual a la unidad), con el vector onda. No se debe confundir el término k dirección de propaga- ción (cuya norma siempre es igual a la unidad), con el vector onda. Otra manera de demostrar la invarianza de la ecuación de transferencia radiativa (10) aunque de manera más directa y compacta es la consignada en el apéndice B. Otra manera de demostrar la invarianza de la ecuación de transferencia radiativa (10) aunque de manera más directa y compacta es la consignada en el apéndice B.
sample_7469
0.9567
arxiv
Attractors and bifurcation diagrams in complex climate models Maura Brunetti Group of Applied Physics Institute for Environmental Sciences University of Geneva Bd. Carl-Vogt 66CH-1205GenevaSwitzerland Charline Ragon Group of Applied Physics Institute for Environmental Sciences University of Geneva Bd. Carl-Vogt 66CH-1205GenevaSwitzerland Attractors and bifurcation diagrams in complex climate models (Dated: March 30, 2023)APS/EA12173 The climate is a complex non-equilibrium dynamical system that relaxes toward a steady state under the continuous input of solar radiation and dissipative mechanisms. The steady state is not necessarily unique. A useful tool to describe the possible steady states under different forcing is the bifurcation diagram, that reveals the regions of multi-stability, the position of tipping points, and the range of stability of each steady state. However, its construction is highly time consuming in climate models with a dynamical deep ocean, whose relaxation time is of the order of thousand years, or other feedback mechanisms that act on even longer time scales, like continental ice or carbon cycle. Using a coupled setup of the MIT general circulation model, we test two techniques for the construction of bifurcation diagrams with complementary advantages and reduced execution time. The first is based on the introduction of random fluctuations in the forcing and permits to explore a wide part of phase space. The second reconstructs the stable branches using estimates of the internal variability and of the surface energy imbalance on each attractor, and is more precise in finding the position of tipping points. INTRODUCTION The climate is a dynamical complex system that is fuelled by the incoming solar radiation and reaches a steady state under the effect of dissipation over a multitude of temporal and spatial scales [1]. Under a given forcing (such as astronomical Milankovitch cycles, or the increasing atmospheric CO 2 content due to volcanism or present-day anthropogenic emissions) the system can be driven out of the steady state. In such conditions, the system can reach critical thresholds (or tipping points) where its properties abruptly change, often in an irreversible way. Such behaviour can be illustrated by the so-called bifurcation diagram (BD), where a state variable (for example, the mean surface air temperature) is plotted as a function of the driving force, as schematically shown in Fig. 1 (second row), together with the corresponding potential curve (first row) for the different types of tipping mechanism [2,3]: 1) Bifurcationinduced tipping (B-tipping), that occurs when the deterministic system dynamics reach a bifurcation [4][5][6][7][8][9][10][11][12]; 2) Noise-induced tipping (N-tipping), when the internal variability or 'climate noise', that occurs in the absence of evolving external forcing and includes processes intrinsic to the system (in the case of climate, to the atmosphere, ocean, land, and cryosphere and their interactions [13]), increases up to exceed the height of a critical barrier separating two basins of attraction, so that the system can access another dynamical solution [14][15][16]; 3) Shock-induced tipping (S-tipping), related to sudden shocks that induce the passage from one state to another, as happened when a huge asteroid presumably caused the Cretaceous-Tertiary extinction 66 million years ago [17], or when volcanic emissions initiated glaciation episodes [18]; 4) Rate-induced tipping * maura.brunetti@unige.ch (R-tipping), when the rate of change of the forcing or some internal parameter exceed a critical value [19][20][21], allowing the system to cross, for example, a moving basin boundary (note, however, that R-tipping can be induced by different mechanisms and does not necessarily requires multistability [3]). In climate physics, these mechanisms are extensively studied to illustrate the stability of tipping elements in the present-day climate [22,23] (two examples among many others are the Arctic sea ice [24][25][26][27][28] and the ocean overturning circulation [29][30][31][32][33][34]), bifurcations at the global scale occurring in the geological past of our planet leading to the snowball state [35][36][37][38][39][40] or to a state with an ice-free equatorial waterbelt [41][42][43][44], and also to explore the habitability of exoplanets [45][46][47]. BDs are easily obtained using energy balance models [4][5][6], the simplest in the hierarchy of climate models [48]. In intermediate complexity models [49] or low resolution general circulation models [9,12], BDs can be still constructed with a reasonable computational cost. As the complexity of the model increases, the amount of CPU time needed to perform series of simulations that explore a huge range of driving force and initial conditions toward steady states becomes prohibitive. Indeed, the standard method requires convergence toward the steady state (or attractor) to obtain the BD, that means to perform simulations over time scales of the order of several times the relaxation time of the included climatic components [48], which can be 10 3 years for the deep ocean, 10 4 years for the carbon equilibration between atmosphere and ocean [12], and even higher for dynamical ice sheets. Using a general circulation model (thus, at the top of the hierarchy in model complexity) in coupledaquaplanet configuration (i. e. a planet entirely covered by the ocean where fully nonlinear interactions are taken into account between atmosphere, ocean and sea ice), Ragon et al. [50] obtained the bifurcation diagram using the standard method over time scales of thousand years, [51,52] (MITgcm) is used here in the same configuration, with coupled atmosphereocean-sea ice at 2.8 • horizontal resolution, 15 levels in an ocean depth of 3 km, and 5 pressure layers in the atmospheric column. The atmospheric module is based on SPEEDY [53] that provides a rather realistic representation of the radiative scheme despite the coarse vertical resolution, with the advantage of requiring less computer resources than state-of-the-art atmospheric modules. On the other hand, the ocean dynamics is as accurate as in state-of-the-art Earth system models and this is crucial to include nonlinear feedbacks on millennial time scales. Using this setup, it is possible to run nearly 200 years in 1 day using 13 cores on clusters like those at the University of Geneva. The same MITgcm setup, with an additional land module, has been succesfully applied to investigate the ocean dynamics during the Jurassic [54], the present-day climate [55], and the climatic oscillations in the Early Triassic. Here we compare the standard technique to construct the BD with two additional methods which require lower computational costs. We will describe such techniques in Section 2, the resulting BDs in Section 3 and we draw our conclusions on pros and cons for each method, and future developments in Section 4. II. CONSTRUCTION OF BIFURCATION DIAGRAMS We first describe the standard technique and the corresponding BD. Since, in this case, convergence to the dynamical attractors is required over time scales comparable to the longest feedback process in the setup (in our case, until deep ocean equilibrium is reached), this BD is used for comparisons with those obtained with less computationally expensive techniques that will be described in the following subsections. A. Standard technique The standard method for BD construction is based on the theory of dynamical systems. The phase space can be divided in basins of attraction, i. e the minimal invariant closed sets attracting an open set of initial conditions as time goes to infinity [56] for given values of the internal parameters (such as viscosity, diffusion coefficients, albedo of different surfaces, . . . ) and external forcing. Note that under a constant forcing, the system is ergodic [57], i. e sufficiently long temporal averages from a single simulation correspond to large ensemble averages. The first step is to consider a huge number of initial conditions spanning a large part of phase space. Starting from these initial conditions, the system then evolves in time until the attractors are reached. Statistically steady-state conditions are realised within each attractor in the climate system when its global mean annual surface energy balance F s , i. e. the sum of sensible, latent, net solar and longwave radiation fluxes at the surface, becomes nearly zero (< 0.2 W m −2 in absolute value in [58]). In general, simulation runs over n ∼ 5-10 times the relaxation time t relax are needed to guarantee convergence on the attractor [59], where t relax depends on the nonlinear feedbacks implemented in the numerical simulation. In an aquaplanet, there are no ice sheets (characterised by a time scale of the order of 10 5 yr), and no vegetation (10 2 -10 3 yr). An active carbon cycle between ocean and atmosphere (10 4 yr) is also excluded, thus the deep-ocean dynamics is the process with the largest relaxation time of the order of 10 3 yr. In our setup, it turns out to be between 500 and 2000 yr, depending on the attractor (see Fig. 2b in [58]). Five steady climates have been found in Brunetti et al. [58] under the same forcing, represented by the same amount of incoming solar radiation (S 0 = 342 W m −2 ) and atmospheric CO 2 content (fixed at 326 ppm): snowball (where ice covers the entire surface), waterbelt (where an ocean belt survives near the equator), cold state (with an ice cap extending to 43 degree latitude), warm state (with an ice cap comparable to the present one, up to 60 degree) and hot state (a planet without ice). Simulations are stopped when the surface energy imbalance F s becomes lower than 0.2 W m −2 in absolute value in [58], corresponding to an ocean temperature drift dT o /dt = F s /(c p ρh) (Marshall and Plumb 2008, p. 229) lower than 0.05 • C per century, with c p = 4000 J K −1 kg −1 being the specific heat capacity, ρ = 1023 kg m −3 the seawater density, and h = 3000 m the ocean depth. Indeed, under such conditions, there is essentially no drift in the annual averages of the climatic observables. The second step is to slightly vary the forcing, starting from each attractor, and let the system relax again [59]. In this way, stable branches of the BD can be constructed. In practise, in the aquaplanet simulations, Ragon et al. [50] performed the following: the simulations are initialized from the five attractors, found in Brunetti et al. [58] at S 0 = 342 W m −2 , with slightly different values of the incoming solar radiation until convergence. The CO 2 content is kept constant. This procedure is repeated until a B-tipping point is reached, that is where a shift of the state variable to a different attractor is observed on a timescale of the order of hundred years. Since the attractors are complex dynamical objects living in a high dimensional manifold [58,60], the projection of their invariant (or natural) measure [61] on a given state variable, as the surface air temperature T , is arbitrary [57,62]. It turns out that different quantities are maximised in each attractor, as found in [50], i. e. total precipitation and surface temperature in hot state, intensity of the Lorenz energy cycle in warm state, heat transport in cold state, available potential and kinetic energies in waterbelt, while snowball minimises all the above quantities. Thus, each climatic state would be better represented by a different projection. However, in the present study, the projection is performed, as commonly done in the literature, in terms of the surface air temperature which spans an interval of more than 70 • C from the snowball to the hot state, thus differentiating well all the attractors. The BD obtained in such a way is shown in Fig. 2, where it can be seen that the range of stability of the warm state is very small in comparison to the others, while the snowball is stable over all the range of forcing that has been explored, from 334 to 350 W m −2 . The positions of B-tipping are also evident, bracketing either end of the stable ranges for warm and cold states, and the cold end of waterbelt and hot state. Note that the warm state may become unstable when carbon exchanges between atmosphere and ocean are included, as shown in [12] using a setup with horizontal resolution of 3.75 • . Such BD has been obtained using a very computationally expensive technique. The total simulation time t tot can be estimated as t tot ∼ n(N + M ) t relax , where n ∼ 10 to reach convergence, N ∼ 40 is the number of initial conditions in the first step, M ∼ 40 is the number of points on the stable branches of the bifurcation diagram (see Fig. 2), giving approximately t tot ∼ 800 t relax ∼ 8·10 5 yr. Of course, the effective time can be optimized by launching N simulations in parallel with different initial conditions, and by considering separately each stable branch. Note, however, that the term nM t relax cannot be reduced further, since the initial conditions at one forcing value are the final state of the previous one. B. Method I: random fluctuations in the forcing The method is based on the idea described in [63,64] of studying noise-induced transitions (N-tipping) between basins of attraction. In order to explore the entire phase space of the system, and not only the single basin of attraction allowed in nonlinear deterministic dynamics, random fluctuations of the incoming solar radiation are introduced around a given value (S 0 = 342 W/m 2 in our setup) at discrete times. Even if noise directly affects only a small fraction of degrees of freedom, it propagates to all, since scales are interconnected in the coupled climate model [63]. If η is a random number taken from a normal distribution with zero mean and standard deviation σ, a new value of the incoming solar radiation S is prescribed as S = S 0 (1+η) at regular temporal intervals ∆t 1 . We have tested several values of the standard deviation, ranging from σ = 0.01 to 0.1, and of the temporal interval, from ∆t 1 = 1 yr to 100 yr. The smaller ∆t 1 , the more uniformly the phase space is filled, since the system cannot relax toward the attractor, and thus the reconstruction of the position of the attractors in phase space becomes unfeasible. On the contrary, too large values of ∆t 1 are computationally expensive. On the other hand, the standard deviation σ regulates the range of forcing values being explored and the portion of phase space than can be accessed, a weaker noise corresponding to rarer transitions between the basins of attraction [64]. Note that the time step used in our simulations is half an hour (for the ocean dynamics), much smaller than ∆t 1 , thus even if the forcing has Gaussian fluctuations, the resulting time series of the state variable does not correspond to white noise. In our MITgcm setup, the values σ = 0.025 and ∆t 1 = 10 yr correctly reproduce the attractors found in the BD with the standard method (Fig. 2) [65], the relaxation time is governed by upper ocean processes and is of the order of several decades for 5.6 • of horizontal resolution and 10 atmospheric levels [64]. In this case, the reconstruction of the invariant measure is obtained using σ = 0.18 and ∆t 1 = 1 yr [64]. We find that a good reconstruction occurs after a total simulation time of the order of t tot ∼ 10 4 yr. Using different seeds for the random variable and/or changing the initial conditions (S 0 or any state variable, possibly using Monte Carlo methods), such total time can be easily partitioned over different set of runs. C. Method II: reconstruction of stable branches The first step coincides with that in the standard technique: the attractors at a given forcing are needed as starting points and are obtained by scanning a large ensemble of initial conditions [58]. However, the second step differs. We require the change in forcing to be small enough so that the invariant measure on the attractor remains nearly the same [57], in particular its mean and standard deviation. In other words, while the forcing is changed by ∆S, the corresponding variation on the attractor is small enough that the surface energy imbalance remains nearly zero. This excludes for the presence of Rtipping and guarantees quasi-ergodicity of the system. In practise, starting from each attractor found during the first step, the forcing is changed by +∆S (−∆S) each ∆t 2 = N 2 yr in order to determine the upper (lower) stable branch in the bifurcation diagram, until a tipping point is reached. The tipping point is attained when one of the three following criteria is satisfied: (i) the standard deviation within the N 2 points for each forcing value becomes larger than the internal variability on the attractor (an early warning of critical slowing down of the dynamics [66]); (ii) the N 2 points turn out to be ordered in time, pointing from the original attractor toward a new one; (iii) the surface energy imbalance F s becomes much larger than zero (in our setup, larger than 0.5 W m −2 in absolute value, which is slightly larger than the threshold 0.2 W m −2 used to characterise the convergence to an attractor). When one of these criteria is satisfied, the system is no longer on the initial dynamical attractor and is approaching the unstable branch where a shift toward a new basin of attraction takes place. We have tested different values of ∆S from 0.1 to 0.5 W m −2 and N 2 from 10 to 100. Like in the previous case, the choice is model dependent. We have checked that in our setup good agreement with the bifurcation diagram from the standard technique (that is very accurate albeit highly time consuming) is obtained when ∆S ≤ 0.25 W m −2 and N 2 ≥ 20. With less points, the criterium based on the standard deviation is not applicable (low statistics). With larger ∆S the position of Btipping is less accurate and the requirement of remaining on the same original attractor cannot be satisfied, while too small values require large CPU time. The total simulation time can be estimated as t tot = nN t relax +M 2 ∆t 2 , where M 2 is the number of points in the forcing along all the branches. The second term M 2 ∆t 2 is smaller than the analogous in the standard model, nM t relax , since ∆t 2 t relax . Note that a small ∆S corresponds to a large value of M 2 , thus implying that ∆t 2 can be set to a small value since the system is near the attractor, and Method II can still save time. III. RESULTS We take advantage of the BD obtained with the standard (computationally expensive) technique to test the other two methods described in Sections II B and II C, and understand under which conditions they can be applied. FIG. 3. Normalised 2-dimensional histogram obtained with Method I by adding random fluctuations with standard deviation σ = 0.025 to the incoming solar radiation S0 at regular temporal intervals ∆t1 = 10 yr. The diverging colormap goes from low (blue) to high density of points (red). A. Method I We construct the bifurcation diagram by plotting the normalised 2-dimensional histogram (projection of the invariant measure) in terms of the global annual surface air temperature and the forcing, as shown in Fig. 3 using a standard deviation of the normal distribution equal to σ = 0.025 and time interval ∆t 1 = 10 yr. Other BDs obtained for different values of σ and ∆t 1 are provided in the Supplemental Material (Fig. S1) 1 . As can be seen, the overall structure of the phase plane corresponds quite well to that in the standard BD (see Fig. 2). The main attractors (hot, cold, waterbelt and snowball) can be easily recognised and correspond to regions of high density of points. However, the uncertainty in the exact position of the attractors is large, so that, for example, the warm state, with a short stable branch, cannot be distinguished from the hot climate and, in general, it is not possible to precisely infer the edges of the stable branches. Moreover, a region with increased density different from the ones that correspond to the five attractors appears at T ∼ −20 • C that may correspond to an additional steady state. This can be checked by performing simulations without noise starting from initial conditions 1 See Supplemental Material for additional figures obtained with different parameters in Methods I and II (Figs. S1, S3), a description of the transient feature observed around T ∼ −20 • C in Fig. 3 (Fig. S2), BD in terms of the atmospheric CO 2 content at fixed incoming solar radiation (Fig. S4). in such region of high density, and let the system relax towards a steady state under fixed forcing, i. e. until the surface energy imbalance becomes negligible. It turns out that the feature at T ∼ −20 • C is only transient, as shown in the Supplemental Material (Fig. S2) 1 : the system remains near such value of temperature for nearly 100 yr with a small surface imbalance but eventually is attracted to the waterbelt. B. Method II Starting from the five attractors found in [58] at S 0 = 342 W/m 2 , the stable branches are derived by changing the forcing by ∆S each N 2 years. The resulting BD is shown in Fig. 4 using ∆S = 0.1 W m −2 and N 2 = 100 (20 for waterbelt upper branch). As can be seen, the five stable branches can be recovered. If ∆S is too large, the edges of the stable branches are not correctly reproduced, as shown in the Supplemental Material (Fig. S3) 1 . Moreover, by applying the criteria listed in Section II C to determine the position of B-tipping, we check that they correspond well to those found with the standard technique (see Fig. 4a and its enlargements (panels b, c, d, e, f), where the red arrows correspond to B-tipping and colorbar corresponds to the time ordering of the N 2 points). In Fig. 5, two examples of evolution (hot to colder climates and cold to snowball) show when the system abandons the attractor at the point where the standard deviation of the temperature becomes larger than the internal variability on the attractor and/or |F s | > 0.5 W m −2 (following the criteria (i) and (iii) in Section II C, respectively). Another interesting feature in Figs. 4a,c is the transition from the cold state to colder climates. When the system looses stability on the cold branch, it is attracted first by transient structures, like the one at T = −20 • C. Then, instead of relaxing to the waterbelt, it is directly attracted to the snowball. This can be understood by remembering that the climate state lives on a high dimensional space that we are arbitrarily projecting to a single state variable (the surface air temperature). In a higher dimensional space, the two climatic trajectories (the transition from cold to snowball and the waterbelt stable branch) would not cross each other. This behavior and the fact that an analogous crossing occurs in the transition from hot to snowball (see Fig. 4a) show that the waterbelt climate is not well described by a single state variable. Finally, the dependence of the invariant measure can be investigated, as done here, in terms of the incoming solar radiation S for a fixed atmospheric CO 2 content. The opposite can also be considered: different CO 2 for fixed S [12]. An example is shown in the Supplemental Material (Fig. S4) 1 where, however, the MITgcm setup does not include the feedback of the atmospheric carbon with the ocean. IV. SUMMARY AND CONCLUSIONS We have tested two methods for the construction of BDs in general circulation models (GCM), where the number and timescale of nonlinear feedback mechanisms make the computational costs of the standard method prohibitive. Such diagrams store crucial information about the nonlinear structure of the climate system, like the regions of multistability, the kind of tipping, the amplitude of climatic oscillations or the intensity of forcing necessary to give rise to a climatic shift. In the first method, random fluctuations of the forcing allow to explore the entire phase space of the climate system [64]. The choice of the parameters for such method, i. e. the standard deviation of the Gaussian fluctuations and the temporal interval after which the forcing randomly changes its value, is model dependent. However, once the parameters are fixed, such method gives an overall picture of the phase space projected on a given state variable, revealing the number of attractors and their position. The disadvantage is that the attractors with small stable branches may be blurred and the position of B-tippings is not precise. The second method reconstructs the stable branches of the attractors [30] by changing the forcing by a small amount that guarantees the system to remain on the same attractor until a B-tipping is reached. The signature of a shift is given by increased variance of the internal variability, non-null surface energy imbalance or an ordered temporal sequence of points toward another climatic state. The advantage of such a method is that the reconstruction of B-tipping is quite accurate with much lower computational costs with respect to the standard method. The two methods can be used in sequence when no previous information on the attractors is available: a first guess on the position of tipping points and the extension of stable branches can be obtained using Method I. Then, simulations with the standard method or Method II can be performed to fill in the details of the bifurcation diagram, depending on the desired level of precision. The proposed methods have been described by projecting the high dimensional space of the attractors to a single state variable (global annual mean of surface air temperature). Of course, they can be applied using other projections, and averages over different temporal and spatial scales. This is particularly useful in order to develop early warning indicators that are based not only on temporal series but also on spatial information [67,68]. From the BD one can infer the forcing that induces a tipping and perform a detailed analysis in space to identify where the main changes take place, since gridded data in general circulation models permit such kind of spatial studies. The advantage is that spatial early warning indicators do not need a long temporal record to get a meaningful signal, thus they play a crucial role in identifying tipping mechanisms from datasets with irregular or infrequent temporal resolution [69]. BDs can also be applied to estimate the climate sensitivity [57,70,71], in particular to analyse how this metric depends on the attractor, on the nonlinear feedback mechanisms included in the simulations within a given integration time, on the phase space region explored by the considered initial conditions, and on the perturbation amplitude, all aspects recently discussed in [72]. Apart from the fundamental and practical interest of obtaining the BD for our present-day climate, there are many aspects that are worth to be analysed. An open question is, for example, whether the attractors and the BD are model dependent. The robustness of the results presented here should be tested against other climatic models and other BD reconstruction methods [63,73]. For the comparison, analogous numerical setups should be chosen at the level of horizontal/vertical resolutions and included nonlinear feedback mechanisms. Important information on the description of the nonlinear processes and their interplay can be gained from such comparison of BDs produced by different models, that can be used to improve algorithms and to correct biases. This is why we suggest including the comparison of BDs in coarseresolution GCMs with simplified configurations in the Tipping Point Model Intercomparison Project (TipMIP) beside that of Earth System Models in the present-day configuration. ACKNOWLEDGMENTS We are grateful to Sacha Medaer and Enzo Samy Ferrao for running some of the MITgcm simulations with noise. We thank Alexis Gomel and Jérôme Kasparian for useful discussions. The computations were performed on the Baobab and Yggdrasil clusters at University of Geneva. The data that support the findings of this study were generated by the MIT general circulation model that is openly available on GitHub (http: //mitgcm.org/, https://github.com/MITgcm/MITgcm, version c67f). We acknowledge the financial support from the Swiss National Science Foundation (Sinergia Project CRSII5 180253). Supplemental Material for 'Attractors and bifurcation diagrams in complex climate models' Maura Brunetti * and Charline Ragon Group of Applied Physics and Institute for Environmental Sciences, University of Geneva, Bd. Carl-Vogt 66, CH-1205 Geneva, Switzerland CONTENT OF THIS DOCUMENT We provide additional figures obtained by using different parameters in the methods described in the main article (see Figures S1 and S3). We also show in Figure S2 that the high density region around T ∼ −20 • C in Fig. 3 does not correspond to a new attractor but to a transient feature. Finally, the bifurcation diagram obtained in terms of the atmospheric CO 2 content at fixed incoming solar radiation is shown in Figure S4. obtained with the standard method, adapted from[50]. Solid lines corresponds to stable branches. Dashed lines are a sketch of theoretical unstable branches. FIG. 4 . 4(a) Bifurcation diagram obtained with Method II; red arrows show the positions of B-tipping obtained with this method and panels b-e their enlargements, with colors corresponding to the location of tipping from: (b) cold to hot; (c) cold to snowball; (d) warm to cold, warm to hot, hot to colder climates; (e) waterbelt to hot. Colorbar refers to the time (in years) since the last change in the forcing. FIG. 5 . 5Temporal evolution of mean global surface energy imbalance Fs (a,c) and surface air temperature T (b,d), with superposed incoming solar radiation (right axes) for (top) hot to colder climates; (bottom) cold to snowball. The strip in panels (a,c) corresponds to an imbalance of ±0.5 W m −2 . Shadow areas in (b,d) correspond to the standard deviation in temperature within N2 = 100 points. FIG. S1 . S1Normalised 2-dimensional histograms obtained using Method I in the main text. Random fluctuations with standard deviation σ are added to the incoming solar radiation at regular temporal intervals ∆t1: σ = 0.025, ∆t1 = 1 yr (up left) ; σ = 0.1, ∆t1 = 1 yr (up right); σ = 0.1, ∆t1 = 10 yr (bottom). The diverging color map goes from low (blue) to high density (red). * maura.brunetti@unige.ch arXiv:2211.01929v2 [physics.ao-ph] . S2. Temporal evolution of global mean surface temperature T (left) and surface energy imbalance Fs (right) starting from initial conditions in the high density region near T = −20 • C in Fig. 3 in the main article under constant incoming solar radiation S (see legend). This region does not represent a new attractor since the system remains near T = −20 • C with Fs ∼ 0 for only 100 years in each case to finally relax to the waterbelt climate. FIG. S3. Portion of the bifurcation diagram obtained with Method II in the main text using ∆t2 = 100 yr and ∆S = 0.25 W m −2 (blue); ∆S = 0.1 W m −2 (red). The position of B-tipping is better defined with lower ∆S. FIG. S4. Bifurcation diagram obtained with Method II in the main text by varying the atmospheric CO2 content at fixed incoming solar radiation S0 = 342 W m −2 using ∆t2 = 10 yr and ∆CO2 = 0.5 ppm. FIG. 1. Tipping mechanisms in terms of potential landscape (first row) and corresponding bifurcation diagram (second row). Blue circles: state of the system; red/black arrows: evolution of landscape/state. thus excluding nonlinear feedbacks on longer time scales such as those induced by ice sheets and vegetation. The MIT general circulation modelPotential R-tipping S-tipping N-tipping B-tipping State variable State variable State variable State variable Forcing State variable Forcing N-tipping Forcing S-tipping Forcing R-tipping B-tipping B-tipping in a reasonable amount of time. Such values are model-and setup-dependent. For example, in the Planet Simulator (PlaSim), an open-source intermediate complexity climate model with slab ocean . M Ghil, V Lucarini, Rev. Mod. Phys. 9235002M. Ghil and V. Lucarini, Rev. Mod. Phys. 92, 035002 (2020). . P Ashwin, S Wieczorek, R Vitolo, P Cox, Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences. 3701166P. Ashwin, S. Wieczorek, R. Vitolo, and P. Cox, Philo- sophical Transactions of the Royal Society A: Mathemat- ical, Physical and Engineering Sciences 370, 1166 (2012). . A Vanselow, L Halekotte, U Feudel, Theoretical Ecology. 1529A. Vanselow, L. Halekotte, and U. Feudel, Theoretical Ecology 15, 29 (2022). . M I Budyko, Tellus Series A. 21611M. I. Budyko, Tellus Series A 21, 611 (1969). . W D Sellers, Journal of Applied Meteorology. 8392W. D. Sellers, Journal of Applied Meteorology 8, 392 (1969). . M , Journal of Atmospheric Sciences. 333M. Ghil, Journal of Atmospheric Sciences 33, 3 (1976). . V Lucarini, K Fraedrich, F Lunkeit, arXiv:0905.3669Quarterly Journal of the Royal Meteorological Society. 136physics.ao-phV. Lucarini, K. Fraedrich, and F. Lunkeit, Quarterly Journal of the Royal Meteorological Society 136, 2 (2010), arXiv:0905.3669 [physics.ao-ph]. . D Ferreira, J Marshall, B Rose, Journal of Climate. 24992D. Ferreira, J. Marshall, and B. Rose, Journal of Climate 24, 992 (2011). . B E J Rose, Journal of Geophysical Research: Atmospheres. 1201404B. E. J. Rose, Journal of Geophysical Research: Atmo- spheres 120, 1404 (2015). . D Ferreira, J Marshall, T Ito, D Mcgee, Geophysical Research Letters. 459160D. Ferreira, J. Marshall, T. Ito, and D. McGee, Geo- physical Research Letters 45, 9160 (2018). . M Gupta, J Marshall, D Ferreira, Journal of Climate. 323727M. Gupta, J. Marshall, and D. Ferreira, Journal of Cli- mate 32, 3727 (2019). . F Zhu, B E J Rose, Journal of Climate. 1F. Zhu and B. E. J. Rose, Journal of Climate , 1 (2022). C Deser, A Phillips, V Bourdette, H Teng, Climate Dynamics. 38527C. Deser, A. Phillips, V. Bourdette, and H. Teng, Cli- mate Dynamics 38, 527 (2012). . B F Farrell, D S Abbot, Climate of the Past. 82061B. F. Farrell and D. S. Abbot, Climate of the Past 8, 2061 (2012). . R Wordsworth, The Astrophysical Journal Letters. 91214R. Wordsworth, The Astrophysical Journal Letters 912, L14 (2021). . M Baum, M Fu, Geochemistry, Geophysics, Geosystems. 23M. Baum and M. Fu, Geochemistry, Geophysics, Geosys- tems 23, e2022GC010611 (2022). . J D O&apos;keefe, T J Ahrens, Nature. 338247J. D. O'Keefe and T. J. Ahrens, Nature 338, 247 (1989). . F A Macdonald, R Wordsworth, Geophysical Research Letters. 441938F. A. Macdonald and R. Wordsworth, Geophysical Re- search Letters 44, 1938 (2017). . P Ashwin, C Perryman, S Wieczorek, Nonlinearity. 302185P. Ashwin, C. Perryman, and S. Wieczorek, Nonlinearity 30, 2185 (2017). . C W Arnscheidt, D H Rothman, Proceedings of the Royal Society A: Mathematical, Physical and Engineering Sciences. 47620200303C. W. Arnscheidt and D. H. Rothman, Proceedings of the Royal Society A: Mathematical, Physical and Engi- neering Sciences 476, 20200303 (2020). Chaos: An Interdisciplinary. A Hoyer-Leitzel, A N Nadeau, 10.1063/5.0046420Journal of Nonlinear Science. 3153133A. Hoyer-Leitzel and A. N. Nadeau, Chaos: An Interdis- ciplinary Journal of Nonlinear Science 31, 053133 (2021), https://doi.org/10.1063/5.0046420. . T M Lenton, H Held, E Kriegler, J W Hall, W Lucht, S Rahmstorf, H J Schellnhuber, Proceedings of the national Academy of Sciences. 1051786T. M. Lenton, H. Held, E. Kriegler, J. W. Hall, W. Lucht, S. Rahmstorf, and H. J. Schellnhuber, Proceedings of the national Academy of Sciences 105, 1786 (2008). . D I A Mckay, A Staal, J F Abrams, R Winkelmann, B Sakschewski, S Loriani, I Fetzer, S E Cornell, J Rockström, T M Lenton, Science. 3777950D. I. A. McKay, A. Staal, J. F. Abrams, R. Winkel- mann, B. Sakschewski, S. Loriani, I. Fetzer, S. E. Cornell, J. Rockström, and T. M. Lenton, Science 377, eabn7950 (2022). I Eisenman, J S Wettlaufer, Proceedings of the National Academy of Sciences. the National Academy of Sciences10628I. Eisenman and J. S. Wettlaufer, Proceedings of the Na- tional Academy of Sciences 106, 28 (2009). . K C Armour, I Eisenman, E Blanchard-Wrigglesworth, K E Mccusker, C , K. C. Armour, I. Eisenman, E. Blanchard- Wrigglesworth, K. E. McCusker, and C. M. . Bitz, 10.1029/2011GL048739Geophysical Research Letters. 38Bitz, Geophysical Research Letters 38 (2011), https://doi.org/10.1029/2011GL048739. . D S Abbot, M Silber, R T Pierrehumbert, Research, 10.1029/2011JD015653Atmospheres. 116D. S. Abbot, M. Silber, and R. T. Pierrehumbert, Jour- nal of Geophysical Research: Atmospheres 116 (2011), https://doi.org/10.1029/2011JD015653. . T J W Wagner, I Eisenman, Journal of Climate. 283998T. J. W. Wagner and I. Eisenman, Journal of Climate 28, 3998 (2015). . K Hill, D S Abbot, M Silber, 10.1137/15M1037718SIAM Journal on Applied Dynamical Systems. 151163K. Hill, D. S. Abbot, and M. Silber, SIAM Jour- nal on Applied Dynamical Systems 15, 1163 (2016), https://doi.org/10.1137/15M1037718. . H Stommel, Tellus. 13224H. Stommel, Tellus 13, 224 (1961). . S Rahmstorf, Nature. 378S. Rahmstorf, Nature 378, 145-149 (1995). . J Gregory, O Saenko, A Weaver, Climate dynamics. 21707J. Gregory, O. Saenko, and A. Weaver, Climate dynam- ics 21, 707 (2003). . S Rahmstorf, M Crucifix, A Ganopolski, H Goosse, I Kamenkovich, R Knutti, G Lohmann, R Marsh, L A Mysak, Z Wang, Geophysical Research Letters. 32S. Rahmstorf, M. Crucifix, A. Ganopolski, H. Goosse, I. Kamenkovich, R. Knutti, G. Lohmann, R. Marsh, L. A. Mysak, Z. Wang, et al., Geophysical Research Letters 32 (2005). . E Hawkins, R S Smith, L C Allison, J M Gregory, T J Woollings, H Pohlmann, B De Cuevas, 10.1029/2011GL047208Geophysical Research Letters. 38E. Hawkins, R. S. Smith, L. C. Allison, J. M. Gregory, T. J. Woollings, H. Pohlmann, and B. de Cuevas, Geophysical Research Letters 38 (2011), https://doi.org/10.1029/2011GL047208. . W Weijer, W Cheng, S S Drijfhout, A V Fedorov, A Hu, L C Jackson, W Liu, E L Mcdonagh, J V Mecking, J Zhang, Journal of Geophysical Research: Oceans. 1245336W. Weijer, W. Cheng, S. S. Drijfhout, A. V. Fedorov, A. Hu, L. C. Jackson, W. Liu, E. L. McDonagh, J. V. Mecking, and J. Zhang, Journal of Geophysical Re- search: Oceans 124, 5336 (2019). . G H Roe, M B Baker, Journal of Climate. 234694G. H. Roe and M. B. Baker, Journal of Climate 23, 4694 (2010). . A Voigt, J Marotzke, Climate Dynamics. 35A. Voigt and J. Marotzke, Climate Dynamics 35, 887-905 (2010). . A Voigt, D S Abbot, R T Pierrehumbert, J Marotzke, Climate of the Past. 7249A. Voigt, D. S. Abbot, R. T. Pierrehumbert, and J. Marotzke, Climate of the Past 7, 249 (2011). . R Pierrehumbert, D Abbot, A Voigt, D Koll, 10.1146/annurev-earth-040809-152447Annual Review of Earth and Planetary Sciences. 39417R. Pierrehumbert, D. Abbot, A. Voigt, and D. Koll, Annual Review of Earth and Planetary Sciences 39, 417 (2011), https://doi.org/10.1146/annurev-earth- 040809-152447. . A Voigt, D S Abbot, Climate of the Past. 82079A. Voigt and D. S. Abbot, Climate of the Past 8, 2079 (2012). . J Hörner, A Voigt, C Braun, Journal of Advances in Modeling Earth Systems. 14J. Hörner, A. Voigt, and C. Braun, Journal of Advances in Modeling Earth Systems 14, e2021MS002734 (2022). . D S Abbot, A Voigt, D Koll, 10.1029/2011JD015927Journal of Geophysical Research: Atmospheres. 116D. S. Abbot, A. Voigt, and D. Koll, Journal of Geophysical Research: Atmospheres 116 (2011), https://doi.org/10.1029/2011JD015927. . J Yang, W R Peltier, Y Hu, Journal of Climate. 252711J. Yang, W. R. Peltier, and Y. Hu, Journal of Climate 25, 2711 (2012). . J Yang, W R Peltier, Y Hu, Journal of Climate. 252737J. Yang, W. R. Peltier, and Y. Hu, Journal of Climate 25, 2737 (2012). . C Braun, J Hörner, A Voigt, J G Pinto, Nature Geoscience. 15C. Braun, J. Hörner, A. Voigt, and J. G. Pinto, Nature Geoscience 15, 489-493 (2022). . R Boschi, V Lucarini, S Pascale, arXiv:1207.1254Icarus. 2261724physics.ao-phR. Boschi, V. Lucarini, and S. Pascale, Icarus 226, 1724 (2013), arXiv:1207.1254 [physics.ao-ph]. . J Checlair, K Menou, D S Abbot, The Astrophysical Journal. 845132J. Checlair, K. Menou, and D. S. Abbot, The Astrophys- ical Journal 845, 132 (2017). . J H Checlair, S L Olson, M F Jansen, D S Abbot, The Astrophysical Journal Letters. 88446J. H. Checlair, S. L. Olson, M. F. Jansen, and D. S. Ab- bot, The Astrophysical Journal Letters 884, L46 (2019). A climate modelling primer. K Mcguffie, A Henderson-Sellers, John Wiley & SonsK. McGuffie and A. Henderson-Sellers, A climate mod- elling primer (John Wiley & Sons, 2005). . V Lucarini, T Bódai, Nonlinearity. 3032V. Lucarini and T. Bódai, Nonlinearity 30, R32 (2017). . C Ragon, V Lembo, V Lucarini, C Vérard, J Kasparian, M Brunetti, Journal of Climate. 352769C. Ragon, V. Lembo, V. Lucarini, C. Vérard, J. Kas- parian, and M. Brunetti, Journal of Climate 35, 2769 (2022). . J Marshall, A Adcroft, C Hill, L Perelman, C Heisey, Journal of Geophysical Research. 1025753J. Marshall, A. Adcroft, C. Hill, L. Perelman, and C. Heisey, Journal of Geophysical Research 102, 5753 (1997). . J Marshall, C Hill, L Perelman, A Adcroft, Journal of Geophysical Research. 1025733J. Marshall, C. Hill, L. Perelman, and A. Adcroft, Jour- nal of Geophysical Research 102, 5733 (1997). . F Molteni, Climate Dynamics. 20175F. Molteni, Climate Dynamics 20, 175 (2003). . M Brunetti, C Vérard, P O Baumgartner, Journal of Palaeogeography. 4373M. Brunetti, C. Vérard, and P. O. Baumgartner, Journal of Palaeogeography 4, 373 (2015). . M Brunetti, C Vérard, arXiv:1708.08380Climate Dynamics. 50physics.ao-phM. Brunetti and C. Vérard, Climate Dynamics 50, 4425 (2018), arXiv:1708.08380 [physics.ao-ph]. S H Strogatz, Nonlinear dynamics and chaos, with applications to physics, biology, chemistry, and engineering. Westview PressS. H. Strogatz, Nonlinear dynamics and chaos, with ap- plications to physics, biology, chemistry, and engineering (Westview Press, 1994). . T Tél, T Bódai, G Drótos, T Haszpra, M Herein, B Kaszás, M Vincze, J. Stat. Phys. 1791496T. Tél, T. Bódai, G. Drótos, T. Haszpra, M. Herein, B. Kaszás, and M. Vincze, J. Stat. Phys. 179, 1496 (2020). . M Brunetti, J Kasparian, C Vérard, Climate Dynamics. 536293M. Brunetti, J. Kasparian, and C. Vérard, Climate Dy- namics 53, 6293 (2019). . G Drótos, T Bódai, T Tél, Eur. Phys. J. Spec. Top. 2262031G. Drótos, T. Bódai, and T. Tél, Eur. Phys. J. Spec. Top. 226, 2031 (2017). . F Falasca, A Bracco, Phys. Rev. X. 1221054F. Falasca and A. Bracco, Phys. Rev. X 12, 021054 (2022). The natural measure of an attractor describes the probability distribution of the permitted states in phase space, that is how frequently various part of the attractor are visited by the orbit. The natural measure is also said 'invariant' under the dynamical system to specify that it does not change under time evolution, as defined in. Rev. Mod. Phys. J. P. Eckmann and D. Ruelle57617The natural measure of an attractor describes the proba- bility distribution of the permitted states in phase space, that is how frequently various part of the attractor are visited by the orbit. The natural measure is also said 'in- variant' under the dynamical system to specify that it does not change under time evolution, as defined in J. P. Eckmann and D. Ruelle, Rev. Mod. Phys. 57, 617 (1985). D Faranda, G Messori, S Vannitsem, 10.1080/16000870.2018.1554413Tellus A: Dynamic Meteorology and Oceanography. 711554413D. Faranda, G. Messori, and S. Vannitsem, Tellus A: Dynamic Meteorology and Oceanography 71, 1554413 (2019), https://doi.org/10.1080/16000870.2018.1554413. . V Lucarini, T Bódai, Nonlinearity. 3359V. Lucarini and T. Bódai, Nonlinearity 33, R59 (2020). . G Margazoglou, T Grafke, A Laio, V Lucarini, Proceedings of the Royal Society A: Mathematical, Physical and Engineering Sciences. 47720210019G. Margazoglou, T. Grafke, A. Laio, and V. Lucarini, Proceedings of the Royal Society A: Mathematical, Phys- ical and Engineering Sciences 477, 20210019 (2021). . K Fraedrich, H Jansen, E Kirk, U Luksch, F Lunkeit, Meteorologische Zeitschrift. 14299K. Fraedrich, H. Jansen, E. Kirk, U. Luksch, and F. Lunkeit, Meteorologische Zeitschrift 14, 299 (2005). . M Scheffer, J Bascompte, W A Brock, V Brovkin, S R Carpenter, V Dakos, H Held, E H Van Nesl, M Rietkerk, G Sugihara, Nature. 46153M. Scheffer, J. Bascompte, W. A. Brock, V. Brovkin, S. R. Carpenter, V. Dakos, H. Held, E. H. van Nesl, M. Rietkerk, and G. Sugihara, Nature 461, 53 (2011). . J J Nijp, A J Temme, G A Van Voorn, L Kooistra, G M Hengeveld, M B Soons, A J Teuling, J Wallinga, Global Change Biology. 251905J. J. Nijp, A. J. Temme, G. A. van Voorn, L. Koois- tra, G. M. Hengeveld, M. B. Soons, A. J. Teuling, and J. Wallinga, Global Change Biology 25, 1905 (2019). . V N Livina, Nature Climate Change. 1315V. N. Livina, Nature Climate Change 13, 15 (2023). . A Génin, S Majumder, S Sankaran, A Danet, V Guttal, F D Schneider, S Kéfi, Methods in Ecology and Evolution. 92067A. Génin, S. Majumder, S. Sankaran, A. Danet, V. Gut- tal, F. D. Schneider, and S. Kéfi, Methods in Ecology and Evolution 9, 2067 (2018). . F Ragone, V Lucarini, F Lunkeit, Climate Dynamics. 461459F. Ragone, V. Lucarini, and F. Lunkeit, Climate Dy- namics 46, 1459 (2016). A S Von Der Heydt, P Ashwin, 10.1093/climsys/dzx001Dynamics and Statistics of the Climate System. 1A. S. von der Heydt and P. Ashwin, Dynam- ics and Statistics of the Climate System 1 (2017), 10.1093/climsys/dzx001. . R Bastiaansen, P Ashwin, A S Von, Heydt, Proceedings of the Royal Society A: Mathematical, Physical and Engineering Sciences. 47920220483R. Bastiaansen, P. Ashwin, and A. S. von der Heydt, Proceedings of the Royal Society A: Mathematical, Phys- ical and Engineering Sciences 479, 20220483 (2023). . Y Zhang, J Bloch-Johnson, D M Romps, D S Abbot, Journal of Advances in Modeling Earth Systems. 13Y. Zhang, J. Bloch-Johnson, D. M. Romps, and D. S. Abbot, Journal of Advances in Modeling Earth Systems 13, e2021MS002505 (2021).
sample_7787
0.8034
arxiv
Electoral processstylised factvote distributions Resumen --Las votaciones son el resultado de varias interacciones complejas y que resulta difícil de separar para entender el papel que juegan en el resultado final. El ejercicio revocatorio llevado a cabo en México en el año 2022 permite una aproximación acotada a la dinámica de voto en México. Pues, en principio, es binaria y la votación fue fundamentalmente debida al partido en el gobierno y a la coerción del voto, siendo estas las principales dinámicas de voto. En éste trabajo reportamos que la distribución de voto por casilla para el NO que es parecida a la distribución que ha aparecido en diversas elecciones en votos para el Partido Revolucionario Institucional y es compatible con una distribución Gamma. Se discuten sus similitudes y dos posibles modelos para tal comportamiento, uno basado en el Problema del Agente Viajero (TSP, por sus sigla en inglés) y otro en una ecuación de Fokker-Planck.Palabras Clave -distribución de voto, hechos estilizados, ,proceso electoralAbstract --Vote processes are the results of several complex interactions which are hard to separate in order to understand its role in the final result. The revocatory exercise performed in Mexico in 2022 allows an approximation to the Mexican dynamics of vote. Being a binary election (in principle) and the vote was mainly due to the political party in the government and the coercion of vote we have mainly only two dynamics of vote. In this work I report that the vote distribution for the NO at urn scale is similar to the one that appears in several elections for the Institutional Revolutionary Party (PRI for his Spanish acronym) and it is compatible with a Gamma distribution. We discuss similarities and two possible models for such a behavior, one based on the Traveling Salesperson Problem and other on a Fokker-Planck equation. I. INTRODUCCIÓN La búsqueda de leyes o patrones en la forma en la que las personas votan o actúan es un tema de investigación con un florecimiento en las últimas décadas [1][2][3][4][5]. En particular el uso de modelos importados de la mecánica estadística aplicados al creciente número de datos disponibles ha permitido algunos avances. La complejidad de los fenómenos sociales es suficiente para que la investigación sea muy activa. En el caso de los estudios enfocados al análisis de elecciones, un problema consiste en las diferentes opciones e interacciones que concurren en una elección dada, adicionado al proceso mismo de conteo del voto. El ejercicio de revocación de mandato realizado en México el 10 de abril del año 2022 ofrece algunas oportunidades interesantes. Al ser promovida principalmente por el partido en el gobierno federal y su partido, el MORENA, se convirtió en una posible radiografía de dicho grupo político haciendo uso amplio de recursos económicos y políticos para la promoción del voto. Más aún, de acuerdo a una amplia evidencia [6], hubo coerción del voto y uso inadecuado de recursos públicos [7]. Este tipo de situaciones no son nuevas en México, donde un partido reguló la vida política por varias décadas haciendo uso de esas mismas [9]. Lo interesante es que, cuando uno hace la distribución de voto por casilla para el ejercicio revocatorio con la respuesta NO, su forma es compatible con una distribución del PRI para presidente en 2006 (véase la Fig. 1), por ejemplo. En dicha Fig. se compara la distribución de votos rectificados por el número de votos promedio para cada caso. Sobre cómo obtenemos la distribución de la Fig., su correspondencia con una posible dinámica de voto y algunas especificidades en la manera en que el voto se da a escala municipal será el tema del presente artículo. II. METODOLOGÍA Se hace uso de las bases de datos proporcionadas por las autoridades electorales federales a través de su página [10,11]. Dado que los recortes presupuestarios obligaron a disminuir el número de casillas y su distribución geográfica se verifica el histograma de número de votantes registrados para el ejercicio o lista nominal. Cómo se mostró en [12] el algoritmo de distritación agrupa el número de votantes máximo, la lista nominal, en al menos tres grupos claramente diferenciados [13]. En el presente ejercicio la decimación borra buena parte de los grupos como puede observarse en la Fig. 2. Ahí simplemente se realiza el histograma de la lista nominal, es decir cuántas casillas permiten 1 votantes, cuántas 2, etc. La mayoría se agrupa entre, aproximadamente, 1350 y 1950 votantes permitidos o simplemente la lista nominal. Ambos valores difieren un poco de haber compactado la lista nominal del ejercicio de 2021. Ahí la lista nominal tenía una zona con una gran cantidad de casillas con entre 550 y 750 votantes, dando 1650 y 2250 como los límites. Las otras zonas de casillas corresponden a un decaimiento para lista nominal mayor a 1950 y una meseta con valores entre mil y 1300, aproximadamente. En una estudio posterior se discutirá la decimación con parámetros distritales, seccionales y municipales. No se consideraron las casillas especiales ni el voto en el extranjero. Aún cuando la pregunta en la boleta no era binaria, aquí la denominaremos así: SI y NO. El voto mayoritario fue La distribución de voto por casilla total se contabiliza directamente, solo quitando las casillas que fueron anuladas, las especiales y el voto en el extranjero. Un estudio detallado con consideraciones geográficas, históricas y su referente a factores de marginación está en progreso [14]. Aún cuando es usual el análisis de distribuciones sobre las variables estandardizadas aquí lo hacemos sobre la variable rectificada por su valor promedio, lo que nos da una distribución de promedio unitario. Por desgracia no hay una clara manera de jerarquizar los datos para analizar correlaciones de mediano y largo alcance. III. RESULTADOS A. Descripción de las distribuciones Como puede observarse en la Fig. 1 y repetimos en la Fig. 3, la distribución del NO claramente sigue una forma parecida a la del PRI en la elección presidencial del 2006. Para poder comparar las dos distribuciones de voto rectificamos el voto por casilla por su promedio y rehacemos el histograma. Aquí no presentamos los histogramas de voto simple. Las distribuciones que se obtienen después de la rectificación presentan un inicio como ley de potencia y un decaimiento exponencial. Esta forma asimétrica tiene un buen ajuste con una distribución Gamma . ( ) = ^α [− β ] (1) Siendo la constante de normalización. En esta distribución los parámetros estan elegidos de tal manera que el promedio sea uno. En la Fig. 3 mostramos los mismos (2) De nuevo, los parámetros son elegidos para tener promedio unidad. El PRI ha mostrado un buen ajuste a estas distribuciones en varias elecciones [15] aunque un análisis más cuidadoso muestra que el resultado puede generalizarse al reconsiderar la distribuciones de acuerdo al número de votantes máximos que permite hacer un estudio estadístico con muestreos adecuados [12]. En esta nota lo que deseamos resaltar es que el resultado presidencial 2006 del PRI correspondió a la votación de su núcleo duro pues con meses de anticipación las encuestas marcaban que su candidato iba en tercer lugar. Además el análisis de errores en el cómputo de los parámetros muestra el mejor ajuste a una curva suave, en este caso aquella dada por (1). Los otros partidos y los votos nulos muestran distribuciones diferentes en general. Así, la pregunta obvia es si tales distribuciones, compatibles con distribuciones Gamma, corresponden al voto duro de partidos corporativos. En el caso del ejercicio revocatorio es claro que el voto corresponde a dos vertientes principales: 1) el voto de los partidarios del partido en el gobierno y 2) los votantes coaccionados para votar. Y esa es la importancia de analizar con mayor detalle este ejercicio, permitiría entender el voto sin los agregados de votantes que simpatizan temporalmente con el partido/candidato en una elección particular. Fig. 4. Mismos histogramas que en la Fig. 3 pero en escala semilogarítmica. Note que el decaimiento del NO y el PRI-2006 es paralelo, no así los ajustes de las funciones (1) y (2). Además de la discusión de los modelos que se hará en la sección siguiente una cosa interesante es que las distribuciones de voto presentan un problema de colas anchas, es decir, la distribución experimental decae más lento que la teórica, como puede apreciarse en la Fig. 4, donde se grafican las curvas de la Fig. 3 en escala semilogarítmica. Una distribución que es usada en el contexto de problemas de colas anchas es la de una log-normal dada explícitamente en (2), cuyo ajuste a los datos del NO-2022 se muestran en la Fig. 3 y 4. Como podemos ver, la distribución (2) ajusta un poco menos al bulto de los resultados y en la cola sobre estima la cola. Así, el problema de colas sigue presente. Esto es atenuado puesto que la inmensa mayoría de los votos es compatible con una distribución Gamma. Otra similitud importante entre el voto por el NO-2022 y el PRI-2026 es que ambos presentan votos en prácticamente todas las casillas. Es decir, hay una repulsión a no tener votos. Esto es especialmente importante para la dinámica pues indica que en casi todas las casillas de una elección nacional en un país megadiverso hay un agente que vota. IV. DISCUSIÓN Dado que las distribuciones aparecen como funciones teóricas bien establecidas, el siguiente paso es la búsqueda de mecanismos creíbles para tales resultados y una posible predicción de los parámetros de cada elección. La distribución Gamma es el resultado de un proceso de espera [16] sin embargo en el presente contexto no parece ser claro qué es lo que conduce a los resultados presentes. En esta sección discutimos dos modelos posibles sin dar números concretos. Una opción, en términos de la dinámica de partido corporativo, es considerar los votos por casilla de acuerdo a cierta distribución y cuotas de votos por casilla o sección. En este modelo se considera que el partido cuenta con agentes en cada casilla y que requiere, además de sus copartidarios, convencer o coaccionar a cierto número de votantes. Se asume que los agentes conocen de antemano el número aproximado de votantes posible en otras casillas, por lo que destinan recursos para "convencer" votantes en donde tienen poco número de simpatizantes. Esto hace que se tenga consistentemente un número promedio y moda de votantes, no importando la elección. La existencia de agentes en todas las casillas asegura que no habrá casillas sin al menos un voto para el partido. Por supuesto que existen casillas con muchos afiliados por participar familiarmente con el partido. Las casillas están ordenadas de manera alfabética, de tal manera que, en zonas densamente pobladas habrá casilla con muchos familiares y hace razonable esta suposición. Este mecanismo fue explorado en la referencia [17] donde se presenta un mapeo de votos a distancias entre ciudades en un problema de Agente Viajero (TSP, por sus sigla en inglés). Un parámetro fundamental es la distribución inicial de ciudades. Se parte de una distribución de ciudades inicialmente en una cuadrícula, para la cual únicamente existen dos distancias posibles, y se inicia una relocalización de las ciudades como una probabilidad tomada de una gaussiana de centroide en el nodo de la cuadrícula i y de varianza dada. Así el parámetro de la desviación standard lleva la distribución de ciudades de una con dos distancias permitidas a una que eventualmente tendrá las ciudades al azar y cuya distribución quasi optimal será . 2 ( ) = 2 ^2 (− 3 )(3) De nuevo con , una constante de normalización. 2 En ese ejercicio se encontró que una solución compatible con una distribución Gamma ocurre cuando la distribución inicial de ciudades puede tener una posible superposición de ciudades al hacerse la desviación standard suficientemente grande. Traducido a votos, la idea es que los operadores políticos interactúen entre ellos conociendo el número de posibles votantes favorables por adelantado. La estrategia no es que en una casilla o unidad geográfica todos salgan a votar por su partido sino la de apoyar a las secciones más rezagadas en votos a alcanzar una cuota mínima. Es en este sentido un sistema interconectado que busca tener buenos resultados mínimos en la elección, que sean óptimos. El valor de los parámetros obtenidos en la referencia [17] no son de los que mejor ajustan a los resultados presidenciales, pero sí ofrecen una idea de cómo es que funciona el voto corporativo, pues recupera la idea de que existen cuotas de votantes en dichos partidos. Además recupera el fenómeno de colas anchas que se reporta en la Fig. 4. Por otra parte, un modelo de agentes, en los cuales se mezclen agentes de cierta orientación de voto, con alguna distribución inicial y de ahí se tenga una bolsa de recursos para orientar el voto de otros ciudadanos, o la existencia de presiones en zonas ampliamente beneficiadas por los programas sociales del gobierno podría ser útil. En dichos modelos es usual que dé lugar a una ecuación tipo Fokker-Planck o similar. La distribución Gamma es la solución estacionaria de una ecuación de Fokker-Planck que tiene la forma . ∂ = (1/2) ∂ ( ) − (β/2) ∂ ((α + 1)/β − ) (4) Aquí el primer término del l.i.e. corresponde al término difusivo, mientras que el segundo a un término de arrastre. La solución estacionaria de (4) es justamente una distribución como la dada en (1). Por supuesto que aquí se requiere un modelo de agentes o de partículas que evolucione a la ecuación con los parámetros dados (véase [18], por ejemplo). Para ello el modelo tiene que ser calibrado y dicho modelado se encuentra en proceso [14]. V. CONCLUSIONES Al autor le gustaría decir coloquialmente "No estoy diciendo que sea el PRI, pero es el PRI", sin embargo aún faltan aspectos para considerar, pues puede ser que sean las prácticas y el uso de recursos públicos no sean los únicos determinantes de la distribución de voto. El ejercicio revocatorio abre posibilidades por estar bien documentada y contener básicamente dos contribuciones al voto del NO: 1) los partidarios y núcleo duro del gobierno y 2) los votantes coaccionados para votar en cierto sentido. En los datos presentados aquí la distribución de voto es consistente no solo con el cuerpo principal, sino que la desviación en la cola de la distribución en ambos casos aparece. La ausencia de casillas con muy pocos votos es claramente el resultado de que pese a que la elección resultó de poco interés para muchos ciudadanos, prácticamente no hubo casillas con cero votos a favor del No. Es decir, se trata de un fenómeno nacional. Por otra parte, modelos de tipo agente viajero o modelos de agentes en una red puede resultar útiles en la elucidación de los mecanismos de voto en México y en otros países. Sirva este texto para promover el estudio detallado de las elecciones y aprovechar situaciones particulares para aislar las dinámicas independientes en los procesos electorales. Fig Fig. 1. Distribución de voto por urna por el NO en la elección de revocación de mandato 2022 (línea negra)y por el PRI en la elección de 2006 (línea roja). Se presenta el voto regularizado por su promedio, es decir, voto por casilla entre el promedio de votos. Fig. 2 . 2Histograma de la lista nominal, o número máximo de electores habilitados en la casilla o urna, para el ejercicio de revocación de mandato en México 2022. No se realiza promediamiento ni suavización alguna. Magnetización en función del campo aplicado. para el NO. Aquí lo denotaremos como NO-2022 o simplemente NO. Fig. 3 . 3Mismos histogramas que en la Fig. 2. Se han añadido los ajustes a los datos de revocación de mandato usando una distribución Log-Normal (línea azul) y una distribución Gamma (línea magenta).resultados de voto y adicionamos los ajustes a una distribución Gamma para cada uno. Además se presenta el ajuste de una log-Normal que explicaremos más adelante. Esta distribución tiene la forma . 1. Distribución de voto por urna por el NO en la elección de revocación de mandato 2022 (línea negra)y por el PRI en la elección de 2006 (línea roja). Se presenta el voto regularizado por su promedio, es decir, voto por casilla entre el promedio de votos.estrategias electorales[8]. Dicho partido, el Partido Revolucionario Institucional, PRI, ha tenido una distribución de voto bastante regular a lo largo de las elecciones de las cuales tenemos datos a nivel casilla desde que existió una institución no gubernamental para hacer el conteo, a saber, el Instituto Federal Electoral, IFE. La distribución de voto del PRI en muchas de las contiendas federales en las que ha participado están bien descritas por una distribución Gamma en general, o una distribución de Margarita en particular, caracterizada por un decaimiento exponencial y un arranque en ley de potencia P Ball, Critical Mass. New York: Farrar, Straus and Giroux. P. Ball. Critical Mass. New York: Farrar, Straus and Giroux. 2004 Statistical physics of social dynamics. C Castellano, S Fortunato, V Loreto, Reviews of Modern Physics. 81C. Castellano, S. Fortunato, V. Loreto,"Statistical physics of social dynamics" Reviews of Modern Physics 81, 591-646, 2009 Sociophysics: A Physicist's Modeling of Psycho-political Phenomena. Serge Galam, SpringerNew YorkSerge Galam. "Sociophysics: A Physicist's Modeling of Psycho-political Phenomena". New York: Springer. 2012. Is the model voter a model for voters?. J Fernández-Gracia, K Suchecki, J J Ramasco, M Miguel, V M Eguíluz, Phys. Rev. Lett. 112158701J. Fernández-Gracia, K. Suchecki, J. J. Ramasco, M. San Miguel, and V. M. Eguíluz "Is the model voter a model for voters? " Phys. Rev. Lett. 112, 158701 , 2012 Election turnout statistics in many countries: similarities, differences, and a diffusive field model for decision-making. C Borghesi, J C Raynal, J P Bouchaud, 10.1371/journal.pone.0036289PLoS One. 736289C. Borghesi, J. C. Raynal, and J. P. Bouchaud. "Election turnout statistics in many countries: similarities, differences, and a diffusive field model for decision-making". PLoS One. 7, e36289. doi:10.1371/journal.pone.0036289, 2012. . Ejemplo Ver Por, Ver por ejemplo. Disponible en: https://www.nacion321.com/politica-1/las-principales-irregularida des-de-la-consulta-de-revocacion-de-mandato. Informe sobre los gastos realizados por los Partidos Políticos, así como de las actividades de fiscalización en la Revocación de Mandato. Unidad Técnica de Fiscalización del INEReporte de Tribunal sobre uso de recursos públicos ante el consejo general del INE. Mayo 31, 2022Unidad Técnica de Fiscalización del INE. Reporte de Tribunal sobre uso de recursos públicos ante el consejo general del INE. Mayo 31, 2022. Disponible en https://www.ine.mx/sesion-ordinaria-del-consejo-general-31-de-m ayo-de-2022/ Punto 3 "Informe sobre los gastos realizados por los Partidos Políticos, así como de las actividades de fiscalización en la Revocación de Mandato." Democratization and Authoritarian Party Survival: Mexico's PRI". J K Langston, Oxford University Press1st editionJ. K. Langston. "Democratization and Authoritarian Party Survival: Mexico's PRI". Oxford University Press; 1st edition (May 1, 2017) On the corporate votes and their relation with daisy models. H Hernández-Saldaña, Physica A Stat. Mech. Appl. 388H. Hernández-Saldaña, "On the corporate votes and their relation with daisy models". Physica A Stat. Mech. Appl. 388, 2699-704, 2009 Instituto nacional electoral web page. INE. INE, (2022). Instituto nacional electoral web page. Disponible en http://www.ine.mx Instituto federal electoral web page. IFE. IFE, (2014). Instituto federal electoral web page. Disponible en http://www.ife.mx Geopolitical Inhomogeneities in the Registered Voters' Distribution and Their Influence in the Voters' Participation Ratio Distribution: The Mexican Case. H Hernández-Saldaña, Front. Appl. Math. Stat. 7H. Hernández-Saldaña, "Geopolitical Inhomogeneities in the Registered Voters' Distribution and Their Influence in the Voters' Participation Ratio Distribution: The Mexican Case." Front. Appl. Math. Stat. 7, p 518371. 2021. . M Á Gutiérrez-Andrade, E Rincón-García, S , M. Á. Gutiérrez-Andrade, E. A Rincón-García, S. Simulated annealing and artificial bee colony for the redistricting process in Mexico. G De-Los-Cobos-Silva, P Lara-Velázquez, R A Mora-Gutiérrez, A Ponsich, Inform. J. Appl. Analytics. 49G.de-los-Cobos-Silva, P. Lara-Velázquez, R. A. Mora-Gutiérrez, and A. Ponsich, "Simulated annealing and artificial bee colony for the redistricting process in Mexico." Inform. J. Appl. Analytics. 49, pp 189-200. 2019. . H Hernández-Saldaña, No publicadoH. Hernández-Saldaña. No publicado. Result on three predictions on july 2012 federal elections in Mexico based on past regularities. H Hernández-Saldaña, e82584. 2013Plos ONE. 8H. Hernández-Saldaña, "Result on three predictions on july 2012 federal elections in Mexico based on past regularities." Plos ONE. 8, e82584. 2013 An introduction to probability theory and its applications. W Feller, John Wiley & Sons, Inc2nd editionW. Feller. "An introduction to probability theory and its applications." John Wiley & Sons, Inc.; 2nd edition (January 1, 1971) A Sociophysical Application of TSP: the Corporate Vote" in Traveling Salesman Problem. H Hernández-Saldaña, ISBN: 978-953-307-426-9Theory and Applications. Donald DavendraInTechH. Hernández-Saldaña. "A Sociophysical Application of TSP: the Corporate Vote" in Traveling Salesman Problem, Theory and Applications, Donald Davendra (Ed.), ISBN: 978-953-307-426-9, InTech, 2010 Non-Maxwellian kinetic description of Follow-the-Leader traffic models. A Tosin, M Zanella, A. Tosin, M. Zanella. (2019). "Non-Maxwellian kinetic description of Follow-the-Leader traffic models". . / Rg, 2.2.22734.00323/RG.2.2.22734.00323.
sample_8146
0.9261
arxiv
Gestion transactionnelle de la reprise sur erreurs dans le déploiement 24 Nov 2004 Cristina Marin -Noureddine Belkhatir -Didier Donsez cristina.marin@imag.fr LSR -Adèle 220 Rue de la Chimie Domaine UniversitaireBP 53 38041GrenobleFrance Gestion transactionnelle de la reprise sur erreurs dans le déploiement 24 Nov 2004200 DECOR'04, Déploiement et (Re)Configuration de Logiciels.Deploymentprocessexceptionstransactionsconsistency Avec le développement des réseaux et de l'Internet, la problématique du déploiement automatisé à large échelle est devenue de plus en plus cruciale. Le déploiement est un procédé logiciel complexe couvrant plusieurs activités allant de la configuration jusqu'à la désinstallation du logiciel. Pendant l'exécution d'un procédé de déploiement, des exceptions peuvent être rencontrées qui mettent le site dans un état incohérent. Pour les résoudre, nous proposons une approche à base des concepts transactionnels pour décrire les actions à entreprendre lorsqu'une situation exceptionnelle est rencontrée à l'exécution. L'approche proposée aide à respecter la cohérence du site en conservant une partie du travail déjà effectué par le procédé. Cet article présente notre approche et une expérimentation faite dans un système de déploiement issu de la recherche académique.ABSTRACT. With the development of the networks and the Internet, the problems of automated deployment on broad scale became increasingly crucial. Software deployment is a complex process covering several activities going from the configuration to the retirement of a software product. During the execution of a deployment process, exceptions can be met which put the site in an incoherent state. To solve them, we propose an approach based on transactional concepts which describes the actions to be undertaken when an exceptional situation is met during the deployment process. The approach guaranties the respect of the site's consistency by preserving part of the work already carried out by the process. This article presents our approach and an experimentation made in an academic deployment system. MOTS-CLÉS : Déploiement automatisé, procédé de déploiement, exceptions, transactions, cohérence Introduction Le déploiement est devenu dans ces dernières années une activité d'une importance croissante pour les entreprises qui utilisent des logiciels complexes et de taille importante. Le déploiement à large échelle (des milliers des sites) de ce type d'application pose des problèmes qu'il est difficile de résoudre sans l'aide d'un support automatisé. Le domaine du déploiement logiciel s'intéresse au développement et à la conception de systèmes destinés à fournir un support automatisé au déploiement massif de logiciels. Il essaie de définir des solutions fiables et performantes et des mécanismes automatisés pour traiter le déploiement. En conséquence, toutes les activités du déploiement [CAR 98] peuvent être exécutées avec le minimum d'intervention de la part de l'utilisateur. Il existe de nombreuses approches et de nombreux outils de déploiement, mais très peu permettent de couvrir entièrement le cycle de vie du déploiement en imposant des contraintes fortes, comme la plate-forme d'exécution ou le type de l'application à déployer. Ils sont aussi construits de manière ad-hoc. La solution proposée dans notre approche consiste à introduire des abstractions. Une des abstractions est le modèle décrivant le procédé de déploiement. Ce modèle est exécutable. Le système de déploiement sera ainsi capable de coordonner l'exécution des activités de déploiement. Cependant un procédé de déploiement peut rencontrer à l'exécution des situations exceptionnelles qui peuvent mettre en échec sa terminaison et la cohérence des sites sur lesquels les logiciels sont déployés. La cohérence des sites est une caractéristique importante du déploiement. Nous l'exprimons par deux propriétés : la réussite et la sûreté[PAR 00]. Ces deux propriétés du déploiement expriment qu'après l'exécution d'un procédé de déploiement l'application qui vient d'être déployée fonctionne comme spécifié et que le déploiement de la nouvelle application n'endommage pas le fonctionnement des autres applications déjà installées sur le site. Les outils de déploiement actuels traitent de manière identique les exceptions apparues à l'exécution en remettant le site dans l'état antérieur au déploiement. Notre approche consiste à définir un modèle de déploiement réactif qui analyse l'état du site et du procédé de déploiement à l'apparition d'une situation exceptionnelle en cours d'exécution et qui choisit une réaction appropriée pour préserver la cohérence du site et une partie du travail déjà effectué. L'article est organisé de la manière suivante. Nous présentons d'abord les concepts principaux du déploiement en réalisant ensuite une synthèse des outils de déploiement existants. La partie état de l'art présente la technologie des procédés exécutables et les différents modèles de transactions existants. Dans la section 3, nous détaillons notre problématique et présentons notre approche. Afin de le valider, nous présentons une expérimentation faite dans un système de déploiement académique. Enfin, nous concluons et présentons les perspectives de ce travail. État de l'art Cette section présente un survol des trois principaux domaines de notre travail. Il s'agit du thème central de notre travail de recherche -le déploiement et aussi de la technologie des procédés exécutables ainsi que des transactions. Pour chacun d'eux, nous présentons brièvement les principaux concepts et les travaux le concernant. Déploiement Le déploiement logiciel fait référence à toutes les activités et leurs interactions pendant le cycle de vie d'une application [CAR 98]. Ces activités concernent le versionnement, l'installation, la désinstallation, la mise à jour, l'adaptation(la réconfiguration), l'activation et la désactivation d'une application. Dés qu'une nouvelle version d'un composant logiciel est créée chez un producteur (versionnement), elle peut être installée sur une ou plusieurs sites du client. Pour pouvoir l'exécuter, l'application doit être activée. Quand le producteur dispose d'une nouvelle version d'un composant de l'application, celui-ci peut être mis à jour. Si un changement est produit dans l'environnement d'exécution de l'application (par exemple le changement de la carte vidéo utilisée par l'application), l'application peut être réconfigurée. Pour pouvoir effectuer des mises à jour ou des adaptations, l'application peut être désactivée. Enfin, quand un utilisateur n'a plus besoin d'une application installée, celle-ci peut être désinstallée. Cette présentation du cycle de vie du déploiement montre qu'il est composé de plusieurs activités complexes qui peuvent avoir éventuellement des liaisons entre elles. Chaque activité exécute une tâche précise et difficile. Les technologies industrielles actuelles liées au domaine du déploiement logiciel peuvent être classifiées en plusieurs catégories[CAR 98] : installateurs (InstallShield X -ou Java Web Start), gestionnaires de packages (RPM de Linux RedHat, SD de HP-UX), systèmes de gestion des applications (TME-10 de Tivoli), standards de description de systèmes, systèmes de transfert de contenu. Une étude plus détaillée sur ces catégories d'outils peut être trouvée dans [MAR 04]. Ces produits ont été classifiés selon les problèmes du déploiement qu'ils traitent. Ainsi, même si les solutions proposées sont efficaces, elles restent des solutions partielles qui ne couvrent pas tout le cycle de vie du déploiement. Parmi ces produits, certains couvrent une grande partie du processus de déploiement, mais imposent des contraintes sur le type de l'application à déployer (Java Web Start déploie seulement des applications web Java) ou de la plate-forme d'exécution (InstallShield accepte que des applications Windows). Un autre désavantage pour ces outils est qu'en cas d'erreurs à l'exécution ils défont tout le travail déjà effectué. Ainsi, le site est mis dans l'état antérieur à l'exécution du procédé de déploiement. Nous considérons cette approche pas toujours convenable. Un exposé des motifs qui nous ont conduit vers cette approche est détaillé dans la section 3. D'autres solutions plus académiques proposent de définir des environnements de déploiement qui couvrent entièrement le cycle de vie du déploiement. Parmi ces approches les plus intéressantes sont SoftwareDock[HAL 99], qui est le résultat d'un travail de recherche de l'Université du Colorado, et [MER 04], environnement de déploiement générique développé dans l'équipe Adèle du laboratoire LSR de Grenoble. Ces approches ont été matérialisées par le développement d'environnements de déploiement capables de gérer l'exécution des procédés de déploiement dans une architecture distribuée à grande échelle (SD) ou bien des environnements adaptables aux diverses politiques de déploiement qu'une entreprise peut définir (ORYA). Les technologies utilisées pour l'automatisation des activités sont différentes : des systèmes agents mobiles(SD) pour coordonner les activités du déploiement ou une fédération d'outils existants (ORYA) et un moteur de procédés exécutables (APEL). Transactions Les transactions ont été introduites dans les systèmes de gestion de données pour fiabiliser les opérations pour des applications bancaires et les applications de réservation de billets d'avion (SABRE) et de train (SOCRATES). Dans ces systèmes, les applications se caractérisent généralement par une courte durée d'exécution (de l'ordre de la dizaine de seconde). La transaction est considérée comme un enchaînement ordonnancé des opérations simples (read/write) respectant quatre propriétés, connues sous le nom de propriétés ACID. Le concept de transaction a ensuite intéressé les concepteurs d'applications de conception assistée par ordinateur ou bien d'applications de gestion des documents. Ces applications se caractérisent quand à elles par la nécessité d'une durée longue d'exécution pour une transaction et par le besoin de coopération entre transactions. Les propriétés ACID se montrent alors trop restrictif. Pour dépasser cet obstacle, plusieurs modèles dits avancés de transactions ont été proposés[ELM 90]. L'idée est de relâcher les propriétés de l'atomicité et de l'isolation. Pour cela, une transaction longue est décomposée en plusieurs sous-transactions. La division va jusqu'à ce que les sous-transactions obtenues soient des opérations indivisibles (simples). C'est le cas des transactions coopératives, ou le cas de Sagas où les sous-transactions sont indépendantes les unes des autres. Pour relâcher l'isolation, ces modèles permettent aux sous-transactions de rendre visible le résultat des sous-transactions, comme c'est le cas avec les transactions emboîtées ouvertes (ONT) ou les transactions Sagas. Pour récupérer un état cohérent des données en cas d'erreur, des mécanismes de contingences et des compensations sont utilisés(transactions emboîtées, des alternatives du modèle Sagas). Le modèle ConTract s'intéresse aux longues durées d'exécution. Il propose de contrôler l'exécution des activités de longues durées avec une définition des étapes à exécuter pour garantir la réussite de l'activité. Procédés La technologie des procédés a pour but de supporter l'exécution des procédés en fournissant les moyens de modéliser, d'analyser, d'améliorer, de mesurer et d'automatiser les activités de production. La notion de modèle de procédé a été définie comme une représentation abstraite d'une famille de procédés. Un modèle d'un procédé décrit un procédé en termes d'entités qui sont les activités et leur enchaînement, les ressources, les agents qui exécutent des rôles. Chacune de ces entités peut être elle-même modélisée. Pour décrire les procédés, il est nécessaire de disposer d'un langage de modélisation (PML) 1 . Tous les procédés exécutables d'une famille nécessitent un environnement qui coordonne leur exécution (PSEE) 2 . Un tel environnement est contrôlé par un moteur de procédés (Process Engine). Celui-çi a pour but de contrôler les flots de données qui transitent durant le procédé entre les différents acteurs intervenant à l'exécution du procédé. Dans ces dernières années, les systèmes de gestion des procédés sont utilisés dans une multitude d'applications. Ainsi peut être expliquée l'apparition d'une gamme assez variée de produits commerciaux : ProcessIT (AT&T), InConcert (Xerox) ou Flow-Mark (IBM) sont seulement quelques exemples. Le problème est que tous ces produits ne résoudrent pas le traitement des exceptions. Pour cela, les chercheurs ont proposé d'utiliser les transactions pour modéliser un procédé transactionnel[SHE 93]. Pour définir un modèle de procédé transactionnel, plusieurs approches ont été proposées basées sur une vision différente des projections des concepts. Une première approche est celui qui essaie d'ajouter à un modèle de procédé les concepts transactionnels pour assurer la fiabilité, la consistance de l'exécution. Dans l'autre approche, le modèle de transaction avancée est enrichi des concepts des procédés pour augmenter la fonctionnalité de l'application en terme de sûreté de l'exécution et des données. Les techniques sont utilisées de manière différente. Par exemple, la technique de reprise en arrière basée sur la compensation a deux modalités d'utilisation. D'une part, l'approche statique qui consiste de définir le modèle de compensation dans la phase de définition du procédé, soit comme partie integrante du procédé[ALO 96], soit comme un modèle à part[MUH 99]. L'approche dynamique suppose la génération du plan compensatoire à l'exécution, mais son applicabilité reste trop complexe. Déploiement transactionnel Un système de déploiement fiable et performant devra couvrir le cycle de vie du déploiement tout en tenant compte aussi des problèmes posés par les domaines adjacents du déploiement (les réseaux, la sécurité). La coordination et l'exécution des activités du déploiement peuvent être supportées par la technologie des procédés exécutables. 1. Process Modelling Language 2. Process Sensitive Software Engineering Environment Lors de l'exécution d'un procédé de déploiement des situations exceptionnelles peuvent être rencontrées. Celles-ci mettent le succès du procédé en péril et peuvent endommager la cohérence du site sur lequel le logiciel est déployé. La cohérence est exprimée par l'intermède de deux propriétés introduites par Parish dans [PAR 00] : la réussite et la sûreté. Un procédé de déploiement est considéré comme réussi si l'application déployée fonctionne après l'installation ayant tous ces composants installés. La sûreté d'un procédé de déploiement est garantie si toutes les applications déjà installées sur un site continuent de fonctionner de la même manière après l'exécution du procédé. Pour pouvoir la garantir, un système de déploiement doit contenir des modèles pour exprimer les réactions à exécuter lorsqu'une exception survient en cours d'exécution. Notre travail propose un modèle de traitement des situations exceptionnelles pour garantir les deux propriétés mentionnées. Problématique Les situations exceptionnelles rencontrées à l'exécution d'un procédé de déploiement peuvent être assez hétérogènes. Elles peuvent être causées par des pannes réseaux, par exemple l'échec du transfert d'un paquetage contenant un fragment d'une application vers un des sites sur lesquels il doit être déployé, des problèmes d'incompatibilité entre les composants installés sur un site ou des problèmes d'incompatibilité matérielle d'une application avec la plate-forme sur laquelle elle sera déployée. Le domaine du déploiement logiciel traite le cycle de vie d'une application. Une application est composée de plusieurs paquetages qui ont des dépendances entre eux à l'installation et/ou à l'exécution. Les composants d'une application peuvent avoir des différents degrés d'importance pour le fonctionnement d'une application. Prenons par exemple, le cas d'un logiciel très connu : Microsoft Word. Un composant obligatoire à l'exécution est l'éditeur de texte, toutefois le composant Dictionnaire n'est pas obligatoire d'être installé pour que l'application fonctionne. Ainsi, si à l'exécution d'un procédé de déploiement d'une application à composants, les composants obligatoires ont été installés lorsqu'une exception est levée, le procédé est mis en échec. Dans ce cas, plusieurs actions seront à envisager. Premièrement, la stratégie adoptée par tous les outils existants peut être appliquée ; de cette manière, les composants installés devront être désinstallés et le site retrouverait un état cohérent. D'autre part, pour gagner en performance en terme de temps, comme tous les composants obligatoires de l'application ont été installés, le procédé de déploiement pourra être considéré comme réussi. Le déploiement des composants optionnels (tel que le dictionnaire) peut être considéré comme opération non-critique pour un procédé de déploiement, fait qui donnera un état de cohérence partielle du site. De nos jours, un système de déploiement a une architecture distribuée qui contient plusieurs serveurs d'applications offrant les paquetages des applications à déployer, plusieurs sites sur lesquels une application devra être déployée et un serveur de déploiement qui gère l'exécution. Notre procédé de déploiement est composé de trois activités : premièrement un serveur qui contient le paquetage de l'application est trouvé, puis le paquetage est transféré vers le site client où il est enfin installé. Si pendant l'exécution du transfert (activité 2) le serveur d'applications tombe en panne, le déploiement est mis en échec. Ainsi, la réussite ne pourra pas être assurée. Comme souvent un paquetage n'est pas disponible seulement sur un seul serveur d'applications, on peut tout de même garantir la réussite du déploiement en suivant une autre voie d'exécution. Le procédé ne doit pas être abandonné, mais au contraire repris en complétant le chargement depuis un serveur d'applications miroir ou de secours. Un autre exemple significatif est le cas d'un procédé de déploiement multiple. Prenons le cas d'un composant logiciel qui doit être installé simultanément sur un millier de sites. Si l'exécution du procédé n'est réussie que sur une partie importante des sites, le système de déploiement devra prendre une décision pour traiter cette situation exceptionnelle. Il pourrait appliquer la stratégie tout ou rien, mais dans ce cas la perte de performance sera trop significative. Il pourrait d'une autre coté ignorer l'échec du déploiement sur les sites manquantes et choisir ainsi de revenir plus tard et de réessayer d'installer le composant sur ces sites. Ainsi, les sites sur lesquels le déploiement est réussi pourront bénéficier du paquetage installé. Les exemples que nous avons énoncés montrent le besoin d'avoir des mécanismes de reprise sur panne lorsqu'une exception apparaît en cours d'exécution d'un procédé de déploiement. Ces mécanismes doivent prendre en compte les critères de performance du système ainsi que celui de la cohérence du site. Dans les sections suivantes, nous décrivons le modèle que nous proposons pour traiter les problèmes posés par les erreurs sur un procédé de déploiement. Les propriétés ACID pour un procédé de déploiement Pour intégrer le concept de transaction dans le domaine du déploiement, nous avons étudié l'applicabilité des modèles de transactions existants sur un procédé de déploiement. Pour cela, il était important de caractériser l'exécution d'un procédé de déploiement. Le modèle d'exécution nécessaire pour notre procédé de déploiement possède les caractéristiques suivantes : il peut avoir une longue durée d'exécution (des heures, même des jours) ; il est composé de plusieurs activités qui peuvent être exécutées en séquentiel (une installation d'une application sur un seul site) ou en parallèle (un procédé de déploiement multiple, dans lequel une application est déployée simultanément sur plusieurs sites). Ces activités peuvent être complexes en terme de ressources utilisées (volume de données transférées,CPU). Par rapport au déploiement, les propriétés ACID d'un procédé de déploiement vu comme une transaction pourront être définies de la manière suivante. La propriété d'atomicité demande l'exécution correcte de toutes les opérations composant le procédé pour que celui-ci puisse valider son exécution. Les contraintes demandées d'être respectées en garantissant la propriété de la cohérence sont celles déjà mention-nées -la réussite et la sûreté. Une exécution en respectant la propriété de l'isolation demande qu'aucune modification intermédiaire ne soit pas rendue visible pour les autres procédés s'exécutant en parallèle. Pour respecter la durabilité, toutes les modifications validées par des procédés exécutés avec succès devront persister dans le système. Une exécution ACID n'est pas appropriée pour un procédé de déploiement. En cas d'erreur, les propriétés ACID imposent de défaire. Un autre procédé s'exécutant en même temps ou même des applications installées sur le site devront attendre la fin du procédé pour pouvoir utiliser des données (des fichiers, des composants logiciels) verrouillées par celui-ci. Les propriétés qui devront être assurées à l'exécution sont la cohérence (exprimée par les deux propriétés mentionnées) et la durabilité. L'isolation et l'atomicité ne sont pas nécessaires pour le procédé de déploiement mais peuvent être demandées pour une activité spécifique du procédé. Procédé transactionnel de déploiement Nous proposons une approche basée sur les concepts issus des modèles de transactions avancées pour traiter les problèmes qui apparaissent au cours d'exécution d'un procédé de déploiement. L'exécution du procédé respectera ainsi les propriétés CD. Notre approche propose des solutions pour traiter les éventuelles erreurs. Comme un procédé de déploiement est un enchaînement de plusieurs activités, nous introduisons nos concepts au niveau activité. Dans ce qui suit, nous présentons les concepts introduits pour exprimer le comportement transactionnel sur un procédé de déploiement. Activité critique/non-critique. Les activités composant un procédé de déploiement peuvent avoir différents degrés d'importance. Ainsi, le procédé peut contenir aussi bien des activités obligatoires à être exécutées (c.à.d activités critiques) que des activités non-critiques. Nous définissons une activité non-critique comme étant une activité qui ne doit pas être obligatoirement terminée avec succès pour que le procédé de déploiement soit réussi. Point de reprise. Une des propriétés qui doivent être assurées par un procédé de déploiement est la cohérence du site. Un procédé de déploiement en exécution peut avoir des étapes intermédiaires dans lesquels la cohérence du site est respectée aussi que des étapes dans lesquels elle ne l'est pas. Pour caractériser les étapes cohérentes d'un procédé de déploiement, nous introduisons la notion de point de reprise. Un point de reprise est associé à une activité à la fin de laquelle l'état du site est cohérent. Il est utilisé comme point de retour en arrière en cas d'erreur à l'exécution pour que les modifications d'un procédé en échec ne soient pas défaites en totalité. Activité de contingence. Une exception apparue pendant l'exécution d'un procédé de déploiement peut mettre en échec sa réussite. Toutefois, il existe des situations pour lesquelles, un autre chemin que celui de l'activité échouée peut aboutir avec succès. Cette nouvelle façon de réaliser la tâche d'une activité en échec réalise la tâche d'une autre activité alternative, que nous appelons activité de contingence. Activité de compensation. Pour défaire en cas d'exception les modifications des activités terminées avec succès, nous avons défini des activités de compensations. Une activité de compensation défait les modifications validées de l'activité à laquelle elle est associée. Tous ces concepts que nous avons défini pour un procédé de déploiement lui confèrent un comportement transactionnel. Ainsi, lorsqu'une erreur apparaît, l'échec est ignoré par le procédé si l'activité échouée est une activité non-critique. Pour traiter cet échec et afin d'assurer la réussite, une activité de contingence est exécutée. Puis, le procédé peut être poursuivi normalement. Si l'activité de contingence échoue, afin de garder une partie du travail déjà effectué et de retrouver un état cohérent du site pour garantir la sûreté, un point de reprise du procédé est utilisé. Pour retourner le procédé en arrière vers ce point, les compensations sont exécutées. Ainsi, les techniques de reprise sur panne transactionnelles utilisées sont celles des récupérations en avant et en arrière. De cette manière, un système utilisant ces concepts pour un procédé de déploiement est plus efficace grâce à l'introduction des notions d'activité non-critique et activité de contingence aidant de ne pas abandonner le procédé en présence d'une erreur. Meta-modèle de procédé transactionnel La figure 1 représente le méta modèle intégrant des concepts transactionnels dans un modèle de procédés. Le modèle de procédé schématisé contient une description des entités composant un procédé de déploiement. Un procédé consiste d'un ensemble d'activités, simples ou composites(constituée d'un enchainement de plusieurs activités). Chaque activité exécute un rôle (Role) et a des attributs (Attribute)(par exemple, l'état à l'exécution). Pour communiquer avec les autres activités du procédé, les activités possèdent des ports (Port) qui reçoivent les produits (Product). Les produits représentent les informations nécessaires pour que l'activité accomplie sa tâche, par exemple les informations nécessaires pour trouver le paquetage à déployer adéquat, le site cible, la forme binaire du paquetage. Ces produits sont typés(ProductType) et circulent d'une activité à l'autre à travers des flots de données(Dataflow). Nous avons étendu ce modèle pour pouvoir intégrer les techniques de reprise sur erreurs décrites.Une activité est typée. Un point de reprise (Savepoint) peut lui être associé. Il représente un état intermédiaire cohérent du procédé et contient les données nécessaires pour pouvoir retourner le procédé en arrière. Nous introduisons également la notion de contexte d'activité. Le contexte d'une activité permet de récupérer à tout moment des informations sur l'activité. Par exemple, il permet de récupérer au moment de la sortie en erreur des informations comme le taux du transfert pour une activité de transfert ou le pourcentage des fichiers copiés sur le disque dur pour une activité de déballage d'un paquetage. Selon la valeur de ces variables, on peut choisir une activité de reprise de l'erreur car pour certaines situations une stratégie de récupération peut être plus adéquate qu'une autre. Par exemple, Figure 1 -Le meta modèle de procédé transactionnel pour l'activité de transfert, en fonction de la variable nommée, si sa valeur est de 80% une contingence est plus adéquate qu'une compensation tandis que si sa valeur est de 10% la compensation est plus indiquée. Validation Pour valider notre travail, nous avons expérimenté notre approche sur le système de déploiement ORYA[MER 04]. Il s'agit d'un système qui utilise une fédération d'outils progiciels existants pour offrir les fonctionnalités désirées et un moteur de procédés exécutables, APEL[EST 98]. Cet outil offre plusieurs fonctionnalités : il coordonne l'exécution des procédés, permet de définir et de modifier des procédés, permet de visualiser graphiquement l'exécution d'un procédé. ORYA offre un procédé de déploiement générique, qui peut être personalisé par ses utilisateurs. Le procédé d'installation offert par ORYA est constitué de plusieurs activités (la partie haute de l'image 2). Pour pouvoir installer une application, le paquetage le contenant doit être trouvé (Search Control Package). Puis les dépendances logicielles de l'application sont résolues (Dependencies Resolve). Le paquetage est ensuite transféré (Transfert) vers le site ou il est installé (Install). Pour valider notre approche, nous avons étendu le procédé générique que ORYA offre pour l'activité d'installation. L'extension consiste à récupérer les éventuelles erreurs/exceptions qui se produisent à l'exécution. Pour les résoudre, il y a deux politiques de traitement possibles. La première consiste à définir statiquement avant l'exécution les réactions qui doivent être exécutées. Notre définition statique du procédé d'installation transactionnel contient des activités de contingence connectées sur les ports de sortie en erreur des activités (port KO) (la partie base de l'image). Ainsi, chaque fois qu'une exception est levée, elle est envoyée vers le port KO de l'activité La seconde se base sur une fonctionnalité du moteur de procédés APEL qui permet d'ajouter dynamiquement à l'exécution des activités. L'approche consiste à analyser les erreurs apparues et en fonction du contexte d'ajouter une activité de reprise (contingence ou compensation) pour résoudre le problème. Cette approche apporte un gain de complexité dans le système. Nous sommes en cours d'expérimentation de notre procédé statique d'installation que nous avons présenté pour une application OSGi distribuée sur un parc de passerelles. Pour contrôler l'installation des bundles de l'application sur chaque passerelle, un déployeur local est utilisé pour récupérer les éventuelles exceptions apparues et pour les transmettre vers le gestionnaire d'exécution. Le scénario d'exécution consiste en simuler une panne réseau entre le serveur de déploiement (ORYA) et une des passerelles, pour pouvoir appliquer une contingence qui consiste en l'utilisation d'une passerelle de réserve pour installer le bundle correspondant. Conclusion Cet article présente une approche à base de concepts transactionnels pour résoudre les situations exceptionnelles apparues en cours d'exécution d'un procédé de déploiement. Ces concepts ont été introduits au niveau d'une activité qui compose un procédé de déploiement. Notre approche aide le système de déploiement à gagner en performance. Si une erreur apparaît, pour garantir la réussite du déploiement une activité de contingence peut être exécutée. Si cela n'est pas possible, la stratégie adoptée est de ne pas défaire tout le travail déjà effectué. Ainsi, le système de déploiement fait une retour partial en Figure 2 - 2Notre procédé d'installation en cours d'exécution, d'où elle est transportée vers l'activité suivante. Celle-ci analyse l'erreur et en fonction du contexte exécute une contingence ou une compensation. DECOR'04, Déploiement et (Re)Configuration de Logiciels. DECOR'04, Déploiement et (Re)Configuration de Logiciels. DECOR'04, Déploiement et (Re)Configuration de Logiciels. DECOR'04, Déploiement et (Re)Configuration de Logiciels. DECOR'04, Déploiement et (Re)Configuration de Logiciels. pour assurer la sûreté du déploiement et pour économiser la ressource temps d'exécution. pour assurer la sûreté du déploiement et pour économiser la ressource temps d'exécution. Une des perspectives de ce travail que nous avons expérimenté que pour l'activité d'installation, est de compléter son validation pour les autres activités du cycle de vie ainsi que pour des situations nécessitant des protocoles plus difficiles de coordination (WS Coordinator,2PC). Une autre perspective de ce travail est de le personnaliser pour les différents modèles de plate. formes dans le cadre du projet OSMOSE[GDF04Une des perspectives de ce travail que nous avons expérimenté que pour l'activité d'installation, est de compléter son validation pour les autres activités du cycle de vie ainsi que pour des situations nécessitant des protocoles plus difficiles de coordination (WS Coordinator,2PC). Une autre perspective de ce travail est de le personnaliser pour les différents modèles de plate formes dans le cadre du projet OSMOSE[GDF04]. Alonso G Agrawal, D Kamath, M Gunthor R, Mohan C, Twelfth International Conference on Data Engineering. New Orleans,LouisianaIEEE Computer SocietyAdvanced Transaction Models in Workflows ContextsALONSO G., AGRAWAL D., KAMATH M., GUNTHOR R., MOHAN C., « Advanced Transaction Models in Workflows Contexts », Twelfth International Conference on Data Engineering, IEEE Computer Society, New Orleans,Louisiana, February 1996. Characterization Framework for Software Deployment Technologies », rapport de recherche n o CU-CS-857-98. Carganiza A, Fuguetta A, Hall R, D Heimbigner, Van Der Hoek A, Wolf A, Dept. of Computer Science, University of ColoradoCARGANIZA A., FUGUETTA A., HALL R., HEIMBIGNER D., VAN DER HOEK A., WOLF A., « A Characterization Framework for Software Deployment Technologies », rapport de recherche n o CU-CS-857-98, April 1998, Dept. of Computer Science, University of Colorado. Database Transaction Models for Advanced Applications. K Elmagarmid A, Morgan KaufmannELMAGARMID A. K., Database Transaction Models for Advanced Applications, Morgan Kaufmann, 1990. A graphical yet Executable Formalism for Process Modelling. J Estublier, S Dami, M Amiour, « Apel, Automated Software Engineering.ASE Journal. 51ESTUBLIER J., DAMI S., AMIOUR M., « APEL : A graphical yet Executable For- malism for Process Modelling », Automated Software Engineering.ASE Journal, vol. 5, n o 1, 1998. Generic Deployment Framework specification -draft. « Osmose-Objectweb, « OSMOSE-ObjectWeb Generic Deployment Framework specification -draft », http ://www-adele.imag.fr/ donsez/ow/owdeploy/doc, June 2004. Hall R, Agent-based Software Configuration and Deployment. University of ColoradoPhD thesis[HAL 99] HALL R., « Agent-based Software Configuration and Deployment », PhD thesis, University of Colorado, 1999. Marin C , Gestion de la cohérence et des transactions avancées liées au déploiement », rapport de DEA Systèmes et Logiciels. GrenobleUniversité Joseph Fourier GrenobleMARIN C., « Gestion de la cohérence et des transactions avancées liées au dé- ploiement », rapport de DEA Systèmes et Logiciels, Université Joseph Fourier Grenoble, Grenoble, Juin 2004. Merle N Belkhatir N, The 2004 International Conference on Software Engineering Research and Practice (SERP'04). A New Architecture for Building Large Scale Deployment SystemsMERLE N., BELKHATIR N., « A New Architecture for Building Large Scale De- ployment Systems », The 2004 International Conference on Software Engineering Research and Practice (SERP'04), June 2004. Step : the Right Direction fot Production Workflow Systems. Muhlberger R, M Orlowska, Backward, Tenth Australasian Database Conference. Auckland, New ZeelandMUHLBERGER R., ORLOWSKA M., « Backward Step : the Right Direction fot Production Workflow Systems », Tenth Australasian Database Conference, Auckland, New Zeeland, January 1999. Conceptual Foundation for Component-Based Software Deployment. Parish A, Dixon B, D Cordes, PAR 00Systems and Software. 573[PAR 00] PARISH A., DIXON B., CORDES D., « A Conceptual Foundation for Component- Based Software Deployment », Systems and Software, vol. 57, n o 3, 2000, p. 193-200. . Sheth A, Rusinkiewicz M., « On Transactional, Workflows, Bulletin of the Technical Committee on Data Engineering. 16IEEE Computer SocietySHETH A., RUSINKIEWICZ M., « On Transactional Workflows », Bulletin of the Technical Committee on Data Engineering, IEEE Computer Society, vol. 16, 1993.
sample_8198
0.9328
arxiv
Avant tout développement sur cette expérience, il apparaît opportun de commencer ce rapport par des remerciements, à ceux qui m'ont beaucoup appris au cours de ce mastère, et même à ceux qui on eu la gentillesse d'en faire un moment très profitable. Table des matières Introduction générale Dans un monde ultra-concurrentiel où l'innovation fait la différence, l'informa- Les décideurs sont ainsi des analystes, qui établissent généralement des études du comportement des clients, des produits, des sociétés concurrentes afin de mieux cibler leurs clients, de les fidéliser etc. Selon Bill Inmon, les ED consistent en une collection de données dites données de production orientées sujet, intégrées, non volatiles, historisées et organisées pour supporter un processus d'aide à la décision [40]. L'objectif principal de ces entrepôts est de permettre une analyse multidimensionnelle. Les entrepôts de données sont généralement modélisés par un schéma en étoile, qui présente classiquement une Organisation du mémoire L'organisation de notre rapport se présente comme suit : -Dans le premier chapitre, nous présentons l'entrepôt de données son architecture, sa modélisation et ses techniques d'optimisation. -Dans le deuxième chapitre, nous nous concentrons sur les IJB en les définissant puis nous allons formaliser le problème de sélection des IJB et nous finissons par la présentation de l'état de l'art. -Dans le troisième chapitre, nous allons présenter la théorie des hypergraphes avec quelques définitions sur ses concepts de bases, et par la suite nous introduisons notre approche basée sur les traverses minimales. -Dans le quatrième chapitre, nous validons notre approche par une étude expérimentale. Introduction Un entrepôt de données, ou data Warehouse, est une vision centralisée et universelle de toutes les informations de l'entreprise [30]. C'est une structure (similaire à Le schéma en constellation : la modélisation en constellation consiste à fusionner plusieurs modèles en étoile qui utilisent des dimensions communes. Un modèle en constellation comprend : plusieurs tables de faits, des tables de dimensions communes à ces tables de faits où chaque relation de faits a ses Notons que la taille de l'index de jointure dépend de la sélectivité de la jointure. Si la jointure est très sélective alors la taille de l'index est très petite. L'exploitation de l'index de jointure IJ entre R et S se fait de la manière suivante : instances. La construction de l'IJB défini sur l'attribut A se fait de la manière suivante : 1. Créer n vecteurs composés chacun de m entrées ; 2. L'ième bit du vecteur correspondant à une valeur v k est mis à 1 si le n-uplet de rang i de la table de faits est joint avec un n-uplet de la table de dimension D tel que la valeur de A de cet n-uplet est égale à v k . Il est mis à 0 dans le cas contraire. Plus formellement : IJB j k = 1 si ∃ td ∈ D tel que tf j .D id = td.D id ∧ td.A=v k où IJB j k , tf i , td représentent respectivement le j ime bit du vecteur correspondant à la valeur v k , le n-uplet de F de rang j, un n-uplet de la table D, la clé étrangère de D. -Le premier enregistrement de la table de faits V entes est joint avec le premier enregistrement de la table de dimension Client tel-que ce client habite la ville P oitiers. Ainsi, la case correspondante à la ville de P oitiers de la première ligne de cet IJB est mise à 1, le reste sera mis à 0, et de même pour tous les autres enregistrements. La syntaxe SQL relative à sa création est la suivante : Pour cela, il effectue une opération OR entre les deux vecteurs représentant les valeurs P oitiers et P aris. Le résultat est sauvegardé dans un vecteur binaire V B1. CREATE BITMAP INDEX Client_Ville_IJB -Sous-requête 2 : chargement du vecteur relatif à la valeur Mois ='Juin'. Le résultat est sauvegardé dans un vecteur binaire V B2. Cet exemple montre l'intérêt de ce type d'index pour l'optimisation de requêtes décisionnelles. Modèle basé sur l'optimiseur des requêtes : ils font appel à l'optimiseur de requêtes du SGBD utilisé pour estimer le coût d'une requête. L'optimiseur Le coût de chargement de l'ensemble d'index utilisés par une requête Q est égal à la somme des coûts de chargement de ces index. Modèle de coût -Coût d'accès aux n-uplets : soit N t le nombre de n-uplets de la table de faits référencés par la requête Q. Le coût de lecture (CL) de ces n-uplets est donné par la formule suivante : CL = F (1 − e − N t F ), où F désigne État de l'art Déterminer les attributs candidats à partir d'un entrepôt de données est un problème combinatoire et l'espace de recherche correspondant est gigantesque. Donc, on ne peut pas se permettre d'implémenter des solutions exhaustives ou énumératives. Pour réduire ce coût, nous passons comme première approche par une phase d'élagage (prunning) afin de réduire l'espace de recherche. Plusieurs travaux se sont intéressés à cette phase de d'élagage, qui s'appuie sur certains critères de sélection qui privilégie des attributs par rapport à d'autres tels que la fréquence d'utilisation, et la taille des tables, etc. [28]. Cependant, la sélection d'un ensemble optimal d'index est un problème très difficile [20] [9]) élaguent l'espace de recherche pour réduire le nombre d'attributs candidats, les indexs sont sélectionnés avec des algorithmes différents tels que des algorithmes glouton, des algorithmes linéaires, etc. même un algorithme génétique a été proposé pour la sélection d'IJB simple [11]. Dans ce travail, nous nous focalisons sur la sélection des IJB dans les entrepôts de données modélisés par un schéma en étoile. L'approche de Aouiche et al. 2005 L'algorithme Close (Pasquier et al.,1999 [52]) de recherche des motifs fréquents fermés, notés IF F , est utilisé pour élaguer l'espace de recherche des IJB. Un motif fermé est défini comme suit : Definition 1 Soit Γ = {i 1 , i 2 , .., i m } un ensemble fini d'éléments, et D = {T 1 , T 2 , .., T n } un ensemble de données contenant N transactions, où chaque transaction T k ∈ D est un élément tel que T k ⊆ Γ. Nous appelons k-itemset une séquence de k éléments distincts [1]. Un ensemble I est dit fréquent si son support est supérieur à un certain seuil appelé minsup. Le support d'un ensemble d'éléments est défini comme étant le nombre de transactions contenant ces éléments. Un motif est fermé s'il n'y a pas de super-ensemble avec la même fréquence [29]. Notons que les motifs générés servent à construire l'ensemble des IJB candidats. Un algorithme glouton est ensuite exécuté pour sélectionner une configuration finale d'IJB. Aouiche et al. [6] considèrent seulement les fréquences d'accès des attributs comme critère de génération des motifs fréquents fermés. i Extraction de la charge de requêtes : à partir du journal des transactions sauvegardé et maintenu automatiquement par le SGBD. ii Analyse de la charge : la charge de requête obtenue est analysée afin d'extraire l'ensemble des attributs indexables. iii Construction d'un contexte de recherche des motifs fermés : à partir des attributs retenus de l'analyse de la charge, construire une matrice Requêtes-Attributs qui a des lignes représentant les requêtes, et des colonnes représentant les attributs indexables. iv Application de l'algorithme Close [52]. v Construction de l'ensemble des index candidats : l'ensemble des index candidats est construit à partir des motifs fréquents fermés résultant de l'application de l'algorithme Close. vi Construction de la configuration d'index finale : à partir de l'ensemble d'index généré dans l'étape précédente, un algorithme glouton est appliqué i Identification des attributs indexables : cette étape se fait de la même manière que dans l'approche de sélection des IJB mono-attribut. ii Construction d'une configuration par requête : dans cette étape, la charge de requête Q est éclatée en m sous-charges. Chaque sous-charge est composée d'une seule requête. Pour chaque requête Q i nous sélectionnons l'index qui couvre tous les attributs indexables utilisés par cette requête. iii Construction d'une configuration initiale : le but de cette étape est de construire une configuration initiale à partir de l'ensemble des index générés lors de l'étape précédente. Cette configuration initiale est générée en effectuant l'union des indexs obtenus afin que chaque requête puisse être optimisée via l'IJB contenant tous les attributs indexables qu'elle utilise. Le nombre d'indexs dans la configuration initiale est inférieur ou égal au nombre de requêtes iii Sélection des IJB candidats : l'algorithme élimine par la suite de l'ensemble des IM F générées par la dernière étape, celles qui ne respectent pas les exigences IJB. Rappelons que chaque IJB valide composé de N attributs distincts contient 2 * N attributs clés qui représentent les prédicats de jointure. Travaux de Whang 1985 Whang et al. Bilan et discussion Nous avons présenté dans cette section les principaux travaux sur le problème de sélection des indexs. La majorité des approches proposées commencent par l'identification des attributs indexables, qui peut être manuelle ou automatique, ensuite elles utilisent des algorithmes de sélection (algorithme glouton ou dirigé par des techniques de data mining) afin de générer la configuration d'index finale. La qualité de cette configuration est mesurée soit par un modèle de coût mathématique, soit par le modèle de l'optimiseur du SGBD, que nous avons expliqué dans la section précédente. Le tableau 2.2 présente une comparaison entre les principaux travaux en se La théorie des Hypergraphes Les hypergraphes généralisent la théorie de graphe en définissant la notion des hyperarêtes, qui peuvent contenir un, deux ou plusieurs sommets, contrairement aux arêtes classiques qui ne peuvent joindre que deux sommets [41]. Approche de sélection d'IJB basée sur les traverses minimales L'intérêt pour la sélection des IJB est en nette croissance grâce notamment aux solutions qu'elles offrent au niveau de la conception physique des entrepôts de don- Motivations Les motivations sur lesquelles nous nous sommes basés pour considérer l'utilisation des traverses minimales sont les suivants : (i) leur rapidité et efficacité d'extraire des attributs indexables sans la nécessité du paramétrage de la part de l'administrateur au préalable ; (ii) s'assurer que la majorité des requêtes sera améliorée en termes de temps d'exécution et (iii) diminuer le risque de négliger des attributs candidats intéressants à l'optimisation des requêtes décisionnelles. Démarche de sélection automatique d'index Dans cette section, nous allons implémenter notre approche proposée dont la principale caractéristique est l'utilisation des traverses minimales sur un contexte d'extraction, qui consiste en une matrice Requêtes-Attributs appelé hypergraphe, telle que chaque hyperarête représente une requête et chaque sommet représente un attribut qui a fait l'objet d'un prédicat de sélection ou de projection. Dans ce qui suit, nous décrivons avec plus de détailles toutes les étapes. • Analyse de la charge : les requêtes SQL présentes dans la charge de travail sont traitées par un analyseur syntaxique automatique afin d'en extraire tous les attributs susceptibles d'être des indexs, appelés les attributs indexables. Ces attributs sont ceux présents dans les clauses Where des requêtes. Ces attributs servent à la recherche dans les requêtes d'interrogation. • Construction de l'hypergraphe : à partir des attributs extraits dans l'étape précédente, nous construisons une matrice (requêtes-attributs) dite hypergraphe qui a pour hyperaretes les requêtes de la charge et pour sommets les attributs à indexer. • Extraction des traverses minimales : une fois l'hypergraphe est prêt, nous passons au processus de l'extraction des traverses minimales, pour cette étape, Fitness(tm) = n i=1 sup i × α i Élimination des attributs de forte cardinalité La principale cause de l'explosion de la taille des IJB est la cardinalité des attributs indexés. Dans cette stratégie, les attributs sont triés par ordre décroissant par rapport à leur cardinalité. Ensuite, nous allons calculer, pour chaque T M retenue la somme de cardinalité de ses attributs et ne garder que la T M qui a le plus petit total en termes de somme de cardinalité. Cette stratégie est inspirée de la stratégie AF C introduite par K.Boukhalfa [14]. • Construction de la configuration finale : une fois toutes les étapes précédentes soient terminées, la seule traverse minimale retenue va servir à construire la configuration finale d'indexs après avoir éliminé les sommets qui représentent des attributs non-indexables, i.e., des attributs clés ou bien des attributs appartenant à la L'algorithme TM-IJB GetMinTransversality La fonction GetMinTransversality est introduite par Jelassi et al. [41]. Cette fonction est une approche parmi de nombreuses contributions proposées par notre laboratoire Lipah. Parmi les approches qui ont utilisé des techniques de fouille de données pour résoudre des différents problèmes scientifique, il est important de citer ( [3], [4], [12], [16], [17], [18], [26], [32], [33], [51]). Ces travaux, qui se sont distingués, ont utilisé une panoplie de méthodes tels que la classification, les règles k = | ξ | ; 3 T = ∅ ; 4 pour chaque x ∈ X faire Une fois la construction de l'hypergraphe est terminée, le processus mis en place par notre approche commence par le calcul du nombre de transversalité, qui est égal au cardinal de la plus petite traverse minimale. Dans cet exemple, le nombre de transversalité est égal à 2. 5 i = 1 ; 6 T tmp = ∅ ; 7 T tmp [i] = x ; 8 ξ = ξ \ {e ∈ ξ | x ∈ e} ; 9 (n, T tmp ) = hyp_empty(ξ , | ξ |, i, T tmp ) ; Par la suite il enchaîne par l'extraction de toutes les traverses minimales qui ont une taille égale au nombre de transversalité, qui sont dans cet exemple 9 traverses minimales (1,4), (1,5), (1,6), (2,4), (2,5), (2,6), (3,4), (3,5), (3,6). Dès que l'algorithme termine la génération de toutes les traverses de taille 2, il calcule pour chacune d'elles la fonction Fitness. Sans oublier de mentionner que seuls les attributs A3 et A6 Environnement de travail Évaluation des approches existantes Tout d'abord, nous avons effectué des expériences pour définir la valeur appropriée de minsup qui permet la génération d'un grand ensemble d'IF F . Les résultats montrent que la valeur minimale appropriée doit être définie sur 0.1. Approche Close Cette approche utilise un contexte d'extraction qui consiste en une matrice Requêtes-Attributs. Dans cette matrice, chaque ligne représente une requête et chaque colonne représente un attribut qui a fait l'objet d'un prédicat de sélection ou de projection. Notons qu'on a identifié les attributs par un numéro de 1 jusqu'à 57 pour simplifier la manipulation du fichier texte en entrée. Approche Dynaclose Cette approche prend également en input une matrice de contexte Uses(Qi, Aj) Conclusion Dans ce chapitre, nous sommes passés de l'étude théorique à la partie expéri- Keywords : Data warehouses, Physical design, Binary join index, hypergraph, minimal transversal. fondamentaux . . . . . . . . . . . . . . . . . . . . . . . . . 5 1.1.1 Architecture des entrepôts de données . . . . . . . . . . . . . 5 1.1.2 Modélisation des entrepôts de données . . . . . . . . . . . . . 11 1.2 Les besoins d'entrepôt de données. . . . . . . . . . . . . . . . . . . . 16 1.3 Techniques d'optimisation . . . . . . . . . . . . . . . . . . . . . . . . 16 1.3.1 Techniques d'optimisation non redondantes . . . . . . . . . . . 17 1.3.2 Techniques d'optimisation redondantes . . . . . . . . . . . . . 19 2 Les index de jointure binaires IJB 24 2.1 Concepts de bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 2.1.1 Définition de l'index de jointure binaire (IJB) . . . . . . . . . 25 2.1.2 Formalisation du problème de sélection d'index . . . . . . . . 27 2.2 Stratégie d'exécution en présence des IJB . . . . . . . . . . . . . . . . 29 2.3 Modèle de coût . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 2.3.1 Types de modèle de coût . . . . . . . . . . . . . . . . . . . . . 32 2.3.2 Coût de stockage d'un IJB . . . . . . . . . . . . . . . . . . . . 33 2.3.3 Coût d'exécution . . . . . . . . . . . . . . . . . . . . . . . . . 34 2.4 État de l'art . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 2.4.1 L'approche de Aouiche et al. 2005 . . . . . . . . . . . . . . . . 36 2.4.2 Les travaux de Bellatreche 2008 . . . . . . . . . . . . . . . . . 38 2.4.3 L'approche de Boukhalfa et al. 2010 . . . . . . . . . . . . . . de Necir 2010 . . . . . . . . . . . . . . . . . . . . 40 2.4.5 Travaux de Whang 1985 . . . . . . . . . . . . . . . . . . . . . 42 2.4.6 Bilan et discussion . . . . . . . . . . . . . . . . . . . . . . . . 42 3 Nouvelle approche de sélection d'IJB : utilisation des traverses minimales 44 3.1 La théorie des Hypergraphes . . . . . . . . . . . . . . . . . . . . . .45 3.1.1 Les hypergraphes . . . . . . . . . . . . . . . . . . . . . . . . . 45 3.1.2 Traverse minimale . . . . . . . . . . . . . . . . . . . . . . . . 46 3.2 Approche de sélection d'IJB basée sur les traverses minimales . . . . 50 3.2.1 Motivations . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 3.2.2 Démarche de sélection automatique d'index . . . . . . . . . . 52 3.2.3 L'algorithme TM-IJB . . . . . . . . . . . . . . . . . . . . . . . 55 3.3 Exemple illustratif . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 4 Étude expérimentale et évaluations 62 4.1 Environnement de travail . . . . . . . . . . . . . . . . . . . . . . . . 62 4.2 Jeux de données . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 4.3 Évaluation des approches existantes . . . . . . . . . . . . . . . . . . . 65 4.3.1 Approche Close . . . . . . . . . . . . . . . . . . . . . . . . . . 66 4.3.2 Approche Dynaclose . . . . . . . . . . . . . . . . . . . . . . . 66 4.4 L'approche TM-IJB . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 4.5 Étude expérimentale . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 4.5.1 Le banc de test SSB1 . . . . . . . . . . . . . . . . . . . . . . . 70 4.5.2 Le banc de test TPC-H . . . . . . . . . . . . . . . . . . . . . . 75 Conclusion générale et perspectives 84 tique décisionnelle (ou bien le Business Intelligence [BI] dans la terminologie anglosaxonne), joue un rôle très important pour les entreprises. Il s'agit d'une panoplie de moyens et de méthodes informatique permettant l'exploitation, l'analyse et l'interrogation des données matérielles ou immatérielles de l'entreprise, afin d'en dégager de nouvelles informations qualitatives qui vont fonder des décisions, qu'elles soient tactiques ou stratégiques. L'objectif essentiel de l'informatique décisionnelle est d'avoir une vision globale de l'activité en vigueur, anticiper les actions, être en phase avec les attentes de ses clients et pouvoir ainsi adapter les bonnes stratégies, et faciliter la prise de décision et l'analyse décisionnelle des dirigeants pour un meilleur pilotage de l'entreprise. En d'autres termes, la BI unie les données, les technologies, les analyses et les connaissances humaines pour optimiser les perceptions de l'organisation et la conduire ainsi vers le succès. Une entreprise moderne brasse dans son système d'information une large volumétrie de données répartis dans plusieurs domaines applicatifs. Le fait que ces volumes sont trop importants et de l'hétérogénéité des sources de données, rend très difficile de donner un sens à ces données, de comprendre ce qu'elles expriment : des tendances sous-jacentes, des faiblesses ou des forces cachées, toute chose que l'on doit connaître afin de prendre de bonnes décisions. Toutes ces données sont stockées dans des nouvelles bases de données comme les entrepôts de données (ED), qui se caractérisent par : (i ) leurs sources de données distribuées et hétérogènes ; (ii ) leur modélisation à travers un schéma en étoile ; (iii ) la complexité des requêtes due à des opérations de jointure et d'agrégation ; et (iv ) les exigences des utilisateurs en termes de temps de réponse des requêtes. une base de données) qui a pour objectif regrouper les données de l'entreprise pour des fins analytiques et pour offrir de l'aide à la prise de décisions stratégiques. La décision stratégique est une action vitale pour les décideurs de l'entreprise, vise à améliorer, quantitativement et/ou qualitativement, la performance de l'entreprise. En gros, c'est un gigantesque tas d'informations historisées, organisées, épurées, intégrées et provenant de plusieurs sources de données, servant aux analyses et à l'aide à la décision [5]. L'entrepôt de données est l'élément central de l'informatique décisionnelle. L'informatique décisionnelle a connu et connaît aujourd'hui encore un essor important. Elle permet l'exploitation des données d'une organisation dans le but de faciliter la prise de décision. En effet, l'entrepôt de données est le meilleur moyen que les chercheurs et les professionnels ont trouvé pour modéliser de l'information pour des fins d'analyse. Figure 1 . 5 - 15Le schèma en flocon de neige propres dimensions. Ce modèle offre une meilleure gestion des données creuses. Figure 1 . 6 - 16Le schèma en flocon de neige[15] majorité des SGBD commerciaux utilisent l'index B-Tree comme étant l'index par défaut. Cet index est organisé sous forme d'un arbre à plusieurs niveaux. Chaque noeud d'un niveau pointe vers le niveau inférieur. Le niveau le plus bas qui comporte les noeuds feuilles contient les entrées d'index ainsi qu'un pointeur vers l'emplacement physique de l'enregistrement correspondant (ROWID). La figure 1.9représente un exemple d'index B-arbre construit sur l'attribut P ID de la table Produit. Figure 1 . 9 - 19Index B-Tree[13] Index de projectionUn index de projection est défini sur un ou plusieurs attributs d'une table. Il consiste à stocker toutes les valeurs de ces attributs dans l'ordre de leur apparition dans la table. Généralement, les requêtes accèdent à un sous-ensemble d'attributs d'une table. Si ces attributs sont contenus dans un index de projection, l'optimiseur ne charge que cet index pour répondre à la requête. La figure 1.10 montre un index de projection défini sur l'attribut V ille de la table Client. Figure 1 . 110 -Index de projection[13] Index de hachage L'index de hachage utilise une fonction de hachage. Cette fonction permet, à partir d'une valeur de clé c, de donner l'adresse f (c) d'un espace de stockage où l'élément doit être placé. La figure montre un index de hachage construit sur l'attribut P ID d'une table Produit. Dans ce type d'index, le choix de la fonction de hachage est la tâche la plus importante pour garantir une bonne performance de l'index. Par exemple, si la fonction donne la même valeur à un nombre important d'éléments, alors l'accès ressemblera à un balayage séquentiel et ainsi l'index perd son intérêt. Figure 1 . 111 -Index de hachage[13] Index binaire (bitmap index) L'index binaire utilise un ensemble de vecteurs binaires (contenant des valeurs 0 ou 1) pour référencer l'ensemble des n-uplets d'une table. Pour chaque valeur de l'attribut indexé, un vecteur de bits est stocké. Ce vecteur contient autant de bits qu'il y a de n-uplets dans la table indexée. L'index binaire a été considéré comme le résultat le plus important obtenu dans le cadre de l'optimisation de la couche physique des entrepôts de données[27].Supposons un attributA ayant n valeurs distinctes v 1 , v 2 , ..., v n (n est appelé cardinalité de A) appartenant à une table T composée de m instances. La construction de l'index binaire IB défini sur l'attribut A se fait de la manière suivante : 1. Créer n vecteurs composés chacun de m entrées ; 2. Pour chaque n-uplet i, (1 ≤ i ≤ m) dans T , si i.A = v k , alors mettre 1 dans le i eme bit du vecteur correspondant à v k , mettre 0 dans les i emes bits des autres vecteurs. Si une requête recherche les n-uplets vérifiant un prédicat d'égalité Figure 1 . 112 -Index binaire[13] (par exemple A = v k ,), alors il suffit de lire le vecteur associé à v k , chercher les bits ayant la valeur 1, ensuite accéder aux n-uplets correspondant à ces bits.La figure 1.12 montre un exemple d'index binaire construit sur l'attribut V ille de la table Client. Index de jointure Quelque soit la base de données opérationnelle ou bien décisionnelle l'opération de jointure est toujours présente et surtout dans les requêtes OLAP . Elle est très coûteuse, puisqu'elle manipule de grands volumes de données. Plusieurs implémentations de la jointure ont été proposées dans les bases de données traditionnelles : les fonctions de hachage, les boucles imbriquées, etc. Ces implémentations perdent leur apport et restent limitées lorsque la taille des tables concernées par la jointure est importante. Valduriez a proposé un index de jointure, qui pré-calcule la jointure entre deux tables [59]. L'index de jointure matérialise les liens existant entre deux tables en utilisant une table à deux colonnes chacune représentant l'identifiant d'une table. Soit R et S deux tables qui peuvent être jointes par les attributs R.a et S.b. L'index de jointure est l'ensemble des n-uplets < R.ID i , S.ID j > tel que les n-uplets de R et S ayant respectivement pour identifiant IDi et IDj vérifient la condition de jointure. Figure 1 . 113 -Index de jointure[13] Figure 2 . 1 - 21Index de jointure binaire[13] Ce qui suit un exemple illustratif d'un IJB. Exemple 1 1Soit la table de faits VENTES qui comprend 12 tuples, et soit l'attribut Ville de la table de dimension Client ayant 3 valeurs distinctes Poitiers, Paris et Nantes. La construction de l'index de jointure binaire IJB défini sur l'attribut A s'effectue comme suit : -Créer 12 vecteurs, chacun comprenant 3 entrées, Figure 2 . 2 - 22du problème de sélection d'index Le problème de sélection d'index est un problème difficile qui consiste à choisir la configuration d'index optimale susceptible d'optimiser les requêtes de jointure en étoile et réduire leur temps d'exécution. Cette configuration d'index doit respecter certaines contraintes imposées dans un entrepôt de données telles que l'espace de stockage, le nombre d'index par table, le temps de maintenance et de mise à jour, etc. Par conséquent, ce type de problème est considéré dans la communauté de recherche comme un enjeu critique dans la conception physique étant donné qu'un IJB est en général défini sur un ensemble d'attributs issus de plusieurs tables différentes. Pour formaliser ce problème, nous pouvons dire qu'en entrée, nous disposons de 3 paramètres essentiels : 1. Un ensemble de requêtes Q = {Q 1 , Q 2 , ..., Q m } qui forment la charge de travail, 2. Un schéma d'entrepôt de données renfermant une table de faits F et un groupe de tables de dimensions D i , 3. Les contraintes de coût de stockage maximum à ne pas dépasser. Le problème de sélection des IJB consiste à déterminer une configuration d'index dont le coût d'exécution soit minimal tout en respectant l'ensemble des contraintes. Le problème de sélection des IJB est considéré comme un problème NP-Complet [22]. Par conséquent, élaborer un algorithme exhaustif fournissant une solution optimale et exacte en un temps raisonnable devient impossible. Dans ce contexte, la communauté de recherche s'intéresse à réaliser un algorithme s'appuyant sur des heuristiques pour s'approcher de la solution optimale représentée sous forme d'une configuration d'index basée sur un ensemble d'attributs candidats. Pour construire une configuration d'index optimale, nous devons déterminer les attributs pertinents à indexer et cela peut s'effectuer de deux manières : • Sélection manuelle : une technique qui s'appuie sur l'expertise humaine. En effet, cette tâche est effectuée par l'administrateur qui doit avoir une bonne pratique, l'expérience nécessaire, et un raisonnement fiable pour choisir les attributs candidats.• Sélection automatique : ce type de sélection passe par deux phases cruciales (cf.figure 2.2) : Approche générique de sélection d'IJB Exemple 2 2Soit l'entrepôt de données de la figure 1.12 de la page 22. Supposons la requête Q définie par : .CID=D.CID AND V.PID=P.PID AND V.TID=T.TID AND C.VILLE=('Poitiers' OR 'Nantes') AND Mois ='Mars' AND (P.TYPE='Jouet' OR 'Beauté') Supposons l'existence de trois index mono-attributs, IJB-V ille, IJB-M ois et IJB-T ype définis comme suit : (Figure 2 . 3 - 23SELECT CID FROM Client WHERE AND VILLE=('Poitiers' OR 'Nantes')) AND V.PID in (SELECT P.PID FROM Produit WHERE (P.TYPE='Jouet' OR 'Beauté')) AND V.TID in (SELECT T.TID FROM Time WHERE T.Mois ='Mars') 2. Le calcul du vecteur de bits relatif à chaque sous-requête se fait Vecteur de bits d'un IJB [13] -Sous-requête 1 : l'optimiseur calcule le vecteur vérifiant le prédicat C.VILL E= ('Poitiers' OR 'Paris'). - Sous-requête 3 : Chargement des vecteurs relatifs aux valeurs Jouet et Beaut. Il effectue une opération OR pour avoir un vecteur résultat. Le résultat est sauvegardé dans un vecteur binaire V B3.3. L'optimiseur calcule un vecteur binaire final V BF qui est le résultat d'une opération AN D entre les trois vecteurs obtenus comme suit : V BF = V B1 AN D V B2 AN D VB3. 4. L'optimiseur accède à partir de V BF aux n-uplets de la table de faits en utilisant les rowids correspondant aux bits mis à 1 dans V BF . Il calcule la moyenne du montant de ces n-uplets. Figure 2 . 24 -L'approche Close de Aouiche[6] pour sélectionner une configuration d'index finale. Cet algorithme procède en plusieurs itérations. Dans la première itération, la fonction objective est calculée pour chaque index candidat. L'index Imax maximisant la fonction objective est choisi pour former la configuration initiale. Durant chaque itération, un nouvel index vérifiant la même condition est ajouté à la configuration courante. L'algorithme s'arrête dans les cas suivants : -Aucune amélioration de la fonction objectif n'est possible.-Tous les indexs ont été sélectionnés.-L'espace de stockage disponible est saturé.La fonction objective utilisée repose sur un modèle de coût, qui permet de calculer la taille des indexs sélectionnés ainsi que le coût d'exécution des requêtes en présence de ces indexs.La première fonction objective améliore les indexs qui offrent plus de profit lors de l'exécution des requêtes, la seconde favorise les indexs qui fournissent plus de bénéfices et occupent moins d'espace de stockage. La troisième combine les deux premières afin de sélectionner d'abord tous les indexs offrant plus de profit et ne gardent que ceux qui occupent moins d'espace de stockage lorsque cette ressource devient critique.2.4.2 Les travaux de Bellatreche 2008Bellatreche et al.[9,45] exposent une amélioration des travaux d'Aouiche et al [6], ils proposent l'algorithme DynaClose qui est une adaptation de l'algorithme Close sur lequel se basent Aouiche et al. en injectant des paramètres d'élagage, ce qui permet d'arriver directement à l'index de jointure binaire élu. L'algorithme proposé s'appuie sur une fonction permettant de pénaliser les attributs fréquents définis sur des tables de petites tailles. Cette approche commence d'abord par déterminer les attributs indexables, sachant qu'un attribut indexable est un attribut qui ne fait pas partie de la table de faits et qui n'est pas un attribut clé de la table dimension. Ensuite, elle détermine la matrice de contexte. Une fois la matrice créée, cette approche fournit le support relatif à chaque attribut indexable et les motifs pour chaque requête. Et enfin, elle calcule la valeur de la fonction Fitness de ces motifs en suivant la formule suivante. Pour un motif fréquent m i , la formule est définie par : F itness(m i )= 1 n × ( n j=1 (α j × sup j )) Où n désigne le nombre d'attributs non clés, j est l'attribut dans le motif à tester m i . sup j représente le support de j, α j est un paramètre de pénalisation déterminé par l'équation : α j = |D j | |F | ; sachant que les notations |D j | et |F | expriment respectivement la taille de la table de dimension D à laquelle appartient l'attribut j et la table de faits F en nombre de pages. Suite à la détermination des motifs fréquents générés, l'approche DynaClose est utilisée dans la phase d'élagage de l'espace de recherche des indexs pour élaguer les motifs inaptes à produire un index de jointure. Par exemple, un motif fréquent et ne renfermant aucun attribut non clé de la table de dimension sera éliminé. La purification permet de générer un ensemble d'attributs indexables candidats. Cet ensemble est défini par l'union des attributs non clés appartenant aux motifs approche de Boukhalfa et al. 2010 Boukhalfa et al. [14] présentent une approche de sélection d'une configuration d'IJB visant à réduire le coût d'exécution d'une charge de requêtes sous une contrainte de stockage. Cette approche permet à la fois d'extraire les IJB mono-attribut et les IJB multi-attributs. L'extraction des IJB Mono-attribut se fait en 3 étapes : i L'identification des attributs indexables : sont choisis parmi les attributs indexables de faible et de moyenne cardinalité.ii L'initialisation de la configuration : configuration initiale composée d'un index mono-attribut défini sur l'attribut ayant une cardinalité minimum.iii L'enrichissement de la configuration actuelle par l'ajout de nouveaux index : une amélioration itérative par l'ajout d'index définis sur d'autres attributs non encore indexés. L'algorithme s'arrête lorsque l'une des deux conditions suivantes sont satisfaites : aucune amélioration n'est possible et l'espace de stockage est consommé.L'extraction des IJB Multi-attribut se fait en 4 étapes : Figure 2 . 25 -L'approche de Boukhalfa et al.[13] de la charge, car certaines requêtes partagent les mêmes index.iv Construction d'une configuration finale : vu le nombre important d'attributs utilisés par la configuration initiale, l'administrateur est confronté au problème du choix des attributs à éliminer. Plusieurs stratégies peuvent être suivies pour effectuer ce choix. -Elimination des attributs de forte cardinalité (AFC), -Elimination des attributs appartenant aux tables moins volumineuses (TMV), -Elimination des attributs les moins utilisés (AMU), -Elimination des attributs apportant moins de réduction de coût (MC). al.[46] exposent une amélioration de l'approche de Azefack[7] qui utilise l'algorithme GenM ax. L'idée fondamentale de cette approche est que seuls les attributs fréquents dans les requêtes pour lesquelles chaque super-ensemble est infréquent sont considérés dans la configuration de l'index. Necir et al. proposent une approche opérant en quatre étapes. Dans la première, ils effectuent un prétraitement de la charge de travail des requêtes. Dans la seconde, ils appliquent un nouvel algorithme d'élagage, appelé BJIMax qui identifie l'ensemble des IM F . Un IM F est défini selon la définition 2.Definition 2 Soit Γ = {i 1 , i 2 , .., i m } un ensemble fini d'éléments, et D = {T 1 , T 2 , .., T n } un ensemble de données contenant N transactions, où chaque transaction T k ∈ D est un élément tel que T k ⊆ Γ. Nous appelons k-itemset une séquence de k éléments distincts [1]. Un ensemble I est dit fréquent si son support est supérieur à un certain seuil appelé minsup. Le support d'un ensemble d'éléments (en valeur absolue) est défini comme étant le nombre de transactions contenant ces éléments. Un ensemble est maximal s'il n'a pas de super ensemble qui est fréquent [29]. Ensuite, les IM F définies générées par BJIMax sont nettoyées pour éviter les IJB erronées. Enfin, ils exécutent un algorithme glouton pour sélectionner l'ensemble des index gagnants parmi les candidats sélectionnés. i Extraction de la charge de requêtes : à partir du journal des transactions sauvegardé et maintenu automatiquement par le SGBD. Analyse de la charge : la charge de requête obtenue est analysée afin d'extraire l'ensemble des attributs indexables. Construction d'un contexte de recherche des motifs fermés : est une matrice qui a des lignes représentant les requêtes, et des colonnes représentant les attributs indexables. ii Génération des IM F : L'algorithme est inspiré de l'algorithme GenMax de Gouda et Zaki, 2005 [29] qui adopte une stratégie de recherche en profondeur et est basé sur une nouvelle métrique d'élagage appelée poids. Ce dernier pénalise l'IM F définie sur un petit profit comme suit : it(A i ) Où n, sup(X) représentent respectivement le nombre d'attributs et le support de l'attribut A i dans IM F (X). Le profit est calculé comme suit : prof it(A i ) = T i ×LT P S où T i , LT et P S représentent respectivement le nombre d'instances de T , la longueur d'une instance de T et la taille de la page (en octets). Necir et al. définissent une nouvelle contrainte de valeur de seuil minimale, appelée M inW eight calculée comme suit : M inW eight = M inSup × M inprof it où M inprof it représente la valeur minimale du profit. [61] ont proposé une approche ascendante et une approche descendante pour la sélection d'indexs. Ces deux approches sont implémentées par deux algorithme Drop et Add. L'approche descendante considère un état initial contenant tous les indexs possibles et durant chaque itération, l'index engendrant la plus grande décroissance du coût d'exécution de la charge de requête est éliminé. Quand l'élimination d'un seul index à la fois ne permet pas de réduire le coût d'exécution des requêtes, l'algorithme Drop élimine deux index à la fois, ensuite trois index, et ainsi de suite. L'approche ascendante quant à elle considère un état initial vide dans lequel aucun index n'est et durant chaque itération de l'algorithme Add, un index réduisant le coût d'exécution des requêtes sera ajouté à l'état courant. Le processus s'arrête lorsque tous les indexs sont créés ou aucune réduction de coût n'est possible. étude de l'état de l'art concernant la conception physique a conduit à une constatation essentielle : les approches existantes n'améliorent pas suffisamment les requêtes parce que la majorité de ces dernières ne sont pas concernées par la confi-guration finale choisie. Nous focalisons alors sur cette limite pour introduire une nouvelle approche qui se base sur une notion clé dans la théorie des hypergraphes appelée traverse minimale T M . Cette dernière est un ensemble de sommets qui intersecte toutes les hyperarêtes d'un hypergraphe et elle est dite minimale si elle l'est au sens de l'inclusion [41]. À partir de cette structure, nous déterminons les attributs candidats, nous en créons les IJB relatifs et nous améliorons ainsi la performance du système. Nous entamons ce chapitre par une présentation de la théorie des hypergraphes et ses notions de base avec une mise en évidence de l'utilité des traverses minimales. Ensuite, nous expliquons ce que représente la T M grâce auquel nous pouvons exploiter les solutions potentielles. En outre, nous détaillons les différentes étapes que suit notre politique adoptée pour contourner le problème d'optimisation des requêtes. Enfin, nous concluons ce chapitre par un exemple illustratif de notre approche. D'un point de vue théorique, les hypergraphes permettent de généraliser certains théorèmes de graphes, voire d'en factoriser plusieurs en un seul. Les hypergraphes sont parfois préférés aux graphes puisqu'ils modélisent mieux certains types de contraintes, d'un point de vue pratique. Dans cette section, nous allons présenter quelques notions de bases et des définitions essentielles sur les hypergraphes et les traverses minimales nécessaires à l'introduction de la problématique de l'extraction des traverses minimales, en se basant essentiellement sur les définitions proposées par Berge [10]. 3.1.1 Les hypergraphes Un hypergraphe H = (S, E) est constitué de deux ensembles S et E, et est défini comme suit. Definition 3 hypergraphe [10] : Soit le couple H = (S, E) avec S = {s 1 , s 2 , . . . , s n } un ensemble fini et E = {e 1 , e 2 , . . . , e m } une famille de parties de E. H constitue un hypergraphe sur S si : 1. e i = ∅, i∈ {1, ...., m}; 2. i=1,...,m e i = S Les éléments s i de S sont appelés sommets de l'hypergraphe et les éléments e i de E sont appelés hyperarêtes de l'hypergraphe. Un hypergraphe est dit d'ordre n si |S| = n où n est le nombre de sommet, et la taille d'un hypergraphe est égale au nombre d'occurrences des sommets dans ses hyperarêtes. L'exemple de la figure 3.1 illustre un hypergraphe H = (S, E) d'ordre 8 et de taille 14 tel que S = {1, et E= {{1, 2}, {2, 3, 7}, {3, 4, 5}, {4, 6}, {6,7, 8}, {7}}. Figure 3 3traverse d'un hypergraphe H est un ensemble de sommets s ⊆ S qui intersecte chaque hyperarête de H au moins une fois et est défini comme suit. Definition 4 Traverse minimale [10] : Soit un hypergraphe H = (S, E). L'ensemble des traverses de H, noté γ (H), est égal à : γ (H) = {T ⊂ S | T s i = ∅, ∀ i = 1, . . . , | E |}. Une traverse T de γ (H) est dite minimale s'il n'existe pas une autre traverse S de γ H incluse dans T : S ∈ γ (H) s.t. S ⊂ T . Nous noterons (MH), l'ensemble des traverses minimales définies sur H. Dans l'exemple illustratif de la figure 3.1, l'ensemble (MH) des traverses minimales de l'hypergraphe est égal à : { {1, 4, 7}, {2, 4, 7}, {1, 9}}. À partir d'un hypergraphe H = (S, E), l'ensemble des traverses minimales (MH) permet la construction de l'hypergraphe transversal, qui est un hypergraphe où toutes ses hyperarêtes sont des traverses minimales. Definition 5 Soit un hypergraphe H = (S, E), le nombre minimum de sommets d'un ensemble transversal est appelé le nombre de transversalité de l'hypergraphe H et est désigné par : τ (H) = min{|T |, tel que T ∈ (MH) } [10]. Ainsi, dans l'exemple illustratif de la figure 3.1, le nombre de transversalité de l'hypergraphe H est égal à 3 car la plus petite traverse minimale de MH est composée de 3 sommets. La détermination d'un nombre de transversalité apparaît dans de nombreux problèmes combinatoires [10]. Problème de l'extraction des traverses minimales L'extraction des traverses minimales d'un hypergraphe est un des problèmes les plus importants en théorie des hypergraphes. C'est un problème algorithmique central et particulièrement difficile et la question de sa complexité exacte reste toujours ouverte. Plusieurs travaux se sont attachés à proposer diverses méthodes pour le traiter [10]. Trouver une traverse minimale d'un hypergraphe est une tâche aisée mais calculer l'ensemble de toutes les traverses minimales pose plusieurs problèmes dans la mesure où le nombre de sous-ensembles de sommets à tester est très grand. Les travaux de recherche, pour faire sauter les différents verrous scientifiques que posait l'extraction des traverses minimales d'un hypergraphe, se sont attachés à réduire l'espace de recherche. Néanmoins, le coût du calcul reste substantiellement élevé et les algorithmes existants se sont heurtés à des temps d'exécution conséquents et à l'incapacité de traitement lorsque le nombre de transversalité de l'hypergraphe d'entrée est grand. Domaines d'applications des traverses minimales L'intérêt pour l'extraction des traverses minimales s'augmente ces dernières années, en raison de la multitude et de la diversité des domaines d'application où le recours aux traverses minimales peut constituer une solution. Le large éventail des domaines d'application, comme le résume la figure 3.2, donne ainsi une importance plus grande aux traverses minimales et motive l'intérêt qu'elles suscitent. Dans ce qui suit, nous en donnerons un aperçu et nous citerons les problèmes les plus connus, où les traverses minimales sont applicables. Parmi les domaines d'applications des traverses minimales, nous pouvons citer la logique, par le fait de rendre la détermination de la dualité F N C/F N D au problème de calcul des traverses minimales d'un hypergraphe. De son coté, les bases de données ont eu leur part de l'utilisation des traverses minimales pour aboutir à des solutions de ses différents problèmes, comme par exemple, étant donné une relation et un Figure 3 . 3Figure 3.2 -Les domaines d'applications des traverses minimales [31] Algorithme 1 : 1L'algorithme Mmcs[44] Var. Globale : uncov (initialisé à ξ), Cand (initialisé à X ), crit[x] initialisé à ∅ pour chaque x Entrées : H = (X , ξ) : Hypergraphe, X : ensemble de sommets Sorties : T tel que T ∈ M hyperarête e à partir de uncov ;5 C = Cand ∩ e ; 6 Cand = Cand \ C ; 7 pour chaque x ∈ C faire 8Update_crit_uncov(x, crit, uncov ) ;9 si crit(f, X ∪ x) = ∅ pour chaque f ∈ X alors10 Mmcs(X ∪ x) ; 11 Cand = Cand ∪ x ; 12 Restaurer les valeurs de crit et uncov d'avant la ligne 8 ; nées et au niveau de l'optimisation des requêtes et du système en général. Dès le début nous avons décidé de choisir les IJB comme structure d'optimisation qui est une technique très bien répandue dans les entrepôts de données. Figure 3 . 3 - 33Approche de séléction d'IJB Après l'analyse de la charge et la construction de l'hypergraphe à travers les attributs susceptibles d'être des indexs de la charge de travail, le processus mis en oeuvre par notre approche commence par le calcul du nombre de transversalité, qui est égal au cardinal de la plus petite traverse minimale (voir définition 5 page 46). Par la suite, il enchaîne par l'extraction de toutes les traverses minimales qui ont une taille égale au nombre de transversalité. Une fois il a toutes les traverses minimales, il va calculer pour chacune d'elles la fonction Fitness, détaillée dans le chapitre précédent (page 38), et ne garder que les T M s qui ont la valeur maximale, si à ce niveau il retourne plus qu'une seule traverse minimale dans ce cas il va calculer la somme des cardinalité de chaque attribut des T M s et ne retenir que la traverse minimale qui minimise la somme de cardinalité car la principale cause de l'explosion de la taille des IJB est la cardinalité des attributs indexés. La figure 3.3 montre l'enchaînement des étapes et leurs relations. Où n désigne le nombre d'attributs non clés de la traverse minimale tm, i est l'attribut dans la traverse minimale tm. sup i représente le support de i, α i est un paramètre de pénalisation déterminé par l'équation : α j =|D j | |F | ; sachant que les notations |D j | et |F | expriment respectivement la taille de la table de dimension D à laquelle appartient l'attribut j et la table de faits F en nombre de pages. Si après avoir exécuté la fonction Fitness, plusieurs T M s sont retenues dans ce cas nous allons faire appel à une autre métrique pour choisir la meilleure configuration possible. conséquent, pour choisir les meilleurs attributs pertinents en indexation, nous suivons un processus itératif, qui consiste à commencer par la détermination du nombre de transversalité (ligne 2). Ensuite la génération de toutes les traverses minimales de plus petite taille à travers l'algorithme MMCS de Murakami et Uno que nous avons détaillé dans la section précédente (ligne 3). Ensuite, le processus enchaîne par le calcul de fonction Fitness de chaque T M et ne garder que celles qui ont la plus grande valeur (voir ligne 4). Le processus vérifie le nombre de T M retenues qui ont la valeur maximale de Fitness. Si elle est supérieure à 1, donc il passe a calculer la somme de cardinalités pour chaque T M et retourne celle qui la minimise. Autrement l'algorithme retourne la T M actuelle (ligne 8). Le pseudo code de notre approche est donné dans l'algorithme 2. associations et les motifs fréquents fermés pour palier les différents problèmes des différents domaines de recherche y compris l'utilisation des traverses minimales pour la sélection des IJBs que nous traitons dans ce travail. GetMinTransversality permet d'obtenir le nombre de transversalité de l'hypergraphe. Pour ce faire, la fonction parcourt les sommets, un par un (ligne 3). Pour chaque élément s de S, GetMinTransversality supprime les hyperarêtes de E qui contiennent s (ligne 5 considérons l'exemple suivant avec une partie d'un schéma en étoile contenant deux tables de dimensions CHANNELS (désignés par Ch) et CUSTOMERS (désignés par C) et une table de faits SALES (désignées par S). Les cardinalités de ces tables (nombre d'instances) sont : ||SALES|| = 16260336 ; ||CHANNELS|| = 5 et ||CUSTOMERS|| = 50000. Supposons que les cinq requêtes sont exécutées le plus souvent sur le cube de données correspondant (voir tableau 3.1). Dans les requêtes du tableau, deux opérations de jointure principales sont utilisées : une entre SALES et CUSTOMERS (J1), et une autre entre SALES et CHANNELS (J2). A la base, le coût de J1 est supérieur à J2 puisque la taille des CUSTOMERS (50 000 instances) est supérieure à la taille des CHANNELS (5 instances). La taille de l'instance de CUSTOMERS, CHANNELS et SALES est : 24, 24 et 36, ( 2 ) 2select S.channel_id, sum(S.quantity_sold), sum(S.amount_sold) from S, C where S.channel_id=C.channel_id and C.channel_desc ='Catalog' group by S.channel_id (3) select S.channel_id, sum(S.quantity_sold),sum(S.amount_sold) from S, C where S.channel_id=C.channel_id and C.channel_desc ='Partners' group by S.channel_id (4) select S.cust_id, avg(quantity_sold) from S, C where S.cust_id=C.cust_id and C.cust_gender='M' group by S.cust_id (5) select S.cust_id, avg(quantity_sold) from S, C where S.cust_id=C.cust_id and C.cust_gender='F' group by S.cust_id respectivement, et la taille de la page P S = 65536. Nous considérons les mêmes cinq requêtes que celles définies dans le tableau 3.1. Pour faciliter la construction de la matrice de contexte, nous renommons les attributs indexables comme suit : SALES : cust_id = A1, CUSTOMERS : cust_id = A2 ; CUSTOMERS : cust_gender = A3, CHANNELS : channel_id = A4, SALES : channel_id = A5 ; CHANNELS : channel_desc = A6. La matrice est donnée par la figure 3.4. Figure 3 . 4 - 34Matrice de données ) qui sont respectivement cust_gender et channel_desc sont des attributs indexables. Vu que les attributs A1, A2, A4 et A5 sont des attributs non-indexables du fait que A1 et A5 appartiennent à la tables de fait SALES et A2 et A4 sont des attributs clés des tables CUSTOMERS et CHANNELS. Nous rappelons la formule du calcul de notre fonction fonction Fitness : Fitness(tm) = n i=1 sup i × α i À partir de notre exemple trivial, seulement 4 parmi les 9 traverses minimales seront prises en considération car elles contiennent des attributs indexables et qui sont T M 1(1,6), T M 2(3,4), T M 3(3,5), T M 4(3,6). Nous appliquons la fonction Fitness pour la traverse minimale T M 2(3,4) comme un titre d'exemple.Fitness(TM2) = sup(A 3 ) même pour toutes les autres traverses minimales, et à la fin nous obtenons les résultats suivants, = 0.0086 et selon ces derniers résultat nous allons retenir seulement T M 4(3,6) par ce qu'elle a la plus grande valeur. Vu qu'après l'application de la fonction Fitness une seule traverse minimale a été retenue, alors nous allons s'abstenir de faire appel à la fonction de calcule de cardinalité. Si la traverse minimale T M 4 n'existait pas, l'algorithme va retourner T M 2 et T M 3 et dans ce cas il passe automatiquement au calcul de cardinalité de chaque traverse. Dans ce scénario, T M 2 aura un total de 16310336 par contre T M 3 aura un total de 50005 et selon ces valeurs l'algorithme va retourner T M 3 comme une configuration finale. Dans notre exemple, 2 IF F peuvent être générés, IF F 1 = {A 1 , A 2 , A 3 } avec un support égal à 0,4 et IF F 2 = {A 3 , A 5 , A 6 } avec un support de 0,6. Avec minsup = 3 (en support absolu), la solution retournée par l'approche de Aouiche et al. est l'attribut A 6 de l'IF F 2 . Ceci, est dû au fait qu'il existe trois occurrences du même prédicat de sélection défini sur cet attribut dans les cinq requêtes. D'où le résultat est un IJB défini sur CHANNELS et SALES à l'aide de l'attribut channel_desc. Cependant, aucun index de jointure binaire n'est proposé entre les tables SALES et CUSTOMERS puisque l'attribut cust_gender n'est pas aussi fréquent que minsup. En conséquence, seule la jointure J2 sera optimisée, mais pas l'ensemble de requêtes globales. Quant à la solution retournée par l'approche DynaClose de Bellatreche et al., nous pouvant remarquer que IF F 1 contient seulement un attribut non-clé qui est A 3 , et donc Fitness(IF F 1 ) ne prendra en compte que l'attribut A 3 qu'il s'agit d'un IJB défini sur CHANNELS et CUSTOMERS à l'aide de l'attribut cust_gender. Cet IJB permet d'optimiser la jointure J1. En conséquence, seule la jointure J1 sera optimisée, mais pas l'ensemble de requêtes globales. La traverse minimale T M 2(3,6) nous permet d'optimiser la jointure J1 et la jointure J2, d'où elle permet d'améliorer la totalité des requêtes de la charge de travail. Conclusion Dans ce chapitre nous avons présenté la théorie des hypergraphes, les traverses minimales et leur utilité dans les différents domaines. Ensuite, nous avons décrit l'approche que nous avons proposée, avec la présentation des différentes étapes que nous avons considérées pour la génération de la configuration finale de l'IJB et nous avons terminé par un exemple illustratif. Dans le chapitre suivant, nous allons valider notre approche par une étude expérimentale et la comparer avec d'autres approches. Introduction Dans l'objectif de valider notre approche, présentée dans le chapitre précédent, et prouver sa performance, nous expérimentons le temps d'exécution d'un jeu de données sur un entrepôt de données et nous analysons les résultats obtenus sur un échantillon de données. En ce sens, le présent chapitre présente l'environnement de travail utilisé et confronte les résultats obtenus par l'approche basée sur les traverses minimales avec celles figurantes dans l'état de l'art qui se basent sur des techniques de data mining (e.g : Close et Dynaclose), le but étant de mettre en évidence que notre approche est meilleure. L'étude expérimentale se base ainsi sur le temps d'exécution des requêtes en présence de l'IJB et le taux de réduction par rapport aux requêtes exécutées sans index ainsi le modèle de coût, expliqué également dans le deuxième chapitre. - objectif principal consiste à étudier l'impact de l'utilisation des traverses minimales. Pour se faire, l'implémentation des approches existantes ainsi que l'approche que nous proposons qui traite les requêtes en tant que un hypergraphe Un banc de test TPC-H disposant de 1Go de données. -Charge principale contenant 22 requêtes de jointure en étoile. -Un banc de test SSB1 disposant de 1Go de données. -Charge principale contenant 30 requêtes de jointure en étoile. -Le SGBD Oracle Version 12c, servant à stocker des données volumineuses. -Java version 7 sous l'IDE Eclipse Kepler nécessaire pour implémenter les algorithmes. 4.2 Jeux de données a. Le banc de test TPC-H L'entrepôt de données sur lequel nous effectuons nos tâches est constitué d'une table de faits LineItem et de 7 tables de dimension Customers, Nation, Orders, Part , PartSupp (Part Supplier), Supplier, Region comme le montre le schéma de la figure 4.1. Les tailles de ces tables sont détaillées dans le tableau 4.1. Nous avons considéré 46 attributs candidats à l'indexation vu que l'entrepôt contient 15 attributs clés. Notons que nous avons identifié les attributs par un numéro de 1 jusqu'à 61. La charge de travail comporte un jeu de requêtes fourni par le banc de test contenant 22 requêtes (voir Annexe A). Plusieurs types de requêtes ont été considérées : requêtes de type count(*) avec et sans agrégation, requêtes utilisant les fonctions d'agrégation comme Sum, Min, Max, requêtes ayant des attributs de dimension dans la clause SELECT, etc. Notons que la taille d'une page est 8096 octet, c'est-à-dire 8 Ko. b. Le banc de test SSB1 Le deuxième entrepôt de données sur lequel nous effectuons nos tâches est constitué d'une table de faits Lineorder et de 4 tables de dimension Date, Supplier, Customer, Part. Les tailles de ces tables sont détaillées dans le tableau 4.2. Nous avons considéré 48 attributs candidats à l'indexation vu que Figure 4 . 1 - 41Schéma du banc de test TPC-H Figure 4 . 2 - 42Schéma du banc de test SSB1Notons que la taille d'une page 8096 octet, c'est-à-dire 8 Ko. Une fois la matrice d'usage est prête et le seuil minimum minsup est fixé, minsup = 0.1, Close détermine les motifs fréquents fermés, les attributs proposés sont affichés dans la figure. Or un attribut indexable est un attribut non clé qui appartient à la table de dimension. Ainsi, le seul attribut indexable que Close a pu générer porte le numéro 22 qui a un support égale à 0.46667, comme le montre la figure 4.3. - U ses(Qi, Aj)= 1 Si la requête Q i utilise un prédicat défini sur l'attribut A j -U ses(Qi, Aj)= 0 Sinon Sur cette base, nous déterminons le support relatif à chaque attribut indexable, et les motifs non dupliqués pour chaque requête Q i ; tel que le motif d'une requête correspond aux attributs dont la case Uses(Q i ,A j ) est égale à 1. Nous calculons Figure 4 . 3 - 43Réalisation de l'approche Close pour chacun de ces motifs, la valeur de Fitness dont la formule est précisée dans le chapitre précédent(cf. page 59). Enfin, le meilleur motif à choisir serait celui qui a la valeur de Fitness(motif) la plus grande. Le motif proposé est constitué des attributs dont les identifiants sont 11, 54, le seul attribut indexable dans ce groupe est le 54, comme le montre la figure 4.4. 4.4 L'approche TM-IJB La principale caractéristique de notre approche est l'utilisation des traverses minimales sur un contexte d'extraction qui consiste en une matrice Requêtes-Attributs appelé hypergraphe, où chaque hyperarête représente une requête et chaque sommet représente un attribut qui a fait l'objet d'un prédicat de sélection ou de projection.Dès que l'hypergraphe soit prêt après l'analyse de la charge de travail et l'extraction des attributs indexables, le processus mis en oeuvre par notre approche Figure 4 . 4 - 44Réalisation de l'approche DynaClose commence par le calcule du nombre de transversalité, qui est égal au cardinal de la plus petite traverse minimale. Par la suite, il enchaîne avec l'extraction de toutes les traverses minimales qui ont une taille égale au nombre de transversalité. Une fois qu'il a toutes les traverses minimales il va calculer pour chacune d'elles la fonction Fitness(tm) et ne garder que les T M s qui ont la valeur maximale. Si à ce niveau, il retourne plusieurs traverses minimales, alors il va calculer la somme des cardinalités de chaque attribut des T M s et ne retenir que la traverse minimale qui minimise la somme de cardinalité. En effet, la principale cause de l'explosion de la taille des IJB est la cardinalité des attributs indexés. La figure 4.5 montre que le nombre de transversalité est égal à 3. Ainsi, notre algorithme va extraire toutes les traverses minimales de taille 3, qui sont dans cet exemple seulement deux (4,5,22) et (5,22,54). Ensuite, il va calculer la fonction Fitness pour chaque traverse et ne garder que celle qui a le meilleur résultat qui est dans ce cas la traverse minimale (5,22,54) comme le montre la figure 4.5. Vu qu'après l'exécution de la fonction Fitness, une seule traverse minimale a été retenue donc l'algorithme ne va pas faire recours au calcul de cardinalité. Figure 4 . 5 - 45Réalisation de l'approche TM-IJB 4.5 Étude expérimentale Dans cette partie, nous allons implémenter les approches existantes Close et Dy-naClose. Les expériences ont été menées selon quatre étapes : (1) identification de la valeur de minsup qui donne un nombre important d'IF F pour les approches (Close, Dyna-Close) ; (2) évaluation du temps d'exécution en exécutant les requêtes en absence de tous les index ; (3) évaluation des différentes approches (Close, DynaClose, TM-IJB) en termes de temps d'exécution en exécutant les requêtes en présence des configurations d'indexs adéquates de chaque approches ; et (4) le calcul du coût théorique en entrées/sorties. Dans notre cas, nous allons nous concentrer sur l'optimisation des requêtes sans contraintes de stockage vu que de nos jours le coût des supports de stockage désormais moins cher et plus disponible. Nous pouvons même utiliser le stockage dans les nuages avec son avantage de l'élasticité et le 'pay per use'. Perriot et al. ont proposé un modèle de coût que nous pouvons également l'utiliser pour les IJB [53]. Pendant l'étude expérimentale nous avons utilisé 2 bancs de test différents pour montrer l'intérêt de notre approche. 4.5.1 Le banc de test SSB1 Sélection de la configuration de l'IJB Dans cette section nous allons nous baser sur les configurations d'index obtenues dans les deux dernières sections où l'approche DynaClose a retourné l'attribut P_Brand (cf. figure 4.4). L'approche Close a donné l'attribut D_year comme le montre la figure 4.3 et notre approche TM-IJB a suggéré P_Brand et D_year d'après la figure 4.5. Validation sous Oracle Maintenant, nous passons à la validation sous le SGBD Oracle 12c. Au premier lieu nous allons exécuter toutes les requêtes sans aucun index et retenir leur temps d'exécution. Sans oublier de vérifier le plan d'exécution de la requête en absence de l'IJB (cf.figure 4.7) pour pouvoir le comparer par la suite avec celui en présence de l'index. Par la suite, nous créons physiquement les configurations générées par chaque algorithme et nous exécutons les requêtes en présence de l'indexe et retenir le temps d'exécution de chaque requête sans oublier de vérifier à chaque fois l'utilisation des IJB. Pour vérifier que les IJB sont bien utilisés par Oracle pour exécuter une requête donnée, nous avons utilisé l'outil Plan d'exécution fournit avec Oracle. Cet outil permet de visualiser le plan d'exécution détaillé d'une requête.Comme les tâches sont répétitives pour les 30 requêtes, nous avons choisi de :• Montrer qu'un résultat prouvant l'amélioration d'une requête en utilisant un IJB sur d_year. En effet, avant la création de l'index, la requête prenait 10.886 Figure 4 . 6 - 46Temps d'exécution d'une requête sans IJB Figure 4 . 7 - 47Le plan d'exécution d'une requête sans IJB secs pour s'exécuter et après sa création, elle est devenue presque instantanée de l'ordre de quelques millisecondes comme le montre la figure 4.8. • S'assurer de l'utilisation de l'IJB dans le plan d'exécution comme le montre la figure par rapport a la figure lors de l'exécution de la requête sans l'utilisation de l'index, (voir figure 4.9).L'exécution des requêtes sur toutes les configurations d'index nous a permet de confirmer la grande utilité des IJB pour les requêtes de type Count(*). Le coût d'exécution de ces requêtes en utilisant les IJB est négligeable devant le coût sans Figure 4 . 8 - 48Temps d'exécution d'une requête en présence d'IJB Figure 4 . 9 - 49Le plan d'exécution d'une requête sans IJB index. Ces requêtes sont celles les plus bénéficiaires des IJB, car aucun accès aux données n'est effectué (l'accès aux IJB suffit pour répondre à ces requêtes). Les requêtes les moins bénéficiaires des IJB sont celles référençant des attributs de dimension dans la clause SELECT ou celles ayant moins d'attributs indexés, car elles nécessitent des jointures supplémentaires entre les tables de dimension et la table de faits[13].Étude comparative Figure 4 . 10 - 410Temps d'exécution des requêtes sur le banc de test SSB1 Après avoir exécuté toutes les requêtes, l'histogramme de la figure 4.10 montre la somme des temps d'exécution des 30 requêtes en absence des IJB et en présence des différentes configurations de chaque approche. Cet histogramme montre que notre approche TM-IJB est meilleure en termes de temps d'exécution vu qu'elle possède le temps le plus petit par rapport aux autres approches. L'histogramme de la figure 4.11 montre le taux de réduction total de chaque approche, notre approche possède le taux de plus élevé de 16.5% quant à Close et DynaClose est de 11.9% et 4.5% respectivement. Figure 4 . 411 -Le taux de réduction des requêtes du banc de test SSB1 Figure 4 . 412 -Le coût d'exécution en E/S du banc de test SSB1 La figure 4.12 montre comment les différentes approches d'indexation réduisent le coût d'exécution des requêtes. Le résultat principal est que TM-IJB surpasse toutes les approches.Comme nous pouvons le remarquer dans la figure 4.12, grâce au modèle de coût développé, nous avons pu quantifier la qualité de la structure d'optimisation sélectionnée IJB sur les attributs proposés par les différentes approches. Ainsi, nous pouvons constater qu'il est plus bénéfique de tenir compte de l'utilisation des traverses minimales pour extraire les IJB.4.5.2 Le banc de test TPC-HNous allons répéter toutes les étapes précédentes mais cette fois avec le banc de test T P C-H. Au départ, nous avons effectué quelques tests pour définir la valeur appropriée de minsup, qui permet la génération d'un grand ensemble d'IF F ensuite exécuter les algorithmes Close, DynaClose et TM-IJB pour avoir les différentes configurations de chaque approche et à la fin passer à la validation sous Oracle. Sélection de la configuration de l'IJB i L'approche Close : une fois l'algorithme Close exécuté avec un minsup égal à 0.1, il retourne 2 items fréquents fermés, i.e., 2 et 41 avec un support relatif égal à 0.21035, qui formeront par la suite la configuration d'IJB. Les items 2 et 41 sont respectivement les attributs n_name et o_orderdate comme le montre la figure 4.13. ii L'approche DynaClose : une fois l'algorithme DynaClose exécuté avec un minsup égal à 0.1, il retourne 2 items fréquents fermés avec leur fonction Fitness, i.e., 11 et 41 qui formeront par la suite la configuration d'IJB. Les items 11 et 41 sont respectivement les attributs p_brand et o_orderdate comme le montre la figure 4.14. iii L'approche TM-IJB : l'algorithme commence par la détermination du nombre de transversalité qui est, selon l'hypergraphe de la figure 4.15, égal à 6, ensuite l'algorithme continue par l'extraction de toutes les traverses minimales de taille 6 qui sont 54 T M s. Ensuite, il va calculer la fonction Fitness pour chacune de ces traverses et ne garde que celle qui a le meilleur résultat, vu Figure 4 .Figure 4 . 4413 -L'exécution de l'aglorithme de Close sur TPC-H 14 -L'exécution de l'aglorithme de DynaClose sur TPC-H que dans ce cas, la fonction Fitness retourne plus qu'une traverse minimale.Ainsi, l'algorithme calcule pour chacune de ces traverses minimales la somme de cardinalité de chaque attribut et ne retient que la T M ayant la plus petite somme. À la fin, l'algorithme retourne la traverse minimale(2,13,34,41,50,56), et seuls les sommets 2,13,34 et 41 sont des attributs indexables qui sont respectivement Figure 4 . 415 -L'hypergraphe de TPC-H n_name, p_size, c_acctbal et o_orderdate comme le montre la figure 4.16. Validation sous Oracle Maintenant, nous passons à la validation sous le SGBD Oracle 12c. Au premier lieu nous allons exécuter toutes les requêtes sans aucun index et retenir leur temps d'exécution. Sans oublier de vérifier le plan d'exécution de la requête en absence de l'IJB (cf. figure 4.17) pour pouvoir le comparer par la suite avec celui en présence de l'index. Par la suite, nous créons physiquement les configurations générées par chaque approche. La figure 4.18 montre un exemple de création d'un IJB, celui sur l'attribut p_brand.Nous exécutons après les requêtes en présence de l'index et retenir le temps d'exécution de chaque requête sans oublier de vérifier à chaque fois l'utilisation des IJB.Nous prenons cette requête comme un exemple : Figure 4 . 416 -Résultat de l'aglorithme de TM-IJB sur le banc de test TPC-H Figure 4 . 17 - 417Plan d'exécution d'une requête sans IJB Figure 4 4requête s'est exécutée en 18.766 secs en présence de l'IJB comme le montre le plan d'exécution de la figure 4.19 par contre elle a pris 31.646 secs pour s'exécuter en absence de l'IJB. Nous pouvons conclure ici que la présence de l'IJB nous a permis d'avoir un gain de 41.8% du temps d'exécution. Étude comparative Après avoir exécuté toutes les requêtes, l'histogramme de la figure 4.20 montre la somme des temps d'exécution des 22 requêtes en absence des IJB et en présence des différentes configurations de chaque approche. Cet histogramme montre que notre approche TM-IJB est meilleure en termes de temps d'exécution vu qu'elle a le temps Figure 4 . 19 - 419Plan d'exécution d'une requête avec IJB sur le banc de test TPC-H Figure 4 . 20 - 420Temps d'exécution des 22 requêtes du banc de test TPC-H le plus petit par rapport aux autres approches. Étude comparative Figure 4 . 21 - 421Temps d'exécution des 8 requêtes du banc de test TPC-H Vu que seules 8 des 22 requêtes fournies par le banc de test sont susceptibles d'avoir un IJB, dans le sens que ces requêtes interrogent seulement la tables de faits ou bien seulement les tables de dimension. Ainsi, nous avons tracé 2 histogrammes, un contenant les résultats des 22 requêtes illustré dans la figure 4.20. Et la figure 4.21 illustre les 8 requêtes sur lesquelles nous pouvons exécuter l'IJB. L'histogramme de la figure 4.22 montre le taux de réduction total de chaque approche. Notre approche a le taux de plus élevé de 13% quant à DynaClose et Close est de 9.3% et 8.3% respectivement. Ces taux s'élèvent considérablement, à presque le double, si nous calculons le gain seulement sur les 8 requêtes indexables comme l'illustre l'histogramme de la figure 4.23. La figure 4.24 montre comment les différentes approches d'indexation réduisent le coût d'exécution des 22 requêtes. Le résultat principal est que TM-IJB surpasse toutes les approches. Figure 4 . 422 -Taux de réduction des 22 requêtes du banc de test TPC-H Figure 4 .Figure 4 . 4423 -Taux de réduction des 8 requêtes du banc de test TPC-H 24 -Histogramme du coût d'exécution en E/S Comme nous pouvons le remarquer dans la figure 4.24, grâce au modèle de coût développé, nous avons pu quantifier la qualité de la structure d'optimisation sélectionnée IJB sur les attributs proposés par les différentes approches. Ainsi, nous pouvons constater qu'il est plus bénéfique de tenir compte de l'utilisation des traverses minimales pour extraire les IJB. Q1 -SELECT L_RETURNFLAG, L_LINESTATUS, SUM(L_QUANTITY) AS SUM_QTY, SUM(L_EXTENDEDPRICE) AS SUM_BASE_PRICE, SUM(L_EXTENDEDPRICE*(1-L_DISCOUNT)) AS SUM_DISC_PRICE, SUM(L_EXTENDEDPRICE*(1-L_DISCOUNT)*(1+L_TAX)) AS SUM_CHARGE, AVG(L_QUANTITY) AS AVG_QTY, AVG(L_EXTENDEDPRICE) AS AVG_PRICE, AVG(L_DISCOUNT) AS AVG_DISC, COUNT(*) AS COUNT_ORDER FROM LINEITEM WHERE L_SHIPDATE <= dateadd(dd, -90, cast('1998-12-01' as date)) GROUP BY L_RETURNFLAG, L_LINESTATUS ORDER BY L_RETURNFLAG,L_LINESTATUS Q2 -SELECT TOP 100 S_ACCTBAL, S_NAME, N_NAME, P_PARTKEY, P_MFGR, S_ADDRESS, S_PHONE, S_COMMENT FROM PART, SUPPLIER, PARTSUPP, NATION, REGION WHERE P_PARTKEY = PS_PARTKEY AND S_SUPPKEY = PS_SUPPKEY AND P_SIZE = 15 AND P_TYPE LIKE '%%BRASS' AND S_NATIONKEY = N_NATIONKEY AND N_REGIONKEY = R_REGIONKEY AND R_NAME = 'EUROPE' AND PS_SUPPLYCOST = (SELECT MIN(PS_SUPPLYCOST) FROM PARTSUPP, SUPPLIER, NATION, REGION WHERE P_PARTKEY = PS_PARTKEY AND S_SUPPKEY = PS_SUPPKEY AND S_NATIONKEY = N_NATIONKEY AND N_REGIONKEY = R_REGIONKEY AND R_NAME = 'EUROPE') ORDER BY S_ACCTBAL DESC, N_NAME, S_NAME, P_PARTKEY Q3 -SELECT TOP 10 L_ORDERKEY, SUM(L_EXTENDEDPRICE*(1-L_DISCOUNT)) AS REVENUE, O_ORDERDATE, O_SHIPPRIORITY FROM CUSTOMER, ORDERS, LINEITEM WHERE C_MKTSEGMENT = 'BUILDING' AND C_CUSTKEY = O_CUSTKEY AND L_ORDERKEY = O_ORDERKEY AND O_ORDERDATE < '1995-03-15' AND L_SHIPDATE > '1995-03-15' GROUP BY L_ORDERKEY, O_ORDERDATE, O_SHIPPRIORITY ORDER BY REVENUE DESC, O_ORDERDATE Q4 -SELECT O_ORDERPRIORITY, COUNT(*) AS ORDER_COUNT FROM ORDERS WHERE O_ORDERDATE >= '1993-07-01' AND O_ORDERDATE < dateadd(mm,3, cast('1993-07-01' as date)) AND EXISTS (SELECT * FROM LINEITEM WHERE L_ORDERKEY = O_ORDERKEY AND L_COMMITDATE < L_RECEIPTDATE) GROUP BY O_ORDERPRIORITY ORDER BY O_ORDERPRIORITY Q5 -SELECT N_NAME, SUM(L_EXTENDEDPRICE*(1-L_DISCOUNT)) AS REVENUE FROM CUSTOMER, ORDERS, LINEITEM, SUPPLIER, NATION, REGION WHERE C_CUSTKEY = O_CUSTKEY AND L_ORDERKEY = O_ORDERKEY AND L_SUPPKEY = S_SUPPKEY AND C_NATIONKEY = S_NATIONKEY AND S_NATIONKEY = N_NATIONKEY AND N_REGIONKEY = R_REGIONKEY AND R_NAME = 'ASIA' AND O_ORDERDATE >= '1994-01-01' AND O_ORDERDATE < DATEADD(YY, 1, cast('1994-01-01' as date)) GROUP BY N_NAME ORDER BY REVENUE DESC Q6 -SELECT SUM(L_EXTENDEDPRICE*L_DISCOUNT) AS REVENUE FROM LINEITEM WHERE L_SHIPDATE >= '1994-01-01' AND L_SHIPDATE < dateadd(yy, 1, cast('1994-01-01' as date)) AND L_DISCOUNT BETWEEN .06 -0.01 AND .06 + 0.01 AND L_QUANTITY < 24 Q7 -SELECT SUPP_NATION, CUST_NATION, L_YEAR, SUM(VOLUME) AS REVENUE FROM ( SELECT N1.N_NAME AS SUPP_NATION, N2.N_NAME AS CUST_NATION, datepart(yy, L_SHIPDATE) AS L_YEAR, L_EXTENDEDPRICE*(1-L_DISCOUNT) AS VOLUME FROM SUPPLIER, LINEITEM, ORDERS, CUSTOMER, NATION N1, NATION N2 WHERE S_SUPPKEY = L_SUPPKEY AND O_ORDERKEY = L_ORDERKEY AND C_CUSTKEY = O_CUSTKEY AND S_NATIONKEY = N1.N_NATIONKEY AND C_NATIONKEY = N2.N_NATIONKEY AND ((N1.N_NAME = 'FRANCE' AND N2.N_NAME = 'GERMANY') OR (N1.N_NAME = 'GERMANY' AND N2.N_NAME = 'FRANCE')) AND L_SHIPDATE BETWEEN '1995-01-01' AND '1996-12-31' ) AS SHIPPING GROUP BY SUPP_NATION, CUST_NATION, L_YEAR ORDER BY SUPP_NATION, CUST_NATION, L_YEAR Q8 -SELECT O_YEAR, SUM(CASE WHEN NATION = 'BRAZIL' THEN VOLUME ELSE 0 END)/SUM(VOLUME) AS MKT_SHARE FROM (SELECT datepart(yy,O_ORDERDATE) AS O_YEAR, L_EXTENDEDPRICE*(1-L_DISCOUNT) AS VOLUME, N2.N_NAME AS NATION FROM PART, SUPPLIER, LINEITEM, ORDERS, CUSTOMER, NATION N1, NATION N2, REGION WHERE P_PARTKEY = L_PARTKEY AND S_SUPPKEY = L_SUPPKEY AND L_ORDERKEY = O_ORDERKEY AND O_CUSTKEY = C_CUSTKEY AND C_NATIONKEY = N1.N_NATIONKEY AND N1.N_REGIONKEY = R_REGIONKEY AND R_NAME = 'AMERICA' AND S_NATIONKEY = N2.N_NATIONKEY AND O_ORDERDATE BETWEEN '1995-01-01' AND '1996-12-31' AND P_TYPE= 'ECONOMY ANODIZED STEEL') AS ALL_NATIONS GROUP BY O_YEAR ORDER BY O_YEAR Q9 -SELECT NATION, O_YEAR, SUM(AMOUNT) AS SUM_PROFIT FROM (SELECT N_NAME AS NATION, datepart(yy, O_ORDERDATE) AS O_YEAR, L_EXTENDEDPRICE*(1-L_DISCOUNT)-PS_SUPPLYCOST*L_QUANTITY AS AMOUNT FROM PART, SUPPLIER, LINEITEM, PARTSUPP, ORDERS, NATION WHERE S_SUPPKEY = L_SUPPKEY AND PS_SUPPKEY= L_SUPPKEY AND PS_PARTKEY = L_PARTKEY AND P_PARTKEY= L_PARTKEY AND O_ORDERKEY = L_ORDERKEY AND S_NATIONKEY = N_NATIONKEY AND P_NAME LIKE '%%green%%') AS PROFIT GROUP BY NATION, O_YEAR ORDER BY NATION, O_YEAR DESC Q10 -SELECT TOP 20 C_CUSTKEY, C_NAME, SUM(L_EXTENDEDPRICE*(1-L_DISCOUNT)) AS REVENUE, C_ACCTBAL, N_NAME, C_ADDRESS, C_PHONE, C_COMMENT FROM CUSTOMER, ORDERS, LINEITEM, NATION WHERE C_CUSTKEY = O_CUSTKEY AND L_ORDERKEY = O_ORDERKEY AND O_ORDERDATE>= '1993-10-01' AND O_ORDERDATE < dateadd(mm, 3, cast('1993-10-01' as date)) AND L_RETURNFLAG = 'R' AND C_NATIONKEY = N_NATIONKEY GROUP BY C_CUSTKEY, C_NAME, C_ACCTBAL, C_PHONE, N_NAME, C_ADDRESS, C_COMMENT ORDER BY REVENUE DESC Q11 -SELECT PS_PARTKEY, SUM(PS_SUPPLYCOST*PS_AVAILQTY) AS VALUE FROM PARTSUPP, SUPPLIER, NATION WHERE PS_SUPPKEY = S_SUPPKEY AND S_NATIONKEY = N_NATIONKEY AND N_NAME = 'GERMANY' GROUP BY PS_PARTKEY HAVING SUM(PS_SUPPLYCOST*PS_AVAILQTY) > (SELECT SUM(PS_SUPPLYCOST*PS_AVAILQTY) * 0.0001000000 FROM PARTSUPP, SUPPLIER, NATION WHERE PS_SUPPKEY = S_SUPPKEY AND S_NATIONKEY = N_NATIONKEY AND N_NAME = 'GERMANY') ORDER BY VALUE DESC Q12 -SELECT L_SHIPMODE, SUM(CASE WHEN O_ORDERPRIORITY = '1-URGENT' OR O_ORDERPRIORITY = '2-HIGH' THEN 1 ELSE 0 END) AS HIGH_LINE_COUNT, SUM(CASE WHEN O_ORDERPRIORITY <> '1-URGENT' AND O_ORDERPRIORITY <> '2-HIGH' THEN 1 ELSE 0 END ) AS LOW_LINE_COUNT FROM ORDERS, LINEITEM WHERE O_ORDERKEY = L_ORDERKEY AND L_SHIPMODE IN ('MAIL','SHIP') AND L_COMMITDATE < L_RECEIPTDATE AND L_SHIPDATE < L_COMMITDATE AND L_RECEIPTDATE >= '1994-01-01' AND L_RECEIPTDATE < dateadd(mm, 1, cast('1995-09-01' as date)) GROUP BY L_SHIPMODE ORDER BY L_SHIPMODE Q13 -SELECT C_COUNT, COUNT(*) AS CUSTDIST FROM (SELECT C_CUSTKEY, COUNT(O_ORDERKEY) FROM CUSTOMER left outer join ORDERS on C_CUSTKEY = O_CUSTKEY AND O_COMMENT not like '%%special%%requests%%' GROUP BY C_CUSTKEY) AS C_ORDERS (C_CUSTKEY, C_COUNT) GROUP BY C_COUNT ORDER BY CUSTDIST DESC, C_COUNT DESC Q14 -SELECT 100.00* SUM(CASE WHEN P_TYPE LIKE 'PROMO%%' THEN L_EXTENDEDPRICE*(1-L_DISCOUNT) ELSE 0 END) / SUM(L_EXTENDEDPRICE*(1-L_DISCOUNT)) AS PROMO_REVENUE FROM LINEITEM, PART WHERE L_PARTKEY = P_PARTKEY AND L_SHIPDATE >= '1995-09-01' AND L_SHIPDATE < dateadd(mm, 1, '1995-09-01') Q15 -CREATE VIEW REVENUE0 (SUPPLIER_NO, TOTAL_REVENUE) AS SELECT L_SUPPKEY, SUM(L_EXTENDEDPRICE*(1-L_DISCOUNT)) FROM LINEITEM WHERE L_SHIPDATE >= '1996-01-01' AND L_SHIPDATE < dateadd(mm, 3, cast('1996-01-01' as date)) GROUP BY L_SUPPKEY SELECT S_SUPPKEY, S_NAME, S_ADDRESS, S_PHONE, TOTAL_REVENUE FROM SUPPLIER, REVENUE0 WHERE S_SUPPKEY = SUPPLIER_NO AND TOTAL_REVENUE = (SELECT MAX(TOTAL_REVENUE) FROM REVENUE0) ORDER BY S_SUPPKEY DROP VIEW REVENUE0 Q16 -SELECT P_BRAND, P_TYPE, P_SIZE, COUNT(DISTINCT PS_SUPPKEY) AS SUPPLIER_CNT FROM PARTSUPP, PART WHERE P_PARTKEY = PS_PARTKEY AND P_BRAND <> 'Brand#45' AND P_TYPE NOT LIKE 'MEDIUM POLISHED%%' AND P_SIZE IN (49, 14, 23, 45, 19, 3, 36, 9) AND PS_SUPPKEY NOT IN (SELECT S_SUPPKEY FROM SUPPLIER WHERE S_COMMENT LIKE '%%Customer%%Complaints%%') GROUP BY P_BRAND, P_TYPE, P_SIZE ORDER BY SUPPLIER_CNT DESC, P_BRAND, P_TYPE, P_SIZE Q17 -SELECT SUM(L_EXTENDEDPRICE)/7.0 AS AVG_YEARLY FROM LINEITEM, PART WHERE P_PARTKEY = L_PARTKEY AND P_BRAND = 'Brand#23' AND P_CONTAINER = 'MED BOX' AND L_QUANTITY < (SELECT 0.2*AVG(L_QUANTITY) FROM LINEITEM WHERE L_PARTKEY = P_PARTKEY) Q18 -SELECT TOP 100 C_NAME, C_CUSTKEY, O_ORDERKEY, O_ORDERDATE, O_TOTALPRICE, SUM(L_QUANTITY) FROM CUSTOMER, ORDERS, LINEITEM WHERE O_ORDERKEY IN (SELECT L_ORDERKEY FROM LINEITEM GROUP BY L_ORDERKEY HAVING SUM(L_QUANTITY) > 300) AND C_CUSTKEY = O_CUSTKEY AND O_ORDERKEY = L_ORDERKEY GROUP BY C_NAME, C_CUSTKEY, O_ORDERKEY, O_ORDERDATE, O_TOTALPRICE ORDER BY O_TOTALPRICE DESC, O_ORDERDATE Q19 -SELECT SUM(L_EXTENDEDPRICE* (1 -L_DISCOUNT)) AS REVENUE FROM LINEITEM, PART WHERE (P_PARTKEY = L_PARTKEY AND P_BRAND = 'Brand#12' AND P_CONTAINER IN ('SM CASE', 'SM BOX', 'SM PACK', 'SM PKG') AND L_QUANTITY >= 1 AND L_QUANTITY <= 1 + 10 AND P_SIZE BETWEEN 1 AND 5 AND L_SHIPMODE IN ('AIR', 'AIR REG') AND L_SHIPINSTRUCT = 'DELIVER IN PERSON') OR (P_PARTKEY = L_PARTKEY AND P_BRAND ='Brand#23' AND P_CONTAINER IN ('MED BAG', 'MED BOX', 'MED PKG', 'MED PACK') AND L_QUANTITY >=10 AND L_QUANTITY <=10 + 10 AND P_SIZE BETWEEN 1 AND 10 AND L_SHIPMODE IN ('AIR', 'AIR REG') AND L_SHIPINSTRUCT = 'DELIVER IN PERSON') OR (P_PARTKEY = L_PARTKEY AND P_BRAND = 'Brand#34' AND P_CONTAINER IN ( 'LG CASE', 'LG BOX', 'LG PACK', 'LG PKG') AND L_QUANTITY >=20 AND L_QUANTITY <= 20 + 10 AND P_SIZE BETWEEN 1 AND 15 AND L_SHIPMODE IN ('AIR', 'AIR REG') AND L_SHIPINSTRUCT = 'DELIVER IN PERSON') Q20 -SELECT S_NAME, S_ADDRESS FROM SUPPLIER, NATION WHERE S_SUPPKEY IN (SELECT PS_SUPPKEY FROM PARTSUPP WHERE PS_PARTKEY in (SELECT P_PARTKEY FROM PART WHERE P_NAME like 'forest%%') AND PS_AVAILQTY > (SELECT 0.5*sum(L_QUANTITY) FROM LINEITEM WHERE L_PARTKEY = PS_PARTKEY AND L_SUPPKEY = PS_SUPPKEY AND L_SHIPDATE >= '1994-01-01' AND L_SHIPDATE < dateadd(yy,1,'1994-01-01'))) AND S_NATIONKEY = N_NATIONKEY AND N_NAME = 'CANADA' ORDER BY S_NAME Q21 -SELECT TOP 100 S_NAME, COUNT(*) AS NUMWAIT FROM SUPPLIER, LINEITEM L1, ORDERS, NATION WHERE S_SUPPKEY = L1.L_SUPPKEY AND O_ORDERKEY = L1.L_ORDERKEY AND O_ORDERSTATUS = 'F' AND L1.L_RECEIPTDATE> L1.L_COMMITDATE AND EXISTS (SELECT * FROM LINEITEM L2 WHERE L2.L_ORDERKEY = L1.L_ORDERKEY AND L2.L_SUPPKEY <> L1.L_SUPPKEY) AND NOT EXISTS (SELECT * FROM LINEITEM L3 WHERE L3.L_ORDERKEY = L1.L_ORDERKEY AND L3.L_SUPPKEY <> L1.L_SUPPKEY AND L3.L_RECEIPTDATE > L3.L_COMMITDATE) AND S_NATIONKEY = N_NATIONKEY AND N_NAME = 'SAUDI ARABIA' GROUP BY S_NAME ORDER BY NUMWAIT DESC, S_NAME Q22 -SELECT CNTRYCODE, COUNT(*) AS NUMCUST, SUM(C_ACCTBAL) AS TOTACCTBAL FROM (SELECT SUBSTRING(C_PHONE,1,2) AS CNTRYCODE, C_ACCTBAL FROM CUSTOMER WHERE SUBSTRING(C_PHONE,1,2) IN ('13', '31', '23', '29', '30', '18', '17') AND C_ACCTBAL > (SELECT AVG(C_ACCTBAL) FROM CUSTOMER WHERE C_ACCTBAL > 0.00 AND SUBSTRING(C_PHONE,1,2) IN ('13', '31', '23', '29', '30', '18', '17')) AND NOT EXISTS ( SELECT * FROM ORDERS WHERE O_CUSTKEY = C_CUSTKEY)Nous présentons la charge de travail utilisée pour l'expérimentation de notre stratégie de sélection des IJB sur le banc de tests SSB1. 30 requêtes de plusieurs types ont été considérées : requêtes de type count(*) avec et sans agrégation, requêtes utilisant les fonctions d'agrégation comme Sum, Min, Max, requêtes ayant des attributs de dimension dans la clause SELECT, etc. = s_suppkey and p_brand = 'MFGR#2221' and s_region = 'ASIA' group by d_year order by d_year Q8 -select sum(lo_revenue), d_year from lineorder, dates, part, supplier where lo_orderdate = d_datekey and lo_partkey = p_partkey and lo_suppkey = s_suppkey and p_brand = 'MFGR#2221' and s_region = 'EUROPE' group by d_year, p_brand order by d_year, p_brand Q9 -select sum(lo_revenue) from lineorder, part, supplier where lo_partkey = p_partkey and lo_suppkey = s_suppkey and p_brand = 'MFGR#2221' and s_region = 'EUROPE' Q10 -select count(*), d_year from lineorder, dates, part, supplier where lo_orderdate = d_datekey and lo_partkey = p_partkey and lo_suppkey = s_suppkey and p_brand = 'MFGR#2221' and s_region = 'EUROPE' group by d_year order by d_year Q11 -select c_nation, s_nation, d_year, sum(lo_revenue) as revenue from lineorder,customer, supplier, dates where lo_custkey = c_custkey and lo_suppkey = s_suppkey and lo_orderdate = d_datekey and c_region = 'ASIA' and s_region = 'ASIA' and d_year >= 1992 and d_year <= 1997 group by c_nation, s_nation, d_year order by d_year asc, revenue desc Q12 -select s_nation, sum(lo_revenue) as revenue from lineorder, supplier where lo_suppkey = s_suppkey and s_region = 'ASIA' group by s_nation order by revenue desc Q13 -select s_nation, count(*) as revenue from lineorder, supplier where lo_suppkey = s_suppkey and s_region = 'ASIA' group by s_nation order by revenue desc Q14 -select s_nation, d_year, sum(lo_revenue) as revenue from lineorder, supplier, dates where lo_suppkey = s_suppkey and lo_orderdate = d_datekey and s_region = 'ASIA' and d_year >= 1992 and d_year <= 1997 group by s_nation, d_year order by d_year asc, revenue desc Q15 -select c_nation, s_nation, d_year, avg(lo_revenue) as avg_revenue from lineorder,customer, supplier, dates where lo_custkey = c_custkey and lo_suppkey = s_suppkey and lo_orderdate = d_datekey and c_region = 'ASIA' and s_region = 'ASIA' and d_year >= 1992 and d_year <= 1997 group by c_nation, s_nation, d_year order by d_year asc, avg_revenue desc Q16 -select c_nation, s_nation, d_year, count(*) from lineorder,customer, supplier, dates where lo_custkey = c_custkey and lo_suppkey = s_suppkey and lo_orderdate = d_datekey and c_region = 'ASIA' and s_region = 'ASIA' and d_year >= 1992 and d_year <= 1997 group by c_nation, s_nation, d_year order by d_year asc Q17 -select c_city, s_city, d_year, sum(lo_revenue) as revenue from lineorder,customer, supplier, dates where lo_custkey = c_custkey and lo_suppkey = s_suppkey and lo_orderdate = d_datekey and c_nation = 'UNITED STATES' and s_nation = 'UNITED STATES' and d_year >= 1992 and d_year <= 1997 group by c_city, s_city, d_year order by d_year asc, revenue desc Q18 -select s_city, sum(lo_revenue) as revenue from lineorder, supplier where lo_suppkey = s_suppkey and s_nation = 'UNITED STATES' group by s_city order by revenue desc Q19 -select s_city, avg(lo_revenue) as avg_revenue from lineorder, supplier where lo_suppkey = s_suppkey and s_nation = 'UNITED STATES' group by s_city order by avg_revenue desc Q20 -select c_city, s_city, count(*) from lineorder,customer, supplier where lo_custkey = c_custkey and lo_suppkey = s_suppkey and c_nation = 'UNITED STATES' and s_nation = 'UNITED STATES' group by c_city, s_city Q21 -select c_city, s_city, d_year, avg(lo_revenue) as avg_revenue from lineorder,customer, supplier, dates where lo_custkey = c_custkey and lo_suppkey = s_suppkey and lo_orderdate = d_datekey and c_nation = 'UNITED STATES' and s_nation = 'UNITED STATES' and d_year >= 1992 and d_year <= 1997 group by c_city, s_city, d_year order by d_year asc, avg_revenue desc Q22 -select c_city, s_city, d_year, count(*) from lineorder,customer, supplier, dates where lo_custkey = c_custkey and lo_suppkey = s_suppkey and lo_orderdate = d_datekey and c_nation = 'UNITED STATES' and s_nation = 'UNITED STATES' and d_year >= 1992 and d_year <= 1997 group by c_city, s_city, d_year order by d_year asc Q23 -select d_year, s_nation, p_category, sum(lo_revenue -lo_supplycost) as profit from lineorder,dates, customer, supplier, part where lo_custkey = c_custkey and lo_suppkey = s_suppkey and lo_partkey = p_partkey and lo_orderdate = d_datekey and c_region = 'AMERICA' and s_region = 'AMERICA' and (d_year = 1997 or d_year = 1998) and (p_mfgr = 'MFGR#1' or p_mfgr = 'MFGR#2') group by d_year, s_nation, p_category order by d_year, s_nation, p_category Q24 -select d_year, s_nation, p_category, sum(lo_revenue -lo_supplycost) as profit from lineorder, dates, supplier, part where lo_suppkey = s_suppkey and lo_partkey = p_partkey and lo_orderdate = d_datekey and s_region = 'AMERICA' and (d_year = 1997 or d_year = 1998) and (p_mfgr = 'MFGR#1' or p_mfgr = 'MFGR#2') group by d_year, s_nation, p_category order by d_year, s_nation, p_category Q25 -select d_year, s_nation, p_category, avg(lo_revenue -lo_supplycost) as avg_profit from lineorder, dates, customer, supplier, part where lo_custkey = c_custkey and lo_suppkey = s_suppkey and lo_partkey = p_partkey and lo_orderdate = d_datekey and c_region = 'AMERICA' and s_region = 'AMERICA' and (d_year = 1997 or d_year = 1998) and (p_mfgr = 'MFGR#1' or p_mfgr = 'MFGR#2') group by d_year, s_nation, p_category order by d_year, s_nation, p_category Q26 -select d_year, s_nation, p_category, count(*) from lineorder, dates, customer, supplier, part where lo_custkey = c_custkey and lo_suppkey = s_suppkey and lo_partkey = p_partkey and lo_orderdate = d_datekey and c_region = 'AMERICA' and s_region = 'AMERICA' and (d_year = 1997 or d_year = 1998) and (p_mfgr = 'MFGR#1' or p_mfgr = 'MFGR#2') group by d_year, s_nation, p_category order by d_year, s_nation, p_category Q27 -select d_year, s_nation, count(*) from lineorder,dates, supplier where lo_suppkey = s_suppkey and lo_orderdate = d_datekey and s_region = 'AMERICA' and (d_year = 1997 or d_year = 1998) group by d_year, s_nation order by d_year, s_nation Q28 -select s_nation, count(*) from lineorder,supplier where lo_suppkey = s_suppkey and s_region = 'AMERICA' group by s_nation order by s_nation Q29 -select d_year, s_nation, sum(lo_revenue) as revenue from lineorder,dates, supplier where lo_suppkey = s_suppkey and lo_orderdate = d_datekey and s_region = 'AMERICA' and (d_year = 1997 or d_year = 1998) group by d_year, s_nation order by d_year, s_nation Q30 -select sum(lo_revenue), p_brand from lineorder, part, supplier where lo_partkey = p_partkey and lo_suppkey = s_suppkey and p_brand = 'MFGR#2221' and s_region = 'ASIA' group by p_brand order by p_brand Résumé : Les systèmes décisionnels traitent une large volumétrie de données stockée dans de nouvelles bases de appelées les entrepôts de données. Les entrepôts de données sont généralement modélisés par un schéma en étoile qui présente classiquement une table de faits centrale et un ensemble de tables de dimension. Les requêtes correspondantes à ce type de modèle sont par conséquent très complexes. Afin de réduire le coût d'exécution des requêtes complexes qui contiennent des jointures très coûteuses, la solution envisagée serait de garantir une bonne conception physique des entrepôts de données. Les indexs de jointure binaire (IJB) sont très adaptés pour réduire le coût d'exécution de ces jointures Dans ce cadre de travail, nous avons proposé une approche de sélection d'IJB basée sur la notion de traverse minimale. La configuration finale obtenue est composée de plusieurs index qui permettent d'optimiser le coût d'exécution de l'ensemble de requête. Mots Clés : Entrepôts de données, Conception physique, Index de jointure binaire, hypergraphe, traverse minimale.Abstract : Decision systems deal with a large volume of data stored in new databases called data warehouses. Data warehouses are typically modeled by a star schema that conventionally presents a central fact table and a set of dimension tables. The corresponding queries for this type of model are therefore very complex. In order to reduce the cost of executing complex queries, which contain very expensive joins, the solution envisaged would be to guarantee a good physical design of the data warehouses. Binary join indexes are very suitable to reduce the cost of executing these joins. In this work, we proposed a binary join index selection approach based on the notion of minimal transversal. The final configuration obtained is composed of several indexes, which make it possible to optimize the execution cost of the query set. Table des figures desLe système Molap [13] . . . . . . . . . . . . . . . . . . . . . . . . . . 13 1.4 Le schèma en étoile [15] . . . . . . . . . . . . . . . . . . . . . . . . . 14 1.5 Le schèma en flocon de neige . . . . . . . . . . . . . . . . . . . . . . 15 1.6 Le schèma en flocon de neige [15] . . . . . . . . . . . . . . . . . . . . 15 1.7 Les techniques d'optimisation [13] . . . . . . . . . . . . . . . . . . . . 17 1.8 La fragmentation horizontale primaire et dérivée [13] . . . . . . . . . 18 1.9 Index B-Tree [13] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 1.10 Index de projection [13] . . . . . . . . . . . . . . . . . . . . . . . . . 20 1.11 Index de hachage [13] . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 1.12 Index binaire [13] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 1.13 Index de jointure [13] . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 2.1 Index de jointure binaire [13] . . . . . . . . . . . . . . . . . . . . . . . 26 2.2 Approche générique de sélection d'IJB . . . . . . . . . . . . . . . . . 28 2.3 Vecteur de bits d'un IJB [13] . . . . . . . . . . . . . . . . . . . . . . . 31 2.4 L'approche Close de Aouiche [6] . . . . . . . . . . . . . . . . . . . . . 37 2.5 L'approche de Boukhalfa et al. [13] . . . . . . . . . . . . . . . . . . . 40 3.1 Hypergraphe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 Approche de séléction d'IJB . . . . . . . . . . . . . . . . . . . . . . . 52 3.4 Matrice de données . . . . . . . . . . . . . . . . . . . . . . . . . . . . 581.1 Architecture d'entrepôt de données . . . . . . . . . . . . . . . . . . . 9 1.2 Un exemple d'un cube de données [13] . . . . . . . . . . . . . . . . . 11 1.3 3.2 Les domaines d'applications des traverses minimales [31] . . . . . . . 48 3.3 iii table de faits centrale et un ensemble de tables de dimensions. La table de faits contient les clés étrangères des tables de dimensions ainsi qu'un ensemble de mesures collectées durant l'activité de l'organisation. Les tables de dimensions contiennent des données qualitatives, qui représentent des axes sur lesquels les mesures ont été collectées. Dans ce type de modèle, il n'existe aucun lien direct entre deux tables de dimensions quelconques. Ainsi, si nous avons une requête qui fait appel à des attributs faisant partie de deux ou plusieurs tables de dimensions différentes, nous serons obligés de passer par la table de faits qui est très volumineuse (allant de quelques giga-octets à plusieurs téraoctets). Les requêtes OLAP correspondantes à ce type de modèle sont par conséquent très complexes. Les requêtes définies sur un schéma en étoile (connues également par requêtes de jointure en étoile) sont caractérisées par des opérations de sélection sur les tables de dimensions, suivies de jointures avec la table de faits. Aucune jointure n'existe entre les tables de dimensions. Toute jointure doit passer par la table de faits, ce qui rend le coût d'exécution de ces requêtes très important. Sans technique d'optimisation, leurs exécutions peuvent prendre des heures, voire des jours. Pour optimiser ces re-Ce travail vise alors à proposer des solutions destinées à optimiser les performances des bases de données en général et des entrepôts en particulier. Ce rapport est organisé en deux parties : dans la première partie, nous traitons les travaux déjà existants et dans la deuxième partie, nous introduisons notre propre contribution ainsi que son évaluation.quêtes, l'administrateur est amené à effectuer une tâche importante : la conception physique. Durant cette phase, l'administrateur choisit un ensemble de techniques d'optimisation à sélectionner. Ces techniques appartiennent à deux catégories : re- dondantes comme les indexs et les vues matérialisées et non redondantes comme la fragmentation horizontale et le traitement parallèle. Dans ce but, nous voulons proposer une nouvelle approche de sélection d'IJB basée sur la notion de traverse minimale. Une étude comparative a été faite avec d'autres approches déjà proposées, qui permettent de déterminer les attributs in- dexables. Ces approches nous permettent une phase d'élagage qui réduit l'espace de recherche initial en ne gardant que les attributs qui répondent à certains critères de sélection tels que la fréquence d'utilisation, la cardinalité des tables, etc. Ces attri- buts sont susceptibles de réduire le temps de réponse des requêtes. Les tests réalisés sur les bancs d'essais T P C-H et SSB1 validés sur le SGBD Oracle démontrent les bonnes performances de l'approche proposée. regroupent un grand nombre de données historisées de plusieurs tables (en utilisant des jointures). Cependant, les bases de données opérationnelles n'acceptent pas les requêtes analytiques. C'est parce qu'elles n'ont pas été conçues pour stocker les données historisées et les traiter efficacement. Ces limitations ont largement contribué à la naissance d'une nouvelle technologie qui est l'entrepôt de données qui supporte le traitement analytique en ligne (OLAP ). L'entrepôt de données constitue le socle d'un système décisionnel pour une entreprise. Il stocke des données judicieuses aux besoins du processus d'aide à la décision. Contrairement à une base de données classique supportant des requêtes transactionnelles de type OLT P (On-Line Transaction Processing), un entrepôt de données est conçu pour supporter des requêtes multidimensionnelles de type OLAP . Latable 1.1 présente une comparaison entre le système d'information décisionnel et le système d'information opérationnel. Orientées sujet : les données des entrepôts collectées doivent être orientées métier. Ainsi, elles sont organisées par sujet plutôt que par application. Par exemple, une chaîne de magasins d'alimentation organise les données de son entrepôt par rapport aux ventes qui ont été réalisées par produit et par ma-Intégrées : Pour garantir une cohérence de l'information, les données originaires de diverses sources doivent être intégrées (Par exemple, faire correspondre différents formats (.xml, .txt, etc.) avant leur stockage dans l'entrepôt de données. Historisées : Il est primordial que les données soient datées pour considérer leur évolution dans la prise de décision et les analyses décisionnelles étant donné qu'ils s'appuient sur tout l'historique des évolutions passées pour prédire celles prévues au futur. L'objectif principal de l'entrepôt de données est l'aide à la prise de décision. Il collecte des données provenant de diverses sources de données hétérogènes, autonomes, évolutives et distribuées, les transforme et les nettoie et finalement les charge dans de nouvelles structures de données conçues pour prendre en charge les requêtes OLAP . (iv) données externes. Les données de production proviennent des différents systèmes opérationnels de l'entreprise. Les données internes comprennent les données stockées dans les feuilles de calcul, les documents, les profils de clients, les bases de données qui ne sont pas connectées aux systèmes opérationnels. Les données archivées ou légataires sont des données dites off-line car elles ne sont plus nécessaires aux applications transactionnelles. Elles permettent de disposer d'historique pour les analyses de tendance et la fouille de données par exemple. Les données externes telles que les données produites par des agences externes, des services de prévisions météorologiques, des réseaux sociaux, sont des données gérées et manipulées par d'autres entreprises. Elles peuvent être sous forme informatique (CD-ROM, Internet) ou papier (presse économique, rapports d'organismes et institutions spécialisés). Il existe plusieurs stratégies pour la conception d'un entrepôt de données. Il s'agit de choisir une démarche parmi les trois suivantes : Approche descendante, approche ascendante, ou approche mixte. Le processus de construction d'un entrepôt de données est composé de trois prin-cipales phases (cf. figure 1.1) : Extraction : les données sont extraites à partir des sources hétérogènes. Le processus d'ET L est responsable de l'extraction et de la transformation des données provenant de différentes sources d'informations hétérogènes pour finalement les charger dans l'entrepôt cible. Cette phase joue un rôle crucial dans le processus de conception de l'ED. La qualité de l'entrepôt dépend fortement de l'ET L. Les différentes étapes de l'ET L doivent comprendre les différents schémas (conceptuels, logiques et physiques) des sources de données. Load : chargement des données de la zone tampon vers l'ED. Il existe trois stratégies d'extraction des données : -Push : la logique applicative de l'extraction se trouve dans le système source. Elle pousse les données vers la zone tampon. La construction du processus ET L est potentiellement l'une des tâches les plus importantes de la construction d'un entrepôt ; Il est complexe, prend beaucoup de temps et prend la part du lion dans la conception et les efforts de mise en oeuvre de tout projet d'entrepôt. En effet, la construction de l'ET L nécessite plusieurs tâches et compétences en termes de modélisation et de mise en oeuvre. Les exigences non fonctionnelles telles que la qualité et les performances sont prises en compte lors de la conception d'ET L -Les correspondances entre données sources et celles de l'ED. -Les règles d'extraction, création, stockage et mise à jour des données. Les données peuvent être intégrées directement dans l'entrepôt de données ou bien elles peuvent être intégrées dans les datamarts. Les datamarts sont destinés à pré-agréger des données disponibles de façon plus détaillée que dans les ED, afin à traiter plus facilement certaines questions spécifiques, critiques, etc. C'est l'implémentation d'un ED pour un domaine d'activité restreint e.g un sous-ensemble d'un ED. Une entreprise dispose souvent de plusieurs datamarts, un par département ou service. La présence de datamarts ou non dépend de l'architecture du SID (centralisée, répartie, dupliquée). La création d'un datamart peut être un moyen de débuter un projet de ED (projet pilote).et Analyse : ceci s'effectue sous une forme efficace et flexible. Durant cette phase, un serveur OLAP se charge de présenter les informations demandées par les utilisateurs sous plusieurs formes : tableaux, rapports, statistiques, fouille de données, etc. La fouille de données permet d'exploiter le gisement informationnel contenu dans un ED pour découvrir d'autres informations cachées comme par exemple les habitudes et le comportement des clients. Les Les données dans l'entrepôt doivent être organisées d'une façon simple et aisée pour faciliter leur exploitation ainsi que leur analyse par les décideurs. Il est indiscutable que ces analyses nécessitent l'exécution de requêtes complexes et particulières. Ces chaque dimension est exprimée à travers une table intitulée table de dimension. Les attributs de la table de faits constituent les mesures à chercher et les clés étrangères vers les tables de dimension. Pour modéliser un système ROLAP trois modèles ont été proposés, le schéma en étoile, le schéma en flocon de neige et le schéma en constellation. sur les avantages d'avoir de telles tables de dimensions normalisées, car, en général, ralentira le traitement des requêtes. Les requêtes qui interrogent ce schéma sont dites Requêtes de jointure en étoile.1.1 Concepts fondamentaux 1.1.1 Architecture des entrepôts de données Les bases de données traditionnelles, appelées bases de données opérationnelles, sont conçues pour créer des applications transactionnelles pour l'usage quotidien des entreprises. Elles visent à assurer des accès rapides et simultanés aux données tout en garantissant la cohérence. Elles sont basées sur le paradigme de traitement de transaction en ligne (OLT P ). Ces bases de données sont conçues avec un degré de normalisation élevé en utilisant des dépendances fonctionnelles et des formes nor- males [25]. Généralement, les transactions OLT P renvoient quelques enregistrements [25]. D'autre part, les exigences analytiques, imposées par les grandes entreprises, Bill Inmon [40] a donné la définition suivante : "Un entrepôt de données est une collection de données orientées sujet, intégrées, non volatiles, historisées et utilisées pour supporter un processus d'aide à la décision". Table 1.1 -Comparaison entre le SIO et le SID Système opérationnel (SIO) Système décisionnel (SID) Conception Orientée Application, Structure statique Orientée Sujet, Structure évolutive (en étoile, flocon) Principe de conception Conception relationnelle (Troisième forme normale) Conception Multidimensionnelle Objectif Gestion & Production Consultation & Analyse Type de données Détaillées, non agrégées, Récentes, mises à jour, Normalisées Résumées, recalculées, agrégées, Historiques, Dé-normalisées Organisation des données Par traitement Par métier Utilisateur Employé Décideurs, analystes Interaction avec l'utilisateur Insertion, Modification, Interrogation, Suppression Interrogation Requêtes Simples, prédéterminées, données détaillées Complexes, ad-hoc, spécifiques, agrégations et group by Transactions Courtes et nombreuses, temps réel Longues, peu nombreuses Taille de la base Plusieurs Giga-octets Plusieurs Téraoctets gasin, par région, au cours d'un certain temps. Non volatiles : Les données d'un entrepôt de données, contrairement à celles des bases de données classiques, doivent être permanentes. Ainsi, un rafraîchisse- ment de l'entrepôt doit pouvoir ajouter de nouvelles données sans pour autant modifier ou perdre celles existantes. Les sources de données peuvent être regroupées en quatre catégories principales [54] : (i) données de production ; (ii) données internes ; (iii) données archivées ; et -Approche descendante "Top down" (guidée par les besoins) introduite par Inmon [40] : les besoins des utilisateurs sont identifiés d'abord et ce sont eux qui conduisent le processus de développement du l'ED. -Approche ascendante "Bottom up" (guidée par les données) introduite par Kimball [43] : elle commence par un prototypage basé sur une technologie et appliquée à un sous-ensemble représentatif. On peut commencer par la construction d'un magasin de données, dite datamart, et évaluer son utilisation avant de généraliser le développement. -Approche mixte : elle permet de combiner les aspects planification et straté- gie de l'approche descendante et la rapidité d'implémentation de l'approche ascendante. L'ET L comporte 3 étapes : 1. Extraction des données à partir des sources (BD ou Fichiers) dans le but d'alimenter les tables de faits et les tables de dimensions. Les données sont stockées dans des tables temporaires (staging area) 2. Transformation : elle consiste à transformer les données sources selon les unités de mesure et les formats de l'ED, homogénéiser les données sources, nettoyer les données et les dater. 3. -Pull : la logique applicative de l'extraction se trouve dans le système cible (ED). Elle «tire» les données vers la zone d'attente. -Push-Pull : c'est une combinaison des deux stratégies précédentes. Figure 1.1 -Architecture d'entrepôt de données Intégration : une fois la tâche de l'organisation et de l'homogénéisation des don- nées est terminée, les données seront intégrées dans l'entrepôt a l'aide des métadonnées qui décrivent les caractéristiques des données stockées : origine, date de dernière m-à-j, mode de calcul, procédure de transformation. Les mé- tadonnées contiennent : -Un glossaire des objets manipulés par les utilisateurs. -Les requêtes, rapports, indexs et profils prédéfinis. -Les règles de rafraîchissement et de réplication entre l'ED et les data- marts. éventuels Elles sont utiles aussi bien aux utilisateurs (comprendre les données) qu'aux administrateurs (fournir des moyens d'exploitation et de maintenance du ED). Accès informations déduites permettent de bien cibler les clients, les produits, les régions, etc. La fouille de données permet de comprendre ce qui s'est passé (Quoi), trouver une explication de ce qui est passé (Pourquoi) et déduire les actions à entreprendre. 1.1.2 Modélisation des entrepôts de données requêtes doivent produire comme résultat une représentation des données selon plu- sieurs axes d'analyses (analyse des habitudes, tendances, préférences d'achat, etc.). Les données manipulées dans le contexte d'entrepôts de données sont représentées sous la forme multidimensionnelle, qui est mieux adaptée pour le support des pro- cessus d'analyse [43]. Ce modèle permet d'observer le sujet (le fait) et les différentes perspectives de l'analyse ou mesures d'intérêt (les dimensions). Figure 1.2 -Un exemple d'un cube de données [13] Le modèle multidimensionnel repose sur le concept de CUBE (ou hypercube) pour représenter les données (cf. figure 1.2). Un cube organise les données en une ou plu- sieurs dimensions qui déterminent une mesure d'intérêt. Deux concepts fondamen- taux caractérisent le modèle multidimensionnel : faits et dimensions Un fait : il représente le sujet d'analyse et il est formé de mesures correspondantes aux informations de l'activité étudiée. En général et dans la plupart des cas il s'agit d'une valeur numérique. Ces mesures sont calculables à partir d'un grand nombre d'enregistrements en appliquant les opérations d'addition, de calcul du minimum/maximum ou de la moyenne, etc [58]. La dimension : elle représente l'axe d'analyse de l'activité. Elle regroupe des paramètres pouvant influencer les mesures d'activités d'un fait. Si nous analy- sons la quantité de produits vendus, il semble évident que cette quantité change selon la ville, le produit et le temps, en général elle dépend de la nature des données présentes dans la dimension. En outre, une dimension est munie d'une ou plusieurs hiérarchies permettant de faire l'analyse selon le niveau de gra- nularité, i.e. le niveau de détail. La dimension T emps par exemple peut être hiérarchisée, du plus fin au moins fin, comme suit : jour, semaine, mois, et année. Les mesures dans la table de faits peuvent être par conséquent agrégées par mois, trimestre, semestre ou année, selon le niveau de détail souhaité. Afin d'implémenter le modèle multidimensionnel approprié pour un entrepôt de données, deux modèles sont possibles : Un schéma relationnel ROLAP (Relational On-Line Analytical Processing), à savoir le schéma en étoile, en flocon de neige ou en constellation ou bien un schéma multidimensionnel M OLAP (Multidimensional On-Line Analytical Processing). Systèmes MOLAP C'est une forme d'hypercube multidimensionnel, qui permet de représenter les don- nées sous la forme d'un tableau multidimensionnel avec le croisement de n dimen- sions, où chaque dimension de ce tableau est associée à une dimension de l'hypercube de données ou bien à un axe. Les systèmes M OLAP nécessitent un pré-calcul de toutes les agrégations possibles afin de les matérialiser dans les cellules du tableau multidimensionnel. L'avantage principal de cette implémentation est le gain considérable en temps d'exécution des requêtes, vu que l'accès aux données est direct. Par contre, les opé- rations de mise à jour sont difficiles à effectuer compte tenu que les valeurs des cellules du tableau multidimensionnel doivent être recalculées après chaque opéra- tion de mise à jour. 1.1 Concepts fondamentaux Figure 1.3 -Le système Molap [13] Systèmes ROLAP Les systèmes de type ROLAP utilisent une représentation relationnelle du cube de données. Chaque fait est exprimé à travers une table intitulée table de faits et Schéma en étoile : un schéma en étoile consiste en une grande table de faits cen- trale attaché à plusieurs tables de dimensions à travers des clés étrangères. Les tables de dimensions sont nombreuses mais relativement petites par rap- port à la table de faits et sont rarement mis à jour. Les tables de dimension contiennent généralement un nombre important d'attributs représentant des données qualitatives. La table de faits contient généralement un nombre très important d'instances. Chaque enregistrement dans la table de faits contient deux sortes d'attributs : (i) un ensemble de clés étrangères référençant les tables de dimension ; et (ii) un ensemble de mesures qui peuvent être agrégées pour effectuer certains traitements. La table de faits est généralement normalisée, alors que les tables de dimension ne sont généralement pas normalisées de sorte que le nombre d'opérations de jointure nécessaires soit réduit. Pour éviter la redondance, les tables de Figure 1.4 -Le schèma en étoile [15] dimensions d'un schéma en étoile peuvent être normalisées. Il y a un débat Schéma en flocon de neige : pour mettre en évidence la hiérarchie, le modèle en flocon de neige a été proposé. La dé-normalisation des tables de dimension dans un schéma en étoile ne reflète pas les hiérarchies associées à chaque dimension. Ce schéma dérive du schéma en étoile précédent en gardant la table de faits au centre et les tables de dimension autour. Chaque table de dimension est éclatée en un ensemble de hiérarchies. Ce schéma normalise les dimensions, en réduisant la taille de chacune des relations et permettant ainsi d'intégrer la notion de hiérarchie au sein d'une dimension [2]. Les tables dotées de la hiérarchie la plus fine sont directement liées à la table de faits. Les tables représentant les autres hiérarchies sont liées entre elles selon leur niveau de granularité du plus fin au moins fin. Les besoins non fonctionnels, appelées exigences de qualité, sont soit des exigences facultatives, soit des contraintes, qui sont détaillées dans l'architecture du système.lection. Chaque fragment horizontal T i d'une table T est défini par une clause de sélection sur la table T comme suit : T i = δ cli (T ).Nous pouvons également citer une troisième approche, intitulée HOLAP , il s'agit d'un OLAP hybride qui combine les deux approches. Il bénéficie de la capacité de stockage de ROLAP et de la puissance de traitement de M OLAP . 1.2 Les besoins d'entrepôt de données. 1.2 Les besoins d'entrepôt de données. Comme tout produit, le développement d'une application décisionnelle repose sur des besoins fonctionnels et non fonctionnels. Notez que les besoins fonctionnels dé- crivent les fonctionnalités, le fonctionnement et l'utilisation des applications au sein de l'ED pour satisfaire les objectifs et les attentes des décideurs. Ils identifient les principaux avantages que la technologie d'ED apportera à l'entreprise et à ses utilisateurs. Ils décrivent les besoins des utilisateurs et de l'entreprise et les valeurs ajoutées. D'autres besoins fonctionnels sont associés aux utilisateurs de l'ED (appe- lés besoins des utilisateurs) décrivent les tâches que les utilisateurs doivent pouvoir accomplir grâce à l'application d'ED. Les besoins des utilisateurs doivent être col- lectés auprès de personnes qui utiliseront et travailleront avec cette technologie. Par conséquent, ces utilisateurs peuvent décrire à la fois les tâches qu'ils doivent effectuer avec l'ED. Ces exigences sont modélisées à travers plusieurs formalismes comme par exemple le diagramme de cas d'utilisation UML [15]. Ils décrivent comment le système fera les objectifs suivants : la sécurité, la perfor- mance (par exemple, le temps de réponse, le temps de rafraîchissement, le temps de traitement, l'importation/exportation de données, le temps de chargement), la capacité (transactions par heure, stockage de mémoire), la disponibilité, l'intégrité des données, l'évolutivité, l'énergie, etc. Ce type d'exigences doit être validé pendant la majorité des phases du cycle de vie de l'ED. 1.3 Techniques d'optimisation Vu la volumétrie gigantesque des données et la complexité des requêtes utilisées, un des éléments clés qui garantisse une bonne conception physique d'un entrepôt de données consiste à bien choisir les structures d'optimisation[21]. Chacune d'elles est liée à un problème d'optimisation NP-Complet et supportée par certaines approches proposées par la communauté de recherche. Plusieurs techniques d'optimisation ont été proposées pour optimiser les requêtes Figure 1.7 -Les techniques d'optimisation [13] de jointure en étoile. Ces techniques appartiennent à deux catégories :(i) techniques d'optimisation redondantes comme les indexs et les vues matérialisées ; et (ii) tech- niques d'optimisation non redondantes comme la fragmentation horizontale et le traitement parallèle. 1.3.1 Techniques d'optimisation non redondantes Dans cette section, nous présentons deux techniques d'optimisation non redon- dantes, à savoir la fragmentation horizontale primaire définie et la fragmentation horizontale dérivée. La fragmentation horizontale primaire et dérivée La fragmentation horizontale consiste à partitionner les objets de la base de don- nées (tables, vues et index) en plusieurs ensembles de lignes appelés fragments ho- rizontaux. Chaque ligne représente une instance de l'objet fragmenté. Les instances appartenant au même fragment horizontal vérifient généralement un prédicat de sé- La fragmentation horizontale constitue un aspect important dans la conception phy- sique des bases de données [55]. Elle est considérée comme une technique d'optimi- sation non redondante du fait qu'elle ne réplique pas de données. Figure 1.8 -La fragmentation horizontale primaire et dérivée [13] Elle a un impact important sur la performance des requêtes définies sur les données de volume important. Elle a aussi un impact significatif sur la facilité de gestion et la maintenance des données. Deux types de fragmentation horizontale sont disponibles : primaire et dérivée. La fragmentation horizontale primaire d'une table se base sur les prédicats de sélection définis sur cette table. La fragmentation horizontale dérivée utilise le lien existant entre deux tables pour fragmenter l'une d'entre elles en fonction des fragments de l'autre. De ce fait, la fragmentation horizontale dérivée d'une table se base sur les prédicats de sélection définis sur une autre table. Concrètement, la fragmentation dérivée d'une table S n'est possible qu'à travers une jointure dans le sens qu'elle soit liée avec une table T par sa clé étrangère. Une fois la table T fragmentée par la fragmentation primaire, les fragments de S sont générés par une opération de semi-jointure entre S et chaque fragment de la table T . Les deux tables seront équi-partitionnées grâce au lien père- fils. 1.3.2 Techniques d'optimisation redondantes Cette catégorie comprend les vues matérialisées, les indexs, la fragmentation ver- ticale, etc. Ces techniques optimisent les requêtes, mais il faut prendre en considéra- tion le coût de stockage supplémentaire de la structure en question et le coût de sa maintenance dû aux différentes opérations de mise à jour (Insertion, Modification, Suppression) effectuées sur les données. Il est évident que plus la base de données est volumineuse, plus le temps de réponse sera lent surtout si nous partons du principe que cet accès s'effectue de façon séquentielle et aussi répétitive dû aux opérations de jointure des requêtes. Dans ce contexte, nous reconnaissons l'importance des indexs de façon générale étant donné qu'ils rendent l'accès séquentiel en un accès direct. Il existe différents types d'indexs : Index B-Tree, Index de projection, Index de ha- chage, Index binaire, Index de jointure, Index de jointure en étoile, Index de jointure binaire, Index de jointure de dimension. Comme nous allons travailler sur les index de jointure binaire en particulier, alors nous allons étudier les différents indexs de plus près. Pour réduire le temps de réponse très élevé des requêtes et satisfaire les besoins des décideurs, l'administrateur de l'entrepôt est amené à faire une bonne conception physique. Dans cette dernière, il doit sélectionner un ensemble de techniques d'opti-Pour bien présenter les IJB, leur utilité et les différentes techniques de sélection nous avons organisé ce chapitre en 4 sections. La section 1 présente les IJB et la formalisation du problème de sélection des IJB. La section 2 donne la straté-Les IJB sont une combinaison entre les indexs binaires et les indexs de jointure. L'indexation complète d'une grande table avec un index B-tree traditionnel peut être prohibitive en termes d'espace car les indexs peuvent être plusieurs fois plus grands que les données dans la table. Les IJB ne représentent généralement qu'une portion de la taille des données indexées dans la table. Les IJB sont principalement destinés aux applications décisionnelles où les utilisateurs consultent les données plutôt que de les mettre à jour. Ils ne conviennent pas aux applications OLT P avec un grand nombre de transactions simultanées essayant de modifier les données. La consultation parallèle et le LM D traitent les IJB comme ils le font avec des indexs traditionnel [50]. Supposons un attribut A ayant n valeurs distinctes v 1 ,v 2 , ... , v n appartenant à une table de dimension D. Supposons que la table de faits F est composée de m1. Charger l'index de jointure IJ ; 2. Effectuer la semi-jointure R IJ ; 3. Effectuer la semi-jointure S IJ ; 4. Effectuer la jointure des deux résultats. Conclusion Introduction misation (voir Chapitre 1), qu'il considère pertinent pour l'ensemble des besoins des décideurs (exprimés sous forme de requêtes). Parmi les techniques d'optimisation les plus utilisées, on trouve les indexs en général et les indexs de jointure binaires (IJB) en particulier, ces derniers servent à pré-calculer la jointure entre la table de faits et une ou plusieurs tables de dimensions. gie d'exécution d'une requête de jointure en étoile en présence d'un IJB avec un exemple. La section 3 présente le modèle de coût que nous avons choisi pour évaluer les différentes techniques d'optimisation des IJB présentes dans notre travail. La section 4 présente les approches existantes dans la littérature. 2.1 Concepts de bases 2.1.1 Définition de l'index de jointure binaire (IJB) Ils sont largement utilisés dans les environnements d'entrepôts de données. Ces envi- ronnements ont généralement une grande quantité de données et des requêtes ad hoc, mais un faible niveau de transactions LM D simultanées. Pour de telles applications, l'IJB permet de : -Réduire le temps de réponse pour les grandes requêtes ad hoc, -Réduire les besoins de stockage par rapport à d'autres techniques d'indexation, -Améliorer les performances même sur le matériel avec un nombre relativement petit de CPU ou une mémoire limitée, -Maintenance efficace et facile. Les IJB réduisent les exigences de stockage par rapport à d'autres techniques d'indexation sur la même quantité de données [62], surtout lorsque l'attribut indexé comporte un petit nombre de valeurs distinctes (la cardinalité n'est pas élevée) [2]. L'index de jointure binaire (IJB) est une variante des indexs de jointure. Il constitue une combinaison entre l'index de jointure et l'index binaire. Il a été proposé pour pré-calculer les jointures entre une ou plusieurs tables de dimension et la table de faits dans les entrepôts de données modélisés par un schéma en étoile [47, 48]. L'IJB est défini sur un ou plusieurs attributs appartenant à plusieurs tables, nous distinguons deux types d'IJB : les IJB simples (mono-attribut) définis sur un seul attribut d'une table de dimension et les IJB multiples (multi-attributs) définis sur plusieurs attributs issus d'une ou plusieurs tables dimensions, contrairement aux indexs binaires standards où les attributs indexés appartiennent à la même table. 1 . 1Détermination des attributs candidats : étant donné que l'espace de recherche des attributs candidats est exponentiel, une bonne étude des Une requête de jointure en étoile est caractérisée par un ensemble de sélections sur les tables de dimension, suivies de jointures avec la table de faits. Si tous les attributs des prédicats de sélection sont indexés, alors l'exécution d'une requête de jointure passe par 4 étapes [13], commence par la réécriture de la requête et se termine par la récupération des n-uplets de la table de faits. Dans ce qui suit, nous présentons une description détaillée des étapes [13] : 1. Effectuer une réécriture de la requête qui consiste à séparer chaque jointure dans une sous-requête. Chaque sous-requête représente l'ensemble des sélections effectuées sur chaque table de dimension. 2. Pour chaque sous-requête, utiliser les IJB définis sur la table de dimension pour trouver un vecteur de bits représentant les n-uplets de la table de faits référencés par la sous-requête. 3. Effectuer une opération AND entre les vecteurs obtenus à partir des sousrequêtes pour trouver un seul vecteur référençant tous les n-uplets référencés par la requête. 4. Utiliser le vecteur résultat pour accéder à la table de faits et récupérer les n-uplets référencés par la requête globale. Pour montrer cette stratégie d'exécution, nous présentons l'exemple suivant.requêtes est essentielle pour le réduire en élaguant certains attributs qui sont moins intéressants que d'autres. 2. Construction de la configuration finale des indexs : dans cette deuxième phase, nous nous basons sur des modèles de coût qui estiment le temps d'exécution des requêtes et nous permettent ainsi d'aboutir à une configuration finale qui renferme les meilleurs attributs à indexer. 2.2 Stratégie d'exécution en présence des IJB 1 . 1CREATE BITMAP INDEX IJB-VILLE ON Ventes(Client.Ville) FROM Ventes, Client WHERE Client.CID=Ventes.CID 2. CREATE BITMAP INDEX IJB-MOIS ON Ventes(Temps.Mois) FROM Ventes, Temps WHERE Client.CID=Ventes.CID 3. CREATE BITMAP INDEX IJB-TYPE ON Ventes(Produit.Type) FROM Ventes, Produit WHERE Client.CID=Ventes.CID Pour exécuter Q, nous suivons les trois étapes ci-dessus mentionnées. 1. La réécriture de Q donne :SELECT avg(montant) Généralement, le nombre d'index candidats est d'autant plus important que la charge en entrée est volumineuse. La création de tous ces indexs peut ne pas être réalisable en pratique à cause des contraintes systèmes telles que la taille de l'espace de stockage alloué aux indexs ou le nombre limité d'index par table. Pour contourner ces limitations, nous avons utilisé le modèle de coût proposé par Aouiche et al. [6]. À partir d'une requête Q et d'une configuration d'index CI, ce modèle permet d'estimer la taille des indexs de la CI ainsi que le coût d'exécution de Q en termes de nombre d'entrées-sorties en présence de la CI. Il utilise un ensemble de paramètres dont les plus importants sont représentés sur le tableau 2.1.2.3.1 Types de modèle de coûtNous différencions deux types de modèles de coût : Modèle basé sur une fonction mathématique adhoc : cette catégorie de modèles définit une fonction de coût qui prend en entrée une requête et un plan d'exécution et donne en sortie le coût de ce plan. Ce coût est calculé en utilisant des formules qui prennent en compte un certain nombre de paramètres et de statistiques collectées sur la base de données, tout en considérant un certain nombre d'hypothèses. Table 2 . 21 -Paramètres du modèle de coût Symbole Description |T | Nombre de n-uplets de la table T ou cardinalité Taille en octets d'un n-uplet de la table T ou de l'attribut X reçoit la requête, il évalue les différents plans d'exécution et retourne le meilleur plan avec son coût. Le fait d'utiliser l'optimiseur de requêtes rend le calcul du coût plus fiable mais engendre deux inconvénients majeurs : (i) le coût que l'optimiseur estime dépend du SGBD utilisé et (ii) Le fait de recourir souvent à l'optimiseur engendre un coût d'exécution supplémentaire et dégrade la qualité de l'optimiseur qui passe plus de temps à estimer le coût d'exécution des requêtes qu'à les exécuter. 2.3.2 Coût de stockage d'un IJB Un IJB construit sur un ensemble d'attributs de dimension, stocke pour chaque n-uplet de la table de faits son identificateur de ligne (RowID) ainsi qu'un ensemble de vecteurs binaires représentant chacune une valeur des attributs indexés. L'espace de stockage d'un IJB dépend de deux paramètres : le nombre de n-uplets de la table de faits et la cardinalité des attributs indexables. Soit un index I défini sur n attributs A 1 , A 2 , .., A n . L'espace de stockage en octets de I est calculé par la formule Le coût d'exécution d'une requête est exprimé en nombre d'entrées-sorties nécessaires pour son exécution. Selon les attributs indexés dans CI, nous pouvons considérer trois scenarii possible pour l'exécution de Q : (i) aucun attribut indexable de Q n'est couvert par CI ; (ii) tous les attributs indexables de Q sont couverts par CI ; et (iii) quelques attributs indexables de Q sont couverts par CI. 1. Scénario 1 : Aucun attribut de Q n'est indexé dans CI : dans le cas d'absence d'IJB utilisés par Q, toutes les jointures de Q peuvent être calculées en utilisant la jointure par hachage. Pour calculer le coût d'exécution de ces jointures, nous avons utilisé le modèle de coût développé et décrit dans Aouiche et al. [6] où il suppose que toutes les jointures sont obtenues par la jointure par hachage. Le nombre d'E/S nécessaires pour joindre le table R avec la table S est alors Chash = 3 (pS + pR) (pX = Nombre de pages nécessaires pour stocker la table X). 2. Scénario 2 : Tous les attributs de Q sont indexés dans CI : ce cas représente la situation idéale où toutes les jointures dans Q ont été pré-calculées dans CI. L'exécution de Q dans ce cas passe par deux étapes importantes : le chargement des indexs, ensuite l'accès aux données. Par conséquent, deux coûts sont considérés : le coût de chargement des indexs et le coût d'accès auxdonnées.-Coût de chargement des indexs : le coût de chargement d'un IJB noté CC(I) correspond au nombre de pages lues pour le charger. Il est calculé par la formule suivante : CC(I) = T aille(I)de l'attribut X S p Taille en octets d'une page disque P T Nombre de pages nécessaires pour stocker la table T S pointeur Taille en octets du pointeur d'une page m Ordre d'un B-tree d Nombre de bitmaps utilisés pour évaluer une requête donnée w(X) le nombre de pages nécessaires pour stocker la table de faits F .3. Scénario 3 : Quelques attributs de Q sont indexés dans CI : dans ce scénario, l'exécution de Q se fait en deux phases. Dans la première phase, les indexs utilisés par Q sont chargés et utilisés pour trouver un ensemble de n-uplets de la table de faits. Le coût de cette phase est calculé comme celui du scénario 2. Il correspond au coût de chargement des indexs utilisés ainsi que celui de chargement des n-uplets de faits. Dans la deuxième phase, les jointures non encore effectuées (à cause de l'absence d'IJB les pré-calculant dans CI) sont effectuées entre les n-uplets de faits, résultats de la première étape, et les tables de dimension non encore jointes. Le coût de cette étape est calculé en utilisant le modèle que nous avons défini dans le chapitre 3 (voir scénario 1). en raison du volume de données important et du nombre exponentiel d'attributs candidats pouvant être utilisés dans le processus de sélection. Pour réduire cette complexité, la plupart des techniques (Chaudhuri et Narasayya, 1997 [19] ; Valentin et al., 2000 [60] ; Chaudhuri et al., 2004 [20] ; Aouiche et al., 2005 [6] ; Bellatreche et al., 2008 Table 2 . 22 -Récapitulatif des travaux de l'état de l'art basant sur plusieurs critères tel que la nature des IJB , qu'ils soient mono-attribut ou multi-attribut, le type de l'algorithme de sélection et le modèle du coût utilisé pour mesurer la qualité de la configuration finale. Les IJB sont des structures redondantes permettant de pré-calculer les jointures dans un entrepôt de données modélisé par un schéma en étoile. Ces indexs sont caractérisés par une représentation binaire permettant l'utilisation des opérations logiques pour évaluer des conjonctions ou disjonctions de prédicats contenus dans les requêtes de jointure en étoile. Ces indexs sont généralement recommandés pour les attributs de faible cardinalité. Nous avons étudié dans ce chapitre les IJB et leur problème de sélection. Nous avons ensuite expliqué la stratégie d'exécution d'une requête en présence d'un IJB. Nous avons aussi détaillé le modèle de coût utilisé en présentant les différentes formules et les scénarios possibles. Et nous avons terminé par la présentation de quelques approches existantes dans la littérature. Dans le chapitre suivant nous allons proposer notre approche de sélection des IJB.Approche Sélection des attributs candidats Algorithme de sélection Modèle de coût Wang et al. [61] Manuelle Glouton Mathématique Aouiche et al. [6] Automatique Data Mining + Glouton Mathématique Bellatreche et al. [9] Manuelle Data Mining + Glouton Mathématique Boukhalfa et al. [14] Manuelle Glouton Mathématique Necir et al. [46] Manuelle Data Mining + Glouton Mathématique Conclusion 2 -Les domaines d'applications des traverses minimales[31] ensemble de clés, décider de l'existence d'une autre clé est un problème, équivalent à celui de la recherche des traverses minimales. Les dépendances d'inclusion[23],qui sont une généralisation des clés étrangères dans un modèle relationnel, peuvent ainsi être déduites en adaptant les techniques de calcul des traverses minimales d'un hypergraphe. Celles-ci peuvent, par ailleurs, présenter des solutions aux problèmes de réécriture des requêtes, d'exécution des requêtes et d'actualisation des vues. Ces dernières, dont le rôle est très important dans la présentation des données à partir des bases, peuvent en effet être gérées en se basant sur les traverses minimales. L'inférence des dépendances fonctionnelles représente aussi un domaine d'application fort intéressant des traverses minimales. Sans oublier le domaine de fouille de données et l'utilisation des traverses minimales pour la génération des règles associatives, des motifs fermés ou encore des motifs fréquents. Plusieurs auteurs se sont intéressés au problème de l'extraction des traverses minimales d'un hypergraphe. Dans cette partie, nous présentons un survol sur ces différentes approches, en mettant en exergue leurs points forts et leurs limites. Le ner, et par la suite nous détaillons l'algorithme Mmcs de Murakami et T.Uno qui est le meilleur algorithme de la littérature en termes de performances et temps de traitement. • L'algorithme de Berge : Berge est le premier à s'être intéressé au problème du calcul des traverses minimales et à avoir proposé un algorithme pour le résoudre. Cet algorithme, dont le principe est simple, commence par calculer l'ensemble des traverses minimales de la première hyperarête, qui est équivalent à l'ensemble des sommets contenus dans cette dernière. Ensuite, il met à jour cet ensemble des traverses minimales en ajoutant les autres hyperarêtes, une à une, de manière incrémentale. Ainsi, l'algorithme de Berge construit des hypergraphes partiels au fur et à mesure qu'il ajoute des hyperarêtes. Néanmoins, l'algorithme a toujours besoin de stocker les traverses minimales inter-• Algorithme MMCS de Murakami et T.Uno (2013) : Murakami et Uno proposent les algorithmes de type Shd, Mmcs et rs, qui visent à réduire l'espacede recherche[44]. En ce sens, ces algorithmes sont destinés à traiter des hypergraphes de grande taille constitués par un très grand nombre d'hyperarêtes.de la fonction crit, qui est la clé de leur approche. Les algorithmes de typeShd se basent donc sur la même approche. L'algorithme 1 décrit le pseudocode de l'algorithme Mmcs. Cet algorithme est récursif et fournit en sortie des traverses minimales en série. Pour tester un ensemble de sommets X, les algorithmes cherchent, de façon itérative, les sous-ensembles de X et effectuent un appel récursif pour chacun tout en mettant à jour les ensembles crit et uncov. En opérant de cette manière, Murakami et Uno permettent à leur algorithme de balayer l'espace de recherche en profondeur en cherchant seulement les sous-ensembles du candidat courant. La méthode et les étapes pour la recherche des sous-ensembles d'un candidat sont détaillées dans [44]. L'étude expérimentale effectuée par les auteurs a montré que les algorithmes de type Shd (et notamment mmcs) présentaient des performances très intéressantes et s'imposaient comme les algorithmes les plus performants dans la littérature.Le survol des domaines d'application des traverses minimales démontre l'intérêt, de plus en plus, croissant pour les traverses minimales et, dans la littérature, plusieurs algorithmes dédiés à leur calcul ont été proposés. Techniques d'extraction de traverses minimales. nombre de traverses minimales d'un hypergraphe pouvant être exponentiel en la taille de l'hypergraphe, la question de la mise en place d'un algorithme résolvant le problème de l'extraction des traverses minimales d'un hypergraphe H avec une complexité polynomiale en |H| reste néanmoins ouverte. Dans ce qui suit nous allons présenter l'algorithme de Berge, qui est le premier auteur à s'être intéressé à ce problème en proposant un algorithme pour le contour- médiaires avant de passer à l'étape suivante consistant à ajouter une nouvelle hyperarête. L'un des inconvénients majeurs de l'algorithme de Berge est la consomma- tion excessive en mémoire d'où plusieurs chercheurs ont cherché à l'améliorer. Parmi les améliorations les plus connues proposées récemment figurent celles introduites par Dong et al. [24], Bailey et al. [8] et Kavvadias et Stavropoulos [42]. Les algorithmes de type Shd adoptent une stratégie de parcours en profon- deur de l'espace de recherche qui, dans le cas de rs, est équivalente à celle de l'algorithme de Kavvadias et Stavropoulos. La principale différence entre ce dernier et rs repose sur l'élimination des itérations redondantes où aucun sommet n'est ajouté à un ensemble de sommets générés auparavant. De plus, Murakami et Uno introduisent deux nouveaux concepts, i.e, le test de la trans- versalité (uncov) et les hyperarêtes critiques (crit), et ce afin d'optimiser les tests sur la minimalité effectués sur l'ensemble des traverses générées. Les auteurs proposent aussi divers lemmes, dans [44], pour optimiser le calcul nous profitons des récents travaux de la littérature dédiés au calcul des traverses minimales. Pour ce faire, nous utilisons le meilleur algorithme existant en termes de performances, i.e., Mmcs de Murakami et Uno[44]. Notre choix est uniquement dicté par les temps de traitement intéressant de ce dernier.Nous avons automatiquement configuré l'algorithme de Mmcs pour qu'il ne génère que les traverses minimales de plus petite taille à travers la fonction GetMinTransversality introduite par Jelassi et al. [41], qui retourne le nombre de transversalité d'un hypergraphe que nous allons la détailler par la suite. • Construction de l'ensemble d'indexs candidats : après la génération de l'en- semble des traverses minimales, une phase de génération d'index candidats est nécessaire. Ainsi, nous procédons comme suit : 1. Application de la fonction Fitness Au lieu de se baser sur la fréquence d'apparition présentée par le support comme un critère de détermination des attributs fréquents, nous nous inspirons de l'approche de Bellatreche et al. [9] en utilisant la fonction Fitness. Cette dernière permet de pénaliser chaque T M , qui contient des attributs appartenant à des petites tables de dimensions, en prenant compte des cardinalités des tables de dimensions et la taille de la page système. Notre fonction Fitness est calculée comme suit : table de faits.Les travaux antérieurs ont fait recours au modèle de coût pour calculer le coût en termes d'entrées/sorties de chaque index et ne garder que ceux qui maximise la fonc- tion objective pour choisir la configuration finale d'index. Dans notre travail, nous gardons les attributs indexables de la traverse minimale résultante et nous les consi- dérons comme étant la configuration finale sans tenir compte d'aucune contrainte. Le modèle de coût reste un outil important si nous voulons ajouter ou retirer des indexs de la configuration finale. ). Les hyperarêtes restantes sont stockées dans E . La fonction invoque ensuite la fonction hyp_empty(). hyp_empty est une fonction récursive qui stocke les sommets ayant le plus grand support dans E et les traitera, un par un, en supprimant à chaque fois les hyperarêtes auxquelles appartient le sommet traité. Cette fonction récursive s'arrête lorsque E sera vide. La valeur retournée correspond au nombre d'appels à la fonction hyp_empty nécessaires pour que E soit égal à l'ensemble vide. Pour chaque sommet s traité, l'ensemble E est réactualisé à toutes les hyperarêtes de l'hypergraphe auxquelles nous supprimons celles qui contiennent s.Au final, GetMinTransversality retourne le nombre minimum d'itérations per- mettant de "vider" la matrice d'incidence. La valeur de k, retournée par la fonction, correspond ainsi au nombre de transversalité de l'hypergraphe d'entrée H. Algorithme 3 : GetMinTransversality Entrées : Matrice d'incidence IM H associée à H = (X , ξ) Sorties : T : Une plus petite traverse minimale de H ; k : Nombre de transversalité de H 1 début 2 Table 3 . 31 -Requêtes de test (1) select S.channel_id, sum(S.quantity_sold) from S, C where S.channel_id=C.channel_id and C.channel_desc='Internet' group by S.channel_id Table 4 . 41 -Taille des tables de TPC-H Table Nombre d'instances Taille de la table en nombre de pages Espace % Customers 150,000 3397 31.3 MB 3% LineItems 6,001,215 105866 726,7 MB 63% Nation 25 1 5 KB 0% Orders 1,500,000 23766 190,3 MB 17% Part 200,000 3746 30,5 MB 3% PartSupp 800,000 16294 164,0 MB 14% Supplier 10,000 207 1,9 MB 0% Region 5 1 1 KB 0% Table 4 . 42 -Taille des tables de SSB1 Table Nombre d'instances Taille de la table en nombre de pages Lineorder 6000000 123047 Dates 2556 58 Part 200000 4102 Supplier 2000 42 Customer 30000 696 contribution, à savoir la pertinence d'utiliser les traverses minimales au service de sélection des IJB.Une des caractéristiques des entrepôts de données est leur volume de données important qui peut atteindre quelques milliers de giga-octets (téraoctet). Les entrepôts de données sont dédiés aux applications d'analyse et de prise de décision. Cette analyse est souvent réalisée par l'intermédiaire de requêtes complexes caractérisées par des opérations de sélections, de jointures et d'agrégations. Pour optimiser ces requêtes, l'administrateur est amené à effectuer une tâche très importante : la conception physique durant laquelle, l'administrateur choisit un ensemble de techniques d'optimisation à sélectionner de manière isolée ou combinée. Dans ce travail, nous nous sommes ouvert au domaine le domaine des entrepôts de données son architecture, sa modélisation et ses différentes techniques d'optimisation. Nous avons décrit les indexs de jointure binaires, avec les problèmes liés à leurs sélections ainsi que les différents travaux proposés pour résoudre ces problèmes. Dans ce travail, nous avons essayé d'utiliser la technique d'index de jointure binaire qui est considérée comme une technique très pertinente pour l'optimisation des requêtes en étoile (OLAP) utilisées dans le cas des entrepôts de données. Nous avons proposé une approche de sélection d'une configuration finale d'index de jointure binaires. Notre approche repose sur l'utilisation d'une technique appelée les traverses minimales. La configuration finale obtenue est composée de plusieurs index qui permettent d'optimiser l'ensemble de requêtes. Nous avons effectué plusieurs expérimentations sur notre approche et sur des approches déjà proposés telles que Close et DynaClose, afin de prouver la qualité de notre approche par rapport à ces dernières. À la fin, nous avons déduit que notre approche proposée a prouvé son efficacité quand à l'optimisation des performances des entrepôts de données. L'idée de proposer une nouvelle approche pour sélectionner une combinaison d'index de jointure binaire est très originale et prometteuse. Les résultats présentés dans ce mémoire montrent l'efficacité de notre approche tout en contribuant à un axe de recherche très prometteur et d'actualité. De nombreuses perspectives de recherche peuvent être envisagées. Nous présentons succinctement celles qui nous paraissent être les plus intéressantes. Les approches de sélection d'index de jointure binaires existantes sont contraintes seulement par l'espace de stockage, sera intéressant de considérer le coût de mise à jour des index sélectionnés comme étant une contrainte supplémentaire [36, 35]. Les approches de sélection que nous avons proposées se basent sur une charge de travail fixe construites à travers les requêtes considérées fréquentes. Cette charge peut évoluer et ainsi rendre la conception physique obsolète. Il serait intéressant de développer une stratégie permettant de détecter les changements intervenus au niveau de la charge de requêtes et de proposer un ensemble de recommandations à l'administrateur. L'identification des changements peut être effectuée en analysant les fichiers logs à travers l'implémentation d'un ensemble de déclencheurs (triggers). Les recommandations générées peuvent varier d'un simple avertissement sur un changement dans une requête à une proposition d'une nouvelle configuration d'index et une nouvelle conception physique de l'entrepôt [39, 38, 37]. Et enfin, nous avons identifié des similarités entre les indexs de jointure binaires et la fragmentation horizontale dérivée, qui nous ont permis de les combiner. Il serait judicieux de refaire le même travail en considérant d'autres techniques comme la sélection des vues matérialisées[34, 35]. Nous présentons la charge de travail utilisée pour l'expérimentation de notre stratégie de sélection des IJB sur le banc de tests T P C-H. 22 requêtes de plusieurs types ont été considérées : requêtes de type count(*) avec et sans agrégation, requêtes utilisant les fonctions d'agrégation comme Sum, Min, Max, requêtes ayant des attributs de dimension dans la clause SELECT, etc.mentale pour mettre en exergue le travail réalisé. Nous avons présenté les résultats des approches existantes et nos résultats en termes de temps d'exécution, taux de réduction et le coût en entrées/sorties pour valider notre approche, afin d'évaluer l'efficacité de cette dernière. Ce qui nous a permis de prouver l'importance de notre Conclusion générale et perspectives Annexe A Nous avons exposé dans ce chapitre une présentation des entrepôts de données, leur différence avec les bases de données traditionnelles et leur architecture générale. Nous avons aussi vue la modélisation des entrepôts de données avec le modèle multidimensionnel qui peut être implémentée sur deux modèles : M OLAP et ROLAP . Par la suite, nous avons abordé le sujet des techniques d'optimisation des entrepôts de données et nous avons vu les différentes approches. Dans le chapitre suivant, nous allons détailler une technique d'optimisation particulière qui est l'index de jointure binaire. .1 Concepts de bases Remerciements Fast discovery of association rules. R Agrawal, H Mannila, R Srikant, H Toivonen, I Verkamo, Advances in Knowledge Discovery and Data Mining. U. Fayyad et al.Menlo Park, CAAAAIPressAgrawal, R., Mannila, H., Srikant, R., Toivonen, H. and Verkamo, I. : Fast dis- covery of association rules, in U. Fayyad et al. (Eds.) : Advances in Knowledge Discovery and Data Mining, pp. 307-328, AAAIPress, Menlo Park, CA, (1996) Modeling multidimensional databases. A Agrawal, A Gupta, S Sarawagi, Technical report research. IBMAgrawal, A., Gupta, A., and Sarawagi, S. : Modeling multidimensional data- bases. Technical report research, IBM, (1997) Extracting compact and information lossless sets of fuzzy association rules. S Ayouni, S Ben Yahia, , A Laurent, Fuzzy Sets and Systems. 1831S. Ayouni, S. Ben Yahia and, A. Laurent, Extracting compact and information lossless sets of fuzzy association rules, Fuzzy Sets and Systems 183 (1), 1-25, (2011) Mining closed gradual patterns. S Ayouni, A Laurent, S Ben Yahia, P Poncelet, International Conference on Artificial Intelligence and Soft Computing. S. Ayouni, A. Laurent and S. Ben Yahia, P Poncelet, Mining closed gradual pat- terns, International Conference on Artificial Intelligence and Soft Computing, 267-274, (2010) Techniques Data Mining pour la sélection d'une configuration d'index de jointure binaire. M Amara, O F Benouaz, mémoire de masterAmara, M., Benouaz, O.F. : Techniques Data Mining pour la sélection d'une configuration d'index de jointure binaire, mémoire de master (2011) Automatic Selection of Bitmap Join Indexes in Data Warehouses. K Aouiche, J Darmont, O Boussaid, F Bentayeb, 7th International Conference on Data Warehousing and Knowledge Discovery DAWAK. Aouiche, k., Darmont, J., Boussaid, O., and Bentayeb, F. : Automatic Selection of Bitmap Join Indexes in Data Warehouses. 7th International Conference on Data Warehousing and Knowledge Discovery DAWAK, (2005) Dynamic index selection in data warehouses. S Azefack, K Aouiche, J Darmont, 4th International Conference on Innovations in Information Technology. Azefack, S., Aouiche, K. and Darmont, J. (2006) 'Dynamic index selection in data warehouses', 4th International Conference on Innovations in Information Technology. A fast algorithm for computing hypergraph transversals and its application in mining emerging patterns. J Bailey, T Manoukian, K Ramamohanarao, Proceedings of the Third IEEE International Conference on Data Mining (ICDM '03). the Third IEEE International Conference on Data Mining (ICDM '03)Washington, USABailey, J. , Manoukian, T., and Ramamohanarao, K. : A fast algorithm for computing hypergraph transversals and its application in mining emerging pat- terns. In Proceedings of the Third IEEE International Conference on Data Mining (ICDM '03), pages 485-488, Washington, USA, (2003). A data mining approach for selecting bitmap join indices. L Bellatreche, R Missaoui, H Necir, H Drias, Journal of Computing Science and Engineering. 21Bellatreche, L., Missaoui, R., Necir, H. and Drias, H. : A data mining approach for selecting bitmap join indices. Journal of Computing Science and Enginee- ring, 2(1) :206-223 (2008) C Berge, Hypergraphs : Combinatorics of Finite Sets. North-Holland3rd editionBerge, C. : Hypergraphs : Combinatorics of Finite Sets. North-Holland, 3rd edition (1989) Static and incremental selection of multi-table indexes for very large join queries. R Bouchakri, L Bellatreche, K W Hidouci, ADBIS 2012. Morzy, T., Härder, T., Wrembel, R.HeidelbergSpringer7503Bouchakri, R., Bellatreche, L., Hidouci, K.W. : Static and incremental selec- tion of multi-table indexes for very large join queries. In : Morzy, T., Härder, T., Wrembel, R. (eds.) ADBIS 2012. LNCS, vol. 7503, pp. 43-56. Springer, Heidelberg (2012) Mining undominated association rules through interestingness measures. S Bouker, R Saidi, S Ben Yahia, E. Mephu Nguifo, International Journal on Artificial Intelligence Tools. 23041460011S. Bouker, R. Saidi, S. Ben Yahia and E. Mephu Nguifo, Mining undominated association rules through interestingness measures, International Journal on Artificial Intelligence Tools 23 (04), 1460011, (2014) De la conception physique aux outils d'administration et de tuning des entrepôts de données. K Boukhalfa, Ph.d. thesisEcole nationale supérieure de mécanique et d'aérotechnique Poitier juilletBoukhalfa, K. : De la conception physique aux outils d'administration et de tuning des entrepôts de données. Ph.d. thesis Ecole nationale supérieure de mécanique et d'aérotechnique Poitier juillet 2009. Index de Jointure Binaires : Stratégies de Sélection et Étude de Performances. K Boukhalfa, L Bellatreche, Z Benameur, Revue des Nouvelles Technologies de l'Information RNTI (EDA'2010). Boukhalfa, K., Bellatreche, L. and Benameur, Z. : Index de Jointure Binaires : Stratégies de Sélection et Étude de Performances, Revue des Nouvelles Tech- nologies de l'Information RNTI (EDA'2010) (2010) Hypergraphs in the Service of Very Large Scale Query Optimization Application : Data Warehousing. thesis Ecole nationale supérieure de mécanique et d'aérotechnique Poitier. A Boukorca, Boukorca, A. : Hypergraphs in the Service of Very Large Scale Query Opti- mization Application : Data Warehousing. thesis Ecole nationale supérieure de mécanique et d'aérotechnique Poitier, (2016) I Bouzouita, S Elloumi, S Ben Yahia, GARC : A New Associative Classification Approach, International Conference on Data Warehousing and Knowledge Discovery. I. Bouzouita, S. Elloumi and S. Ben Yahia, GARC : A New Associative Classi- fication Approach, International Conference on Data Warehousing and Know- ledge Discovery, 554-565, (2006) MAD-IDS : novel intrusion detection system using mobile agents and data mining approaches. I Brahmi, S Ben Yahia, P Poncelet, Pacific-Asia Workshop on Intelligence and Security Informatics. I. Brahmi, S. Ben Yahia and P. Poncelet, MAD-IDS : novel intrusion detection system using mobile agents and data mining approaches, Pacific-Asia Workshop on Intelligence and Security Informatics, 73-76, (2010) Towards a multiagentbased distributed intrusion detection system using data mining approaches. I Brahmi, S Ben Yahia, H Aouadi, P Poncelet, ternational Workshop on Agents and Data Mining Interaction. I. Brahmi, S. Ben Yahia, H. Aouadi and P. Poncelet, Towards a multiagent- based distributed intrusion detection system using data mining approaches, In- ternational Workshop on Agents and Data Mining Interaction, 173-194, (2011) An efficient cost-driven index selection tool for microsoft sql server. S Chaudhuri, V Narasayya, International Conference on Very Large Databases. Chaudhuri, S. and Narasayya, V. : An efficient cost-driven index selection tool for microsoft sql server, International Conference on Very Large Databases, pp.146-155 (1997) Index selection for databases : a hardness study and a principled heuristic solution. S Chaudhuri, M Datar, V Narasayya, IEEE Transactions on Knowledge and Data Engineering. 1611Chaudhuri, S., Datar, M. and Narasayya, V. : Index selection for databases : a hardness study and a principled heuristic solution, IEEE Transactions on Knowledge and Data Engineering, Vol. 16, No. 11, pp.1313-1323 (2004) Selftuning database systems : A decade of progress. S Chaudhuri, V Narasayya, VLDB. Chaudhuri, S. and Narasayya, V. : Selftuning database systems : A decade of progress. In VLDB, pages 3-14 (2007) The dificulty of optimum index selection. D Comer, ACM Transactions on Database Systems (TODS). 34Comer, D. : The dificulty of optimum index selection. ACM Transactions on Database Systems (TODS) 3(4) :440-445 (1978) Zigzag : a new algorithm for mining large inclusion dependencies in database. F De Marchi, J M Petit, Proceedings of the 3rd IEEE international Conference on Data Mining, ICDM'03. the 3rd IEEE international Conference on Data Mining, ICDM'03Florida,USADe Marchi, F. and Petit, J. M. : Zigzag : a new algorithm for mining large in- clusion dependencies in database. In Proceedings of the 3rd IEEE international Conference on Data Mining, ICDM'03, pages 27-34, Florida,USA, (2003) Mining border descriptions of emerging patterns from dataset pairs. G Dong, J Li, Knowledge and Information Systems. 82Dong, G. and Li, J. : Mining border descriptions of emerging patterns from dataset pairs. Knowledge and Information Systems, 8(2) :178-202, (2005) Fundamentals of database systems. R Elmasri, S B Navathe, PearsonElmasri, R. and Navathe, S. B. : Fundamentals of database systems. Pearson, (2014) G Gasmi, E M Sb Yahia, Nguifo, Bouker, Extraction of association rules based on literalsets, International Conference on Data Warehousing and Knowledge Discovery. G Gasmi, SB Yahia, EM Nguifo, S Bouker, Extraction of association rules based on literalsets, International Conference on Data Warehousing and Knowledge Discovery, 293-302, (2007) M Golfarelli, D Maio, S Rizzi, Conceptual design of data warehouses from e/r schemes. in the 31th Hawaii Conference on System Sciences. Golfarelli, M., Maio, D., and S. Rizzi. : Conceptual design of data warehouses from e/r schemes. in the 31th Hawaii Conference on System Sciences, (1998) Index selection for data warehousing. M Golfarelli, E Rizzi, S Saltarelli, Proceedings 4th International Workshop on Design and Management of Data Warehouses (DMDW'2002). 4th International Workshop on Design and Management of Data Warehouses (DMDW'2002)Toronto, CanadaGolfarelli, M., Rizzi, E. and Saltarelli, S. : Index selection for data warehousing. Proceedings 4th International Workshop on Design and Management of Data Warehouses (DMDW'2002), Toronto, Canada, pages 33-42 (2002) GenMax : An efficient algorithm for mining maximal frequent itemsets. K Gouda, M J Zaki, DataMining and Knowledge Discovery. 113Gouda, K., Zaki, M. J. : GenMax : An efficient algorithm for mining maxi- mal frequent itemsets. DataMining and Knowledge Discovery, 11(3), 223-242, (2005) . Yazig Grim, Yazig Grim (http ://grim.developpez.com/ ) Algorithmic and computational complexity issues of MONET. Institut fuer Informatik. M Hagen, Friedrich-Schiller-Universitaet JenaPhd DissertationHagen, M. : Algorithmic and computational complexity issues of MONET. Ins- titut fuer Informatik, Friedrich-Schiller-Universitaet Jena (Phd Dissertation) (2008) S Hamdi, A Bouzeghoub, A Gancarski, S Ben Yahia, Trust inference computation for online social networks Trust, Security and Privacy in Computing and Communications (TrustCom). S. Hamdi, A. Bouzeghoub, A. Gancarski and S. Ben Yahia, Trust inference com- putation for online social networks Trust, Security and Privacy in Computing and Communications (TrustCom), (2013) Succinct minimal generators : Theoretical foundations and applications. T Hamrouni, S Ben Yahia, E. Mephu Nguifo, International journal of foundations of computer science. 1902T. Hamrouni , S. Ben Yahia and E. Mephu Nguifo, Succinct minimal genera- tors : Theoretical foundations and applications, International journal of foun- dations of computer science 19 (02), 271-296, (2008) On the efficient stability computation for the selection of interesting formal concepts. A Mouakher, S Ben Yahia, Information Sciences. 472A. Mouakher and S. Ben Yahia, 2019. On the efficient stability computation for the selection of interesting formal concepts. Information Sciences, 472, pp.15-34. NBF : An FCA-Based Algorithm to Identify Negative Correlation Biclusters of DNA Microarray Data. A Houari, W Ayadi, S Ben Yahia, IEEE 32nd International Conference on Advanced Information Networking and Applications (AINA). IEEEA. Houari, W. Ayadi and S. Ben Yahia, 2018, May. NBF : An FCA-Based Al- gorithm to Identify Negative Correlation Biclusters of DNA Microarray Data. In 2018 IEEE 32nd International Conference on Advanced Information Networ- king and Applications (AINA) (pp. 1003-1010). IEEE. A new FCA-based method for identifying biclusters in gene expression data. A Houari, W Ayadi, S Ben Yahia, International Journal of Machine Learning and Cybernetics. A. Houari, W. Ayadi and S. Ben Yahia, 2018. A new FCA-based method for identifying biclusters in gene expression data. International Journal of Machine Learning and Cybernetics, pp.1-15. Formal context coverage based on isolated labels : An efficient solution for text feature extraction. F Ferjani, S Elloumi, A Jaoua, S Ben Yahia, S Ismail, S Ravan, Information Sciences. 188F. Ferjani, S. Elloumi, A. Jaoua, S. Ben Yahia, S. Ismail and S. Ravan, 2012. Formal context coverage based on isolated labels : An efficient solution for text feature extraction. Information Sciences, 188, pp.198-214. Generalization of association rules through disjunction. T Hamrouni, S Ben Yahia, E M Nguifo, Annals of Mathematics and Artificial Intelligence. 592T. Hamrouni, S. Ben Yahia and E.M. Nguifo, 2010. Generalization of association rules through disjunction. Annals of Mathematics and Artificial Intelligence, 59(2), pp.201-222. Looking for a structural characterization of the sparseness measure of (frequent closed) itemset contexts. T Hamrouni, S Ben Yahia, E M Nguifo, Information Sciences. 222T. Hamrouni, S. Ben Yahia and E.M. Nguifo, 2013. Looking for a structural characterization of the sparseness measure of (frequent closed) itemset contexts. Information Sciences, 222, pp.343-361. Building the Data Warehouse. W H Inmon, John Wiley & Sonsthird editionInmon, W.H. : Building the Data Warehouse. John Wiley & Sons, third edition (2002) Efficient unveiling of multi-members in a social network. M N Jelassi, C Largeron, S Ben Yahia, Journal of Systems and Software. 94M.N. Jelassi, C. Largeron, S. Ben Yahia : Efficient unveiling of multi-members in a social network. Journal of Systems and Software 94 : 30-38 (2014) An efficient algorithm for the transversal hypergraph generation. D J Kavvadias, E C Stavropoulos, Journal of Graph Algorithms and Applications. 92Kavvadias, D. J. and Stavropoulos, E. C. : An efficient algorithm for the trans- versal hypergraph generation. Journal of Graph Algorithms and Applications, 9(2) :239-264, (2005) The Data Warehouse Toolkit. R Kimball, John Wiley and SonsKimball, R. : The Data Warehouse Toolkit. John Wiley and Sons, (1996) Efficient algorithms for dualizing large-scale hypergraphs. K Murakami, T Uno, Proceedings of the 15th Meeting on Algorithm Engineering and Experiments (ALENEX 13). the 15th Meeting on Algorithm Engineering and Experiments (ALENEX 13)New Orleans, USA113Murakami, K. and Uno, T. : Efficient algorithms for dualizing large-scale hy- pergraphs. In Proceedings of the 15th Meeting on Algorithm Engineering and Experiments (ALENEX 13), pages 113, New Orleans, USA (2013) DynaClose : Une approche de fouille de données pour la sélection des index de jointure binaires dans les entrepôts de données. H Necir, L Bellatreche, R Missaoui, RNTI, Juin3es Journées Francophones sur les Entrepôts de Données et analyse en Ligne (EDA'07Necir, H., Bellatreche, L., Missaoui, R. :DynaClose : Une approche de fouille de données pour la sélection des index de jointure binaires dans les entrepôts de données, 3es Journées Francophones sur les Entrepôts de Données et analyse en Ligne (EDA'07), edited by RNTI, Juin, (2007) A data mining approach for efficient selection bitmap join index. H Necir, Int. J. Data Mining, Modelling and Management. 23Necir, H. : A data mining approach for efficient selection bitmap join index, Int. J. Data Mining, Modelling and Management, Vol. 2, No. 3, (2010) P O&apos;neil, G Graefe, Multi-Table Joins Through Bitmapped Join Indices, SIGMOD Record. 24O'Neil, P., and Graefe, G. : Multi-Table Joins Through Bitmapped Join Indices, SIGMOD Record, 24, 8-11, (1995) P O&apos;neil, D Et Quass, Improved query performance with variant indexes. SIGMOD Conference. O'Neil, P., et Quass, D. : Improved query performance with variant indexes. SIGMOD Conference, pages 38-49, (1997) . P O&apos;neil, B O&apos;neil, X Chen, Star Schema Benchmark Revision. 3O'Neil, P., O'Neil, B., Chen, X. : Star Schema Benchmark Revision 3. June (2009) Yet another approach for completing missing values. L Ben Othman, S Ben Yahia, Concept Lattices and Their Applications. L. Ben Othman, S. Ben Yahia, Yet another approach for completing missing values, Concept Lattices and Their Applications, 155-169, (2008) Discovering frequent closed itemsets for association rules. N Pasquier, Y Bastide, R Taouil, L Lakhal, 7th International Conference on Database Theory (ICDT 1999). Jerusalem, Israel1540Pasquier, N., Bastide, Y., Taouil, R., and Lakhal, L. : Discovering frequent clo- sed itemsets for association rules. In 7th International Conference on Database Theory (ICDT 1999), Jerusalem, Israel, volume 1540 of LNCS, pages 398-416 (1999) Modèles de coût pour la sélection de vues matérialisées dans le nuage, application aux services amazon ec2 et s3. EDA B-9. R Perriot, J Pfeifer, L Orazio, B Bachelet, S Bimonte, J Darmont, Perriot, R., J. Pfeifer, L. d'Orazio, B. Bachelet, S. Bimonte, et Darmont, J. : Modèles de coût pour la sélection de vues matérialisées dans le nuage, applica- tion aux services amazon ec2 et s3. EDA B-9, 53-68, (2013) Data Warehousing Fundamentals for IT Professionals. P Ponniah, WileyPonniah, P. : Data Warehousing Fundamentals for IT Professionals. Wiley (2010) Integ rating vertical and horizontal partitioning into automated physical database design. A Sanjay, V R Narasayya, Yang , B , Proceedings of the ACM SIGMOD International Conference on Management of Data. the ACM SIGMOD International Conference on Management of DataSanjay, A., Narasayya, V. R., and Yang, B. : Integ rating vertical and horizontal partitioning into automated physical database design. Proceedings of the ACM SIGMOD International Conference on Management of Data, pages 359-370, (2004) Indexing OLAP data. S Sarawagi, Data Engineering Bulletin. 201Sarawagi, S. Indexing OLAP data, Data Engineering Bulletin, Vol. 20, No. 1, pp.36-43, (1997) Modélisation et manipulation d'entrepôts de données complexes et historisées. O Teste, Université Paul SabatierThèse de doctorat en informatiqueTeste, O. : Modélisation et manipulation d'entrepôts de données complexes et historisées. Thèse de doctorat en informatique, Université Paul Sabatier, 2000. Join indices. P Valduriez, ACM Transactions on Database Systems. 122Valduriez, P. : Join indices. ACM Transactions on Database Systems, 12(2) :218-246, June 1987. Db2 advisor : an optimizer smart enough to recommend its own indexes. G Valentin, M Zuliani, D C Zilio, G M Lohman, A Skelley, 00Valentin, G., Zuliani, M., Zilio, D.C., Lohman, G.M. and Skelley, A. : Db2 advisor : an optimizer smart enough to recommend its own indexes, ICDE00, pp.101-110 (2000) Index selection in relational databases. K Whang, International Conference on Foundations of Data Organization (FODO 85). Kyoto, JapanWhang, K. : Index selection in relational databases. In International Conference on Foundations of Data Organization (FODO 85), Kyoto, Japan, pages 487-500, (1985) Query optimization for selections using bitmaps. M Wu, ACM SIGMOD International Conference on Management of Dat. Wu, M. : Query optimization for selections using bitmaps, in ACM SIGMOD International Conference on Management of Dat, pp.227-238, (1999)
sample_8361
0.6055
arxiv
Estimación de población contagiada por Covid-19 usando regresión Logística generalizada y heurísticas de optimización 2 Apr 2020 Villalobos Arias rio.villalobos@ucr.ac.cr Mario Alberto Universidad de Costa Rica CIMPA y Escuela de Matemática San José, Costa Rica, ma Escuela de Matemática Instituto tecnologico de Costa Rica Cartago, Costa Rica, marvillalo Estimación de población contagiada por Covid-19 usando regresión Logística generalizada y heurísticas de optimización 2 Apr 20201Heurísticas de optimizaciónregresión logística generalizadaajuste de curvascovid-19 1 Introducción de abril de 2020Resumen En este trabajos se presenta una propuesta para la estimación de la poblaciones usando ajuste de curvas del tipo logística. Este tipo de curvas se utilizan para el estudio de crecimiento de poblaciones, en este casos población de personas infectadas por el virus Covid-19; y también se puede utilizar para aproximar la curva de supervivencia que se utiliza en estudios actuariales y otras similares. Introducción Las curvas de crecimiento de poblaciones siguen el conocido comportamiento logístico como se muestra en la figura 1. Un modelo que se utiliza para el ajuste de curvas de poblaciones es el Logístico, que se utiliza la siguiente ecuación P (t) = 1 1 + e −at+b (1.1) Como se ve este modelo tiene varios problemas entre ellos que los datos están en [0, 1], y no es flexible, la ventaja es que este modelo es que se puede obtener una aproximación de la solución óptima al transformar los datos y utilizar regresión lineal. Como se ve en el gráfico 2 al aplicar regresión logística y al dividir todos los datos entre el máximo valor (66818) se obtiene una curva que ajusta bien, con un R 2 = 0,99955, que Figura 1: casos totales de contagiados en China es muy bueno, desde el punto vista estadístico, pero como se ve en la figura hay muchos valores que no ajustan muy bien en las curvas y no es bueno para la predicción, como veremos más adelante. El modelo modelo SIR La versión clásica para el estudio de epidemias es el modelo modelo SIR en el cual se divide a la población en tres grupos: los susceptibles, los infectados y los recuperados (SIR), esto en el caso más simple y que la población va cambiando de susceptible a infectados y luego recuperados. Se supone que el decrecimiento es proporcional a la cantidad de infectados multiplicado por la misma cantidad de susceptibles. el cambio en los recuperados es igual a cierto porcentaje de los infectados y finalmente la cantidad de infectados va a cambiar aumentando por los susceptibles y luego le quitamos la cantidad de los infectados que pasa recuperados. De esta manera se obtienen las siguientes ecuaciones dS dt = − βIS N , dI dt = βIS N − γI, dR dt = γI, con dS dt + dI dt + dR dt = 0, que nos da S(t) + I(t) + R(t) = constant = N, El problema con el modelo SIR es que como vemos se necesitan los tres parámetros que se tienen en las ecuaciones diferenciales pero con pocos datos o digas en pocos días es muy difícil determinar esos parámetros Regresión Logística generalizada Por lo anterior se proponen la utilización de un modelo un poco más complejo a la regresión logística y que sea más fácil de determinar que el SIR Una primera versión es: P (t) = M 1 + e −at+b (3.1) que agrega un parámetro más, por determinar, que es la población límite M , ya con esta modificación no se puede resolver mediante transformación y regresión lineal. Para resolver este problema se debe utilizar técnicas no lineales de optimización para resolverlo, además tiene el problema de rigidez, esto es que no se ajusta suficientemente a ciertas curvas, este modelo se puede utilizar para predicción, pero desde el punto de ajuste no es tan preciso como veremos más adelante. Para flexibilizar la curva se agrega un parámetro extra α de la siguiente forma P (t) = M 1 + e −at+b α . (3.2) Este parámetros α agrega flexibilidad en el ajuste, recuérdese las gráficas de y = x 1/3 , y = x 1/2 , y = x,y = x 2 ,y = x 3 . Para esta función el punto de inflexión es cuando P (t) = a 2 ce at+b (e at+b + 1) −c−2 (ce at+b − 1) = 0 por lo que se tiene que el punto de inflexión se obtiene para t = − ln(α) + b a Este es el mismo modelo conocido como la curva de Richards que se utiliza para modelar crecimientos de poblaciones. Y (t) = A + K − A (C + Qe −Bt ) 1/ν (3.3) Note que con algunos cálculos y A = 0 se da la igualdad con la logística generalizada El caso: Y (t) = K (1 + Qe −αν(t−t 0 ) ) 1/ν que es solución de la ecuación diferencial: Y (t) = α 1 − Y K ν Y Función de Gompertz debe su nombre a Benjamin Gompertz, el primero en trabajar en este tipo de función es un caso particular de la de Richards, y tiene por ecuación la siguiente: G(t) = ae −be −ct , Además su segunda derivada es: G (t) = bc 2 e be cx +cx (1 + be cx ) = 0 que nos da el punto de inflexión se alcanza en t = −log(−b))/c lo que en el caso de epidemias nos dice en que punto el crecimiento de los casos diario va a iniciar a descender. Esta es una función más simple pues solo tiene 3 parámetros en vez de la LG, que tiene 4, y por ende va a tener menos óptimos locales. Otras versiones Otras versiones más complejas son P (t) = M + ct 1 + e −at+b α . (3.4) Al momento de escribir este trabajo, los datos de covid-19, de Korea del sur se tiene que ajustar con una curva como esta. Y la siguiente que se utilizó para ajustar las curvas de supervivencia P (t) = M 1 + e −at 2 +bt+c α ,(3. Hipótesis y propuesta La propuesta de este trabajo es, primero utilizar la curva logística generalizada o la curva de Gompertz para hacer un ajuste de los datos en los que se se tengan la curva casi completa, por ejemplo datos de China y de Corea del Sur,(30 de marzo) Por otro lado cuando se tengan todos los datos existe una curva del tipo de regresión logística generalizada o de Gompertz que ajusta los datos. Por lo que la hipótesis aquí es: Si yo tengo la parte bajo de la Curva, es decir los primeros valores de la curva, yo puedo obtener los parámetros de la curva, y obtener la curva completa. Y con esto se puede utilizar para predecir el crecimiento de la población, en este caso, por ejemplo, el número total de casos por el covid-19 en un país o región y cuando se llega al punto de inflexión, es decir, momento en que el número de casos diarios empieza a descender. Más específicamente si se tiene los datos de unos 20 a 30 ó 35 días la pregunta es: ¿se puede determinar los parámetros de la curva que ajusta los datos completos? Si esto se logrará como vemos tendríamos una forma de predecir el comportamiento del crecimiento de poblaciones con sólo tener unos pocos días, es decir podemos determinar los parámetros de la curva con pocos días, que es muy difícil con el modelo SIR determinar los parámetros de las ecuaciones diferenciales. Ajuste de curvas Para este trabajo se están utilizando los datos provistos por el European Centre for Disease Prevention and Control en la página para bajar los datos diaios ver [1]. Lo primero que se presenta es verificar, como se sabe, que la curva LG ajusta muy bien los datos de covid-19. Para el caso de China y Korea del Sur, que son los que se tiene la curva casi completa. Utilizando un algoritmo de optimización no lineal se tienen los siguientes resultados. China: datos original Para los datos de China se obtiene los siguientes datos y el gráfico en la figura 3. f echa M a b α 31/03/2020 81149 −0,2348563 9,89996092 0,8809852 Con R 2 = 0,998878. Como se observa se obtiene una muy buena aproximación, pero como sabemos y se ve en el la figura 3, hay un salto en esos datos, por lo que se decidió corregir ese salto poniendo del dato del día 13/02/2020 igual al día anterior y el del día 14/02/2020 igual al día siguiente. Con estas correcciones se obtiene los siguientes datos y el gráfico de la figura 4 Corea del Sur: Datos Originales Al aplicar el método a los datos de Corea del Sur se obtiene los datos siguientes y el gráfico de la figura 5. Como se ve el ajuste con este tipo de curvas logísticas generalizadas es muy bueno obteniendo R 2 superiores a 0.9999. Pruebas de Predicción Como se vio en la sección anterior las curvas logísticas aproximan muy bien, como se ha demostrado en trabajos anteriores (por ejemplo [2,4] Resultados Como resultados de este trabajo y como hemos visto se utilizará este método para dar una predicción para los datos de algunos paises empezando por Costa Rica y luego se presentaran los datos de Italia, España, y con los ajustes que tenemos ya se tiene el de China y Corea del Sur. China y Corea del Sur Para el caso de China y Corea del Sur se puede usar los resultados obtenidos en la subsecciones 5.1 y 5.2. Costa Rica Para Costa Rica se tienen los siguientes datos a partir del día 6 de marzo en que se detectó el primer caso. Este ajuste tiene un R 2 = 0,99858343 En el gráfico de la figura 9 se ve la predicción de casos, se puede ver el número de casos diarios en el recuadro superior y el ajuste de los datos reales en el recuadro inferior. Se incluyen 2 líneas de cota superior e inferior para la predicción, que se supone un 7 % de error en los datos tomado a partir de los resultados de la sección 6. Se ve además que de seguir las situaciones como están al día de hoy habr un tope de aproximadamente 1000 casos, esto es desde el punto de vista matemático o ajuste de curvas. Figura 9: Predicción con LG, Costa Rica Gompertz Con la curva de Gompertz se obtiene básicamente el mismo resultado como se ve a en lo que sigue: Parámetros obtenidos para Costa Rica usando Gompertz a b c 887 -6.923348908 -0.077891632 Este ajuste tiene un R 2 = 0,99853504, en la figura 10 se puede ver el gráfico resultante. Debe notarse que los resultados de utilizar estas 2 funciones se han ido aproximando entre ellas conforme pasan los días y para muestra se presenta el valor máximo entre ellas en la siguiente tabla. Este ajuste tiene un R 2 = 0,99968, en la figura 11 se puede ver el gráfico resultante. España Para España se presenta los resultados por Gompertz y con los datos al 31/3/2020. Parámetros obtenidos para España usando Gompertz a b c 468 495 -69.20043418 -0.061995389 Este ajuste tiene un R 2 = 0,999410067, en la figura 12 se puede ver el gráfico resultante. Otros paises Se tienen los resultados de otros paises que se van a ir incorporando más adelante Conclusiones y trabajo futuro Con este trabajo se muestra como se puede ajustar curvas de crecimiento de poblaciones, utilizando las funciones LG y Gompertz, inclusive en el caso más general como en los datos de Corea del Sur, sección 5.2, donde se está haciendo de la logística con recta. Se ve que estos métodos podrían ser utilizados para predecir el crecimiento de poblaciones, en este caso de personas infectadas por el Covid-19, y podrían ayudar a los expertos en pandémias para tomar las medidas necesarias. Trabajo futuro Se necesita hacer más estudios para afinar los resultados de este trabajo Ver la posibilidad de usar curvas semejantes para la aproximación de otro tipo de datos. Figura 2 : 2Ajuste con regresión logística totales de contagiados en China Figura 3 :Figura 4 : 34Ajuste con regresión logística totales de contagiados en ChinaEn este caso se obtiene un R 2 = 0,999885, que es mejor al de los datos sin corrección. Observe que en los últimos datos se ve que hay una tendencia lineal, esto se puede mejorar comos se ve en el caso de Corea del Sur, como se ve en la siguiente subsección. Ajuste con regresión logística generalizada en China datos corregidos 03/2020 10079 −0,16416438 0,18353146 874,692503Y se obtiene un R 2 = 0,99875, que no es muy bueno como se ve en la figura 5 que el ajuste no es muy bueno. Figura 5 : 5Ajuste con regresión logística generalizada Corea del SurPara mejorar este ajuste se propone utilizar la curva de ajuste (3.4), a saber:P (t) = M + ct 1 + e −at+b α .Con esta curva se logra mejorar el ajuste al obtener los siguientes datos: el R 2 = 0,99988 que es mejor al resultado anterior y como se ve en el gráfico de la figura 6. Figura 6 : 6Ajuste con regresión logística generalizada de contagiados en Corea del Sur con tendencia final lineal. Figura 11 : 11Predicción con Gompertz, Italia Figura 12 : 12Predicción con Gompertz, España y al utilizar el algoritmo de optimización se obtiene lo siguientes cotas superiores para el error relativo al usar la función LG, con los días indicados:Porcentaje de error relativo en curva de prueba usando funcion Logística Generalizada número de días máx error rel.Al ejecutar el método se obtiene los siguientes porcentajes de error relativoComo se ve con la función de Gompertz, al parecer, se puede garantizar mejor predicciones.). En esta sección vamos a tratar de medir el porcentaje de error relativo que se comete al utilizar las curvas propuestas, se utilizará una curva de prueba y los datos de China y Corea del Sur Curva de prueba Para tratar de validar la hipótesis vamos a generar una curva con valores M a b α 2000 −0,05 −2 10 25 días 10.451 % 30 días 4.801 % 35 dias 1.825 % 40 días 1.188 % Al utilizar la función de Gompertz se mejora notablemente la predicción, como se había mencionado por tener menos parámetros, al utilizar el ejemplo con a b c 2000 −2 10 Porcentaje de error relativo en curva de prueba usando Gompertz número de días máx error rel. 25 días 1.6697 % 30 días 0.7492 % 35 dias 0.8928 % 40 días 0.3234 % Datos de China Veamos ahora el caso de China, en el que se tiene la curva casi completa. Como vemos al utilizar los días del 16 al 45 (20 días), observe que los primeros 16 días casi no hubo cambios en los datos por lo que no se utilizaran esos datos, con estos datos con LG se obtiene: Gompertz Al utilizar los días del 16 al 45 (20 días) se obtiene un error máximo de 9.91 % (promedio de 3 corridas, básicamente da el mismo valor) Al utilizar los dias de 15 al 55 (30 días) se obtiene el gráfico de la figura 7, al medir los errores relativos se obtiene un valor máximo de 4.49 %(promedio de 3 corridas), en la predicción de los datos hasta el 31/03/2020. Porcentaje de error relativo predicción China usando Gompertz número de días máx error rel. 20 días 9.91 % 25 días 4.49 % -10000 0 10000 20000 30000 40000 50000 60000 70000 80000 0 10 20 30 40 50 60 70 80 90 100 cases China Datos reales APROX Figura 7: Predicción con Gompertz, China, 30 días Datos de Corea del Sur Para Corea del sur vamos a utilizar los datos a partir del día 28 desde el primer caso (16/02/202), este caso recuérdese que estos datos tiene una tendencia lineal en los últimos días, ver figura 8. Porcentaje de error relativo predicción South Korea usando Gompertz número de días máx error rel. 20 días 17.83 % 25 días 6.49 % 0 2000 4000 6000 8000 10000 12000 20 30 40 50 60 70 cases South Korea Datos reales APROX Figura 8: Predicción con Gompertz, South Korea, 25 días Con estos datos al hacer el ajuste con la función LG se obtiene los parámetros siguientes, ya con esta cantidad de datos básicamente se tiene un sólo óptimo:Datos sobre covid-19 en Costa Rica casos Total casos Total casos Total Fecha diarios de casos Fecha diarios de casos Fecha diarios de casos 06/03/20 1 1 15/03/20 8 35 24/03/20 19 177 07/03/20 4 5 16/03/20 6 41 25/03/20 24 201 08/03/20 4 9 17/03/20 9 50 26/03/20 30 231 09/03/20 4 13 18/03/20 19 69 27/03/20 32 263 10/03/20 4 17 19/03/20 18 87 28/03/20 32 295 11/03/20 5 22 20/03/20 26 113 29/03/20 19 314 12/03/20 1 23 21/03/20 4 117 30/03/20 16 330 13/03/20 3 26 22/03/20 17 134 31/03/20 17 347 14/03/20 1 27 23/03/20 24 158 01/04/20 28 375 06/03/20 1 1 15/03/20 8 35 24/03/20 19 177 07/03/20 4 5 16/03/20 6 41 25/03/20 24 201 08/03/20 4 9 17/03/20 9 50 26/03/20 30 231 09/03/20 4 13 18/03/20 19 69 27/03/20 32 263 10/03/20 4 17 19/03/20 18 87 28/03/20 32 295 11/03/20 5 22 20/03/20 26 113 29/03/20 19 314 12/03/20 1 23 21/03/20 4 117 30/03/20 16 330 13/03/20 3 26 22/03/20 17 134 31/03/20 17 347 14/03/20 1 27 23/03/20 24 158 01/04/20 28 375 Parámetros obtenidos para Costa Rica usando Logística Generalizada M a b c 886 -0.0780135 -4.91608521 1023.90189 Figura 10: Predicción con Gompertz, Costa RicaValor máximo alcanzado por las curvas según día para Costa Rica Para Italia se presenta los resultados por Gompertz y con los datos al 30/3/2020.Fecha Gompertz LG 23/03/20 2162 1983 24/03/20 1445 1359 25/03/20 1310 1274 26/03/20 1583 1505 27/03/20 2048 1974 28/03/20 2426 2343 29/03/20 1743 1730 30/03/20 1193 1185 31/03/20 924 922 01/04/20 887 886 7.3. Italia Parámetros obtenidos para Italia usando Gompertz a b c 261 052 -43.77482253 -0.063450536 Download today's data on the geographic distribution of COVID-19 cases worldwide´´. European Centre for Disease Prevention and Control. "Download today's data on the geographic distribution of COVID-19 ca- ses worldwide´´, European Centre for Disease Prevention and Control, https://www.ecdc.europa.eu/en/publications-data/download-todays-data- geographic-distribution-covid-19-cases-worldwide . Desta Fekedulegn, Fekedulegn, Desta; . P Mac Mairitin, Siurtain, Mairitin P. Mac Siurtain; Parameter Estimation of Nonlinear Growth Models in Forestry´´(PDF). Jim J Colbert, Silva Fennica. 334Jim J. Colbert (1999). "Parameter Es- timation of Nonlinear Growth Models in Forestry´´(PDF). Silva Fennica. 33 (4): 327-336. Archived from the original (PDF) on 2011-09-29. Optimization by simulated annealing´´. S Kirckpatrick, J Gelatt, P Vecchi, Revista Science. 2204598Kirckpatrick, S.; Gelatt, J. Vecchi, P. 1983. "Optimization by simulated annealing´´, Revista Science. Volumen 220, número 4598. A Generalised Stock-Production Model´´. J S Pella, P K Tomlinson, Bull. Inter-Am. Trop. Tuna Comm. 13Pella, J. S.; Tomlinson, P. K. (1969). "A Generalised Stock-Production Model´´. Bull. Inter-Am. Trop. Tuna Comm. 13: 421-496. A Flexible Growth Function for Empirical Use´´. F J Richards, 10.1093/jxb/10.2.290Journal of Experimental Botany. 102Richards, F. J. (1959). "A Flexible Growth Function for Empirical Use´´. Journal of Experimental Botany. 10 (2): 290-300. doi:10.1093/jxb/10.2.290
sample_8475
0.7617
arxiv
School of Engineering Democritus University of Thrace 67100XanthiGreece Comments on "An implicit-Chebyshev pseudospectral method for the effect of radiation on power-law fluid past a vertical plate immersed in a porous medium", by Nasser S. Elgazery [Communications in Nonlinear Science and Numerical Simulation 13 (2008) 728-744] Asterios Pantokratoras Professor of Fluid Mechanics In the above paper the author treats the boundary layer flow of an electrically conducting, non-Newtonian fluid along a vertical plate embedded in a Darcy-Brinkman-Forchheimer porous medium. The fluid is under the action of a constant transverse magnetic field and the radiation is taken into account in the energy equation. The boundary layer equations are transformed into ordinary ones and subsequently are solved numerically. However, there is a fundamental error in this paper which is presented below: 1. The energy equation (equation 3 in the above paper) used by the author is y q c y T c k y T v x T u t T r p p f                 1 2 2 (1) where T is the temperature, t is the time, u and v are the velocities in the x and y directions, k f is the fluid thermal conductivity, ρ is the fluid density, c p is the fluid specific heat and q r is the radiation heat flux. However, the above equation is valid for a clear fluid (without porous medium). In porous media the enegy equation is much different from that in pure fluid flow (Nield and Bejan 1999 T v x T u c t T c r m f m               2 2 ) ( ) ( ) (   (2) where (ρc) m is the heat capacity of the porous medium, (ρc) f is the heat capacity of the fluid and k m is the overall thermal conductivity of porous medium. The relation bettwen the heat capacities is f s m c c c ) ( ) )( 1 ( ) (         (3) where (ρc) s is the heat capacity of the porous medium material (solid) and ε is the porosity. The overall thermal conductivity is f s m k k k      ) 1 ((4) where k s is the thermal conductivity of the porous medium material (solid). The energy equation used in the above paper is wrong and the presented results also wrong. A Bejan, Convection Heat Transfer. New YorkWileythird editionBejan, A. (2004). Convection Heat Transfer, third edition, Wiley, New York. An implicit-Chebyshev pseudospectral method for the effect of radiation on power-law fluid past a vertical plate immersed in a porous medium. N S Elgazery, Communications in Nonlinear Science and Numerical Simulation. 13Elgazery, N.S. (2008). An implicit-Chebyshev pseudospectral method for the effect of radiation on power-law fluid past a vertical plate immersed in a porous medium, Communications in Nonlinear Science and Numerical Simulation 13 (2008) 728-744. M Kaviany, Principles of Convective Heat Transfer. New YorkSpringersecond editionKaviany, M. (2001). Principles of Convective Heat Transfer, second edition, Springer, New York. D A Nield, A Bejan, Convection in Porous Media. New YorkSpringersecond editionNield, D.A. and Bejan, A. (1999). Convection in Porous Media, second edition, Springer, New York. The modeling of viscous dissipation in a saturated porous medium. D A Nield, ASME Journal of Heat Transfer. 129Nield, D.A. (2007). The modeling of viscous dissipation in a saturated porous medium, ASME Journal of Heat Transfer, Vol. 129, pp. 1459-1463. Flow patterns in a fluid-saturated porous cube heated from below. I Sezai, Journal of Fluid Mechanics. 523Sezai, I. (2005). Flow patterns in a fluid-saturated porous cube heated from below, Journal of Fluid Mechanics, Vol. 523, pp. 393- 410.
sample_8715
0.6658
arxiv
Le travail collaboratif dans le cadre d'un projet architectural Marie-France Ango -Obiang Doctorante ango@loria.fr Laboratoire Lorrain de Recherche en informatique et ses Applications (LORIA) Campus Scientifique BP 329 54506, +33 3 83 59 20 87Vandoeuvre-lès-Nancy France. Tél Le travail collaboratif dans le cadre d'un projet architectural Fax : +33383278319Mots-clés : Travail collaboratifbesoin informationnelImages architecturales 2 L'analyse des pratiques et des tendances des utilisateurs lors de la recherche d'information sur Internet permet de mettre en évidence plusieurs points. La recherche d'information devient performante après connaissance de la typologie des différents systèmes de recherche. Cette typologie favorise l'adoption d'une méthodologie de recherche que l'on peut caractériser par les systèmes pull, agents intelligents, etc. Par ailleurs, l'importance de la structure du document électronique, correctement élaborée en amont, favorisera un taux de pertinence supérieur pour retrouver les informations.Dans notre article, la problématique tourne autour de l'étude du comportement des utilisateurs en situation de recherche d'information, ainsi que la constitution d'un pôle de ressources documentaires dans un cadre d'un projet architectural. On constate que l'évolution des ressources documentaires est liée aux technologies de l'information. Introduction L'élaboration d'un projet architectural commence à la naissance du projet à travers Les acteurs dans le domaine Architectural Les besoins des acteurs Répondre aux besoins exprimés le Maître d'Ouvrage c'est tout simplement lui fournir ce qu'il veut (la satisfaction du Maître d'Ouvrage) ( Figure 3). En satisfaisant ses exigences formalisées dans un contrat ou un cahier des charges, le Maître d'Oeuvre adopte une démarche qualité. Les besoins implicites, (Bourdichon 1994) quant à eux sont tout simplement l'application des règles de l'art et des normes caractérisées dans la qualité d'un services rendus ; implicitement, lorsqu'un Maître d'Ouvrage veut l'acquisition d'une maison, la sélection d'effectue parmi différents entrepreneurs de bâtiment, etc. En fonction de son besoin, un usager se retourne naturellement vers celui qui est reconnu comme apte à la réaliser. Pour répondre aux besoins et attentes des usagers, les entreprises doivent, plus qu'à l'écoute, anticiper sur les évolutions du marché voire même les susciter par des opérations management judicieusement ciblées (Bouattour 2005). Dans ce contexte, l'aspect communication prend toute sa mesure: l'information juste doit circuler rapidement au bon moment, à l'intérieur comme à l'extérieur de l'entreprise. Par ailleurs, il faut être sûr que l'acteur possède l'information correcte et s'assurer qu'après une transmission, l'information soit bien reçue et bien perçue. Cette importance accrue de l'information comme de sa circulation se trouve être encore renforcée par les besoins plus larges du marché. Les clients ne se suffisent plus de la seule possession du produit livré. Les exigences contractuellement exprimées dans la spécification de besoins résultent d'une consultation demandeur/concepteur, démarche consensuelle permettant d'obtenir le meilleur compromis entre le besoin réel, le coût et le délai. Interaction entre les acteurs du bâtiment Le concept objet intermédiaires La communication au cours de la réalisation d'une activité collective nécessite également la transmission d'objets intermédiaires entre les acteurs. La conception d'un objet est « ponctuée dans le temps » par la production d'une quantité d'objets intermédiaires comme des idées, des textes, des dessins, des maquettes, etc. Ces objets intermédiaires sont « des vecteurs de représentation, orientés par une intention ou un objectif issu d'un monde socio technicoéconomique lié d'une façon ou d'une autre à celui de la réalisation de cet objectif» (Jeantet et al. 1996). Ces objets constituent donc la matérialisation des interactions apparaissant entre les acteurs au cours de la conception d'un objet. Les objets intermédiaires participent à l'orientation de l'activité en introduisant des interprétations, des matérialisations d'un état de l'activité en cours de réalisation. Objets intermédiaires dans la communication La conception est définie comme l'activité intellectuelle par laquelle sont imaginées quelques dispositions visant à changer une situation existante en une situation préférée (Simon 1991 1993). En effet, elle est située dans le monde des idées, de la connaissance, mais aussi elle relève aussi de la sphère de l'action. Ainsi ne faut-il pas la limiter à une activité intellectuelle : c'est en même temps une activité de création et de décision. En témoigne la production des multiples objets intermédiaires qui la compose, que ceux-ci soient immatériels (règlements, logiciels, modèles numériques,..) ou matériels (dessins techniques, textes, maquettes,..). Le but de notre présentation est de montrer que ces objets intermédiaires constituent les vecteurs 8 les plus pertinents des activités de communication omniprésentes dans le processus de conception (Ango-Obiang 2006b). Dans la mouvance actuelle qui tend à intégrer de plus en plus ce processus, il devient urgent de prendre en compte la place qu'occupent les objets intermédiaires dans une communication devenue vitale pour la mise en place de la conception intégrée. Cet outil d'analyse doit nous permettre d'entrer au coeur de l'action de concevoir avec une double vue: la première orientée vers le contenu de la conception dont l'objet est la représentation, la seconde orientée vers les interactions entre les acteurs de la conception dont ces objets sont le centre. Ces objets intermédiaires (Mer et Tichkiewitch al. 1995) sont les «vecteurs les plus pertinents des activités de communication omniprésentes dans le processus de conception », ils sont à la fois ce qui va définir le produit lui-même et être le support de l'interaction entre les concepteurs ou partenaires. Rôle de l'image Dans le domaine du bâtiment, l'expression des contraintes et la recherche de solution passe prioritairement par des modes d'expression graphique. Pour les architectes, par exemple, les jeux permanents de références et d'analogies conduisent à penser que l'image est un objet intermédiaire qui occupe une place centrale dans leur stratégie de conception (Conan 1990), (Fernandez 2002). Ainsi, l'image permet de se confronter aux contraintes connues et de faire L'image : support communicationnel de l'interaction L'image est un support pour la recherche d'information lors de la phase de conception en architecture. Au cours d'une recherche d'informations techniques (idée, produit, exemple), l'utilisateur peut acquérir plus rapidement des informations avec des images d'oeuvres d'architectures, qu'il ne le ferait à la lecture de textes (Nakapan et al 2002). De plus, l'image représente des informations parfois subjectives à caractère esthétique, qui ne peuvent pas être transcrites sous forme d'un texte. L'interprétation que l'on fait d'une image dépend de la culture et de la langue de la personne qui la regard. Toutefois, nous pouvons affirmer que « toute image est lisible quelque soit la langue ou la culture de la personne qui l'observe ». L'usage de l'information véhiculée par les images Nous assimilons une information à une collection de données organisées pour donner forme à un message, le plus souvent sous une forme visible, images, écrite, ou orale. La façon d'organiser les donnés résulte d'une intention de l'émetteur et est donc parfaitement subjective. Une connaissance vient s'intégrer dans son système personnel de représentation, pour cela l'information reçue subit une série d'interprétation liées aux croyances générales,au milieu socioprofessionnel,au point de vue à l'intention ,au projet de vue,a l'intention,au projet de l'individu récepteur. Pour qu'une information devienne connaissance, il faut également que le sujet puisse construite une représentation qui fasse sens Contrairement à l'information la connaissance n'est pas seulement mémoire, item figé dans un stock ; elle reste activable selon une finalité, une intention, un projet. Traiter l'information; c'est rassembler l'ensemble des données recueillies par les différents canaux pour en faire une synthèse, cohérente et surtout porteuse de sens pour l'utilisateur. Certains modèles d'évaluation des sources et de la valeur de l'information, ainsi que des outils d'aide à la sélection et à la lecture des systèmes d'informations, se sont développés au cours des dernières années. Ils présentent malheureusement le plus souvent des limites, spécifique à certains domaines d'activités. Perspectives Le besoin informationnel d'un utilisateur est un concept qui varie en définition, selon les chercheurs et selon les différents utilisateurs. Il existe des recherches qui ont essayé de lui donner une définition (Campbell et Rijsbergen 1996). Nous définissons un besoin informationnel comme étant une représentation informationnelle d'un problème décisionnel. Définir un problème décisionnel implique une connaissance sur l'utilisateur et son environnement. Un problème décisionnel peut être considéré comme une fonction d'un modèle de l'utilisateur, de son environnement et de son objectif. De ce fait nous proposons une méthodologie qui prenne en compte l'aspect multi-acteurs à la conception d'un projet. − Identification des besoins des utilisateurs auxquels répond un document : ressource, objet à définir, public concerné. Modélisations des l'acteurs Modélisation des documents − Données de description relatives au contexte : titre, mots-clés, thématique, légende, annotation. − Ressources documentaires autour d'un module : activités, experts, densité sémantique. 13 Actuellement notre modèle a été inséré dans un outil informatique afin d'être expérimenté, par des utilisateurs qui sont des professionnelles du bâtiment. Conclusion Par ce papier, nous avons montré comment la modélisation des différents acteurs permettent d'élaborer les méta-données des acteurs pour intégrer leur type, leurs besoins, leurs fonctions et leurs activités. Nous avons montré comment il est possible de représenter les utilisateurs pour la mise en place des bases données métiers qui aboutir à un modèle formel, nommé SARBA. Nous mettons en évidence que ce modèle SARBA, permet de donner des vues différentes du SIS aux différents acteurs. L'aspect dynamique du modèle est dû au fait que le contenu de notre SI est guidé par les besoins des utilisateurs. Cette étape a favorisé la mise en relation des acteurs et des ressources documentaires. l'expression d'un besoin et des intentions du maître d'ouvrage. Le maître d'ouvrage définit dans le programme les objectifs de l'opération et les besoins qu'il doit satisfaire ainsi que les contraintes et exigences de qualité sociale, urbanistique, architecturale, fonctionnelle, technique et économique, d'insertion dans le paysage et de la protection de l'environnement, relatives à la réalisation et à l'utilisation de l'ouvrage. Le Maître d'Ouvrage a besoin d'être guidées par le Maître d'Oeuvre et l'entrepreneur pour se poser les questions les plus pertinentes, pour formuler leurs besoins profonds et éviter de se limité à exprimer des besoins de surfaces ou directement sur des solutions (Figure 1). Figure 1 : 1Rôle des acteurs entre eux et par rapport à l'ouvrage Dès lors que le Maître d'Ouvrage a pu exprimer ces besoins réels, il a besoin d'être assistées pour les formaliser dans des cahiers des charges concis et précis. Il s'agit d'un point essentiel, car la réussite du projet et la coordination de tous les intervenants dépend beaucoup de la qualité des documents formels que sont les cahiers des charges. L'hypothèse de notre étude consiste à montrer que, si nous modélisons les besoins du Maître d'Ouvrage pour l'élaboration d'un projet architectural, nous aboutissons à une amélioration de la satisfaction des utilisateurs finals dans un système d'information qui s'applique dans le cadre du domaine 3 architectural. Notre problématique est formulée selon la remarque suivante : Dans un système d'Information, dès lors que le Maître d'Ouvrage, le Maître d'Oeuvre et l'entrepreneur travaillent en collaboration, il est un rôle qui est prépondérant : le chef de Projet est le Maître d'Ouvrage. Nous pensons que aucun projet architectural ne peut être réalisé sans l'expression du besoin du Maître d'Ouvrage. De ce fait nous nous posons la question de savoir : comment représenter les besoins de nos utilisateurs dans un système d'information. Figure 2 : 2Maître d'Oeuvre rôle d'intermédiaire et de coordinateur entre le Maître d Figure 3 : 3Organigramme des opérations d'un projet d'ouvrage architectural 5 Dans un schéma habituel, le Maître d'Ouvrage vient soumettre au Maître d'Oeuvre par exemple une intention d'habiter une maison. L'objet prend forme très progressivement et graphiquement par le savoir et savoir-faire de l'architecte. Les discussions et négociations avec le client (Maître d'Ouvrage) vont permettre à l'architecte ( Maître d'Oeuvre) d'affiner sa proposition en fonction de ce qu'il perçoit de la demande de son interlocuteur (Figure 4). Figure 4 : 4Interaction ) collaborant et intervenant par dialogue et/ou graphisme sur une même information visuelle qu'est l'image apporté par le client. Cette image du client est alors l'image référant de la consultation, image technique ou opérative (Lebahar 1983), il est aussi la trace visible et exploitable du passage de l'idée à la forme (dans la conception du client) ou de la forme à l'idée (dans l'explication qu'en fait le client à l'architecte). Il est surtout le support de la communication entre nos acteurs. Cette représentation sur laquelle les acteurs discutent et agissent n'a en fait aucune existence réalisée. En ce sens c'est un objet virtuel mais central, objet d'interaction où l'action est davantage orientée vers le partage, l'échange, l'interaction, la compréhension. En début de consultation, l'architecte se renseigne sur l'environnement du projet, le site, le terrain, l'orientation, le budget, etc. Les réponses sont notées comme faisant parties des contraintes du projet. Très vite un véritable dialogue s'instaure entre les acteurs pour comprendre les logiques de chacun : l'architecte pour évaluer les «contraintes » de son client et le client pour saisir les modifications, rectifications qu'il doit apporter à son projet. L'architecte doit créer et rendre réalisable un édifice. 3. Le vecteur de la communication L'acteur d'une activité constitue une image mentale de son environnement, des actions et des opérations à mettre en oeuvre afin de réaliser son activité. Au cours de l'action, un acteur ne montre pas dans sa représentation mentale toute la complexité de l'objet ni toutes ses propriétés. L'acteur sélectionne l'information pertinente pour les actions qu'il souhaite mener sur l'objet. Au cours d'un travail collaboration, une orientation commune des sujets est nécessaire. Cependant, pour que l'accomplissement des actions puisse être coordonné, les orientations de tous les acteurs doivent être compatibles. Dans ce cas, le sujet doit former à la fois ses propres images opératives et se représenter les opérations, l'état des objets qu'il produit mais aussi les opérations et les objets produits par d'autres opérateurs. L'acteur doit donc échanger, communiquer avec les autres acteurs de l'activité. Les acteurs ne focalisent pas leur attention sur la communication, celle-ci demeure un outil au service de leurs actions. Au cours d'une activité la communication passe par la transmission de signes, qui, dans le cas d'une communication médiatisée par un langage sont porteurs de significations devant être 7 communes à l'émetteur et au récepteur. La communication sert à la coordination en permettant l'échange d'idées ou de concepts à travers le dialogue et la transmission d'objets intermédiaires. (Michinov 2001) Les objets intermédiaires servent les activités de coconception et de conception distribuée en assurant une synchronisation cognitive entre les acteurs impliqués. germer de nouvelles directions pour le projet. L'image est un moyen de communication très important dans le domaine architectural qui intervient dans les différentes phases de la conception d'un projet. Elle est considérée comme un outil d'aide à la décision. Les images sont des opérateurs puissants de conversion sensorielle. L'image est d'abord un objet auquel on se colle mentalement. C'est seulement dans un second temps qu'on s'en décolle en y appliquant des opérations de transformation. Et c'est alors qu'elle existe comme premier écran pour la pensée. On peut formuler les choses autrement. Les images que nous regardons n'ont pas seulement le pouvoir de donner du sens, mais ont aussi le pouvoir de nous contenir et d'exister comme lieu de transformations multiples. 9 Dans toute tâche de conception, la visualisation est une nécessité absolue et concomitante. Nous baserons notre propos sur l'image en tant que support de cette interaction. Principalement parce que l'image d'architecte est et reste la trace visible et exploitable du passage de l'idée à la forme ou de la forme à l'idée. Il est étroitement lié à une culture et à une technique de l'architecte. Présent à toutes les étapes de la conception, il est de fait le mode de communication par excellence, même si des explications souvent orales, parfois écrites peuvent l'accompagner. Nous évoluons dans le domaine architectural où il s'agit de mettre en relation l'information et les acteurs. Nous vous présentons comment la modélisation des besoins des acteurs (Maître d'Ouvrage, Maître d'Oeuvre, entrepreneur) permet d'améliorer les réponses. Nous avons mis en place le modèle SARBA (Système d'Aide de Représentation des Besoins informationnel en Architecture) qui se traduit par le fonction ; RU = (T, B, F, A) dans lequel est dressé une classification des acteurs où nous disons qu'un utilisateur (U) est représenté, par un type d'acteurs (T) {Maître d'ouvrage, Maître d'oeuvre, Entrepreneur}, des besoins (B) {Projet de construction neuve, réhabilitation, extension, organisation, évaluation du budget}, la fonction (F) {Décideur celui qui dirige, Concepteur celui qui conseille, Développeur celui qui organise}, les activités des acteurs (A) {Annoter, intégrer, analyser, explorer, synthétiser} concernent leurs activités lors de l'utilisation du système d'information. Ils peuvent être 11 amenés à rechercher, télécharger des dossiers, comprimer des fichiers, annoter des images ou du texte, indexer des documents, consulter des notes. Ils doivent parfois disposer d'un certain degré d'interactivité avec le système.Les besoins des acteurs sont très variés allant, d'une simple découverte d'un sujet complètement nouveau, confirmation d'un savoir élémentaire, approfondissement de ce savoir à son niveau, exploration -découverte pour faire le point, étude de haut niveau. Les besoins par exemple d'un étudiant en architecture ne sont pas les mêmes que ceux d'un professionnel du bâtiment (Architecte, Entrepreneur). C'est dans ce sens que notre étude tant à comprendre les besoins spécifiques de nos acteurs dans la recherche d'information pertinente pour leur prise de décision. Cette dernière, ne peut être possible sans une analyse des différents besoins en information. Figure 5 : 5Indexation d'une image de bâtiment dans notre système d'information 5.3. Mise en relation du modèle des acteurs et du modèle des ressources documentaires Notre domaine d'application (Ango-obiang 2004) met en situation un utilisateur, dont le profil est décrit dans des métadonnées, obtient des informations personnalisées. Ces informations peuvent concerner des ressources documentaires ou des informations techniques et financières. En fonction de son rôle, l'utilisateur pourra visualiser des niveaux d'information. Nous mettons en évidence que nos acteurs (maître d'ouvrage et maître d'oeuvre) ont des besoins, des fonctions et des activités spécifiques. L'étude des normes en vigueur des ressources documentaires, permet d'élaborer des classes d'objet. Nous répartissons ces classes d'objets autour de quatre pôles qui prennent en compte le contexte de l'utilisateur : − Propriétés de la ressource : format, forme, identifiant. La distinction entre Maître d'Ouvrage et Maître d'Oeuvre est essentielle dans le déroulement du projet, car elle permet de distinguer les responsabilités des deux entités. Il convient ainsi de s'assurer que l'expression des besoins reste sous l'entière responsabilité du Maître d'Ouvrage. En effet, il arrive dans certains cas que le Maître d'Ouvrage délègue au Maître d'Oeuvre des choix d'ordre fonctionnel sous prétexte d'une insuffisance de connaissances techniques, de façon concrète le service informatique d'une organisation prend la main et pilote le projet dès la phase d'expression des besoins. ). Cela n'est possible que si le Maître d'Ouvrage en fait la demande. Il est important de remarqué qu'aucun projet architectural ne peut-être élaboré, sans au préalable la mise en évidence des besoins et attentes du Maître d'Ouvrage. Le Maître d'Ouvrage est par conséquent l'acteur déclencheur d'action qui aboutit à l'élaboration d'un projet architectural. ) . )En la contextualisant, elle peut être précisée de la façon suivante «La conception consiste à donner un ensemble de propositions permettant de décrire le produit (forme, dimension, moyen d'obtention) et répondant globalement à un cahier des charges» (Tichkiewitch al Les ressources documentaires mises dans notre système d'information proposent différents types de documents à destination de types d'acteurs différents. On recense entre autres : des documents administratifs (dossier d'appel d'offre, permis de construire, etc.), des images (dessin technique, plan technique, esquisses, etc. .). Tous ces éléments sont au service de l'élaboration d'un projet architectural, pour les acteurs en situation de recherche d'information. L'objectif de la modélisation, puis de la description est de favoriser la visibilité d'un document tout en préservant une expression simple des informations pouvant répondre aux questions suivantes : quelles sont les caractéristiques de la ressource ? Comment classer cette ressource ? Comment mettre en relation le profil de la ressource et le profil utilisateur ? Les documents sont déposés sur le Système d'Information par classification, avec indexation de documents, avec des information sur leur contenu, leur contenant, leur but (figure 5). Ces documents sont un corpus de d'images d'oeuvres architecturales que nous avions pris dans des cabinet d'architectures, ministères de l'habitat et autres. Comparaison des méthodes d'indexation d'images. Application à la recherche d'images du domaine de l'architecture et de la construction bois. DEA (Modélisation et Simulation des Espaces Bâtis). Ango-Obiang M-F , Nancy, FranceAngo-Obiang M-F (2004). Comparaison des méthodes d'indexation d'images. Application à la recherche d'images du domaine de l'architecture et de la construction bois. DEA (Modélisation et Simulation des Espaces Bâtis), Nancy, France, 2004. L'apport de L'IE dans la résolution d'un problème décisionnel dans la domaine de l'Architecture. M Ango-Obiang, Colloque VSST. Ango-Obiang M.F (2006a). L'apport de L'IE dans la résolution d'un problème décisionnel dans la domaine de l'Architecture. Colloque VSST, Lille, France, Janvier 2006. Système de représentation d'aide au besoin dans le domaine architectural. M Ango-Obiang, ACT CONFERE 2006 : Conception /Innovation. Marrakech, Maroc, JuilletAngo-Obiang, M.F (2006b). Système de représentation d'aide au besoin dans le domaine architectural. In ACT CONFERE 2006 : Conception /Innovation, Marrakech, Maroc, Juillet 2006. Assistance à la conception coopérative fondée sur la sémantique des ouvrages : Application au domaine du bois. Thèse en science de l'architecture. M Bouattour, Bouattour, M (2005). Assistance à la conception coopérative fondée sur la sémantique des ouvrages : Application au domaine du bois. Thèse en science de l'architecture, 2005. L'ingénierie simultanée et la gestion d'information. Edition Hermes. P Bourdichon, ParisBourdichon, P (1994). L'ingénierie simultanée et la gestion d'information. Edition Hermes, Paris, 1994. The Ostensive Model of developing information needs. I Campbell, K Et Rijsbergen, Proceeding of the Second International Conference on Conceptions of Library and Information Science. eeding of the Second International Conference on Conceptions of Library and Information ScienceCopenhagenCampbell, I et Rijsbergen, K.V (1996). The Ostensive Model of developing information needs. In Proceeding of the Second International Conference on Conceptions of Library and Information Science,Copenhagen, October 1996. Concevoir un projet d'architecture. Editions Harmattan. M Conan, Conan, M (Conan 1990). Concevoir un projet d'architecture. Editions Harmattan, 1990. Approches méthodologiques et modes opératoires dans le processus de conception architecturale. P Fernandez, Cognition et création. Explorations cognitives des processus de conception. Mardaga. M. Borillo, J.P.GouletteFernandez, P (Fernandez 2002). Approches méthodologiques et modes opératoires dans le processus de conception architecturale. in M. Borillo, J.P.Goulette (eds), Cognition et création. Explorations cognitives des processus de conception. Mardaga, 2002. La coordination par les objets dans les équipes de conception. A Jeantet, Tiger, D Vinck, S ( Tichkiewitch, Coopération et conception. G. de Tressac, E. FriedbergJeantet, A. , Tiger,h., Vinck,D., Tichkiewitch,S (1996). La coordination par les objets dans les équipes de conception. in G. de Tressac, E. Friedberg (eds), Coopération et conception. pp. 87-100. Editions Octares. (Cité par OM p. Toulouse, 43Toulouse. Editions Octares. (Cité par OM p. 43) Proposition d'une méthode de référencement d'images pour assister la conception Architecturale : Application à la recherche d'ouvrage. Thèse en science de l'architecture. S Kacher, Kacher, S (2005). Proposition d'une méthode de référencement d'images pour assister la conception Architecturale : Application à la recherche d'ouvrage. Thèse en science de l'architecture, 2005. Le Dessin d'architecte, simulation graphique et réduction d'incertitude, Roquevaire. Parenthèse,coll. architecture/outils. J Lebarhar, Lebarhar, J.C (1983). Le Dessin d'architecte, simulation graphique et réduction d'incertitude, Roquevaire. Parenthèse,coll. architecture/outils, 1983. Outil d'aide à la recherche d'informations techniques par l'image. 2èmeconférence IBPSA. Halin Nakapan, G Bignon, J , Sophia AntipolisNakapan, Halin, G. Bignon, J.C (2002). Outil d'aide à la recherche d'informations techniques par l'image. 2èmeconférence IBPSA, France'2002, Sophia Antipolis, octobre 2000. Intelligence Economique et stratégie des entreprises, Commissariat général du plan. La documentation française. H Martre, ParisMartre, H (1994). Intelligence Economique et stratégie des entreprises, Commissariat général du plan. La documentation française, Paris, 1994. Les objets intermédiaires de la conception: Modélisation et communication. S Mer, Tichkiewitch, J. Caelen & K. Zreik Eds. Le communicationnel pour concevoir. ParisEuropia ProductionsMer, S et Tichkiewitch (1995). Les objets intermédiaires de la conception: Modélisation et communication. In J. Caelen & K. Zreik Eds. Le communicationnel pour concevoir. Paris,1995. Europia Productions. Technologies distribuées et cognition socialement partagée : contribution psychosociale pour le travail coopératif assisté par ordinateur. N Michinov, Actes de la conférence 10e Atelier duMichinov, N (2001) .Technologies distribuées et cognition socialement partagée : contribution psychosociale pour le travail coopératif assisté par ordinateur. Actes de la conférence 10e Atelier du . Travail Humain modéliser les activités coopératives de conception. INRIA. Travail Humain modéliser les activités coopératives de conception. INRIA, Paris, 2001. Ingénierie Simultanée dans la conception de produits. H Simon, S Tichkiewitch, Tiger, A Jeantet, The Free PressNew York; Rhône-AlpesAdministrative behaviour. Universités d'été du pôle productiqueSimon, H (1945). Administrative behaviour. The Free Press, New York, 1945.Tichkiewitch,S., Tiger, Jeantet, A (1993). Ingénierie Simultanée dans la conception de produits. Universités d'été du pôle productique Rhône-Alpes. 1993
sample_8879
0.9486
arxiv
Diseño en FPGA de un turbo decodificador para cdma2000 FPGA design of a cdma2000 turbo decoder Maribell Sacanamboy Franco Escuela de ingeniería eléctrica y electrónica Universidad del Valle Cali Ciudad universitaria Meléndez, calle 13 100-00, Edificio 355, oficina 2005Cali Colombia Fabio G Guerrero Escuela de ingeniería eléctrica y electrónica Universidad del Valle Cali Ciudad universitaria Meléndez, calle 13 100-00, Edificio 355, oficina 2005Cali Colombia Diseño en FPGA de un turbo decodificador para cdma2000 FPGA design of a cdma2000 turbo decoder turbo decodingcdma2000turbo codesMAX-Log-MAPFPGA design RESUMENEn este trabajo se presenta el diseño hardware en FPGA de un turbo decodificador para el estándar cdma2000. El trabajo incluye un estudio y análisis matemático del proceso de turbo decodificación, basado en el algoritmo MAX-Log-MAP. Se presentan los resultados de decodificación obtenidos para un tamaño de paquete de doscientos cincuenta bits, un análisis de área y desempeño y se identifican las variables fundamentales para el diseño hardware en la turbo decodificación.Palabras clave: turbo decodificación, cdma2000, turbo códigos, MAX-Log-MAP, diseño en FPGA.ABSTRACTThis paper presents the FPGA hardware design of a turbo decoder for the cdma2000 standard. The work includes a study and mathematical analysis of the turbo decoding process, based on the MAX-Log-MAP algorithm. Results of decoding for a packet size of two hundred fifty bits are presented, as well as an analysis of area versus performance, and the key variables for hardware design in turbo decoding. INTRODUCCIÓN La invención de la turbo codificación hacia finales del siglo XX probó la existencia práctica de un esquema de codificación que permitía obtener una probabilidad de error arbitrariamente pequeña para cualquier velocidad de transmisión de información menor o igual a la capacidad de un canal con ruido blanco gausiano aditivo, tal como lo había demostrado matemáticamente Shannon en 1948. Entre los beneficios prácticos de un sistema de codificación óptimo se encuentra el poder transmitir información lo más rápido posible sin utilizar más potencia de la estrictamente necesaria para una BER (Bit Error Rate) dada. Por esta razón los turbo códigos han encontrado aplicación práctica en diferentes estándares de comunicaciones actuales tales como UMTS, CDMA2000, DVB-RCS, DVB-RCT, Inmarsat, Eutelsat, WiMAX, CCSDS (deep space) y otros [1]. En [6] se presenta una implementación de un turbo decodificador para cdma2000, basado en una modificación del algoritmo SOVA e implementado sobre una FPGA, a pesar de que en las conclusiones se describe que este desarrollo alcanza un desempeño más alto y una latencia más baja, que un decodificador comercial, en su arquitectura no se muestran los detalles de su diseño, está más orientado a diagramas de bloques. En [7] se reporta el diseño hardware de un turbo decodificador basado en bloques, lo cual hace de muy poca utilidad a la hora de plantear un diseño original, dado que no hay una descripción detallada del diseño. En [8] se presenta un turbo decodifcador de alta velocidad basado en Max-Log-MAP, en cual se muestra algunos bloques en detalle de la arquitectura, sin embargo no se muestra la arquitectura completa del turbo decodificador especificando por ejemplo tamaño de buses, señales de control y ampliando en detalle algunos otros bloques como el de normalización el cual usan para evitar desbordamiento en el cálculo de las métricas. El objetivo de este artículo es presentar el diseño hardware en detalle de un sistema de turbo codificación y decodificación en un sistema práctico, tomando como ejemplo la especificación del estándar cdma2000 [9]. El algoritmo de decodificación usado en este trabajo está basado en Max-Log-MAP, el cual es una variante del algoritmo MAP (Máximo A Posteriori) [10]. Entender las variables que determinan el desempeño del diseño hardware de un sistema de turbo codificación es algo muy importante debido a las limitaciones intrínsecas del proceso de decodificación [11]. En este artículo se muestra en detalle cada uno de los componentes del sistema usando hardware FPGA (Field Programmable Gate Arrays), se explica cómo interaccionan los componentes entre sí, y se identifican los principales aspectos del diseño hardware de la turbo decodificación. Este trabajo permite conocer en profundidad las propiedades propias del diseño hardware de turbo codificación. Este trabajo está organizado de la siguiente manera: en la siguiente sección se presenta la metodología utilizada para esta investigación, luego se presentan los resultados más relevantes obtenidos, una discusión sobre los mismo y, finalmente, se sintetizan los principales aportes y conclusiones de este trabajo. METODOLOGIA Los diseños presentados en este trabajo fueron realizados usando descripción estructural en VHDL y captura esquemática. Las fases de síntesis y simulación se realizaron Quartus II versión 9 y el diseño fue sintetizado en la FPGA Stratix III EP3SE80F1152C2. Dado que durante todo el proceso de contaminación y decodificación se emplean datos suaves, los datos se normalizaron por 1024, quedando entonces con una representación binaria de 20 bits y los datos negativos con complemento a dos. Basado en esta normalización y trabajando con complemento a dos y veinte bits, el uno es representado con el número (1x1024) = 1024 en notación hexadecimal 00400 y el menos uno con el número (-1x1024) = -1024 en notación hexadecimal FFC00. De los diferentes algoritmos existentes para turbo decodificación en este trabajo se escogió el algoritmo MAX-Log-MAP con el fin de evitar las funciones no lineales y el gran número de operaciones de adición y multiplicación necesarias en el algoritmo MAP. El precio de esta simplificación es un detrimento de 0.5 dB en el desempeño [12]. Turbo codificador El turbo codificador del estándar cdma2000 está conformado por dos codificadores constitutivos y un intercalador. El tamaño de paquete, Nturbo, usado en el turbo codificador fue de 250 bits. El número de símbolos codificados está dado por (Nturbo)/R+ 6/R', donde R es la tasa de podamiento, en este caso es de 1/2, con los patrones de podamiento establecidos por el estándar Figura 1. Turbo codificador. En la Figura 1 se pueden apreciar tres bloques que están enmarcados por cuadros de línea punteada, el bloque superior corresponde al codificador, el bloque de la mitad al demodulador y el bloque inferior al canal. Bloque codificador Este bloque consta de dos unidades convolucionales y una unidad de turbo intercalación. Las unidades convolucionales están basadas en tres registros tipo D conectados de manera serial y cuatro compuertas lógicas XOR las cuales están conectadas de acuerdo a los polinomios generadores descritos en el estándar. La unidad de turbo intercalación está diseñada con una memoria ROM y un multiplexor, la memoria ROM contiene las direcciones de intercalación definidas por el algoritmo de intercalación. Para una trama de 250 bits, el multiplexor tiene 250 puertos de entrada de un bit, este módulo selecciona el bit de entrada que pasará a la segunda unidad convolucional, esta selección se hace por medio de la dirección de intercalación dada por la ROM. En el bloque codificador, por cada bit de entrada el codificador genera una pareja de bits XY en cada ciclo de máquina, donde X es el bit sistemático y Y el bit de paridad. El total de parejas XY que genera el codificador es 256 (250 parejas de datos de información y seis parejas de datos de cola). Esta información (XY) pasa al bloque de demodulación. Bloque demodulador En el diseño hardware se partió de asumir los datos que entregaría un demodulador BPSK normalizados entre -1 y +1. Para esto se trabajó con un multiplexor de cuatro puertos, cuyas entradas corresponden al dato de uno y menos uno representados con las constantes 00400 y FFC00, las señales de selección vienen del codificador y están dadas por el bit sistemático (X) y el bit de paridad (Y). Los datos que entrega el demodulador son una pareja de 40 bits X s Y p correspondientes al dato sistemático y de paridad. Bloque canal La unidad de canal está representada por una memoria RAM que contienen ruido blanco gausiano aditivo (AWGN), el cual es generado en matlab por la función "wgn", y un módulo de suma que permite contaminar con ruido los datos que vienen del demodulador (X s Y p ), generando la salida C s C pk , donde C s es el dato de canal contaminado sistemático y C pk es el dato de canal contaminado de paridad, el subíndice k es cero ó uno, indicando si es paridad cero o uno. Los datos manejados en esta unidad son de tipo suave, entonces se normalizó los datos por 1024 para considerar tres cifras decimales; por ejemplo si se tiene un dato modulado de 1 y se le adiciona ruido de 2,256 la salida de canal es igual a 3,256 al normalizarlo por 1024 y truncarlo por piso queda 3334 en notación hexadecimal 00D06. Dadas las técnicas de podamiento, las paridades que fueron podadas se reemplazan por cero, generando un total de datos de 759, los cuales son recibidos por el turbo decodificador, distribuidos en 253 datos sistemáticos, 506 datos de paridad discriminados en 253 de paridad uno y 253 de paridad cero. Los 253 datos sistemáticos son también intercalados generando otra entrada al turbo decodificador, en total recibe 253 parejas de datos de manera serial distribuidas alternadamente entre C S C p0 , C' s C p1 . Turbo decodificador Una gran dificultad de la implementación de los turbo códigos en muchas aplicaciones es la complejidad de la decodificación. El algoritmo MAP, el cual es un algoritmo óptimo de decodificación, no es tan apropiado a la hora de pensarse en una implementación en hardware, dado que requiere un gran número de operaciones de adición y multiplicación. Para disminuir esta complejidad, el algoritmo MAP puede ser transformado en el dominio logarítmico y a este nuevo algoritmo se le denomina Log-MAP [13]. Sin embargo al trabajar en implementaciones hardware en el dominio logarítmico, se hace necesario trabajar con el logaritmo Jacobiano, el cual expresa las funciones en términos de máximos más un factor de corrección, este factor puede ser almacenado en una tabla lo cual se traduce en hardware a bloques de memoria; una aproximación del algoritmo Log-MAP es no considerar este factor de corrección, con lo cual el cálculo de las funciones se reduce hallar la función máximo, a esta aproximación se le denomina algoritmo Max-Log-MAP. Dado que en Max-Log-MAP no se tiene en cuenta los términos de corrección en las ecuaciones, las métricas hacia adelante (), hacia atrás () y la rata LLR para m estados, quedan expresadas de la siguiente forma:   ), ( max´) ( 1 ' ) ( m m k m k m m k        (1)   ), ( max 1 ) ( ' 1 ) ( m m k m m k m k         (2)     ) , 0 ( 1 ) , 0 ( ) ( ) , 1 ( 1 ) , 1 ( ) ( max max ) ( m f k m k m k m m f k m k m k m k d L               (3) Como se puede observar en las ecuaciones (1), (2) el cálculo de sus respectivas métricas en el tiempo k depende del valor de las métricas en los estados anteriores (m ´) y de las ramas que conectan los estados anteriores con los estados actuales (m). Otra observación importante es que en las ecuaciones anteriores, las operaciones que se deben realizar son sumas, comparaciones y restas, lo cual es menos complejo de implementar en hardware, entonces el algoritmo Max-Log-MAP establece un compromiso entre desempeño y complejidad ya que disminuye en 0.5 db su desempeño pero minimiza su complejidad de implementación. Las condiciones de frontera para  en un tiempo k = 0 se dan en la ecuación (4) y para  en un tiempo k =  , se dan en la ecuación (5). 0 ) ( , 0 ) 0 ( 0 0        m m y   (4) 0 ) ( , 0 ) 0 (        m m y    (5) En la Figura 2 se presenta el diagrama en bloques del turbo decodificador, el cual está basado en [14]. En la Figura 2 se puede observar el turbo decodificador propuesto para el codificador del estándar cdma2000, el cual tiene como entrada, los datos provenientes del codificador pasados por un canal AWGN, donde C s corresponde a los datos contaminados del canal para los bits sistemáticos (X), C p0 y C p1 a los datos contaminados del canal para los bits de paridad (Y 0 y Y' 0 ). Según el estándar para R=1/2, sólo se tienen en cuenta las paridades Y 0 y Y' 0 se ignoran las paridades Y 1 y Y' 1 . Los turbo decodificadores se componen de dos decodificadores que usan el algoritmo MAX-Log-MAP, dos intercaladores y un deintercalador . Uno de los intercaladores es usado para intercalar la entrada sistemática C s , la cual corresponde a una de las entradas del segundo decodificador y el otro intercalador se utiliza para intercalar la información extrínseca (LLR ext ). Esta información es generada a partir de la tasa a posteriori (LLR a posteriori ), la tasa a priori (LLR a priori ) y los datos sistemáticos recibidos por el turbo decodificador C s , esto se muestra en la ecuación (6). ) ( c s priori a posteriori a ext L C LLR LLR LLR    (6) El término Lc es la medida de confiabilidad del canal y es inversamente proporcional a la varianza y se define en (7), esta medida de confiabilidad tiene inferencia en el cálculo de la métrica de rama como se muestra en (8). c L a 2 2   (7)               ) ( 1 exp ln , 2 , _ m i k pk i k sk i k k m i k v C u C A    (8) donde a es la ganancia del canal AWGN, la cual se define con valor de uno según [14], π k i es la probabilidad a priori del bit de entrada, (u k ,v k ) son los bits de sistemático y de paridad transmitidos, (C s , C pk ) son los datos recibidos en el decodificador, correspondientes a dato sistemático y de paridad. Despejando la varianza de la ecuación (7) y reemplazándola en la ecuación (8), la métrica de rama queda expresada como:               ) ( 2 exp ln , , _ m i k pk i k sk c i k k m i k v C u C L A   (9) π k i se puede expresar en relación a la tasa LLR a priori (L e (u k )) en la ecuación (10).          2 ) ( exp i k e i k k i k u L u B (10) Reemplazando la ecuación (10) en (9), la métrica de rama queda:                     ) ( 2 exp 2 ) ( exp ln , , m i k pk i k sk c i k e i k k k m i k v C u C L u L u B A (11) Dado que los factores A k y B k son independientes de u k , estos desaparecen al aplicar el logaritmo [15], luego, la ecuación (11) se expresa como: m i k pk c i k sk c i k e i k m i k v C L u C L u L u ,, 2 1 21 2 1    (12) Donde L e (u k ) es la LLR a priori , la cual proviene del deintercalador para LLR 2 a priori y del intercalador LLR 1 a priori , esto se puede observar en la Figura 2. Para calcular las dos ramas en cada estado, se reemplaza i por cero o uno en la ecuación (12) para todos los estados desde m=0 hasta m=7, teniendo en cuenta los bits transmitidos (u k ,v k ) se obtiene lo siguiente: Tabla 1. Métricas de rama para el estándar cdma2000.   ) ( 2 1 7 , 0 6 , 0 1 , 0 0 , 0 p s c priori a k k k k C C L LLR               ) ( 2 1 7 , 1 6 , 1 1 , 1 0 , 1 p s c priori a k k k k C C L LLR              ) ( 2 1 5 , 0 4 , 0 3 , 0 2 , 0 p s c priori a k k k k C C L LLR               ) ( 2 1 5 , 1 4 , 1 3 , 1 2 , 1 p s c priori a k k k k C C L LLR            Como se observa en la Tabla 1, sólo es necesario calcular dos ramas para cada k, dado que las otras dos ramas son las opuestas, es decir, tienen signo contrario; de acuerdo a esto en la Figura 3 se presenta el trellis para el decodificador. En la Figura 3 se muestra el diagrama de trellis para cualquier tiempo k, se observa sólo dos ramas  k 1,0 y  k 1,2 como se mencionó en el párrafo anterior, distribuidas por todos los estados, para cada estado sale la rama y su opuesta aditiva. Con el cálculo de las dos ramas por cada k, se simplifica el cálculo de las métricas hacia adelante (), hacia atrás () y la rata LLR, de acuerdo a las ecuaciones (1), (2) y (3) quedando expresadas de la siguiente manera:       ) , ' ( , ) , ' ( max ) ' ' ( ) ' ( ' ) ( 1 m m m m k m k k m k m m k           (13)       ) , ' ( , ) , ' ( max ) ' ' ( 1 ) ' ( 1 ' ) ( m m m m k m k k m k m m k           (14) Las ecuaciones (13) y (14), las cuales se utilizan para el cálculo de las métricas hacia delante y hacia atrás para cada estado, están determinadas por la función máximo entre la suma y la resta. Para las métricas hacia adelante se trabaja con las métricas de la etapa anterior k y para las métricas hacia atrás con las métricas de la etapa posterior k+1. En la ecuación (15) se presenta la ecuación para hallar la rata LLR, esta ecuación se define como la resta entre la función máximo de las ramas de los unos y la de los ceros.                                                                                                                      k k k k k k k d L                                                , , , , max , , , , , Para el diseño del turbo decodificador se tuvo en cuenta el de la Figura 2, con la diferencia que se diseñó un sólo decodificador, dado que el segundo decodificador inicia el proceso cuando el primer decodificador haya terminado de procesar todos sus datos. En la figura 4 se presenta el diagrama en bloques del turbo decodificador. En la Figura 4 se puede observar que el turbo decodificador consta de dos unidades básicas: unidad de decodificador SISO y unidad de salida. En la unidad SISO se realiza el cómputo del decoder1 o del decoder 2 como se presentó en la figura 2 y en la unidad de salida se realizan una serie de tareas para generar la señal de realimentación (LLR a priori) para el decoder SISO y la salida de los bits decodificados. En la Figura 5 se presenta el algoritmo de turbo decodificación, describiendo todas las tareas que se deben realizar. Se debe tener en cuenta que sólo se utiliza un decodificador SISO como se planteo en la Figura 4. Figura 5. Diagrama de flujo del proceso de turbo decodificación. En la Figura 5 se muestra el proceso de turbo decodificación, primero se inicia el cómputo del decodificador (decoder 1) y después el decodificador (decoder 2) y se van alternando hasta terminar todas las iteraciones, una vez terminado este proceso se genera la salida con los bits decodificados. Hay que tener presente que la información que se maneja en cada iteración es suave, mientras que la salida decodificada es dura, es decir uno o cero por cada bit decodificado. Cómputo Decoder 1 Inicialmente no hay realimentación por lo tanto la tasa LLR 2 a priori es cero, y se da inicio al cómputo de la LLR 1 a posteriori , este cálculo es la función f (C s ,C p0 , LLR 2 a priori ) cuyos parámetros son los datos de canal (sistemático y paridad cero) y la rata de realimentación, esta función f es la rata LRR (L(d k )) que corresponde a la ecuación (15) y es la salida del decoder SISO como se observó en la Figura 4. Después se halla la LLR 1 extrínseca por medio de la función g (C s , L c , LLR 2a priori , LLR 1a posteriori ), la función g corresponde a la ecuación (6). El siguiente paso es hallar la rata LLR 1 a priori aplicando la función de intercalación  a la rata LLR 1 extrínseca , este es el último paso del cómputo del decodificador (decoder 1). Cómputo Decoder 2 Este inicia calculando la LLR 2 a posteriori por medio de la función f (C' s ,C p1 ,LLR 1 a priori ), con la diferencia que la realimentación para este caso ya no es cero sino la rata LLR 1 a priori obtenida en el cómputo del decodificador (decoder 1) y los datos C' s son los datos sistemáticos que recibe el turbo decodificador pero que han sido intercalados y C p1 los datos de paridad uno . Después se halla la rata LLR 2 extrínseca a través de la función g(C' s , L c , LLR 1a priori , LLR 2 a posteriori ) y finalmente se halla la rata LLR 2 a priori aplicando la función de deintercalación  -1 a la rata LLR 2 extrínseca y se termina el cómputo del decoder 2. Una vez se ha realizado el cómputo de los decodificadores (decoder 1 y 2) se termina la iteración, y continua el proceso hasta que se hagan las n iteraciones. Después de que se haya concluido las n iteraciones se aplica la función de deintercalación  -1 a la rata LLR 2 a priori y se realiza la función de decisión dura H para ob-tener los bits de salida decodificados, la función H se especifica a continuación. En la Figura 6 se pueden ver dos grandes unidades, la del decodificador SISO que se encuentra enmarcada en el cuadro de línea punteada y la unidad de salida que se encuentra dentro del cuadro de línea continua. Todas las señales de control que tienen las dos unidades del turbo decodificador son manejadas por una unidad de control implementada sobre una máquina de estados finitos. Unidad de decodificador SISO En la Figura 6, se observa que el decodificador SISO está constituido por cuatro bloques: cálculo de ramas (), cálculo de métricas hacia adelante (), cálculo de métricas hacia atrás () y el bloque del cálculo de LLRs. Bloque de cálculo de ramas En este bloque se hace el cálculo de ramas; de acuerdo a la Tabla 1, se implementó sólo el cálculo de dos ramas por cada dato  k 1,0 y  k 1,2 . Estas ramas se almacenan en registros para ser usadas inmediatamente en el cómputo de las métricas hacia adelante, y también se van almacenando en memorias para ser utilizadas después en el bloque () y en el de LLRs. En la Figura 7 se muestra la unidad básica del bloque. Como se muestra en la Figura 7, para el cálculo de ramas sólo es necesario bloques muy básicos que realicen las operaciones de suma resta y multiplicación entre los datos de entrada LLRs a priori, LC y los datos sistemáticos y de paridad recibidos en el decodificador. Bloque cálculo de métricas hacia adelante () Este bloque es el encargado de realizarse el cálculo de las métricas hacia delante para un estado m en un tiempo k+1 y depende de los valores de dos estados m y m en el tiempo anterior k. Por cada dato se tienen ocho estados, entonces se calcula la métrica para cada estado obteniendo una salida de ciento sesenta bits, esta información se almacena en un registro para ser usada en el cálculo de la siguiente métrica del próximo dato, de igual manera estas métricas se almacenan en una memoria, para posteriormente ser usadas en el bloque de LLRs. En la Figura 8 se presenta este bloque. En la Figura 8 se observa que este bloque esta conformado por ocho bloques alfa (), que son los que realizan el cómputo de la métrica para cada estado, un registro que guarda los alfas calculados y un bloque de inicialización para los alfas como se expresó en la ecuación (4). Los valores de inicialización para los estados de uno a siete se utilizan valores muy negativos, estos se expresaron con un valor de -250 y para el estado cero un valor de cero. Estos valores se presentan en base hexadecimal y teniendo en cuenta la normalización de 1024 y el complemento a dos, queda expresada la inicialización de los ocho estados de la siguiente manera: C1800,C1800,C1800,C1800,C1800,C1800,C1800,000 00. En la Figura 9 se presenta la celda básica de los bloques alfa. Como se observa en la Figura 9 el bloque alfa está constituido por bloques básicos, sumador, restador y un comparador de mayor, como se describe en la ecuación (13). Bloque cálculo de métricas hacia atrás () Este bloque inicia su cálculo de métrica hacia atrás una vez se haya calculado las 253 ramas  1 y  2 . Al igual que el bloque , tiene 8 bloques de cálculo de métricas beta (), un bloque de inicialización de acuerdo a la ecuación (5), y una salida de ciento sesenta bits la cual es almacenada en un registro, para ser usada en el cálculo de la siguiente métrica del próximo dato. En la Figura 10 se presenta la unidad básica del bloque que calcula la métrica hacia atrás . En la Figura 10 se muestra el bloque de la métrica hacia atrás, el cual tiene la misma celda básica que , pero con diferentes entradas y está basada en la ecuación (14). Esta métrica tiene en cuenta para su cálculo el valor de los estados (m y m) en el tiempo k+1, al igual que las ramas que conectan los estados de k+1 con el estado (m) que se va hallar en el tiempo k. Bloque cálculo de LLRs Este bloque calcula las ratas LLRs de acuerdo a la ecuación (15) y guarda el resultado en un registro. Las entradas de este bloque provienen de las memorias que contienen las ramas, la memoria de las métricas () y el registro de las métricas (), este bloque inicia calculando el último LLR, dado que las métrica hacia atrás entregan inicialmente la última métrica. En la Figura 11 se presenta este bloque. Figura 11. Bloque cálculo de la rata LLRs. En la Figura 11 se observa que el bloque de LLRs está constituido por sumadores, restadores y comparadores de mayor, lo cual constituye las funciones de máximo para los unos y ceros como se describe en la ecuación (15). Unidad de salida En la Figura 6 se muestra está unidad la cual tiene como tarea entregar los datos decodificados. Está unidad consta de bloques de intercalación y deintercalación, registros y bloques aritméticos como sumador, restador y multiplicador. Los bloques de intercalación y deintercalación, reciben los datos de un registro de desplazamiento de 5060 bits que corresponden a 253 datos, estos se distribuyen de manera paralela teniendo en cuenta la dirección de intercalación o deintercalación, sobre dos multiplexores de 253 puertos, de los cuales se selecciona el dato intercalado y deintercalado, pasando a un tercer multiplexor de dos puertos, en donde la señal de selección si está en cero, deja pasar los datos intercalados o en uno los datos deintercalados, de acuerdo al algoritmo planteado en la Figura 5. En los bloques aritméticos se hace el cálculo de la LLR extrínseca (LLR ext), basado en la ecuación (6), este resultado se va almacenando en un registro de desplazamiento hasta completar las 253 LLR extrínsecas. Finalmente estas LLR extrínsecas pasan a hacer intercaladas o deintercaladas, generando los datos de realimentación del SISO (LLR a priori) para la siguiente iteración. La salida de los 250 bits decodificados son tomados de los datos entregados por el SISO (LLR a posteriori ) y son almacenados en un registro de desplazamiento, los cuales son posteriormente deintercalados y comparados con cero (decisión dura) de acuerdo a la función H, para generar la salida final, esto se hace de manera simultánea ya que se tienen 250 comparadores. Unidad de control En la Figura 12 se presenta la máquina de estados implementada para la unidad de control. Figura 12. Máquina de estados de la unidad de control Como se observa en la Figura 12 fueron necesarios 14 estados y el estado de inicialización o reset. De estos catorce, los seis primeros (state1-state6) se utilizan para el cálculo de las ramas y métricas hacia adelante, los siguientes 6 estados (state7-state12) se utilizan para el cálculo de las métricas hacia atrás y las tasas LLRs y los últimos dos estados (state13,state14) para incrementar y evaluar el contador de iteraciones, cuando este contador llega a la n iteraciones pasa al estado de inicio (stateReset). El cálculo de la turbo decodificación se debe hacer para 253 datos de canal, por lo tanto el número de veces que toma realizar el cómputo de ramas, métricas hacia adelante, métricas hacia atrás y LLRs es de 253, para esto es necesario tener un contador de ramas (contador) y un contador de métricas hacia atrás (contador), que cuando lleguen a 253 respectivamente salen del ciclo, esto se muestra en la Figura 12 donde se ve claramente los dos ciclos (state1-state6) y (state7-state12). RESULTADOS En esta sesión se presenta los resultados obtenidos para el turbo decodificador y el análisis de desempeño para el diseño propuesto. En las Tablas 2,3 y 4 se presentan los resultados obtenidos para el turbo decodificador teniendo en cuenta tres diferentes relaciones de señal a ruido (SNR) baja, media y alta, donde una SNR baja significa un alto grado de contaminación de los datos por el canal, para las pruebas se considero un valor de 0.35, una SNR media de 1.35 significa un grado medio de contamina-ción y una SNR baja de 2.35 hace referencia a un mínimo grado de contaminación del canal sobre los datos. Para las pruebas se consideraron 7 iteraciones, donde cada iteración involucra el procesamiento del SISO dos veces (para el procesamiento de los datos intercalados y los deintercalados). Como se observa en la Tabla 2 no se logra la decodificación total del paquete, esto se debe a que la contaminación de ruido es tan alta que el decodificador no logra su objetivo, además el proceso de la realimentación tiene un efecto negativo debido a que en cada iteración se contaminan más los datos, dado que si el número de errores es alto con la realimentación se introduce más error, lo que hace que no mejore la decodificación. En la Tabla 3 se ve como el efecto de realimentación en cada iteración mejora el proceso de decodificación, además la SNR está en el rango medio. Y en la Tabla 4 se observa que el SISO logra decodificar los 250 bits desde la primera iteración. De acuerdo a las Tablas 3 y 4 podemos ver que es suficiente con 4 iteraciones para la decodificación. En la Figura 13 se muestra las curvas de BER vs E b /N 0 para los resultados del turbo decodificador con una entrada de 250000 bits (1000 paquetes de 250 bits). Figura 13. Curvas de BER vs E b /N 0 . En la Figura 13 se puede observar que a partir de -2.5dB la curva de la iteración 7 presenta una menor relación de Eb/No; también se puede apreciar que la rata de error de bit (BER) disminuye por cada iteración. La BER más baja alcanzada está en el orden de 10 -2 , esto se debe al tamaño de la muestra de entrada que está en 250000 bits, si se desea obtener una BER del orden de 10 -7 se necesita una entrada mínima de 10 millones de bits es decir cuarenta mil paquetes de 250 bits. Los resultados obtenidos en área y velocidad al sintetizarlo en la FPGA Stratix III EP3SE80F1152C2 se presentan en la Tabla5. De acuerdo a los resultados presentados en la Tabla 5 se alcanza una frecuencia de reloj de 101.97MHz. Se debe tener en cuenta que el número de ciclos para cada iteración se debe multiplicar por dos, dado que el sistema para cada iteración hace intercalación y después deintercalación. El número de ciclos que gasta en una sola iteración para un paquete de 253 bits (incluidos bits de cola) es de 6081 ciclos esto se puede obtener de la siguiente ecuación: Para la obtención de datos de BER prácticos se debe tener en cuenta que el número de bits que se necesitan para lecturas de BER muy bajas puede ser muy alto, ya que se puede requerir un número de paquetes de prueba grande para obtener un modelamiento correcto de BER lo cual trae como consecuencia un tiempo de simulación y procesamiento bastante alto. Por Ejemplo: una BER de 1x10 -7 significa que 1 de cada 10 millones de bits es erróneo. Por teoría básica de estadística para poder asegurar que una BER es de 1x10 -7 se necesitan por lo menos 10 pruebas donde se cumpla la condición. Esto significa que se necesitarían enviar por lo menos 100 millones de bits (para paquetes de 250 bits, esto es 400.000 paquetes), lo cual se prueba a través de un tiempo de procesamiento bastante largo. Figura 2 . 2Turbo decodificador para cdma2000. Figura 3 . 3Trellis para el decodificador en etapa k. Figura 4 . 4Diagrama en bloques del turbodecodificador. Figura 7 . 7Bloque unidad cálculo de rama. Figura 8 . 8Bloque de los alfa. Figura 9 . 9Celda cálculo de métrica hacia delante. Figura 10 . 10Celda bloque de métrica hacia atrás. En la Figura 6 se presenta el diseño en hardware del turbo decodificador, para una entrada serial de 253 parejas de datos (sistemático, paridad) y una salida de 250 bits decodificados. Figura 6. Arquitectura de la unidad de turbodecodificación.                1 0 0 1 2 do decodifica bit el Sino do decodifica bit el LLR Si H priori a  Tabla 5 5Parámetros de área y desempeñoAREA (ALUTs) VELOCIDAD (MHz) Turbo decodifi- cador 6367 101.97 Los turbo códigos, en su forma original, se encuentran compuestos de dos códigos convolucionales sistemáticos recursivos separados por un entrelazador, el cual tiene la función de mezclar los datos de entrada hacia el segundo codificador con el fin de aumentar la distancia entre los vectores enviados al receptor. Para lograr el límite de la capacidad del canal la turbo decodificación debe emplear decisiones probabilísticas de tipo suave, es decir, hacer uso de la información de la confiabilidad sobre el valor de la decisión realizada por el modulador acerca de los símbolos recibidos. La palabra turbo se refiere al intercambio iterativo de información entre los decodificadores constituyentes para mejorar el nivel de corrección de errores al aumentar progresivamente el número de iteraciones[2].Mientras, desde el punto de vista hardware, el diseño del turbo codificador en el transmisor es muy sencillo, el diseño del turbo decodificador en el receptor es bastante complejo.En[3] se reporta el diseño de una arquitectura reconfigurable para diferentes estándares basada en un multiprocesador el cual proporciona un alto rendimiento y un consumo de potencia escalable, sin embargo las especificaciones y detalles del diseño no están dados.En[4] se reporta el diseño de un procesador SIMD para un turbo decodificador que soporta múltiples estándares implementado en VLSI, sin embargo los detalles del diseño no son muy descriptivos.En[5] se reporta el diseño de un turbo decodificador en una FPGA el cual procesa datos de entrada a una tasa de 600Mb/s, utilizando un diseño novedoso pero no se describe en detalle la arquitectura propuesta. [9]. El turbo codificador también genera 6/R' símbolos de cola de salida, estos bits de cola se obtienen después de que los codificadores constitutivos alcanzan el Nturbo, para este caso R' que representa la tasa de podamiento de los bits de cola es de 1/2, es decir se generan 12 bits de cola.El diseño del turbo codificador con sus datos de entrada, datos de salida, direcciones de intercalación y señales de control se presenta en la Figura 1. , ,max ) ( k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k Dado el retardo que tiene el sistema secuencial se desarrolló otro diseño en el cual se paraleliza el sistema, este diseño consiste en realizar de manera simultanea el cálculo para 11 datos, para este caso el paquete de 253 incluida la información de colas se divide en 11 datos de procesamiento paralelo para un total de 23 paquetes, entonces en la ecuación (16) el tamaño de paquete es de 23.Con esta paralelización se obtiene que para una iteración el número de ciclos es 561. Sin embargo la frecuencia obtenida descendió considerablemente a 25 MHz, y el área ocupada fue de 28085 ALUTs, es decir, se cuadruplico en área y se redujo en velocidad la cuarta parte. Esto se debe a que las unidades para el cálculo de ramas, métricas hacia delante, métricas hacia atrás y LLRs, ahora realizan cálculos de manera simultánea para 11 datos, es decir que los bloques que se presentaron en las Figuras del 7 al 11 se replican once veces, lo que aumenta considerablemente el área.Pero esto no afecta finalmente el desempeño, dado que con 561 ciclos para la primera iteración por el periodo de 40ns, se obtiene un tiempo total para la 1 iteración de 22,44μs. Entonces la tasa obtenida para 4 iteraciones es de 2,78Mbits/s y para 1 iteración es de 11,14Mbits/s, esta tasas corresponden al doble de las obtenidas en el caso serial, exactamente a 2.6 veces.CONCLUSIONESDe acuerdo a los resultados obtenidos para las tasas de una o cuatro iteraciones se ve claramente que el parale-lismo juega un papel muy importante a la hora del cálculo del tiempo total de ejecución.A pesar de que la frecuencia se redujo a la cuarta parte esto no afecta el resultado de la tasa, ya que el tamaño del paquete de procesamiento como se indica en la ecuación (16) es un factor multiplicativo que hace que el número de ciclos se reduzca en un factor de 10 para el caso paralelo.La naturaleza serial del algoritmo Max-Log-MAP hace que sea difícil una implementación paralela en hardware; sin embargo, se realizó paralelismo a nivel de procesamiento de los datos, como fue el caso de generar, de manera simultánea el cálculo de ramas, alfas, betas y LLRs para 11 datos.Una desventaja evidente de los turbo códigos es el retardo de decodificación causado por el número de iteraciones que se requieren para una BER dada. Sin embargo cuando la SNR es suficientemente buena, es decir que el ruido de contaminación no es tan alto, el proceso de decodificación converge al valor de mayor corrección posible, que el decodificador puede entregar en un número menor de iteraciones, lo cual coincide exactamente con lo que predice la teoría de turbo codificación. El tiempo total para la primera iteración es el número de ciclos por periodo (6081* 9,807ns) 59,636 μs.El tiempo total para 4 iteraciones en donde ya se tienen resultados de la decodificación para SNR bastante altas, es de 238,516 μs, luego la tasa que está dada por la relación tamaño de paquete sobre el tiempo, es de 1,048Mbits/s. En el caso de SNR bajas sólo basta con una sola iteración como se observó en la tabla 4, para este caso la tasa obtenida es de 4,19Mbits/s. Las tasas alcanzadas no son muy altas debido a que el diseño es secuencial y va procesando dato a dato como se observó en la ecuación (16). Channel Coding: The Road to Channel Capacity. D J Costello, G D Forney, 10.1109/JPROC.2007.895188Proceedings of the IEEE. the IEEE95D. J. Costello, and G. D. Forney. "Channel Coding: The Road to Channel Capacity". Proceedings of the IEEE. Vol. 95 No. 6, pp. 1150-1177. Junio 2007. ISSN: 0018-9219. DOI: 10.1109/JPROC.2007.895188. Iterative Decoding of Concatenated Convolutional Codes: Implementation Issues. E Boutillon, C Douillard, G Montorsi, 10.1109/JPROC.2007.895202Proceedings of the IEEE. 956E. Boutillon, C. Douillard and G. Montorsi. "Iterative Decoding of Concatenated Convolutional Codes: Implementation Issues" Proceedings of the IEEE . Vol. 95 No. 6, pp. 1201-1227. Junio 2007. ISSN: 0018-9219. DOI: 10.1109/JPROC.2007.895202. . R Rajore, S K Nandy, H , R. Rajore , S.K. Nandy and H.S. Architecture of Run-time Reconfigurable Channel Decoder. Jamadagani, 2009 IEEE International Conference on Communications ICC 2009 proceedings. 1Jamadagani. "Architecture of Run-time Reconfigurable Channel Decoder," 2009 IEEE International Confer- ence on Communications ICC 2009 proceedings. p.p 1- . Alemania Dresden, Junio , 10.1109/ICC.2009.5198763Dresden, Alemania, Junio 2009. ISSN:1938-1883. DOI: 10.1109/ICC.2009.5198763 SIMD Processor-Based Turbo Decoder Supporting Multiple Third-Generation Wireless Standards. M Shin, 10.1109/TVLSI.2007.899237IEEE Transactions on VLSI Systems. 157M. Cheol Shin. "SIMD Processor-Based Turbo Decoder Supporting Multiple Third-Generation Wireless Standards," IEEE Transactions on VLSI Sys- tems. Vol 15 No 7, pp.801-810. Julio 2007. ISSN: 1063-8210. DOI: 10.1109/TVLSI.2007.899237. Towards Gb/s turbo decoding of product code onto an FPGA device. C Leroux, C Jego, P Adde, M Jezequel, 10.1109/ISCAS.2007.378073IEEE International Symposium on Circuits and Systems. New Orleans, United StatesC. Leroux, C. Jego, P. Adde, and M. Jezequel. "Towards Gb/s turbo decoding of product code onto an FPGA device," IEEE International Symposium on Cir- cuits and Systems. pp. 909-912. New Orleans, United States. Mayo 27-30, 2007. DOI: 10.1109/ISCAS.2007. 378073. System-on-Chip for Real-Time Applications, The 6th International Workshop on IEEE. A M Ismail, M H Nafie, 10.1109/IWSOC.200634826DiciembreFPGA Based Implementation of MSOVA forCDMA2000 Turbo DecoderA.M. Ismail, M.H. Nafie. "FPGA Based Implementation of MSOVA forCDMA2000 Turbo Decoder," System-on-Chip for Real-Time Applica- tions, The 6th International Workshop on IEEE. pp.75- 80. Diciembre 2006. DOI:10.1109/IWSOC.2006.34826 8. Decodificador Turbo MAP de varias iteraciones. R Chavez, G Gamarra, M Pardo, Abril. Ingeniería y Desarrollo, No.20R. Chavez, G. Gamarra y M. Pardo, "Deco- dificador Turbo MAP de varias iteraciones," Ingeniería y Desarrollo, No.20, pp. 106-124. Abril 2006. ISSN: 0122-3461. High Speed Max-Log-MAP Turbo SISO Decoder Implementation Using Branch Metric Normalization. J H Han, A T Erdogan, T Arslan, 10.1109/ISVLSI.2005.37Proceedings of the IEEE Computer Society Annual Symposium on VLSI. the IEEE Computer Society Annual Symposium on VLSIMayoSeptiembre 2009. Fecha de consulta: Junio 10 de 2010J.H. Han, A.T. Erdogan and T. Arslan, "High Speed Max-Log-MAP Turbo SISO Decoder Implementation Using Branch Metric Normalization," Proceedings of the IEEE Computer Society Annual Symposium on VLSI. pp. 173-178. Mayo 2005. DOI: 10.1109/ISVLSI.2005.37. [9] "cdma2000 High Rate Packet Data Air In- terface Specification, 3rd Generation Partnership Pro- ject 2, Standard 3GPP2 C.S0024-B version 3.0", Septiembre 2009. Fecha de consulta: Junio 10 de 2010. URL:http://www.3gpp2.org/public_html/specs/tsgc.cf m. Implementation and performance of a Turbo/MAP Decoder. S S Pietrobon, International J. Satellite Communications. 161S.S. Pietrobon. "Implementation and per- formance of a Turbo/MAP Decoder", International J. Satellite Communications. Vol.16 No.1, pp.23-46. . Enero-Febrero, 10.1002/(SICI)1099-1247(199801/02161<23::AID-SAT590>3.0.CO;2-WEnero-Febrero 1998. DOI: 10.1002/(SICI)1099- 1247(199801/02)16:1<23::AID-SAT590>3.0.CO;2-W. Closing in on the perfect code. E Guizzo, 10.1109/MSPEC.2004.1270546IEEE Spectrum. 413MarzoE.Guizzo. "Closing in on the perfect code", IEEE Spectrum. Vol 41 No.3, pp.36-42. Marzo 2004. ISSN:0018-9235. DOI:10.1109/MSPEC.2004.1270546 New VLSI Design of a Max-Log-MAP Decoder. L Sabeti, M Ahmadi, K Tepe, The 2ndL. Sabeti, M. Ahmadi and K. Tepe. "New VLSI Design of a Max-Log-MAP Decoder". The 2nd . Annual Ieee Northeast Workshop, 10.1109/NEWCAS.2004.1359009Annual IEEE Northeast Workshop . pp. 37-40. Junio 2004. DOI: 10.1109/NEWCAS.2004.1359009. . S Papaharalabos, P Sweeney, B , S. Papaharalabos, P. Sweeney and B.G. SISO Algorithms based on Max-Log-MAP and Log-MAP turbo decoding. Evans, 10.1049/iet-com:20060090The institution of Engineering and Technology. 1Evans. "SISO Algorithms based on Max-Log-MAP and Log-MAP turbo decoding". The institution of Engi- neering and Technology. Vol.1, No.1, pp.49-54. Febrero 2007. DOI: 10.1049/iet-com:20060090. Turbo decoding and detection for wireless applications. L Hanzo, J Woodard, P Robertson, 10.1109/JPROC.2007.895195Proceedings of the IEEE. the IEEE95L.Hanzo, J. Woodard and P. Robertson. "Turbo decoding and detection for wireless applica- tions".Proceedings of the IEEE .Vol. 95 No. 6, pp. 1178-1200. Junio 2007. ISSN : 0018-9219. DOI: 10.1109/JPROC.2007.895195. Devices and methods for estimating a series of symbols. P Le Bars, S Olier, United States. Abril 05. 6125P. Le Bars, S. Olier. "Devices and methods for estimating a series of symbols,"No. Patent 6 877 125. United States. Abril 05, 2005.
sample_9086
0.9322
arxiv
4 Jun 2013 Wilson P Álvarez-Samaniego Borysálvarez - Samaniego Douglas Moya-Álvarez CONSTANTE DE PLANCK Núcleo de Investigadores Científicos Facultad de Ingeniería, Ciencias Físicas y Matemática Universidad Central del Ecuador (UCE UNA INTERPRETACIÓN FÍSICA DE LA Ecuador Departamento de Física Facultad de Ciencias Escuela Politécnica Nacional (EPN) Ladrón de Guevara Núcleo de Investigadores Científicos Facultad de Ingeniería, Ciencias Físicas y Matemática Universidad Central del Ecuador (UCE S/N QuitoEcuador, Ecuador 4 Jun 2013and phrases Background action fieldPlanck's constantstandard deviationaction density distribution According to the commonly accepted interpretation of Quantum Mechanics, it is only possible to talk about the existence of elementary particles when they are detected by an experiment or by a classical measurement device. This has led to distortions with regard to the objective existence of reality, since it would be necessary an observer to materialize the elementary particle. This issue is solved when the elementary particle is placed in permanent interaction with the rest of the universe, so its existence would not depend on any intelligent observer and thus the objective range of elementary particles would be recovered. This article explores the interaction between elementary particles and a background action field of stochastic character and it is also determined that the standard deviation of the particle-background field interaction is essentially the Planck constant, since the expressions of the energy according to the Planck postulate and the momentum according to the Louis de Broglie thesis follow in a natural way. In addition, the expression for the wave function of a free particle is obtained from the solution of the integral equation that relates the momentum and the energy with the wave vector and the angular frequency of a Gaussian distribution. Also, the Schrödinger equation is deduced from the expression for the wave function of an elementary particle in a potential field. Finally, the uncertainty principle is obtained. The theory presented in this article rescues the objective nature of Quantum Mechanics which implies that elementary particles exist independently of observers since the classical measurement device in this theory, introduced by the authors, is the own universe.Date: December 27, 2012. Resumen. De acuerdo a la interpretación comunmente aceptada de la Mecánica Cuántica solo se puede hablar de la existencia de las partículas elementales cuando ellas son detectadas en un experimento o con un aparato clásico de medida. Esto ha conllevado a tergiversaciones respecto de la existencia objetiva de la realidad, puesto que se requeriría un observador para que se materialice la partícula elemental. Este problema se resuelve cuando se conceptúa a la partícula elemental en interacción permanente con el resto del Universo de modo que así su existencia no dependería de ningún observador inteligente y se rescataría el rango objetivo de las partículas elementales. En este artículo se estudia la interacción entre las partículas elementales y un campo de acción de fondo de carácter estocástico y se determina que la desviación estándar de la interacción partícula-campo de fondo es esencialmente la constante de Planck, pues aparecen de manera natural las expresiones de la energía según el Postulado de Planck y de la cantidad de movimiento de acuerdo a la tesis de Louis de Broglie. Además, se obtiene de forma natural la expresión de la función de onda de una partícula libre a partir de la resolución de la ecuación integral que liga la cantidad de movimiento y la energía con el vector de onda y la frecuencia angular de una distribución gaussiana. También, se deduce la ecuación de Schrödinger como consecuencia de la expresión de la función de onda de una partícula elemental en un campo potencial. Finalmente, se obtiene el Principio de Incertidumbre. La teoría presentada en este artículo rescata el carácter objetivo de la Mecánica Cuántica por el cual las partículas elementales existen independientemente de los observadores ya que el aparato de medida clásico en esta teoría, introducida por los autores, es el propio Universo. Introducción Sir Isaac Newton (1642-1727) cuando concibió el principio de inercia imaginó la existencia de un objeto masivo que mantenía su estado en movimiento rectilíneo uniforme. De hecho, Newton suponía que los objetos físicos pueden existir por sí mismos, de manera que podemos abstraer su existencia del resto del Universo sin alterar las cualidades dinámicas del mencionado objeto. Este punto de vista concordaba con la Filosofía Racionalista de René Descartes (1596-1650) en la que se plantea por primera vez en la historia de Occidente la existencia de un ser humano independiente del entorno social y por lo tanto la afirmación del individuo en sí y de por sí, el cual es uno de los principios fundamentales sobre los que se levantaría la futura ideología burguesa. Este elemento ideológico penetró en la Ciencia haciendo que esta solamente sea exitosa en el mundo macroscópico, donde el experimentador puede controlar las operaciones de medida y sus errores haciéndolos tan pequeños comoél desee, lo que equivale a considerar el límite clásico de la constante de Planck igual a cero. Sin embargo, en el mundo microscópico donde existen objetos tan pequeños como son las moléculas,átomos, partículas elementales, cuyas dimensiones tieneń ordenes menores o iguales a 10 −10 m, esas partículas están inmersas en un océano de interacciones cuyo origen está en la propia existencia de cada una de ellas extendidas a todo el Universo. Este océano de interacciones fluctúa estocásticamente haciendo imposible determinar simultáneamente con precisión la posición y velocidad de las partículas elementales. En este trabajo se demuestra que la función de densidad de la acción a la que está sometida la partícula es una gaussiana, lo cual es una consecuencia del Teorema Central del Límite. Expresando esta función en el dominio de la frecuencia se encuentra otra distribución gaussiana cuyo exponente es nuevamente una función cuadrática de una combinación lineal de las variables espacial y temporal, y donde los coeficientes de la variable espacial y de la variable temporal en el exponente son el módulo del vector de onda k y la frecuencia angular ω = ω( k) de la onda respectivamente. De ahí se deduce que el módulo de la cantidad de movimiento P es proporcional a la desviación estándar σ del campo de acción de fondo por el módulo del vector de onda, y la energía E de la partícula es también proporcional a la frecuencia angular por la desviación estándar del campo de acción de fondo. Se demuestra además que el núcleo de la ecuación integral que permite transformar la representación en el dominio de la frecuencia a la representación en el dominio del espacio-tiempo comunes es el producto de dos deltas de Dirac cuyos argumentos son P −k y E −ω respectivamente. Expresando estas dos distribuciones mediante una superposición continua de ondas planas se concluye que la partícula puede ser representada por una función compleja de la forma ψ(x, t) = 1 √ 2π e i P x−Et . (1.1) A partir de laúltima expresión y usando la relación no relativista de la energía y el hecho de que la función de onda del electrón en un potencial, U ( r), se puede expresar como una superposición de ondas planas, se procede a deducir en la Sección 3 la ecuación de Schrödinger de la partícula elemental. En la Sección 4 se demuestra el Principio de Incertidumbre desde la función de densidad de probabilidad de la acción del campo de fondo de una partícula libre. Además, se obtiene la constante de proporcionalidad entre la desviación estándar y la constante de Planck para la Mecánica Cuántica tradicional. Finalmente, se encuentra la ecuación correspondiente a la energía del punto cero del sistema partícula libre-campo de acción de fondo (ver ecuación (4.2)). Función de Distribución de la Acción e Interpretación Física de la Constante de Planck Vamos a comenzar deduciendo la densidad de distribución gaussiana de la acción del campo de fondo sobre la partícula. Para ello, se inicia obteniendo la función de densidad que se presenta en un conjunto repetido de mediciones. De esta forma, se determina el valor real de la medición como el promedio de los valores experimentales obtenidos y se consigue además la dispersión estadística de datos de este proceso. A continuación, se enuncian los supuestos para la obtención de la densidad de distribución gaussiana: 1. Pequeños errores son más probables que grandes errores. 2. Para un valor real p dado, las dispersiones estadísticas en ±ε, tienen igual probabilidad. 3. En la presencia de varias observaciones sobre la misma cantidad, el valor más probable de esa cantidad es el promedio de las observaciones. Carl Friedrich Gauss (1777-1855) se refirió a dicho proceso como "el problema más importante de las Matemáticas en la Filosofía Natural". Ahora, se procede a la deducción de la densidad de distribución gaussiana asociada a la acción de la partícula. Sea p ∈ R el verdadero valor (pero desconocido) de la medida de la cantidad física. Se efectúan n ∈ N observaciones independientes del experimento asociado a la medida de la cantidad física p, dichas observaciones dan como resultado las medidas M 1 , M 2 , . . . , M n . Sea además φ la función de densidad de probabilidad del error aleatorio. Se supone que la función φ es diferenciable, y que φ(x) = 0, para todo x ∈ R. La suposición 1 anterior implica que φ tiene un valor máximo en x = 0, mientras que la afirmación 2 implica que φ( x) = φ(−x), para todo x ∈ R. Se define la función f : R → R por f (x) := φ ′ (x) φ(x) , para todo x ∈ R. Entonces, f (−x) = −f (x), para todo x ∈ R. Note que X i := M i − p denota la variable aleatoria asociada al error de la i-ésima medida. Ya que estas medidas (y errores) se asumen estocásticamente independientes, se sigue que Ω n := φ(M 1 − p)φ(M 2 − p) . . . φ(M n − p) = n i=1 φ(M i − p) es la densidad conjunta asociada a los n errores. Por otro lado, de la afirmación 3 se tiene queM n := M 1 + M 2 + .... + M n n es el estimador verosímil de p. En otras palabras, dadas las medidas M 1 , M 2 , . . . , M n , al escoger p =M n , se maximiza el valor de Ω n . A continuación, se evalúa el valor de la derivada de Ω n en el punto p =M n . 0 = dΩ n dp p=Mn = − n i=1 φ ′ (M i −M n ) j =i φ(M j −M n ) = − n i=1 φ ′ (M i −M n ) φ(M i −M n ) n k=1 φ(M k −M n ) = − n i=1 f (M i −M n ) Ω n = −Ω n n i=1 f (M i −M n ). Entonces, Por lo tanto, f [(n − 1)N ] = (n − 1)f (N ). De la paridad y de la continuidad de f , se sigue que existe k ∈ R tal que f (x) = kx, para todo x ∈ R. Luego, f (λx) = λk x = λ f (x), para todo x ∈ R. Entonces, φ ′ (x) φ(x) = kx, para todo x ∈ R. De donde se sigue que φ(x) = Ae kx 2 2 , para todo x ∈ R. Definamos ahora, k = − 1 σ 2 . Así, φ(x) = Ae − x 2 2σ 2 , para todo x ∈ R. De la expresión anterior y suponiendo que R φ(x)dx = 1, se observa que la constante A está dada por A = 1 √ 2πσ . En consecuencia, φ(x) = 1 √ 2πσ e − x 2 2σ 2 , para todo x ∈ R. (2.3) Luego, la función de densidad de distribución de la acción del campo de fondo viene dada por: φ(S) = 1 √ 2πσ e − S 2 2σ 2 , donde S = P x − Et, aquí P corresponde al momentum de la partícula y E denota su energía. A continuación, se presenta una interpretación de la desviación estándar σ en función de la constante de Planck (ver Observación 2.1) abajo. Usando una ecuación integral para representar al término √ 2πσ φ(S), se puede escribir exp(− S 2 2σ 2 ) = R 2 B(P, E, k, ω)C(kx − ωt)dkdω,(2.4) donde en el lado izquierdo de laúltima ecuación aparece esencialmente la función de densidad de distribución de la acción S en el espacio-tiempo, C(kx − ωt) corresponde a la representación de esa distribución en el espacio de Fourier y B(P, E, k, ω) corresponde al Jacobiano de la transformación entre esos dos espacios. Vale mencionar que este tratamiento fue introducido por A. Einstein en uno de sus tres famosos artículos publicados en 1905 para describir el movimiento Browniano y se lo considera como el inicio de la teoría de Procesos Estocásticos. Sea θ := kx − ωt. Derivando (2.4) respecto a x, y usando formalmente el Teorema de Convergencia Dominada (Teorema 6.1) con las hipótesis de regularidad e integrabilidad apropiadas, se obtiene − S σ 2 ∂S ∂x exp(− S 2 2σ 2 ) = R 2 B(P, E, k, ω)C ′ (kx − ωt) ∂θ ∂x dkdω. Derivando ahora (2.4) respecto a la varible t, y usando formalmente el Teorema de Convergencia Dominada, se ve que − S σ 2 ∂S ∂t exp(− S 2 2σ 2 ) = R 2 B(P, E, k, ω)C ′ (kx − ωt) ∂θ ∂t dkdω. Luego, − S σ 2 ∂S ∂x R 2 B(P, E, k, ω)C(θ)dkdω = R 2 B(P, E, k, ω)C ′ (θ) ∂θ ∂x dkdω, − S σ 2 ∂S ∂t R 2 B(P, E, k, ω)C(θ)dkdω = R 2 B(P, E, k, ω)C ′ (θ) ∂θ ∂t dkdω. Así, R 2 B(P, E, k, ω) S σ 2 ∂S ∂x C(θ) + C ′ (θ) ∂θ ∂x dkdω = 0, R 2 B(P, E, k, ω) S σ 2 ∂S ∂t C(θ) + C ′ (θ) ∂θ ∂t dkdω = 0. Ahora, se considera S σ 2 ∂S ∂x C(θ) + C ′ (θ) ∂θ ∂x = 0, (2.5) y S σ 2 ∂S ∂t C(θ) + C ′ (θ) ∂θ ∂t = 0. (2.6) Multiplicando la ecuación (2.5) por dx y la ecuación (2.6) por dt y sumando, se consigue C ′ (θ) ∂θ ∂x dx + C ′ (θ) ∂θ ∂t dt + C(θ) S σ 2 ∂S ∂x dx + S σ 2 ∂S ∂t dt = 0. Luego, dC(θ) + C(θ)d S 2 2σ 2 = 0. Entonces, dC(θ) C(θ) + d S 2 2σ 2 = 0. De donde, integrando se obtiene que ln(C(θ)) + S 2 2σ 2 = α, donde α es una constante. Luego, C(θ) = e α e − S 2 2σ 2 . Así, se tiene que C(kx − ωt) = e α e − (P x−Et) 2 2σ 2 , para todo x ∈ R, t ∈ R. (2.7) Tomando t = 0 en la ecuación (2.7), se sigue que C(y) = e α e − 1 2 ( P σk ) 2 y 2 , para todo y ∈ R. Por otro lado, escogiendo x = 0 en (2.7), se ve que C(y) = e α e − 1 2 ( E σω ) 2 y 2 , para todo y ∈ R. De las dos expresiones anteriores se obtiene la siguiente relación: P k = E ω . (2.8) Observación 2.1. Sin embargo, se conoce de la Mecánica Cuántica habitual que P k = E ω = . Además, de (2.7) se sigue que P σ es proporcional a k, de lo cual se tiene que σ es proporcional a (existe β > 0 tal que = βσ ). De aquí en adelante, sin pérdida de generalidad, se escoge α = 0 en (2.7). Finalmente, se procede a construir la función de onda planar asociada a la partícula libre. Usando la ecuación (2.4) y la constante β > 0 mencionada en la Observación 2.1, se tiene que e − (P x−Et) 2 2σ 2 = R 2 B(P, E, k, ω)C(kx − ωt)dkdω = R 2 B(P, E, k, ω)e − β 2 (kx−ωt) 2 2 dkdw. Tomando por ejemplo B(P, E, k, ω) = δ( P βσ − k)δ( E βσ − ω) se ve que e − (P x−Et) 2 2σ 2 = R 2 δ P βσ − k δ E βσ − ω e − β 2 (kx−ωt) 2 2 dkdω. Usando la transformada de Fourier F , también denotada porˆ, se tiene que e ia· √ 2π = δ a , para todo a ∈ R, donde δ a , para a ∈ R, representa la distribución temperada definida por δ a (ϕ) = ϕ(a), para ϕ ∈ S(R), aquí S(R) representa el espacio de Schwartz de las funciones rápidamente decrecientes en R. Luego, se sigue (usando la notación usual en Física) que δ P − k = 1 √ 2π +∞ −∞ e i P −k x dx y δ E − ω = 1 √ 2π +∞ −∞ e −i E −ω t dt. Entonces, siguiendo con la notación usual en Mecánica Cuántica, se ve que δ P − k δ E − ω = 1 2π R 2 e i (P x−Et) e −i(kx−ωt) dxdt. De donde, usando la condición de normalización de Dirac, se observa la representación espacial de la función de onda de la partícula libre dada por ψ(x, t) = 1 √ 2π e i P x−Et . Deducción de la Ecuación de Schrödinger Si un electrón está sometido a una energía potencial, U ( r), este forma el paquete de ondas ψ( r, t) = D( k)e i( k· r−ω( k)t) d 3 k, donde D es la representación en el espacio de momentums de la función de onda. Derivando respecto al tiempo la expresión anterior y usando formalmente el Teorema de Convergencia Dominada con las hipótesis convenientes, se obtiene que ∂ψ ∂t ( r, t) = −iω( k)D( k)e i( k· r−ω( k)t) d 3 k y como E = ω( k), se ve que ∂ψ ∂t ( r, t) = −i E D( k)e i( k· r−ω( k)t) d 3 k. Luego, i ∂ψ ∂t ( r, t) = ED( k)e i( k· r−ω( k)t) d 3 k. En el caso no relativista se conoce que E = P 2 2m + U ( r). Así que i ∂ψ ∂t ( r, t) = P 2 2m D( k)e i( k· r−ω( k)t) d 3 k + U ( r) ψ( r, t). Nuevamente, usando formalmente el Teorema de Convergencia Dominada con las hipótesis oportunas, se consigue − ▽ 2 ψ( r, t) = k 2 D( k)e i( k· r−ω( k)t) d 3 k = P 2 2 D( k)e i( k· r−ω( k)t) d 3 k. De donde se obtiene que − 2 2m ▽ 2 ψ( r, t) = P 2 2m D( k)e i( k· r−ω( k)t) d 3 k. En consecuencia i ∂ψ ∂t ( r, t) = − 2 2m ▽ 2 ψ( r, t) + U ( r)ψ( r, t),(3.1) que es la ecuación de Schrödinger. Deducción del Principio de Incertidumbre Consideramos una partícula libre cuya función de densidad de probabilidad de la acción del campo de fondo viene dada por φ(S) = 1 √ 2πσ e − S 2 2σ 2 , donde S = t 0 L(t ′ )dt ′ corresponde a la acción de la partícula, L = T − U es el Lagrangiano en la perspectiva de la Mecánica Clásica no relativista, T = P 2 2m representa la energía cinética de la partícula y U es la energía potencial que en el caso de la partícula libre puede ser tomada como cero. Luego, la acción para la partícula libre viene dada por S = t 0 P 2 2m dt ′ = P 2 2m t = P 2 2 x mv = P x 2 . Por otro lado, la varianza de la acción está expresada por σ 2 = S 2 −S 2 , donde S 2 = 1 √ 2πσ R e − S 2 2σ 2 S 2 dS yS = 1 √ 2πσ R e − S 2 2σ 2 SdS = 0. Entonces, σ 2 = S 2 = P x 2 2 . Por lo tanto, σ = 1 2 (P x) 2 . Como σ representa la desviación estándar de la acción del campo de fondo de la partícula, entonces cualquier rectángulo en el espacio de fase de lados ∆x, ∆P posee unárea mayor o igual que σ, es decir ∆x∆P ≥ σ. Para coincidir con la Mecánica Cuántica usual se toma (P x) 2 = . Entonces, se tiene que ∆x∆P ≥ σ = 2 . (4.1) Se considera ahora el caso de menor incertidumbre, ∆x∆P = σ = 2 . Sea ϕ la función de onda de la partícula libre correspondiente al caso de incertidumbre mínima en la representación de coordenadas. De la relación φ(S)dS = |ϕ(x)| 2 dx, la cual determina la probabilidad de que la partícula libre tenga una acción comprendida entre S y S + dS y que también es igual a la probabilidad de que la partícula libre en incertidumbre mínima esté entre x y x + dx, se concluye que ϕ(x) = P √ 2π 1 2 e − P 2 x 2 4 2 . Substituyendo laúltima expresión en la ecuación de Schrödinger se obtiene finalmente que E = ω 2 = mc 2 , (4.2) donde E y m son la energía y masa de la partícula libre respectivamente, c es la velocidad de la luz y ω ≡ P 2 2 m representa la frecuencia natural de oscilación de la partícula en el interior del campo de acción de fondo. Esteúltimo resultado será analizado con más detalle en un próximo trabajo. Conclusiones A continuación algunas consecuencias de lo expuesto en las secciones anteriores. Se rescata el carácter objetivo de las partículas elementales, puesto que el aparato macroscópico de medida constituye el resto del Universo. Se recupera la naturaleza causal de la Teoría Cuántica, ya que las transiciones "espontáneas" son producto de las perturbaciones del campo de fondo que actúa sobre una partícula en estado cuántico "excitado" volviendo al estado estacionario de menor energía. De la Sección 2 se deduce que la constante de Planck es "esencialmente" la desviación estándar del campo de interacciones de fondo con la partícula. De la ecuación (2.8) y de la Observación 2.1 se deducen los Postulados de Planck y de-Broglie, estableciendo el carácter de la dualidad onda-corpúsculo de la Mecánica Cuántica tradicional. En la Sección 3 se deduce la ecuación de Schrödinger asociada a una partícula en un potencial, U ( r), la cual viene dada por la ecuación (3.1). Esta ecuación se obtuvo suponiendo que la función de onda de dicha partícula es una superposición de infinitas ondas planas. Por otro lado, en la Mecánica Cuántica tradicional la ecuación de Schrödinger se la postula como su principio dinámico (ver [3] para más detalles). En la Sección 4 se deduce, desde la teoría presentada en este artículo, el Principio de Incertidumbre. Además, se observa que para el caso de la Mecánica Cuántica habitual, la constante de proporcionalidad mencionada en la Observación 2.1 es β = 2. Finalmente, se analiza la conducta física de una partícula libre en condiciones de incertidumbre mínima, obteniendo la ecuación (4.2) que corresponde a la energía del punto cero del sistema partícula-campo de acción de fondo. Apéndice Teorema 6.1 (Teorema de Convergencia Dominada de Lebesgue [1]). Sea (Ω, A, µ) un espacio de medida. Sea (f n ) n∈N una sucesión de funciones integrables (f n ∈ L(Ω, A, µ), para todo n ∈ N) la cual converge en casi todas partes a una función medible real-valuada f . Si existe una función integrable g tal que |f n | ≤ g para todo n ∈ N, entonces f es integrable y f dµ = lím n→+∞ f n dµ. ahora M y N dos variables aleatorias arbitrarias que podrían representar diversas magnitudes físicas tales como longitud, energía u otras. En vista que las medidas dadas por las variables aleatorias M i , i = 1, . . . , n, pueden tomar valores arbitrarios, se toma a continuación M 1 = M, M 2 = M 3 = · · · = M n = M − nN. (2.2) Para tal conjunto de medidas, se obtiene por lo tanto quē M n = M − (n − 1)N. Luego, de la ecuación (2.1) y considerando (2.2), se tiene que f (M − [M − (n − 1)N ]) + (n − 1)f (M − nN − (M − (n − 1)N )) = 0. The Elements of Integration and Lebesgue Measure. R G Bartle, Wiley-Interscience. 1 editionR. G. Bartle, The Elements of Integration and Lebesgue Measure, Wiley-Interscience; 1 edition (1995). El campo de acción. Una nueva interpretación de la Mecánica Cuántica, editado por la Escuela Politécnica Nacional. D Moya-Álvarez, Quito, EcuadorD. Moya-Álvarez, El campo de acción. Una nueva interpretación de la Mecánica Cuántica, editado por la Escuela Politécnica Nacional (1994), Quito, Ecuador. Quantum Mechanics I. A Galindo, &amp; P Pascual, Springer1 editionA. Galindo & P. Pascual, Quantum Mechanics I, Springer, 1 edition (1990).
sample_9134
0.912
arxiv
Hierarchical Modeling of Multifunctional Novel Carbon Nanotube Reinforced Hybrid Composites for Next Generation Polymeric Composites S I Kundalwal kundalwal@iiti.ac.in Department of Mechanical Engineering Indian Institute of Technology 453552IndoreIndia Hierarchical Modeling of Multifunctional Novel Carbon Nanotube Reinforced Hybrid Composites for Next Generation Polymeric Composites Micromechanicscarbon nanotubenanocompositeshybrid compositesthermomechanical properties 2 This article provides an overview of the modeling of the effective thermomechanical properties of the multifunctional carbon nanotube (CNT) reinforced hybrid composites for advanced structural applications. The novel constructional feature of such multifunctional CNT-reinforced hybrid composite is that CNTs are radially grown on the circumferential surfaces of the carbon fiber reinforcements. Several micromechanical models have been developed to predict the effective thermomechanical properties of these multifunctional CNT-reinforced hybrid composites. The waviness of CNTs is intrinsic to many manufacturing processes and influences the thermomechanical behavior of CNT-reinforced composites. An endeavor has also been made to investigate the effect of wavy CNTs on the thermomechanical properties of the multifunctional CNT-reinforced hybrid composites. Radially aligned CNTs grown on the circumferential surfaces of the carbon fibers assure that the CNT-reinforced hybrid composites are truly multifunctional and may be a promising advanced next generation composite for structural applications. INTRODUCTION The discovery of carbon nanotubes (CNTs) [1] has stimulated a tremendous research on the prediction of their remarkable mechanical and thermal properties. Researchers probably thought that CNTs may be useful as nanoscale fibers for developing novel CNT-reinforced nanocomposites and this conjecture motivated them to accurately predict their thermomechanical properties. Numerous experimental and numerical studies revealed that the axial Young's modulus of CNTs is in the terapascal range [2][3][4][5]. As nanoscale graphite structures, CNTs are of great interest not only for their mechanical properties but also for their thermal properties. CNTs exhibit thermal properties that are remarkably different from other known materials and are expected to be a promising candidate in many advanced applications [6][7][8]. The quest for utilizing such exceptional thermomechanical properties of CNTs and their high aspect ratio led to the opening of an emerging area of research on the development of CNT-reinforced nanocomposites [5,[9][10][11][12]. However, manufacturing of such two-phase nanocomposites reinforced with long CNTs has some challenging technical issues such as waviness, agglomeration, misalignment, adhesion of CNTs in polymer matrix and difficulty in manufacturing long CNTs [13,14]. These difficulties can be alleviated by using CNTs as secondary reinforcements in the three-phase CNT-reinforced hybrid composites. In case of threephase CNT-reinforced hybrid composite, CNTs are grown on the circumferential surfaces of the advanced fiber reinforcements [15,16]. Such a fiber augmented with radially grown CNTs on its circumferential surface is being called as "fuzzy fiber" [15] and the resulting composite is called as fuzzy fiber reinforced composite (FFRC) [16][17][18][19][20][21][22][23][24][25][26][27]. As reported in the open literature, researchers mainly devoted to investigate the enhancement of tensile strength, interfacial shear strength, fracture toughness, impact resistance of such CNT-reinforced hybrid composites. Prediction of all effective thermomechanical properties of these CNT-reinforced hybrid composites appears to be an important issue for further research. In order to establish these CNT-reinforced hybrid composites as the superior advanced composite for structural applications, structural analysis must be carried out using these CNT-reinforced hybrid composites and for such analysis all effective properties of this composite must be known a priori. However, studies concerning the estimation of all effective properties of the CNT-reinforced hybrid composites have not yet been reported in the open literature. Such lack in studies provides an ample scope for further research on developing accurate models for predicting all effective properties of the multifunctional CNT-reinforced hybrid composites. Hence, the present study is directed to estimate all effective thermomechanical properties of such multifunctional CNT-reinforced hybrid composites. It has been experimentally observed that CNTs are actually curved cylindrical tubes with a relatively high aspect ratio [28][29][30]. Therefore, the effect of waviness of CNTs on the effective properties of the CNT-reinforced hybrid composites is also investigated in the present study when the wavy CNTs are coplanar with either of the two mutually orthogonal planes. NOVEL FUZZY FIBER REINFORCED COMPOSITES The schematic diagram illustrated in Fig. 1 represents a lamina of the FFRC being studied here. In this novel composite, the wavy CNTs are radially grown on the circumferential surfaces of the carbon fiber reinforcements while they are uniformly spaced on the circumferential surfaces of the carbon fibers. Such a resulting fuzzy fiber coated with the wavy CNTs is shown in Fig. 2. In the present study, the wavy CNTs are modeled as sinusoidal solid CNT fibers [17][18][19][20] while at any location along the length of the CNT, the CNT is considered as transversely isotropic [4,5,11]. The polymer matrix is reinforced by the fuzzy fiber coated with the wavy CNTs and such combination can be viewed as a circular cylindrical composite fuzzy fiber (CFF) in which the carbon fiber is embedded in the wavy CNT-reinforced polymer matrix nanocomposite (PMNC). It may be noted that the variations of the constructional feature of the CFF can be such that the wavy CNTs are coplanar with the 2-3 (2'-3') plane or the 1-3 (1'-3') plane as shown in Figs. 3 (a) and 3 (b), respectively. In case of the wavy CNTs being coplanar with the 2-3 (2'-3') plane, the amplitudes of the CNT waves are transverse to the axes of carbon fibers (i.e., 1-direction) while the amplitudes of the wavy CNTs being coplanar with the 1-3 (1'-3') plane are parallel to the axes of carbon fibers. Models of the wavy CNTs Considering a carbon fiber and an unwound lamina while this lamina is composed of the sinusoidally wavy CNTs which are coplanar with either the 2-3 (2'-3') plane or the 1-3 (1'-3') plane, the CFF can be viewed to be formed by wrapping the carbon fiber with the unwound lamina of the PMNC as shown in Fig. 4. The RVE of the unwound PMNC material containing a wavy CNT has been illustrated in Fig. 5. As shown in Fig. 5, the RVE is divided into infinitesimally thin slices of thickness dy. Averaging the effective properties of these slices over the length ( ) of the RVE (i.e., the thickness of the unwound lamina of the PMNC), the homogenized effective properties of the unwound PMNC can be estimated. Each slice can be treated as an off-axis unidirectional lamina and its effective properties can be determined by transforming the effective properties of the corresponding orthotropic lamina. Now, these wavy CNTs are characterized by ( ) ( ) ⁄(1) according as the wavy CNTs are coplanar with the 2-3 (2'-3') plane or the 1-3 (1'-3') plane, respectively. In Eq. (1), A and are the amplitude of the CNT wave and the linear distance between the CNT ends, respectively, and n represents the number of waves of the CNT. The running length ( ) of the CNT can be expressed in the following form: ∫ √ ( ) ( ) in which the angle ф shown in Fig. 5 is given by ⁄ ( ) ⁄ ( )(3) according as the wavy CNT is coplanar with the 2-3 (2'-3') or the 1-3 (1'-3') plane, respectively. Note that for a particular value of , the value of ф varies with the amplitude of the CNT wave. Effective thermoelastic properties of the FFRC ( ) ( ), ,, ( ) , , ( ) ( ), , , and (8) It is now obvious that the effective thermoelastic properties of the unwound PMNC lamina with the wavy CNTs vary along the length of the CNT as the value of ф vary over the length of the CNT. The average effective elastic coefficient matrix , ̅and the average thermal expansion coefficient vector * ̅ + of the lamina of such unwound PMNC material containing wavy CNTs can be obtained by averaging the transformed elastic ( ) and thermal expansion ( ) coefficients over the linear distance between the CNT ends as follows [34]: , ̅ -∫ , -* ̅ + ∫ * + ( ) It may also be noted that when the carbon fiber is viewed to be wrapped by such unwound lamina of the PMNC, the matrix , ̅and the vector * ̅ + provides the effective properties at a point located in the PMNC where the CNT axis (3'-axis) is oriented at an angle θ with the 3axis in the 2-3 plane as shown in Fig. 3 and 4. Hence, at any point in the PMNC surrounding the carbon fiber, the effective elastic coefficient matrix , ̅ and the effective thermal expansion coefficient vector * ̅ + of the PMNC with respect to the 1-2-3 coordinate system turn out to be location dependant and can be determined by the following transformations: , - ( ) ∫ ∫ , ̅ - * + ( ) ∫ ∫ * ̅ + ( ) Since the CFF is a composite in which the carbon fiber is the reinforcement and the matrix phase is the PMNC material, the MT model can be employed to estimate its effective elastic properties. Thus according to the MT model [31], the effective elastic coefficient matrix for the CFF is given by (12) in which the matrix of the strain concentration factors are given by , -, -̅ ([ ] , -)[ ̃ ] 0 , - [ ̃ ]1[ ̃ ] 0, -, -(, -) ([ ] , -)1 ( ) In Eqs. (12) and (13), ̅ and are the volume fractions of the carbon fiber and the PMNC material, respectively, with respect to the volume of the RVE of the CFF and the Eshelby tensor ,is computed based on the elastic properties of the PMNC matrix and the shape of the carbon fiber. It is worthwhile to note that the PMNC is transversely isotropic and consequently, the Eshelby tensor [35] corresponding to transversely isotropic material is utilized for computing the matrix ,while the inclusion is a circular cylindrical fiber. Using the effective elastic coefficient matrix , -, the effective thermal expansion coefficient vector * + for the CFF can be derived as follows [33]: * + { } ., - [ ] / .[ ] , -/ ({ } * +) ( ) where [ ] and { } are the elastic coefficient matrix and the thermal expansion coefficient vector of the carbon fiber, respectively. Finally, considering the CFF as the cylindrical inclusion embedded in the isotropic polymer matrix, the effective elastic properties ,of the FFRC can be derived by the MT method [31] as follows: , -, - (, -, -)[ ̃ ] 0 ̅ , - [ ̃ ]1(15) in which the matrix of the strain concentration factors are given by [ ̃ ] 0, -, -(, -) (, -, -)1 ( ) where and ̅ are the volume fractions of the CFF and the polymer material, respectively, with respect to the volume of the RVE of the FFRC. Finally, the effective thermal expansion coefficient vector * + for the FFRC can be derived as follows [33]: * + * + (, - , -)(, - , -) (* + * +) ( ) For the purpose of verifying the MT model, the effective thermoelastic properties predicted by this model should be compared with those predicted by different micromechanical model. Hence, another micromechanics model based on the method of cells (MOC) approach will be utilized here. However, for the sake brevity, the development of the MOC approach is not presented here and can be found in Ref. [36]. Effective thermal conductivities of FFRC This Section deals with the procedures of employing two modeling approaches, namely, the MOC approach and the effective medium (EM) approach to predict the effective thermal conductivities of the FFRC. The various steps involved in the modeling of the thermal conductivities of the FFRC are outlined as follows:  First, the effective thermal conductivities of the PMNC are to be determined by using either the MOC approach considering the perfect CNT/polymer matrix interface ( ) or the EM approach incorporating the CNT/polymer matrix interfacial thermal resistance ( ) where is the CNT/polymer matrix interfacial thermal resistance.  Utilizing the thermal conductivities of the PMNC and the carbon fiber, the effective thermal conductivities of the CFF are to be determined by using the MOC approach.  Finally, using the thermal conductivities of the CFF and the polymer matrix, the effective thermal conductivities of the FFRC can be estimated by employing the MOC approach. Method of cells (MOC) approach This Section presents the development of the MOC approach to estimate the effective thermal conductivities of the PMNC, the CFF and the FFRC. Assuming that CNTs are equivalent solid fibers [9,10,[17][18][19][20], uniformly spaced in the polymer matrix and are aligned along theaxis, the unwound PMNC can be viewed to be composed of cells forming doubly periodic arrays along theand -directions. Figure 6 shows a repeating unit cell (RUC) with four subcells. Each rectangular subcell is labeled by β γ, with β and γ denoting the location of the subcell along theand -directions, respectively. The subcell can be either a CNT or the polymer matrix. Let four local coordinate systems ( ̅ ( ) , ̅ ( ) and ) be introduced, all of which have origins that are located at the centroid of each cell. In accordance with the MOC approach, the deviation of the temperature from a reference temperature T R (at which the material is stress free when its strain is zero),  ( ) , is expanded in the following form:  ( )  ̅ ( ) ( ) ̅ ( ) ( ) ( ) where ( ) and ( ) characterize the linear dependence of the temperature on the local coordinates. The volume ( β ) of each subcell is β β (19) where , and l denote the width, the height and the length of the subcell, respectively, while the volume ( ) of the RUC is (20) The continuity conditions of the temperature at the interfaces of the subcells on an average basis lead to the following relations ( ) ( ) ( ) ( ) ( ) ( ) ( ) For the average heat flux in the subcell: ̅ ( ) ( ) ( ) where ( ) denote the thermal conductivity coefficients of the subcells. The average heat flux in the unwound PMNC material is determined from the following relation: ∑ βγ β γ ̅ ( ) ( ) The continuity conditions of the heat flux at the interfaces of the subcells yield according as the wavy CNT is coplanar with the 2-3 (2'-3') or the 1-3 (1'-3') plane, respectively. The various matrices appeared in Eq. (27) are given by , -[ ] , -[ ] , -[ ] Following the procedure for deriving the effective elastic coefficient matrix , -, the effective thermal conductivity matrix , can be obtained as follows: , - ( ) ∫ ∫ , ̅ - ( ) It is worthwhile to note that the thermal conductivity matrix of the homogenized PMNC , is transversely isotropic and its axis of transverse isotropy is the 1-oraxis. In order to model the CFF by the MOC approach, the CFF is considered to be composed of cells periodically arranged along theand -directions while each cell consists of βγ number of subcells. In this case, each RUC represents the CFF and the subcell is composed of either the carbon fiber or the PMNC. Finally, the MOC approach for the CFF can be augmented in a straightforward manner to estimate the effective thermal conductivities of the FFRC in which the polymer is the matrix material and the CFF is the reinforcement along the 1-ordirection. Effective medium (EM) approach This Section presents the Maxwell Garnett type EM approach to estimate the effective thermal conductivities of the PMNC incorporating the CNT/polymer matrix interfacial thermal resistance. Assuming CNTs as solid fibers [9,10,[17][18][19][20], the EM approach by Nan et al. [38] can be augmented to predict the effective thermal conductivities ( ) of the unwound PMNC material with straight CNTs and are given by NOVEL FUZZY CARBON FIBER HEAT EXCHANGER Heat dissipating systems such as microelectronics, transportation, heat exchangers etc. require an efficient heat removal capacity to avoid possible damage due to thermal stresses. The conventional method for increasing heat dissipation is to increase the surface area available for exchanging heat with a heat transfer fluid. However, this approach requires an undesirable increase in the thermal management system's size. There is therefore an urgent need for the development of novel advanced structures with better heat transfer performance. Thus the current status of progress in research on CNT-reinforced composites brings to light that the three-phase hybrid CNT-reinforced composite can be the promising candidate material for achieving better thermal management benefits from the exceptionally conductive CNTs. To fulfill the demand of better heat dissipating systems, a novel fuzzy carbon fiber heat exchanger (FFHE) composed of highly conductive CNTs is also studied in this study. A novel constructional feature of the FFHE is that CNTs are radially grown on the outer circumferential surface of the hollow cylindrical carbon fiber (HCF) heat exchanger as shown in Fig. 7. Analytical models based on the MOC and the EM approaches derived in Section 2.3 have been utilized for predicting the effective thermal conductivities of this proposed FFHE. In the present study, an attempt has also been made to investigate the effects of waviness of CNTs and CNT/polymer matrix interfacial thermal resistance on the heat transfer performance of the FFHE. RESULTS AND DISCUSSION In this Section, the predictions by the micromechanics models developed herein are first compared with those of the existing experimental and numerical results. Subsequently, the effective properties of the FFRC and the FFHE have been determined. Comparisons with experimental and numerical results Kulkarni et al. [11] experimentally and numerically investigated the elastic response of the nano-reinforced laminated composite (NRLC). The NRLC is made of the CNT-reinforced polymer nanocomposite and the carbon fiber. The geometry of the NRLC as shown in Fig. 8 is similar to that of the CFF shown in Fig. 3 if straight CNTs are considered. Thus to confirm the modeling of the CFF in the present study, the comparisons have been made between the results predicted by Kulkarni et al. [11] for the NRLC with those of the results predicted by the MT and the MOC models for the CFF with straight CNTs. It may be observed from Table 1 that the predicted value of the transverse Young's modulus ( ) of the CFF computed by the MT and the MOC models match closely with that of the experimental value predicted by Kulkarni et al. [11]. The experimental value of is lower than the theoretical prediction and this may be attributed to the fact that CNTs are not perfectly radially grown and straight, and hence the radial stiffening of the NRLC decreases [11]. Further possible reasons for the disparity between the analytical and the experimental results include the lattice defects within CNTs and the formation of voids in CNT-reinforced composite [12]. It may also be noted that the value of predicted by the MT and the MOC models utilized herein is much closer to the experimental value than that of the numerical value predicted by Kulkarni et al. [11]. This is attributed to the fact that the appropriate transformation and homogenization procedures given by Eqs. (10) and (11) have been employed in the present study whereas Kulkarni et al. [11] did not consider such transformation and homogenization procedures in their numerical modeling. These comparisons are significant since the prediction of the transverse Young's modulus of the CFF provides critical check for the validity of the MT and the MOC models. Thus it can be inferred from the comparisons shown in Table 1 that the MT and the MOC models can be reasonably applied to predict the elastic properties of the FFRC and its phases. Analytical modeling results To present the numerical results, the coefficients of thermal expansion (CTEs) and the thermal conductivities of the carbon fiber, armchair (10, 10) CNT and the polymer matrix are considered to be temperature dependent and are taken from Ref [7,[39][40][41][42][43]. It is obvious that the constructional feature of the FFRC imposes a constraint on the maximum value of the CNT volume fraction. The maximum value of the CNT volume fraction in the FFRC can be determined based on the surface to surface distance at the roots of two adjacent CNTs as 1.7 nm [17], the CNT diameter ( ), the running length of the sinusoidally wavy CNT ( ) and the volume fraction of the carbon fiber ( ) as follows [17]: ( ) ( ) ( ) The CONCLUSIONS Hierarchical modeling of the multifunctional CNT-reinforced hybrid composites such as APPENDIX A The maximum value of the CNT volume fraction in the FFHE can be determined as follows: 1) and (3), the volume fraction of the HCF ( ) in the FFHE can be determined as ( ) ( ) ( ) The maximum number of radially grown aligned CNTs ( ) on the outer circumferential surface of the HCF is given by ( ) ( ) ( ) Therefore, the volume of the CNTs ( ) is ( ) ( ) Thus the maximum volume fraction of the CNTs ( ) with respect to the volume of the FFHE can be determined as ( ) ( )( ) ( ) The maximum volume fraction of the CNTs with respect to the volume of the PMNC ( ) can be determined in terms of ( ) as follows: ( ) ( )( ) ( ) the matrix of the strain concentration factors is given by [ ̃ ] [, -, -(, -) (, -, -)] ( ) where and represent the volume fractions of the CNT fiber and the polymer material, respectively, present in the RVE of the PMNC while ,represents the Eshelby tensor and the specific form of the Eshelby tensor for cylindrical inclusion given by Qui and Weng [32] is utilized. Using the effective elastic coefficient matrix , -, the effective thermal expansion coefficient vector * + for the unwound PMNC material can be derived in the form [* + and * + are the thermal expansion coefficient vectors of the CNT fiber and the polymer material, respectively. The effective elastic coefficients ( ) and the effective thermal expansion coefficients ( ) at any point in the unwound lamina of the PMNC where the CNT is inclined at an angle ф with the 3 (3')-axis can be derived in a straightforward manner by employing the appropriate transformation law. Thus if the plane of the CNT waviness is coplanar with the 2-3 (2'-3') plane, the effective elastic ( ) and thermal expansion ( ) coefficients at any point in the unwound lamina of the PMNC are Similarly, if the plane of the CNT waviness is coplanar with the 1-3 (1'-3') plane, then the effective elastic ( ) and thermal expansion ( ) coefficients at any point of the unwound PMNC lamina where the CNT is inclined at an angle ф with the 3 (3') -axis are given by ( ) , , From Eq. (10) it is obvious that the effective thermoelastic properties at any point of the PMNC surrounding the carbon fiber with respect to the principle material coordinate (1-2-3) axes of the FFRC vary over an annular cross section of the PMNC phase of the RVE of the CFF. However, without loss of generality, it may be considered that the volume average of these effective thermoelastic properties over the volume of the PMNC can be treated as the constant effective elastic coefficient matrix , and the constant effective thermal expansion coefficient vector * + of the PMNC containing sinusoidally wavy CNTs surrounding the carbon fiber with respect to the 1-2-3 coordinate axes of the FFRC and are given by The average heat flux components are related to the temperature gradients by the By eliminating the microvariables ( ) and ( ) , and using the continuity conditions, the effective thermal conductivities of the unidirectional unwound PMNC lamina are given by[37] The effective thermal conductivities ( ) at any point in the unwound PMNC lamina where the CNT is inclined at an angle with the 3 (3')-axis can be derived in a straightforward manner by employing the appropriate transformation law as follows: In Eq. (31), a dimensionless parameter in which the interfacial thermal property is concentrated on a surface of zero thickness and characterized by Kaptiza radius, , where represents the diameter of the CNT. Once , is computed, Eqs. (27) -(30) are used to estimate the effective thermal conductivities of the PMNC material surrounding the carbon fiber. Thermal conductivities predictions by the MOC and the EM approaches derived in the present study are first compared with the experimental results by Marconnet et al.[12].Marconnet et al.[12] fabricated the aligned CNT-polymer nanocomposites consisting of CNTs arrays infiltrated with an aerospace-grade thermoset epoxy. In their study, the axial and the transverse thermal conductivities of the aligned CNT-polymer nanocomposites are found to be ingood agreement with those of the values estimated by using the EM approach. The comparisons of the axial ( ) and the transverse ( ) thermal conductivities of the aligned CNT-polymer nanocomposites estimated by the MOC and the EM approaches with those of the experimental results are illustrated in Figs. 9 (a) and (b), respectively. In these figures, dotted blue line represents best fits obtained from the EM approach for the experimental results considering an alignment factor (AF) of CNTs as 0.77 [12]. Figure 9 (a) reveals that the effective values of predicted by the MOC and the EM approaches overestimate the experimental values of by ~21% and ~23% when the values of the CNT volume fractions are 0.07 and 0.16, respectively. On the other hand, the MOC and the EM approaches underestimate the values of by 40% and 58% when the values of the CNT volume fractions are 0.07 and 0.16, respectively. These differences between the results are attributed to the fact that the perfect alignments of CNTs (i.e., AF = 1) are considered while computing the results by the MOC and the EM approaches whereas the value of the AF is 0.77 in Ref. [12]. Other possible reasons for the disparity between the analytical and the experimental results include the CNT/matrix interfacial thermal resistance, lattice defects within CNTs and modification of the phonon conduction within CNTs due tointeractions with the matrix[9,10,12]. These comparisons also reveal that the thermal conductivities predicted by the EM approach agree with those predicted by the MOC approach.Thus it can be inferred from the comparisons shown in Figs. 9 (a) and (b) that the MOC and the EM approaches can be reasonably applied to predict the thermal conductivities of the FFRC. effect of waviness of CNTs on the effective thermomechanical properties of the FFRC is investigated when the wavy CNTs are coplanar with either of the two mutually orthogonal planes. For such investigation, the values of the volume fraction of the carbon fiber ( f v ) in the FFRC and the maximum amplitude of the CNT wave (A) are considered as 0.5 and 100 nm (i.e., 136 nm), respectively. If the value of is 0.5 then the diameter of the CFF (2R) turns out to be 13.4677 µm and the corresponding value of the straight CNT length ( ) in the CFF is 1.734 µm. The degree of waviness of the CNT is defined by the waviness factor ( ⁄ ). It should be noted that for the straight CNT, the value of ⁄ is zero. Unless otherwise mentioned, the effective thermomechanical properties of the PMNC are computed by employing the MOC approach considering the perfect CNT/polymer matrix interface without any interfacial thermal resistance. Subsequently, the estimated effective thermomechanical properties of the PMNC are used to compute the effective thermomechanical properties of the CFF. However, for the sake of brevity, the effective thermomechanical properties of the PMNC and the CFF are not presented here. The variations of the amplitudes of CNT waves are considered for the two particular values of (i.e., ⁄ and ⁄ ). Figures 10 and 11 illustrate the variations of the effective elastic coefficients and of the FFRC with the waviness factor ( ⁄ ), respectively. It may be observed from Fig. 10 that the effective values of of the FFRC are not affected by the variations of the amplitude of the wavy CNTs in the 2-3 plane. When the wavy CNTs are coplanar with the 1-3 plane, the increase in the values of ⁄ and significantly enhances the value of . Figure 11 reveals that the waviness of CNTs causes significant increase in the value of when the wavy CNTs are coplanar with the 1-3 plane. Since the FFRC is transversely isotropic material, the values of are found to be identical to those of the values of . Figure 12 reveals that the increase in the value of ⁄ decreases the value of when the CNT waviness is coplanar with the 1-3 plane whereas the value of enhances for the higher values of ⁄ and ω when the CNT waviness is coplanar with the 2-3 plane. Although not presented here, the similar trends of results are obtained for the effective elastic coefficients , and . It may be noted from Figs. 10-12 that if the wavy CNTs are coplanar with the 1-3 plane then the axial elastic coefficients of the FFRC are significantly improved over their values with the straight CNTs ( ) for the higher values of ⁄ and . When the wavy CNTs are coplanar with the longitudinal plane (1-3 or 1'-3' plane) of the carbon fiber as shown in Fig. 3 (b), the amplitudes of the CNT waves becomes parallel to the 1-axis and this results into the aligning of the projections of parts of CNTs lengths with the 1-axis leading to the axial stiffening of the PMNC. The more is the value of , the more will be such projections and hence the effective axial elastic coefficients ( , , , and ) of the FFRC increases with the increase in the value of . On the other hand, if the wavy CNTs are coplanar with the transverse plane (2-3 or 2'-3' plane) of the carbon fiber then the transverse elastic coefficients ( , , and ) of the FFRC are improved over their values with the straight CNTs ( ) and the reverse is true when the when the wavy CNTs are coplanar with the 1-3 (1'-3') plane. Figures 13 and 14 illustrate the variations of the axial CTE ( ) and the transverse CTE ( ) of the FFRC with the waviness factor, respectively. It may be observed from Fig. 13 that the values of of the FFRC are not affected by the variations of the amplitude of the wavy CNTs in the 2-3 plane whereas the values of initially increases and then significantly decreases for the higher values of ⁄ and when the CNT waviness is coplanar with the 1-3 plane. It is also important to note from Fig. 13 that the effective value of is zero for the values of ⁄ and as 0.048 and ⁄ , respectively, when the wavy CNTs are coplanar with the 1-3 plane. Figure 14 reveals that the waviness of CNTs improves the effective values of the FFRC when the wavy CNTs are coplanar with the 2-3 plane compared to that of the FFRC with the straight CNTs ( ). Although not presented here, the computed effective values of are found to match identically with those of corroborating the fact that the FFRC is transversely isotropic material. For the value of ⁄ , the effective CTEs ( , and ) of the FFRC with the wavy CNTs being coplanar with the 1-3 plane start to decrease. This is attributed to the fact that the negative axial and transverse CTEs ( and ) of the radially grown wavy CNTs on the circumferential surfaces of the carbon fibers significantly suppress the positive CTE ( ) of the polymer matrix which eventually lowers the effective values of of the FFRC and this effect becomes more pronounced for the higher values ⁄ and because the CNT volume fraction in the FFRC increases with the values of ⁄ and . Figure 15 illustrates 15the variation of the axial thermal conductivity ( ) of the FFRC with the temperature. Figure 15 reveals that if the variations of the amplitude of the wavy CNTs are in the 1-3 plane, the effective values of are significantly improved over those of the FFRC containing either the wavy CNTs being coplanar with the 2-3 plane or the straight CNTs. When compared with the results of the base composite (i.e., ), almost 383% and 120% enhancements are occurred in the values of if the values of the temperature are 300 K and 400 K, respectively, and the waviness CNTs is coplanar with the 1-3 plane with . It may also be observed from Fig. 15 that the effective values of decrease with the increase in the temperature when the wavy CNTs are coplanar with the 1-3 plane. This is due to the fact that the thermal conductivity ( ) of the armchair CNT (10, 10) decreases with the increase in the temperature which eventually lowers the effective value of of the FFRC. It may also be importantly observed from Fig. 15 that the effective values of of the FFRC containing either the wavy CNTs being coplanar with the 2-3 plane or the straight CNTs ( ) are not improved compared to those of the base composite ( ). Figure 16 depicts that the effective transverse thermal conductivities ( ) of the FFRC are significantly improved over those of the base composite (i.e., ) irrespective of the values of the CNT wave frequency and the planer orientations of the wavy CNTs. When compared with the results of the base composite (i.e., ), nearly 640% enhancement is occurred in the values of for the temperature range 250K -400 K if the CNTs (straight or wavy) are present on the circumferential surfaces of the carbon fiber reinforcements with minimum which is corresponding to the value of (i.e., straight CNTs). This is attributed to the fact that the highly conductive CNTs being in the transverse plane of the carbon fiber leads to the increase in the transverse thermal conductivities of the PMNC along its radial direction which eventually enhance the transverse thermal conductivities of the FFRC. So far the effective thermal conductivities of the FFRC have been estimated considering the perfect CNT/polymer matrix interface without any interfacial thermal resistance ( ). However, the CNT/polymer matrix interfacial thermal resistance may affect the heat transfer characteristics of the FFRC. Researchers reported that the magnitude of between nanoparticles/CNTs and different matrices ranges from ⁄ to ⁄ 2 m K W [10, 44]. To analyze the effect of the CNT/polymer matrix interfacial thermal resistance on the effective thermal conductivities of the FFRC, the EM approach incorporating such CNT/polymer matrix interfacial thermal resistance has been utilized and the values of are varied from 0 to ⁄ . Figure 17 illustrates the variation of the effective values of of the FFRC incorporating the CNT/polymer matrix interfacial thermal resistance when the waviness of CNTs is coplanar with the 1-3 plane. This figure reveals that the values of 1 K are independent of the values of . Although not presented here, the values of and are also found to be independent of the values of . The effect of waviness of CNTs on the effective thermal conductivities of the FFHE is investigated when the wavy CNTs are coplanar with either of the two mutually orthogonal planes with ⁄ . For comparison purpose, the values of the inner ( ) and the outer ( ) diameters of the bare HCF (without CNTs) heat exchanger and the FFHE are kept constant to 50 µm and 100 µm, respectively. The maximum value of the CNT volume fraction in the FFHE can be determined based on the surface to surface distance at the roots of two adjacent CNTs as 1.7 nm [17], the CNT diameter ( ), the running length of the sinusoidally wavy CNT ( ) and the outer diameter of the HCF (d) as follows: The derivation of Eq. (33) has been presented in Appendix A. The value of the diameter of the HCF (d) in the FFHE is considered as 60 µm to evaluate the numerical results. Figures 18 and 19 illustrate the variations of the axial ( ) and the transverse ( ) thermal conductivities of the FFHE, respectively. It may be observed from Fig. 18 that the effective values of of the FFHE are not affected by the variations of the amplitude of the wavy CNTs in the 2-3 plane. On the other hand, the effective values of are significantly improved with the increase in the values of ⁄ if the wavy CNTs are coplanar with the 1-3 plane. Figure 19 depicts that the effective values of are slightly improved for the higher values of ⁄ when the wavy CNTs are coplanar with the 2-3 plane. Although not presented here, the computed effective values of are found to match identically with those of corroborating the fact that the FFHE is transversely isotropic about the 1-axis and the effective thermal conductivities of the FFHE are independent of the values of . FFRC and FFHE have been carried out in the present study. The constructional feature of such multifunctional CNT-reinforced hybrid composites is that the amplitudes of the sinusoidally wavy CNTs radially grown on the circumferential surfaces of the carbon fibers are either parallel or transverse to the axis of the carbon fibers. Thermomechanical properties of the FFRC and theFFHE are estimated by employing the MT model, MOC approach and the EM approach. The following main inferences are drawn from the present study: 1. If the plane of the radially grown wavy CNTs is coplanar with the longitudinal plane of the carbon fiber then the axial effective elastic and thermoelastic coefficients of the FFRC are significantly improved over those of the FFRC with either the straight CNTs ( ) and or the wavy CNTs being coplanar with the transverse plane of the carbon fiber. When the CNT waviness is coplanar with the transverse plane of the carbon fiber then the transverse effective elastic and thermoelastic coefficients of the FFRC are improved. 2. If the amplitudes of the sinusoidally wavy CNTs are coplanar with the axis of the carbon fiber or the HCF, the effective thermal conductivities of the FFRC and FFHE are significantly improved over those of the base composites (i.e., without CNTs). On the other hand, the effective transverse thermal conductivities of the FFRC and the FFHE are significantly enhanced over those of the base composites irrespective of the values of the CNT wave frequency and the planer orientations of the wavy CNTs. 3. The CNT/polymer matrix interfacial thermal resistance does not affect the effective thermal conductivities of the FFRC and the FFHE. 4. The effective thermomechanical properties of the FFRC and the FFHE estimated by the analytical micromechanics models based on the MT method, the MOM approach and the EM approach are in excellent agreement with those of the existing experimental and numerical 20 results. Hence, for predicting all effective properties of the advanced hierarchical multifunctional CNT-reinforced hybrid composite, one can adopt the analytical micromechanics model. Since the effective thermomechanical properties of the multifunctional CNT-reinforced hybrid composite containing sinusoidally wavy CNTs are significantly enhanced and can be altered as per requirement, the multifunctional CNT-reinforced hybrid composite may be used for developing high-performance light weight structures or heat exchangers which require stringent constraint on the dimensional stability with enhanced thermal management capability. Fig. A1 A1Transverse and longitudinal cross sections of the FFHE containing wavy CNTs being coplanar with the 1-3 planeReferring toFig. A1, the volumes of the HCF ( ), the PMNC ( Fig. 1 29 Fig. 4 Fig. 9 12949Schematic diagram of a lamina made of the FFRC containing wavy CNTs Fig. 2 Fuzzy fiber with wavy CNTs radially grown on its circumferential surface (a) Cross sections of the CFF with wavy CNTs being coplanar with the 2-3 plane (b) Cross sections of the CFF with wavy CNTs being coplanar with the 1-3 plane Fig. 3 Transverse and longitudinal cross sections of the CFF in which wavy CNTs are coplanar with either the 2-3 (2'-3') or the 1-3 (1'-3') plane Transverse cross sections of the CFF with unwound and wound PMNC Fig. 5 RVE of the unwound PMNC material containing a wavy CNT is coplanar with either the longitudinal plane (i.e., 1-3 or 1'-3' plane) or the transverse plane (i.e., 2-3 or 2'-3') of the carbon fiber Fig. 6 Repeating unit cell of the unwound PMNC material with four subcells ( , = 1,2) Fig. 7 Schematic diagram of a novel FFHE Fig.. 8 Transverse and longitudinal cross sections of the NRLC (adapted from Ref. [11]) Comparisons of the effective (a) axial ( ) and (b) transverse ( ) thermal conductivities of the aligned CNT-polymer nanocomposite estimated by the MOC and the EM approaches with those of the experimental data [12] . [12]: EMA, R k < 110 -9 m 2 K/W, AF = 0.77 Ref. [12]: Experimental Data, AF = 0.77 (b) Fig.10 Variation of the effective elastic coefficient of the FFRC with the waviness factor Fig.11 Variation of the effective elastic coefficient of the FFRC with the waviness factor Fig. 12 Fig. 14 Fig. 16 Fig. 18 12141618Variation of the effective elastic coefficient of the FFRC with the waviness factorFig. 13 Variation of the axial CTE ( ) of the FFRC with the waviness factor ( ) Variation of the transverse CTE ( ) of the FFRC with the waviness factor ( ) Fig. 15 Variation of the effective axial thermal conductivity ( ) of the FFRC with the Variation of the effective transverse thermal conductivity ( ) of the FFRC with the temperature ( ) Fig. 17 Variation of the effective axial thermal conductivity ( ) of the FFRC with the CNT/polymer matrix interfacial resistance ( ) when the wavy CNTs are coplanar with the 1Variation of the effective axial thermal conductivity ( ) of the FFHE with the waviness factor ( , ⁄ ) Fig. 19 Variation of the effective transverse thermal conductivity ( ) of the FFHE with the waviness factor ( , ⁄ ) This Section deals with the procedures of employing two modeling approaches, namely,the Mori-Tanaka (MT) method and the mechanics of materials (MOM) approach to predict the effective thermoelastic properties of the FFRC. The RVE of the FFRC can be treated as being composed of the two phases wherein the reinforcement is the CFF and the matrix is the polymer material. Thus the analytical procedure for estimating the effective thermoelastic properties of the FFRC starts with the estimation of the effective thermoelastic properties of the PMNC containing wavy CNTs. Subsequently, considering the PMNC material as the matrix phase and the carbon fiber as the reinforcement, effective thermoelastic properties of the CFF are to be computed. Finally, using the thermoelastic properties of the CFF and the polymer matrix, the effective thermoelastic of the FFRC can be estimated.It may be noted that the effective thermoelastic properties at any point in the unwound lamina of the PMNC containing sinusoidally wavy CNTs where the CNT axis makes an angle фwith the 3 (3')-axis can be approximated by transforming the effective thermoelastic properties of the unwound lamina of the PMNC containing straight CNTs. Hence, in what follows the method of deriving the MT model for predicting the effective thermoelastic properties of the unwound lamina of the PMNC containing straight CNTs will be presented first. Utilizing the effective elastic properties of the CNT and the polymer matrix properties, the MT model [31] can be derived to estimate the effective elastic coefficient matrix , -of the unwound PMNC. The explicit formulation of the MT model for the unwound PMNC material can be derived as Table 1 : 1Comparisons of the effective engineering constants of the NRLC with those of the CFF NRLC* (2% CNT and 41% IM7 where is the transverse Young's modulus of the NRLC; and are the axial Poisson's ratio and the transverse Poisson's ratio of the NRLC, respectively.Carbon Fiber) MT MOC Numerical [11] Experimental [11] MT (GPa) 13.93 10.02 11.50 11.91 0.34 - 0.38 0.38 0.16 - 0.17 0.182 Helical microtubules of graphitic carbon. S Iijima, Nature. 354Iijima, S. (1991): "Helical microtubules of graphitic carbon". Nature, Vol. 354, pp. 56-58. Exceptionally high Young's modulus observed for individual carbon nanotubes. M M J Treacy, T W Ebbesen, J M Gibson, Nature. 381Treacy, M. M. J.; Ebbesen, T. W. and Gibson, J. M. (1996): "Exceptionally high Young's modulus observed for individual carbon nanotubes". Nature, Vol. 381, pp. 678-680. A Structural mechanics approach for the analysis of carbon nanotubes. C Li, T W Chou, Int. J. Solids Struct. 40Li, C. and Chou, T. W. (2003): "A Structural mechanics approach for the analysis of carbon nanotubes". Int. J. Solids Struct., Vol. 40, pp. 2487-2499. Transversely isotropic elastic properties of single-walled carbon nanotubes. L Shen, J Li, Phys. Rev. B. 6945414Shen, L. and Li, J. (2004): "Transversely isotropic elastic properties of single-walled carbon nanotubes". Phys. Rev. B, Vol. 69, p. 045414. Characterizing elastic properties of carbon nanotube/polyimide nanocomposites using multi-scale simulation. J L Tsai, S H Tzeng, Y T Chiu, Compos. Part B. 41Tsai, J. L.; Tzeng, S. H. and Chiu, Y. T. (2010): "Characterizing elastic properties of carbon nanotube/polyimide nanocomposites using multi-scale simulation". Compos. Part B, Vol. 41, pp. 106-115. Thermal conductivity of singlewalled carbon nanotubes. J Hone, C Whitney, C Piskoti, A Zettl, Phys. Rev. B. 594Hone, J.; Whitney, C.; Piskoti, C. and Zettl, A. (1999): "Thermal conductivity of single- walled carbon nanotubes". Phys. Rev. B, Vol. 59, No. 4, pp. 2514-2516. Unusually high thermal conductivity of carbon nanotubes. S Berber, Y K Kwon, D Tomanek, Phys. Rev. Lett. 8420Berber, S.; Kwon, Y. K. and Tomanek, D. (2000): "Unusually high thermal conductivity of carbon nanotubes". Phys. Rev. Lett., Vol. 84, No. 20, pp. 4613-4616. Thermal conductance and thermopower of an individual single-wall carbon nanotube. C Yu, L Shi, Z Yao, D Li, A Majumdar, Nano Lett. 59Yu, C.; Shi, L.; Yao, Z.; Li, D. and Majumdar, A. (2005): "Thermal conductance and thermopower of an individual single-wall carbon nanotube". Nano Lett., Vol. 5, No. 9, pp. 1842-1846. Carbon nanotube composites for thermal management. M J Biercuk, M C Llaguno, M Radosavljevic, J K Hyun, A T Johnson, J E Fischer, Appl. Phys. Lett. 8015Biercuk, M. J.; Llaguno, M. C.; Radosavljevic, M.; Hyun, J. K.; Johnson, A. T. and Fischer, J. E. (2002): "Carbon nanotube composites for thermal management". Appl. Phys. Lett., Vol. 80, No. 15, pp. 2767-2769. Thermal conductivity and interfacial resistance in single-wall carbon nanotube epoxy composites. M B Bryning, D E Milkie, M F Islam, J M Kikkawa, A G Yodh, Appl. Phys. Lett. 8716161909Bryning, M. B.; Milkie, D. E.; Islam, M. F.; Kikkawa, J. M. and Yodh, A. G. (2005): "Thermal conductivity and interfacial resistance in single-wall carbon nanotube epoxy composites". Appl. Phys. Lett., Vol. 87, No. 16, p. 161909. Elastic response of a carbon nanotube fiber reinforced polymeric composite: A numerical and experimental study. M Kulkarni, D Carnahan, K Kulkarni, D Qian, J L Abot, Compos. Part B. 415Kulkarni, M.; Carnahan, D.; Kulkarni, K.; Qian, D. and Abot, J. L. (2010): "Elastic response of a carbon nanotube fiber reinforced polymeric composite: A numerical and experimental study". Compos. Part B, Vol. 41, No. 5, pp. 414-421. Thermal conduction in aligned carbon nanotube-polymer nanocomposites with high packing density. A M Marconnet, N Yamamoto, M A Panzer, B L Wardle, K E Goodson, ACS Nano. 56Marconnet, A. M.; Yamamoto, N.; Panzer, M. A.; Wardle, B. L. and Goodson, K. E. (2011): "Thermal conduction in aligned carbon nanotube-polymer nanocomposites with high packing density". ACS Nano., Vol. 5, No. 6, pp. 4818-4825. Advances in the science and technology 24 of carbon nanotubes and their composites: a review. E T Thostenson, Z Ren, T W Chou, Compos. Sci. Technol. 6113Thostenson, E. T.; Ren, Z. and Chou, T. W. (2001): "Advances in the science and technology 24 of carbon nanotubes and their composites: a review". Compos. Sci. Technol., Vol. 61, No. 13, pp. 1899-1912. Recent developments in multifunctional nanocomposites using carbon nanotubes. J M Wernik, S A Meguid, ASME Appl. Mech. Rev. 6350801Wernik, J. M. and Meguid, S. A. (2010): "Recent developments in multifunctional nanocomposites using carbon nanotubes". ASME Appl. Mech. Rev., Vol. 63, p. 050801. Multifunctional composites using reinforced laminae with carbonnanotube forests. V P Veedu, A Cao, X Li, K Ma, C Soldano, S Kar, P M Ajayan, M N Ghasemi-Nejhad, Nature Mater. 5Veedu, V. P.; Cao, A.; Li, X.; Ma, K.; Soldano, C.; Kar, S.; Ajayan, P. M. and Ghasemi- Nejhad, M. N. (2006): "Multifunctional composites using reinforced laminae with carbon- nanotube forests". Nature Mater., Vol. 5, pp. 457-462. Fabrication and multifunctional properties of a hybrid laminate with aligned carbon nanotubes grown in situ. E J Garcia, B L Wardle, A J Hart, N Yamamoto, Compos. Sci. Technol. 689Garcia, E. J.; Wardle, B. L.; Hart, A. J. and Yamamoto, N. (2008): "Fabrication and multifunctional properties of a hybrid laminate with aligned carbon nanotubes grown in situ". Compos. Sci. Technol., Vol. 68, No. 9, pp. 2034-2041. Micromechanical analysis of fuzzy fiber reinforced composites. S I Kundalwal, M C Ray, Int. J. Mech. Mater. Design. 72Kundalwal, S. I. and Ray, M. C. (2011): "Micromechanical analysis of fuzzy fiber reinforced composites". Int. J. Mech. Mater. Design, Vol. 7, No. 2, pp. 149-166. Effect of carbon nanotube waviness on the elastic properties of the fuzzy fiber reinforced composites. S I Kundalwal, M C Ray, ASME J. Appl. Mech. 8021010Kundalwal, S. I. and Ray, M. C. (2013): "Effect of carbon nanotube waviness on the elastic properties of the fuzzy fiber reinforced composites". ASME J. Appl. Mech., Vol. 80, p. 021010. A thermomechanical shear lag analysis of short fuzzy fiber reinforced composite containing wavy carbon nanotubes. M Ray, S I Kundalwal, European J Mech-A/Solids. 44Ray, M. C and Kundalwal, S. I. (2013): "A thermomechanical shear lag analysis of short fuzzy fiber reinforced composite containing wavy carbon nanotubes". European J Mech- A/Solids., Vol. 44, pp. 41-60. Smart damping of laminated fuzzy fiber reinforced composite shells using 1-3 piezoelectric composites. S I Kundalwal, Suresh Kumar, M C Ray, Smart Mater Struct. 2210Kundalwal, S. I, Suresh Kumar, R and Ray, M. C. (2013): "Smart damping of laminated fuzzy fiber reinforced composite shells using 1-3 piezoelectric composites". Smart Mater Struct., Vol. 22, No. 10, pp. 105001/1-16. Shear lag analysis of a novel short fuzzy fiberreinforced composite. S Kundalwal, M C Ray, Acta Mech. 2259Kundalwal, S. I and Ray, M. C. (2014): "Shear lag analysis of a novel short fuzzy fiber- reinforced composite". Acta Mech., Vol. 225, No. 9, pp. 2621-2643. Effect of carbon nanotube waviness on the load transfer characteristic of the short fuzzy fiber-reinforced composites. M Ray, S I Kundalwal, ASCE J Nanomech Micromech. 424013009Ray, M. C and Kundalwal, S. I. (2014): "Effect of carbon nanotube waviness on the load transfer characteristic of the short fuzzy fiber-reinforced composites". ASCE J Nanomech Micromech., Vol. 4, No. 2, p. A4013009. Improved thermoelastic coefficients of a novel short fuzzy fiber-reinforced composite with wavy carbon nanotubes. S Kundalwal, M C Ray, J Mech Mater Struct. 91Kundalwal, S. I and Ray, M. C. (2014): "Improved thermoelastic coefficients of a novel short fuzzy fiber-reinforced composite with wavy carbon nanotubes". J Mech Mater Struct., Vol. 9, No. 1, pp. 1-25. Effective thermal conductivities of a novel fuzzy fiber reinforced composite containing wavy carbon nanotubes. S I Kundalwal, R Suresh Kumar, M C Ray, ASME J Heat Trans. 137112401Kundalwal, S. I.; Suresh Kumar, R. and Ray, M. C. (2014): "Effective thermal conductivities of a novel fuzzy fiber reinforced composite containing wavy carbon nanotubes". ASME J Heat Trans., Vol. 137, No. 1, p. 012401. Effect of carbon nanotube waviness on the active damping of laminated hybrid composite shells. S I Kundalwal, S A Meguid, Acta Mech. 2266Kundalwal, S. I. and Meguid, S. A. (2015): "Effect of carbon nanotube waviness on the active damping of laminated hybrid composite shells". Acta Mech., Vol. 226, No. 6, pp. 2035-2052. Smart damping of fuzzy fiber reinforced composite plates using 1-3 piezoelectric composites. S I Kundalwal, M C Ray, J Vibration Control. 226Kundalwal, S. I. and Ray, M. C. (2016): "Smart damping of fuzzy fiber reinforced composite plates using 1-3 piezoelectric composites". J Vibration Control, Vol. 22, No. 6, pp. 1526- 1546. Multiscale modeling of microscale fiber reinforced composites with nano-engineered interphases. S I Kundalwal, S Kumar, Mech Mater. 102Kundalwal, S. I. Kumar, S. (2016): "Multiscale modeling of microscale fiber reinforced composites with nano-engineered interphases". Mech Mater., Vol. 102, pp. 117-131. Effects of nanotube waviness on the modulus of nanotube-reinforced polymers. F T Fisher, R D Bradshaw, L C Brinson, Appl. Phys. Lett. 8024Fisher, F. T.; Bradshaw, R. D. and Brinson, L. C. (2002): "Effects of nanotube waviness on the modulus of nanotube-reinforced polymers". Appl. Phys. Lett., Vol. 80, No. 24, pp. 4647- 4649. Effect of nanorope waviness on the effective moduli of nanotube sheets. L Berhan, Y B Yi, A M Sastry, J. Appl. Phys. 959Berhan, L.; Yi, Y.B. and Sastry, A. M. (2004): "Effect of nanorope waviness on the effective moduli of nanotube sheets". J. Appl. Phys., Vol. 95, No. 9, pp.5027-5034. A comprehensive closed form micromechanics model for estimating the elastic modulus of nanotube-reinforced composites. V Anumandla, R F Gibson, Compos. Part A. 3712Anumandla, V. and Gibson, R. F. (2006): "A comprehensive closed form micromechanics model for estimating the elastic modulus of nanotube-reinforced composites". Compos. Part A, Vol. 37, No. 12, pp. 2178-2185. Average stress in matrix and average elastic energy of materials with misfitting inclusions. T Mori, K Tanaka, Acta Metall. 215Mori, T. and Tanaka, K. (1973): "Average stress in matrix and average elastic energy of materials with misfitting inclusions," Acta Metall., Vol. 21, No. 5, pp. 571-574. On the application of Mori-Tanaka's theory involving transversely isotropic spheroidal inclusions. Y P Qui, G J Weng, Int. J. Eng. Sci. 2811Qui, Y. P. and Weng, G. J. (1990): "On the application of Mori-Tanaka's theory involving transversely isotropic spheroidal inclusions". Int. J. Eng. Sci., Vol. 28, No. 11, pp. 1121- 1137. On the thermostatics of composite materials. N Laws, J. Mech. Phys. Solids. 211Laws, N.: (1973): "On the thermostatics of composite materials," J. Mech. Phys. Solids., Vol. 21, No. 1, pp. 9-17. Elastic properties of composites with fiber waviness. H M Hsiao, I M Daniel, Compos. Part A. 2710Hsiao, H. M. and Daniel, I. M. (1996): "Elastic properties of composites with fiber waviness". Compos. Part A, Vol. 27, No. 10, pp. 931-941. Anisotropic coupled-field inclusion and inhomogeneity problems. J Y Li, M L Dunn, Philos. Mag. A. 775Li, J. Y. and Dunn, M. L. (1998): "Anisotropic coupled-field inclusion and inhomogeneity problems". Philos. Mag. A, Vol. 77, No. 5, pp. 1341-1350. Thermoelastic properties of a novel fuzzy fiberreinforced composite. S I Kundalwal, M C Ray, ASME J. Appl. Mech. 8061011Kundalwal, S. I. and Ray, M. C. (2013): "Thermoelastic properties of a novel fuzzy fiber- reinforced composite". ASME J. Appl. Mech., Vol. 80, p. 061011. Micromechanics of Composite Materials: A Generalized Multiscale Analysis Approach. J Aboudi, S M Arnold, B A Bednarcyk, Butterworth-Heinemann Ltd5OxfordAboudi, J.; Arnold, S. M. and Bednarcyk, B. A. (2012): "Micromechanics of Composite Materials: A Generalized Multiscale Analysis Approach". Oxford OX5: Butterworth- Heinemann Ltd. Effective thermal conductivity of particulate composites with interfacial thermal resistance. C W Nan, R Birringer, D R Clarke, H Gleiter, J. Appl. Phys. 8110Nan, C. W.; Birringer, R.; Clarke, D. R. and Gleiter, H. (1997): "Effective thermal conductivity of particulate composites with interfacial thermal resistance". J. Appl. Phys., Vol. 81, No. 10, pp. 6692-6699. Thermal contraction of carbon fullerenes and nanotubes. Y K Kwon, S Berber, D Tomanek, Phys. Rev. Lett. 92115901Kwon, Y. K.; Berber, S. and Tomanek, D. (2004): "Thermal contraction of carbon fullerenes and nanotubes". Phys. Rev. Lett., Vol. 92, No. 1, p. 015901. Thermal stresses and effective properties calculated for fiber composites using actual cylindrically-anisotropic properties of interfacial carbon coating. K Honjo, Carbon. 454Honjo, K. (2007): "Thermal stresses and effective properties calculated for fiber composites using actual cylindrically-anisotropic properties of interfacial carbon coating". Carbon, Vol. 45, No. 4, pp. 865-872. Longitudinal/radial thermal expansion and poisson ratio of some ceramic fibers as measured by transmission electron microscopy. J F Villeneuve, R Naslain, R Fourmeaux, J Sevely, Compos. Sci. Technol. 491Villeneuve, J. F.; Naslain, R.; Fourmeaux, R. and Sevely, J. (1993): "Longitudinal/radial thermal expansion and poisson ratio of some ceramic fibers as measured by transmission electron microscopy". Compos. Sci. Technol., Vol. 49, No. 1, pp. 89-103. Temperature dependence of the thermal conductivity of individual pitch-derived carbon fibers. J L Wang, M Gu, W G Ma, X Zhang, Y Song, New Carbon Mater. 23Wang, J. L.; Gu, M.; Ma, W. G.; Zhang, X. and Song, Y. (2008): "Temperature dependence of the thermal conductivity of individual pitch-derived carbon fibers". New Carbon Mater., Vol. 23, pp. 259-63. Low-temperature thermal conductivity of amorphous polymers: polystyrene and polymethylmethacrylate. W Reese, J. Appl. Phys. 372Reese, W. (1996): "Low-temperature thermal conductivity of amorphous polymers: polystyrene and polymethylmethacrylate". J. Appl. Phys., Vol. 37, No. 2, pp. 864-868. Colloidal metal particles as probes of nanoscale thermal transport in fluids. O M Wilson, X Hu, D G Cahill, P V Braun, Phys. Rev. B. 6622224301Wilson, O. M.; Hu, X.; Cahill, D. G. and Braun, P. V. (2002): "Colloidal metal particles as probes of nanoscale thermal transport in fluids". Phys. Rev. B, Vol. 66, No. 22, p. 224301.
sample_9270
0.7091
arxiv
Sea Ice Extraction via Remote Sensed Imagery: Algorithms, Datasets, Applications and Challenges Anzhu Yu Wenjun Huang Qing Xu Qun Sun Wenyue Guo Song Ji Bowei Wen Chunping Qiu Sea Ice Extraction via Remote Sensed Imagery: Algorithms, Datasets, Applications and Challenges 1Index Terms-Sea iceextractionsemantic segmentationSARinfraredmapping The deep learning, which is a dominating technique in artificial intelligence, has completely changed the image understanding over the past decade. As a consequence, the sea ice extraction (SIE) problem has reached a new era. We present a comprehensive review of four important aspects of SIE, including algorithms, datasets, applications, and the future trends. Our review focuses on researches published from 2016 to the present, with a specific focus on deep learning-based approaches in the last five years. We divided all relegated algorithms into 3 categories, including classical image segmentation approach, machine learning-based approach and deep learningbased methods. We reviewed the accessible ice datasets including SAR-based datasets, the optical-based datasets and others. The applications are presented in 4 aspects including climate research, navigation, geographic information systems (GIS) production and others. It also provides insightful observations and inspiring future research directions. I. INTRODUCTION T HE sea ice extraction (SIE) has been a crucial problem in many application aspects, such as the polar navigation [1], terrain analysis [2], polar cartography [3] and polar expedition [4]. With the rapid development of machine learning technique, computational capability and data acquisition, the SIE problem has reached the deep learning era. Machine learning-based approaches are being increasingly introduced to detect, segment or map the sea ice. As a branch of the machine learning, Deep Learning technique attracts more attention to solve the SIE problem in last five years, based on which the mapping or cartography problem could also be solve subsequently. Most literature convert the SIE problem to another common topic, namely the semantic segmentation problem, which determines the category of each pixel via a post-classification procedure after the category probability is regressed by the deep convolutional neural networks. In recent years, there has been a growing body of research focusing on SIE. To gain insights into this field, we conducted a literature search using the keywords "sea ice extraction" and applied the Citespace [5] statistical algorithm to visualize the co-citation network of relevant publications from the past five years (Fig. 1). The visualization highlights key themes and research areas associated with SIE, with a particular emphasis on remote sensing and SAR. * Authors share equal contribution. Currently, SIE primarily relies on remote sensing techniques such as visible/infrared remote sensing, passive microwave remote sensing, and active microwave remote sensing [6]. Visible/infrared remote sensing can provide texture information of sea ice, which is helpful for SIE tasks. However, it has certain limitations. Firstly, it is restricted in polar regions due to the occurrence of polar day and polar night phenomena. Additionally, the orbital inclination (typically 97 • -98 • ) and altitude of conventional remote sensing satellites affect observations in polar regions, leading to polar data gaps where effective observations are not possible. Consequently, polar orbit satellites are relied upon for conducting observations. On the other hand, passive microwave remote sensing, as an active remote sensing approach, offers global coverage capabilities and therefore holds certain advantages. Nevertheless, its drawback lies in relatively low spatial resolution. Typical instruments for passive microwave remote sensing, such as AMSR-E and AMSR2, generally provide spatial resolutions at the kilometer level. Such lower resolution may not fulfill the requirements for detailed SIE and further mapping. In contrast, active microwave remote sensing techniques, such as SAR, offer higher resolution capabilities. SAR technology can achieve resolutions at the meter level, making it highly suitable for fine-scale sea ice mapping [7] [8]. As a consequence, current research on SIE predominantly focuses on the application of active microwave remote sensing technologies, notably SAR. Besides, significant achievements have been made in SIE tasks through the utilization of optical remote sensing [9] [10] and the integration of SAR with optical approaches [11] [12] [13]. In addition to the aforementioned remote sensing satellite observations, some literatures have utilized real-time ice monitoring using aerial images captured by cameras onboard icebreakers [14] [15] and unmanned aerial vehicles (UAVs) [16] [17]. These methods serve as valuable supplementary approaches for SIE tasks. Machine learning methods have made significant applications in the field of SIE. Recently, several reviews have provided summaries of sea ice remote sensing. In [18], the focus was on analyzing the advantages and disadvantages of sea ice classification methods based on SAR data. In [19], the advancements of Global Navigation Satellite System-Reflectometry (GNSS-R) data in SIE, ice concentration estimation, ice type classification, ice thickness inversion, and ice elevation were reviewed. In [8], a comprehensive analysis of sea ice sensing using polarimetric SAR data was conducted. Key geophysical parameters for SIE, including ice type, concentration, thickness, and motion, as well as SAR scattering characteristics analysis, were summarized. However, these papers primarily focused on providing overviews of sea ice monitoring methods using SAR technology, lacking comprehensive summaries of specific technical approaches. Moreover, they predominantly concentrated on summarizing sea ice remote sensing methods and lacked a comprehensive overview of downstream tasks related to SIE, specifically applications. Therefore, this review aims to provide a comprehensive summary of the latest SIE methods developed in the past five years. It aims to systematically categorize and analyze these methods, taking into account the associated datasets and subsequent mapping applications. Additionally, this review incorporates the latest advancements in technology to assess the challenges and future developments in SIE through the utilization of large-scale models. The overall structure of this review is presented in Fig. 2. Section II of this review will provide detailed insights into recent methods for SIE. Section III will summarize the currently available open-source datasets related to ice. Section IV aims to outline downstream tasks and enumerate the generated geospatial information products resulting from ice extraction. Lastly, Section V will highlight areas where future developments are needed. II. METHOD OF SEA ICE EXTRACTION A. Classical image segmentation methods In the early stages, research on SIC primarily relied on statistical algorithms. These algorithms generally combined probabilistic models and classical classification methods with texture or polarization features to generate sea ice type maps. There is a rich body of literature on classical image segmentation methods, and this section will focus on including only some recent publications. 1) Bayesian: A new Bayesian risk function is proposed in [20] to minimize the likelihood ratio (LR) for polarimetric SAR data supervised classification. A novel spatial criterion is also introduced to incorporate spatial contextual information into the classification method, achieving a sea ice classification accuracy of 99.9%. Bayesian theorem, as described in [21], is utilized to compute the posterior probabilities of each class at each observed location based on the texture features extracted from the gray-level co-occurrence matrix (GLCM) of the image. In [22], labels each pixel in the SAR imagery as ice or water using the MAp-Guided Ice Classification (MAGIC) [23] and models the labeled pixels as a Bernoulli distribution. The estimated ice concentration is then obtained by incorporating the labeled data into the Bayesian framework along with AMSR-E ice concentration data. The work [24] introduces a Gaussian Incidence Angle (GIA) classifier for sea ice classification, which replaces the constant mean vector in the multivariate Gaussian probability density function (PDF) of the Bayesian classifier with a linearly varying mean vector. The simplicity and fast processing time of the GIA classifier enable near real-time ice charting. The work [25] utilizes this GIA classifier to generate classified winter time series of sea ice in the regions covered during the Multidisciplinary drifting Observatory for the Study of Arctic Climate (MOSAiC) campaign, providing reliable support for navigation. 2) Maximum Likelihood Estimation: In [26], Maximum Likelihood Estimation is used to compute the probabilities of ice and water in the observed SAR images. An unsupervised mixture Gaussian segmentation algorithm is proposed in [27], which provides reasonable sea ice classification results under similar incidence angle conditions. The work [28] applies logistic regression (LR) statistical techniques to demonstrate that the average and variance of texture features, specifically the GLCM, are most suitable for maximum likelihood supervised classification, thus extracting the sea ice density map of the western Antarctic Peninsula region. 3) Thresholding Method: Zhu et al. [29] utilized the Delay-Doppler Map (DDM) of the Global Navigation Satellite System (GNSS) signals reflected by sea ice and seawater, which exhibit distinct scattering characteristics. The differential DDM, observed as the difference between two adjacent normalized DDMs, provides information about the differences between the two DDMs. By employing a thresholding method, the type of the reflecting surface can be determined, thus extracting the sea ice. Building upon this, Alexander et al. [30] proposed an adaptive probability threshold for automatic detection of ice and open water areas. Qiu et al. [9] discussed the textural and edge features of different sea ice types in various turbid regions, using the Yellow River Delta as an example, laying the foundation for the classification of sea ice types. Automatic extraction of sea ice can be achieved by employing the OTSU algorithm to determine the threshold automatically. 4) Other Methods: Additionally, Zhang et al. [31] proposed an automatic classification method for SAR sea ice images combining Retinex and the Gaussian Mixture Model algorithm (R-gmm). Experimental results demonstrated that this algorithm effectively enhances the clarity of SAR imagery compared to the Single Scale Retinex Algorithm, GMM, and Markov Random Field (MRF)-based methods, thereby improving segmentation accuracy. Liu et al. [32] introduced a method based on curvelet transform and active contour to automatically detect the marginal ice zone (MIZ) in SAR imagery. In [33], a multi-scale strategy of the curvelet transform was further utilized to extract curve-like features from SAR images, distinguishing the MIZ from open water and consolidated ice areas. Xie et al. [34] employed the polarization ratio (PR) between VV and HH in SAR images calculated based on the roughness characteristics of the sea surface scattering and the X-Bragg backscatter model. This measurement comparison can differentiate between open water and sea ice, achieving an overall accuracy of approximately 96%. Mary et al. [35] utilized the coefficient of variation (COV) from co-pol/crosspol SAR data to detect thin ice during the Arctic freezing period using a synergistic algorithm. 5) Limitations: Generally, classical image segmentation methods exhibit high efficiency for simple segmentation tasks. However, as the complexity of the input image scenes increases, it becomes challenging to determine the appropriate thresholds for multiple-class objects. Moreover, the choice of thresholds is sensitive to image brightness and noise, which limits the generalization ability when applied to different scenes. While classical methods have their strengths, these limitations pave the way for exploring alternative approaches to address the aforementioned challenges. By leveraging advanced techniques such as machine learning, probabilistic models, and adaptive algorithms, researchers have sought to overcome the issues associated with threshold-based segmentation. These alternative methods offer promising avenues to enhance segmentation accuracy, handle complex scenes, and mitigate the sensitivity to brightness and noise. B. Machine learning-based methods Machine learning methods primarily leverage the polarimetric characteristics of sea ice images (HH, HV, HH/HV) and selected features such as GLCM texture features. These features are then subjected to rule-based machine learning methods for classification, enabling the differentiation between sea ice and open water areas. Furthermore, in the literature, there are approaches that further refine the classification of sea ice, distinguishing between multi-year ice (MYI) and first-year ice (FYI), among other categories. Expanding on the various methodological approaches, let's delve into each method and its specific contributions in sea ice classification. 1) Iterative region growing using semantics (IRGS): Yu et al. [24] proposed an image segmentation method called IRGS. IRGS [36] models the backscatter characteristics using Gaussian statistics and incorporates a Markov random field (MRF) model to capture spatial relationships. It is an unsupervised classification algorithm that assigns arbitrary class labels to identified regions, with the mapping of class labels left for manual intervention by human operators. Building upon IRGS, several researches have been conducted for sea icewater classification. In [23], a binary ice-water classification system called MAGIC was developed. Subsequently, in [37], the authors used glocal IRGS to capture the spatial contextual information of RADARSAT-2 SAR images and identified homogeneous regions using a hierarchical approach. Pretrained SVM models were then used to assign ice-water labels. The IRGS method, combined with modified energy functions and the contributions of glocal and SVM classification results, balanced the contextual and texture-based information. This method was tested in [38] with four different SAR data types: dual-polarization (DP) HH and HV channel intensity images, compact polarimetric (CP) RH and RV channel intensity images, all derived CP features, and quad-polarimetric (QP) images. The experimental results demonstrated that utilizing CP data achieved the best classification results, which were further supported by similar findings in [39] and [40]. The self-training IRGS (ST-IRGS) was introduced in [41], which integrated hierarchical region merging with conditional random fields (CRF) to iteratively reduce the number of nodes while utilizing edge strength for classification and region merging. The key feature of ST-IRGS is the embedded selftraining procedure. Wang et al. The work [42] extensively tested IRGS on dual-polarization images for lake ice mapping, minimizing the impact of incidence angle. The experimental results demonstrated that the IRGS algorithm provides reliable ice-water classification with high overall accuracy. As emerging image classification methods advance, IRGS has been seamlessly integrated with various classification techniques to enhance sea ice classification. In [43], IRGS segmentation was integrated with supervised labeling using RF. The IRGS segmentation algorithm incorporated spatial context and texture features from the ResNet, utilizing region pooling for ice-water classification [44] . In [45], a comparison was made between two benchmark pixel classifiers, SVM and RF, and two models, IRGS-SVM and IRGS-RF. The experimental results indicated that IRGS-RF achieved better performance and demonstrated stronger robustness. In [46], the IRGS algorithm was utilized to oversegment the input HH/HV scene into superpixels. A graph was constructed on the superpixels, and node features were extracted from the HH/HV images. With limited labeled data, a two-layer graph convolution was employed to learn the spatial relationships between nodes. In [47], the segmentation results from the IRGS algorithm were combined with pixel-based predictions from the Bayesian CNN, and by analyzing the uncertainty of SAR images, sea ice and water were distinguished. These researches demonstrate the versatility of IRGS and its integration with different classification methodologies, leading to improved performance and enhanced classification accuracy in sea ice analysis. 2) Random Forest (RF): Han et al. [48] utilized texture features from backscatter intensity and GLCM as input variables for sea ice mapping and developed a high spatial resolution summer sea ice mapping model for KOMPSAT-5 EW SAR images using a RF model. Mohammed Dabboor et al. [49], [50] employed the RF classification algorithm to identify effective compact polarimetric (CP) parameters and analyzed the discriminatory role of CP parameters for distinguishing between FYI and MYI. Alexandru Gegiuc et al. [51] applied RF for estimating the ridge density of sea ice in C-band dual-polarization SAR images. Han et al. [52] evaluated four representative sea ice algorithms using binary classification with RF based on PM-measured sea ice concentration (SIC) data. Tan et al. [53] employed a RF feature selection method to determine optimal features for sea ice interpretation and implemented a semi-automated sea ice segmentation workflow. Dmitrii MURASHKIN et al. [54] utilized a RF classifier to investigate the importance of polarimetric and texture features derived from GLCM for the detection of leads. James V. Marcaccio et al. [55] employed image object segmentation and an RF classifier for automated mapping of coastal ice, indicating Laurentian Great Lakes winter fish ecology. Yang et al. [56] developed an RF model to extract lake ice conditions from land satellite imagery. Jeong-Won Park et al. [57] performed noise correction on dual-polarization images, supervised texturebased image classification using the RF classifier, and achieved semi-automated SIE. Meanwhile, in [58], the first approach directly utilizing operational ice charts for training classifiers without any manual work was proposed based on RF. These studies demonstrate the diverse applications of RF in sea ice analysis, including sea ice mapping, classification of different ice types, feature selection, noise correction, and automated ice detection. The RF model has shown its effectiveness in leveraging various image features for accurate and efficient sea ice analysis and has contributed to advancements in sea ice research and monitoring. 3) Multilayer Perceptron (MLP): Ressel et al. [59], [60] compared the polarimetric backscattering behavior of sea ice in X-band and C-band SAR images. Extracted features from the images were inputted into a trained Artificial Neural Network (ANN) for SIE. The experiments found that the most useful classification features were matrix-invariant features such as geometric strength, scattering diversity, and surface scattering fraction. In [61], further evidence was presented for the high reliability of neural network classifiers based on polarimetric features, demonstrating their suitability for near real-time operations in terms of performance, speed, and accuracy. [62] used neural networks to describe the mapping between image features and ice-water classification, with texture features extracted from co-polarized and cross-polarized backscatter intensities and autocorrelation. It was tested for ice-water classification in the Fram Strait, showing that the C-band reliably reproduced the contours of ice edges, while the L-band had advantages in areas with thin ice/calm water. Suman Singha et al. [63] inputted the extracted feature vectors into a neural network classifier for pixel-wise supervised classification. The classification process highlighted matrixinvariant features like geometric strength, scattering diversity, and surface scattering fraction as the most informative. The findings were consistent for both X-band and C-band frequencies, with minor variations observed for L-band. Furthermore, the work [64] explored the influence of seasonal changes and incidence angle on sea ice classification using an ANN classifier. The study concluded that in dry and cold winters, the classifier could adapt to moderate differences associated with the incidence angle. Additionally, it was found that the incidence angle dependency of backscatter remained consistent across various Arctic regions and ice types. Juha Karvonen et al. [65] estimated ice concentration based on SAR image segmentation and MLP, combining highresolution SAR images with lower-resolution radiometer data. In [66], they further demonstrated that MLP can estimate SIC from SAR alone, but the results were more reliable and accurate when SAR was combined with microwave radiometer data. Furthermore, in [67], they estimated the SIC and thickness in the Bohai Sea using dual-polarization SAR images from the 2012-2013 winter, AMRS 2 radiometer data, and sea ice thickness data based on the High-resolution Ice Thickness and Surface Properties (HIGHTSI) model. Additionally, Yan et al. [68] demonstrated the feasibility of using the TDS-1 satellite data for neural network-based sea ice remote sensing using a satellite-based GNSS-R digital data acquisition system. It relied on a MLP neural network with backpropagation learning using an LM algorithm (800 inputs, 1 hidden layer with 3 neurons, and 1 output). In a recent study [69], it was shown that MLP outperformed LR in capturing the nonlinear decision boundaries, thus reducing misclassifications in certain cases. Additionally, MLP combined cognitive uncertainty prediction methods with arbitrary heteroscedastic uncertainty to allow estimation of uncertainty at each pixel location. Overall, MLP has proven to be a valuable tool in sea ice remote sensing, providing accurate classification results and enabling the estimation of sea ice parameters. As research in this field continues, further advancements in MLP models and their integration with other data sources will contribute to a better understanding of sea ice dynamics, improved sea ice monitoring, and enhanced decision-making for various applications related to sea ice. 4) Support Vector Machine (SVM): Prior to the surge in popularity of deep learning, SVM was the most favored models due to their solid mathematical foundation and the ability to achieve global optimum solutions (unlike linear models trained with gradient descent that may only converge to local optima). SVMs are commonly employed for binary classification tasks and are defined as linear classifiers that maximize the margin in the feature space. The work [70] utilized backscattering coefficients, GLCM texture features, and SIC as the basis for SVM-based sea ice classification. Experimental results demonstrated that SVMs exhibit stronger robustness against normalization effects compared to Maximum Likelihood (ML) results.Some cases [71]- [74] showcased the effectiveness of SVMs in distinguishing open water areas from sea ice tasks. In a study [75], combining Kalman filtering, GLCM, and SVM yielded better sea ice accuracy compared to simple CNN models at that time. Yan et al. [76], [77] proposed a simple yet effective feature selection (FS) approach and employed SVM classification, resulting in improved accuracy and robustness compared to NN, CNN, and NN-FS approaches. Furthermore, experiments indicated that SVMs require less data storage and fewer tuning parameters. Additionally, researchers have explored combining SVM with other methods to enhance classification accuracy. For example, the work [78] integrated statistical distribution, region connection, multiple features, and SVM into the CRF model. Experimental comparisons revealed that SVM-CRF achieved the best performance. Moreover, by utilizing Transductive Support Vector Machines (TSVM) as the classifier had good performance on two hyperspectral images obtained from EO-1 [79]. In summary, SVMs were highly popular models in the field of sea ice classification before the rise of deep learning. They offer robustness, suitability for binary classification tasks, and the potential for integration with other techniques, contributing to their effectiveness in accurately distinguishing sea ice from other classes. Furthermore, SVMs have advantages such as lower data storage requirements and fewer tuning parameters. 5) Others: In addition to the commonly used machine learning methods mentioned above, decision tree (DT), LR, and k-means have also been used in ice classification tasks. DT is commonly used to solve binary classification problems. For example, the work [80] employed a supervised classification model based on DT to differentiate ice lakes from water ice using the radiometric and textural properties of Landsat 8 OLI multispectral data. Furthermore, Johannes Lohse et al. [81] utilized DT for multi-class problems by decomposing them into a series of binary questions. Each branch of the tree separates one class from all other classes using a selected feature set specific to that class. In the Fram Strait region, ice was accurately classified into categories such as grey ice, lead ice, deformed ice, level ice, grey-white ice, and open water. Komarov et al. [82] modeled the probability of ice presence in the study area using LR. They automatically detected ice and open water from RADARSAT dualpolarized imagery. Additionally, based on the aforementioned modeling approach, they developed a multi-scale SAR icewater inversion technique [83]. In [84], a multi-stage model was proposed for sea ice segmentation using superpixels. The preprocessing involved enhancing contrast and suppressing noise in high-resolution optical images. The segmentation results were refined through superpixel generation, K-means classification, and post-processing. Furthermore, various machine learning algorithms have been combined to better extract sea ice. Wang et al. [85] proposed a two-round weight voting strategy in ensemble learning. In the first round of voting, six base classifiers, namely naive Bayes, DT, K-Nearest Neighbors (KNN), LR, ANN, and SVM, were employed. Misclassified pixels were further refined through fine classification. Kim et al. [86] combined image segmentation, image correlation analysis, and machine learning techniques, specifically RF, extremely randomized trees, and LR, to develop a fast ice classification model. Liu et al. [87] selected KNN and SVM classifiers for single-featurebased sea ice classification, while the classification of sea ice based on multiple feature combinations was performed using the selected KNN classifier. In [88], a Gaussian Markov Random Field model for automatic classification was introduced. The initial model parameters and the number of categories were determined by fitting the histogram of the imagery using a finite Gaussian mixture distribution. Experimental results show that it can achieve good classification effect. 6) Limitations: In summary, researchers have integrated different machine learning algorithms to improve SIE. The two-round weight voting strategy and LR have demonstrated favorable classification performance. Combining image segmentation, correlation analysis, and machine learning techniques has facilitated the development of fast ice classification models. Additionally, the Gaussian Markov Random Field technique and self-supervised learning approaches have shown promise in SAR sea ice image classification. However, these approaches often involve manual feature extraction prior to network training, which can be a labor-intensive and timeconsuming process. Additionally, when dealing with complex image scenes, the training process can become intricate and challenging. C. Deep learning-based methods Traditional approaches to sea ice classification rely heavily on manual feature extraction from remote sensing images and the construction of classifiers. However, this methodology entails significant human and time costs, and often yields less accurate results in complex scenarios. In contrast, deep learning offers the ability to automatically learn and extract features, enabling more effective handling of sea ice classification tasks. Deep learning methods, such as classification networks and semantic segmentation networks, have been widely applied in sea ice classification, showcasing remarkable performance in feature extraction and classification, thus significantly improving the accuracy of sea ice classification. In this section, we will discuss the applications of deep learning methods in sea ice classification and explore the performance of different models in this domain, as shown in Fig. 3. 1) Supervised Learning: Early on, researches generally used some simple CNN structures for sea ice classification. Wang et al. [89] were the first to employ CNN for SIC estimation from SAR images. Their work utilized a two-layer architecture consisting of convolutional and pooling layers, followed by a fully connected operation, eliminating the need for separate feature extraction or post-segmentation processing. The generated SIC maps exhibited an absolute average error of less than 10% compared to manually interpreted ice analysis charts. In [90], a fully convolutional neural network (FCNN) was proposed for estimating SIC from polarimetric SAR images. Experimental results showed slightly higher accuracy in SIC estimation using FCNN compared to CNN, along with additional computational efficiency. In [91], a three-layer CNN with convolutional and pooling operations, as well as non-linear transformations, was constructed. This CNN demonstrated reduced differences and biases between ice concentration and labels compared to MLP or ASI algorithms, highlighting the superiority of CNN. In [92], the CIFAR-10 CNN model was adapted to construct a CNN architecture, and experimental results demonstrated that CNN-based SIE achieved higher accuracy compared to traditional SVM methods. Yan et al. [93], [94] designed a classification-oriented CNN for SIE and a regression-based CNN for SIC estimation. The CNN comprised five 7x7 convolutional and pooling layers, followed by two fully connected layers. This was the first application of CNN technology to TDS-1 DDM data for SIE and SIC estimation. Compared to NN, this approach exhibited improved overall accuracy and required fewer parameters and less data preprocessing. Han et al. [95] utilized GLCM to extract spectral and spatial joint features from hyperspectral sea ice images and constructed a 3D-CNN for sea ice type classification. In [96], CNN was employed for sea ice type classification based on Sentinel-1 SAR data, distinguishing between four categories: ice-free, young ice, FYI, and old ice. Experimental comparisons with existing machine learning algorithms based on texture features and RF demonstrated improved accuracy and efficiency. CNN-based SIC estimation was shown to outperform earlier estimation algorithms in [97]. Additionally, Malmgren-Hansen et al. [98] tested CNN under the scenario of disparate resolutions between Sentinel-1 SAR and AMSR 2 sensors and found that CNN was suitable for multi-sensor fusion with high robustness. Additionally, the integration of SE-Block into a 3D-CNN deep network was proposed in [99] to enhance the contribution of different spectra for sea ice classification. By optimizing the weights of various spectral features through the fusion of SE-Block, based on their respective contributions, the quality of samples was further improved. This approach enables superior accuracy classification of small-sample remote sensing sea ice images. Given the significant progress in deep learning, a wide range of mature classification and segmentation networks have been developed. Researchers have successfully applied these existing networks to achieve accurate SIE. By building upon these established networks, they have been able to effectively [101] employed transfer learning to extract features from patches using AlexNet and applied a softmax classifier, achieving an overall classification accuracy of 92.36% on test data. They also improved SIC estimation by augmenting the training dataset with more independent samples of undersampled classes [102]. The impact of transfer learning, data augmentation, and input size on deep learning methods for binary classification of sea ice and open water, as well as multi-classification of different types of sea ice, was further investigated in [103]. Subsequently, DenseNet [104] was introduced and demonstrated excellent performance on the challenging ImageNet database. In [105], DenseNet was employed to extract SIC from SAR images, achieving errors of 5.24% and 7.87% on the training and testing sets, respectively. DenseNet161 was used in [106], where multiscale techniques were employed for automatic detection of the MIZ in SAR images. Analysis of the DenseNet prediction results by Kruk et al. [107] revealed that neural networks faced greater challenges in distinguishing different types of ice samples compared to differentiating between water and ice samples. Lyu et al. [108] obtained SIE and classification results for the first time from real polarimetric SAR data using the Normalizer-Free ResNet (NFNet) [109]. The Sea Ice Residual Convolutional Network (AS-SI-Resnet) was proposed in [110], and experimental results demonstrated its superiority over MLP, AlexNet, and traditional SVM methods. The authors further considered spatial characteristics and temporal variations of sea ice and introduced long short-term memory (LSTM) networks to improve the accuracy of sea ice classification [111]. Building upon the outstanding performance of CNN in SIE tasks, researchers have further explored its application in larger datasets and research areas. Kortum et al. [112] combined convolutional neural networks with dense conditional random fields (DCRF) and incorporated additional spatio-temporal background data to enhance model robustness and achieve multi-seasonal ice classification. Zhang et al. [113] developed a deep learning framework called Multiscale MobileNet (MSMN), and experimental tests demonstrated an average improvement of 4.86% and 1.84% in classification accuracy compared to the SCNN and ResNet18 models, respectively. Singh Tamber et al. [114] trained a CNN using the binary cross-entropy (BCE) loss function to predict the probability of ice, and for the first time, explored the concept of augmented labels to enhance information acquisition in sea ice data. In various domains, deep learning has made remarkable advancements in semantic segmentation in recent years. In particular, the U-Net network has been widely applied in various semantic segmentation tasks and has shown good segmentation performance. Researchers have also explored the application of the U-Net architecture in SIE. Ren et al. [115] proposed a U-Net-based model for sea ice and open water SAR image classification. This model can classify sea ice at the pixel level. Subsequently, the authors introduced a dual-attention mechanism, forming a dual-attention U-Net model (DAU-Net), which improved the segmentation accuracy compared to the U-Net model [116], [117]. Kang et al. [10] improved the decoding network and loss function, achieving excellent results in the 2021 High-Resolution Challenge. Baumhoer [118] used a modified U-Net for automatic extraction of Antarctic glacier and ice shelf fronts. Ji et al. [119] constructed the BAU-NET by adding a batch normalization layer and an adaptive moment estimation optimizer to the U-Net. In addition, An FCN inspired by the U-Net architecture was applied to SIC prediction [120]. Radhakrishnan et al. [121] proposed a novel training scheme using curriculum learning based on U-Net to make the model training more stable. Wang et al. [122] stacked U-Net models to generate aggregated sea ice classifiers. Stokholm et al. [123] studied the effect of increasing the number of layers and receptive field size in the U-Net model on extracting SIC from SAR data. RES-UNET-CRF (RUF) was proposed in [124], which leverages the advantages of residual blocks and Convolutional Conditional Random Fields (Conv-CRFs), as well as a dual-loss function. Experimental results show that the proposed RUF model is more effective compared to U-Net, DeepLabV 3, and FCN-8. Song et al. [125] proposed a network called E-MPSPNet, which combines multi-scale features with scale-wise attention. Compared to mainstream segmentation networks such as U-Net, PSPNet, DeepLabV 3, and HED-UNet, the proposed E-MPSPNet performs well and is relatively efficient. UNET++ was proposed in [126], and it performs well in medical image segmentation tasks. Murashkin et al. [127] applied UNET++ to the task of mapping Arctic sea ice in Sentinel-1 SAR scenes. Feng et al. [128] proposed a joint super-resolution (SR) method to enhance the spatial resolution of original AMSR2 images. They used a DeepLabv3+ network to estimate SIC, which demonstrated good robustness in different regions of the Arctic at different times. In addition, Zhang et al. [129] combined semantic segmentation frameworks with histogram modification strategy to depict the disintegration frontier of Greenland's glaciers. It was found that the combination of histogram normalization and DRN-DeepLabv3+ was the most suitable. A hierarchical deep learning-based pipeline was designed [130], which significantly improved the classification performance in numerical analysis and visual evaluation compared to previous flat N-way classification methods. In addition, Colin et al. [131] conducted segmentation research on ten marine meteorological processes using the fully supervised framework U-Net, demonstrating the superiority of supervised learning over weakly supervised learning in both qualitative and quantitative aspects. Hoffman et al. [132] employed U-Net with satellite thermal infrared window data for Sea Ice Lead detection. An improved U-Net was used for glacier ice segmentation [133]. It introduced a new self-learning boundary-aware loss, which improved the segmentation performance of glacier fragments covering ice. CNN has not only been well-applied in SIE tasks but also used for extracting river and lake ice to achieve continuous monitoring of glacial lake evolution on Earth [134]- [136]. These researches will provide references based deep learning for SIE tasks. With the popularity and cost reduction of UAV technology, and considering its high spatiotemporal resolution, it has been widely applied in ice monitoring. It could fill the gap in satellite imagery data to some extent. Zhang et al. [14], [17] proposed ICENET and ICENETv2 networks for finegrained semantic segmentation of river ice from UAV images captured in the Yellow River. ICENET achieved good results in distinguishing open water, surface ice, and background. In addition to UAV imagery, a few researches have utilized in-situ digital sea ice images captured by airborne cameras. Compared to large-scale satellite images, information recorded by airborne cameras has lower spatial scales, providing more detailed information about the formation of surrounding sea ice at higher resolutions. Dowden et al. [137] constructed semantic segmentation datasets based on photographs taken by the Nathaniel B. Palmer icebreaker in the Ross Sea of Antarctica. SegNet and PSPNet architectures were used to establish detailed baseline experiments for the datasets. In [138], an automated SIE algorithm was integrated into a mobile device. In [139], considering the impact of raindrops on the segmentation results of captured images, raindrop removal techniques were developed to improve the classification performance. In [140], a semantic segmentation model based on conditional generative adversarial network (cGAN) was proposed. This model has good robustness and makes the effect of raindrops on the segmentation results smaller. In addition, a fast online shipborne system was developed and validated in [15] for ice detection and estimation of their locations to provide "ground truth" information supporting satellite observations. Ice-Deeplab [141] was developed to segment airborne images into three classes: Ocean, Ice, and Sky. Zhao et al. [142] improved the U-Net network by introducing Vgg-16 and ResNet-50 for encoding, constructing the new networks VU-Net and RU-Net, and achieved good results in testing with mid-high-latitude winter sea ice images captured by airborne cameras. Furthermore, a multi-label sea ice classification model embedded with SE modules was used for airborne images [143], showing significant improvement in accuracy compared to machine learning methods such as RF and gradient boosting decision tree [144]. Deep learning techniques have also found application in predicting SIC from daily observations of passive microwave sensors such as SMMR, SSM/I, and SSMI/S [145]- [147]. Chen et al. [148] have utilized passive microwave and reanalysis data to quantitatively predict SIC, thereby providing not only navigational assurance for human activities in the Arctic but also valuable insights for studying Arctic climate change. Additionally, Gao et al. [149], [150] have made significant contributions by employing collaborative representation and a transferred multilevel fusion network (MLFN) to detect and track sea ice variations from SAR images, which holds crucial importance for ensuring maritime safety and facilitating the extraction of natural resources. 2) Semi-supervised Learning: The current research on SIE is often limited by the scarcity of available datasets. To extract accurate information from large-scale datasets when only a limited number of labeled data is available, researchers have introduced SSL [151]. SSL is a technique that leverages unlabeled data to improve model performance. In the context of sea ice classification tasks, SSL can better utilize unlabeled sea ice images to enhance the model's classification accuracy. Staccone et al. [152] presented a SSL method based on generative adversarial networks (GANs) for sea ice classification. The approach leverages labeled and unlabeled data from two different sources to acquire knowledge and achieve more accurate results. Khaleghian [153] proposed a Teacher-Student label propagation method based on SSL (TSLB-SSL) to deal with a small number of labeled samples. Experimental results demonstrated its superior generalization capability compared to state-of-the-art fully supervised and three other semi-supervised methods, namely semi-GANs, MixMatch, and LP-SSL. Jiang et al. [46] proposed a semi-supervised sea ice classification model (IRGS-GCN) that combines graph convolution to address this challenge. Furthermore, a weakly supervised CNN approach was proposed in [154] for ice floe extraction. This research leveraged a limited number of manually annotated ice masks as well as a larger dataset with weak annotations generated through a watershed segmentation model, requiring minimal effort. By effectively leveraging unlabeled or weakly labeled data, this method was able to build more accurate extraction models on limited labeled datasets. 3) Unsupervised Learning: Due to ongoing technological advancements, unsupervised learning has emerged as a promising approach for sea ice classification tasks. Taking advantage of the principle that SAR imagery can depict the electromagnetic properties of sea ice, Huang et al. employ a guided learning approach based on physical characteristics, designing the structure and constraints of the models to better capture the scattering characteristics and information of sea ice in SAR imagery. By combining physical models, prior knowledge can be introduced into deep learning models, enhancing their interpretability and generalization capability. In their work [155], the scattering mechanism was encoded as topic compositions for each SAR image, serving as physical attributes to guide CNN in autonomously learning meaningful features. A novel objective function was designed to demonstrate the learning process of physical guidance. The unsupervised method achieved sea ice classification results comparable to supervised CNN learning methods. In another work [156], a novel physics-guided and injected learning (PGIL) unsupervised approach for SAR image classification was proposed. Compared to data-driven CNN and other pretraining methods, PGIL significantly improved classification performance with limited labeled data. Furthermore, in [157], uncertainty was embedded into transfer learning to estimate feature uncertainty during the learning process. Experimental results demonstrated that this method achieved better sea ice classification performance. These researches all demonstrate that physics-guided learning can help address the issue of scarce sea ice data. Manual annotation of SAR imagery data is time-consuming and expensive, making it challenging to obtain large-scale annotated data. However, physical characteristics can provide additional information to assist models in achieving more accurate classification and segmentation with limited labeled data. By leveraging physical models and prior knowledge, synthetic SAR imagery data can be generated for model training and optimization, thereby alleviating the problem of data scarcity. Therefore, future research can focus on achieving a more comprehensive and accurate understanding and classification of SAR imagery by combining physical characteristics with deep learning methods. 4) Limitations: The application of deep learning in sea ice classification has certain limitations. One of these limitations is its dependence on labeled sea ice data for training, yet currently, there is a lack of large-scale and representative benchmark datasets. Additionally, the absence of large-scale models like SAM poses a challenge in determining whether it is feasible to conduct large-scale training across different regions and latitudes to adapt to varying SIC tasks. Furthermore, research on multi-source data fusion in SIC is relatively limited. The challenge lies in leveraging the complementary characteristics of different data sources to improve the accuracy of SIC. Multi-source data fusion can encompass remote sensing images acquired from different sensors, meteorological data, and oceanic observation data, among others. By integrating and analyzing these diverse datasets, more comprehensive and accurate sea ice information can be obtained. III. ACCESSIBLE ICE DATASETS According to the guidelines established by the World Meteorological Organization (WMO), sea ice can be classified in multiple ways, taking into account factors such as the stages of its growth process, its movement patterns, and the horizontal dimensions of its surface. The predominant classification method found in the literature is based on the developmental stages of sea ice, which encompass frazil ice, nilas ice, FYI, and MYI. Additionally, some studies focus on specific tasks, such as the binary classification of open water and sea ice, as well as the multi-classification of different types of sea ice. Currently, as researchers' interest in sea ice continues to grow, there is a rising availability of relevant datasets that are openly accessible. In order to meet the demands for further experimental evaluations and establish a standardized framework for future researches, we have meticulously compiled a comprehensive database. This database encompasses all currently available open-source SAR-based, optical-based, airborne camera-based and drone-based datasets. A total of 12 datasets have been collected, accompanied by detailed descriptions of their sources. The emphasis is placed on key attributes such as sensor types, study areas, data sizes, and partitioning methods, ensuring a comprehensive and structured resource for the research community. A. SAR-based datasets 1) Radiation characteristics of sea ice: SAR is the most commonly used active microwave data type and has been employed in 80% of SIC publications. The radar wavelength, polarization mode, and incidence angle of SAR have significant impacts on the extraction performance. The specific parameters can be referred to the work [7]. • Radar wavelength Many literatures on sea ice classification have discussed the effectiveness of different radar wavelengths, including the X-band, L-band, and C-band SAR. In summary, X-band and Ku-band are suitable for winter sea ice monitoring, while L-band offers advantages for summer sea ice monitoring. The C-band, which lies between Ku-band and L-band, provides a balanced choice for sea ice monitoring across different seasons. Currently, many sea ice monitoring tasks opt for SAR in the C-band for research purposes. The study [158] demonstrates that, compared to the C-band, the L-band is more accurate in detecting newly formed ice. • Polarization mode Polarimetric techniques offer valuable insights for sea ice identification by capturing more detailed surface information using polarimetric SAR. This leads to improved classification of different sea ice types. For instance, the distinctive rough or deformed surfaces of FYI result in higher backscattering coefficients in crosspolarization. Conversely, MYI, known for its stronger volume scattering, exhibits higher backscattering coefficients in both co-polarization and cross-polarization. Notably, Nilas ice, characterized by its smooth surface and high salinity content, demonstrates consistently low backscattering coefficients across both polarizations in radar observations. • Incidence angle In many scattering experiments, the statistical characteristics of sea ice backscattering coefficients with respect to varying incidence angles can be observed distinctly. When a radar emits microwaves towards a calm open water surface, the echo signal becomes prominent when the incidence angle is close to vertical or extremely small. However, as the incidence angle increases, the backscattering from the sea surface weakens, resulting in a gradual reduction in surface roughness. Researches have shown that at higher frequency bands, increasing the incidence angle improves the classification accuracy between sea ice and open water. Additionally, the backscattering coefficients during the melting period of sea ice are also influenced by the incidence angle. For instance, in HH-polarized data, the backscattering coefficients obtained at small incidence angles are significantly higher, and they exhibit a linear relationship with increasing incidence angles. 2) Datasets: • SI-STSAR-7 [159] The dataset is a spatiotemporal collection of SAR imagery specifically designed for sea ice classification. It encompasses 80 Sentinel-1 A/B SAR scenes captured over two freeze-up periods in Hudson Bay, spanning from October 2019 to May 2020 and from October 2020 to April 2021. The dataset includes a diverse range of ice categories. The labels for the sea ice classes are derived from weekly regional ice charts provided by the Canadian Ice Service. Each data sample represents a 32x32 pixel patch of SAR imagery with dualpolarization (HH and HV) SAR data. These patches are derived from a sequence of six consecutive SAR scenes, providing a temporal dimension to the dataset. • The TenGeoP-SARwv dataset [16] The dataset is built upon the acquisition of Sentinel-1A wave mode (WV) data in VV polarization. It comprises over 37,000 SAR image patches, which are categorized into ten defined geophysical classes. • SAR WV Semantic Segmentation The dataset is a subset of The TenGeoP-SARwv dataset. It consists of three parts: training, validation, and testing. The images comprise 1200 samples and are stored as PNG format files with dimensions of 512x512x1 uint8. The label data is stored as npy files, represented by arrays of size 64x64x10, where each channel represents one of the ten meteorological classes. • KoVMrMl The dataset utilizes Sentinel-1 Interferometric Wide (IW) SAR data, including Single-Look Complex (SLC) and Ground Range Detected High-Resolution (GRDH) products in the HH channel. The GRDH images are annotated with seven types of sea ice in patches of size 256×256. The H/α labeling is obtained by processing the dual-polarization SLC data using SNAP software. • SAR based Ice types/lce edge dataset for deep learning analysis The dataset is specifically compiled for sea ice analysis in the northern region of the Svalbard archipelago, utilizing annotated polygons as references. It encompasses a total of 31 scenes and contains six distinct classes. The dataset is organized into data records, referred to as patches, which are extracted from the interior of each polygon using a stride of 10 pixels. Each class is represented by patches of different sizes, including 10x10, 20x20, 32x32, 36x36, and 46x46 pixels. • AI4SeaIce [123] The dataset consists of 461 Sentinel-1 SAR scenes matched with ice charts produced by the Danish Meteorological Institute during the period of 2018-2019. The ice charts provide information on SIC, development stage, and ice form in the form of manually drawn polygons. The dataset also includes measurements from the AMSR2 microwave radiomete sensor to supplement the learning of SIC, although the resolution is much lower than the Sentinel-1 data. Building upon the AI4SeaIce dataset, Song et al. [125] constructed a icewater semantic segmentation dataset. • Arctic sea ice cover product based on SAR [122] The dataset is based on Sentinel-1 SAR and provides Arctic sea ice coverage data. Approximately 2500 SAR scenes per month are available for the Arctic region. Each S1 SAR image acquired in the Arctic has been processed to generate NetCDF sea ice coverage data. Each S1 image corresponds to an NC file. The spatial resolution of the SAR-derived sea ice cover is 400 m. The website has released the processing of S1 data obtained in the Arctic from 2019 to 2021 and has uploaded the corresponding sea ice coverage data. B. Optical-based datasets 1) Common optical sensors: There are several types of optical sensors commonly used for ice classification: • MODIS MODIS is an optical sensor widely used for ice classification. It is carried on the Terra and Aqua satellites. By observing the reflectance and emitted radiation of the Earth's surface, MODIS can provide valuable information about ice characteristics such as color, texture, and spectral properties. • VIIRS VIIRS is an optical sensor with multispectral observation capabilities, used for monitoring and classifying the Earth's surface. It provides high-resolution imagery and has applications in ice classification. • Landsat series The Landsat satellites carry sensors that provide multispectral imagery for land cover classification and monitoring, including ice classification. Sensors such as OLI (Operational Land Imager) and TIRS (Thermal Infrared Sensor) on Landsat 8, as well as previous sensors like ETM+ (Enhanced Thematic Mapper Plus), have been extensively used in ice classification tasks. • Sentinel series The European Space Agency's Sentinel satellite series includes a range of sensors for Earth observation, including multispectral and thermal infrared sensors. The multispectral sensor on Sentinel-2 is utilized for ice classification and monitoring, while the sensors on Sentinel-3 provide information such as ice surface temperature and color. • HY-1 (Haiyang-1) HY-1 also contribute to ice classification and monitoring. The HY-1 satellite is a Chinese satellite mission dedicated to oceanographic observations, including the monitoring of sea ice. The HY-1 satellite carries the SCA (Scanning Multichannel Microwave Radiometer) sensor, which operates in the microwave frequency range. This sensor can provide measurements of SIC, sea surface temperature, and other related parameters. By detecting the microwave emissions from the Earth's surface, the SCA sensor can differentiate between open water and ice. These optical sensors capture spectral information or radiation characteristics in different bands, enabling the acquisition of valuable data on ice morphology, types, and distribution. They play a crucial role in ice classification and monitoring. These sensors are widely employed in remote sensing and Earth observation, providing valuable data for ice monitoring and research purposes. C. Datasets based on alternative acquisition methods Ice classification datasets based on alternative acquisition methods include imagery captured by icebreakers and drones. • Airborne camera-based datasets The dataset is constructed from GoPro images captured during a two-month expedition conducted by the Nathaniel B. Palmer icebreaker in the Ross Sea, Antarctica [137]. The video clips captured can be found at https://youtu.be/BNZu1uxNvlo. These images were manually annotated using the opensource annotation tool PixelAnnotationTool into four categories: ice, ship, ocean, and sky. The dataset was divided into three sets, namely training, validation, and testing, in an 8:1:1 ratio. Data augmentation was performed by horizontally flipping the images, resulting in a training dataset of 382 images. • River ice segmentation [160] The dataset collects digital images and videos captured by drones during the winter seasons of 2016-2017 from two rivers in Alberta province: the North Saskatchewan River and the Peace River. The images in the dataset are segmented into three categories: ice, anchor ice, and water. The training set consists of 50 pairs, while the validation set includes 104 images; however, there are no labels available for the validation set. • NWPU YRCC2 dataset A total of 305 representative images were selected from videos and images captured by drones during aerial surveys of the Yellow River's Ningxia-Inner Mongolia section. These images contain four target classes and were cropped to a size of 1600 × 640 pixels. The majority of these images were collected during the freezing period. Each pixel of the images was labeled into one of four categories: coastal ice, drifting ice, water, and other, using Photoshop software. The dataset was split into training, validation, and testing sets in a ratio of 6:2:2, comprising 183, 61, and 61 images, respectively. These datasets provide valuable resources for training and evaluating ice classification algorithms using imagery from icebreakers and drones. They contribute to the development of accurate and robust models for ice classification, utilizing alternative data sources. IV. APPLICATIONS Given the progress in SIE and classification technologies, obtaining accurate spatial distribution and dynamic changes of sea ice has become increasingly vital. Through careful analysis and evaluation, a multitude of valuable geographic information products have been developed. These products play a pivotal role in various domains, including weather forecasting [161], maritime safety [162], resource development [149], and ecological conservation [163]. In this section, we will delve into the specific applications derived from and classification, as shown in Fig. 4. Fig. 4. The extracted sea ice information finds significant applications in various domains, including meteorological forecasting and climate research, navigation and maritime navigation, and geospatial information products. A. Meteorological Forecasting and Climate Research The results of have significant applications in meteorological forecasting and climate prediction. By utilizing remote sensing techniques to extract and classify sea ice data, it becomes possible to improve the models that depict the interactions between the ocean and the atmosphere, further enhancing our understanding of sea ice response to climate change [164]. Analysis from research [161] reveals the potential value of sea ice observation data. The authors emphasize the regional variations in sea ice trends and highlight the lack of comprehensive records regarding marine connections. They utilize observation data to establish extensive Arctic and regional sea ice trends, enabling the identification and selection of climate models with optimal predictive capabilities on a global scale. These models subsequently provide more accurate predictions of future sea ice changes, which are closely linked to vital marine pathways in the Arctic region. Furthermore, the extraction and classification of sea ice hold significant implications for monitoring climate change. This is due to the high albedo [165] of sea ice, which greatly alters the energy balance of the ocean. Additionally, sea ice exhibits low thermal conductivity, exerting a significant influence on the heat exchange between the ocean and the atmosphere. Thus, sea ice serves as a crucial indicator of climate change. Through regular extraction and classification of sea ice, we can monitor its temporal and spatial variations, analyze the trends of sea ice retreat and formation, and provide data support for climate change research. Research outlined in [163] evaluates Arctic amplification and sea surface changes by observing the anomalies in Arctic sea ice extent, thickness, snow depth, and ice concentration in comparison to the mean state during different periods (2011-2018). Hence, the application of and classification is crucial for meteorological forecasting, climate prediction, and climate change monitoring. By utilizing remote sensing techniques to extract and classify sea ice data, we can enhance the predictive capabilities of climate models, delve deeper into the interactions between sea ice and the climate system, and assess and monitor the trends and impacts of climate change. B. Maritime and Ocean Navigation Accurate extraction and classification of sea ice data play a vital role in maritime and ocean navigation. By utilizing remote sensing techniques to extract and classify sea ice information, it becomes possible to efficiently generate valuable products such as sea ice distribution maps, ice edge charts, and route planning tools. These products serve as crucial aids for ships, enabling them to navigate safely and avoid ice-prone areas. the Arctic Northeast Passage (NEP) has undergone remarkable changes in sea ice conditions, significantly impacting both the environment and navigational capabilities [166]. Research indicates a continued reduction in Arctic sea ice, leading to the shortening of trade routes in the Arctic Ocean and potentially affecting the global economy [167]. The work [168] focusing on the Arctic NEP have examined the influence of sea ice variations on the future accessibility of the route. While reduced sea ice has made it relatively easier for vessels to traverse the Arctic NEP, challenges and risks still persist. Another work [169] analyzed changes in sea ice volume and age, assessing the accessibility and navigable regions of the Arctic route. Furthermore, the extent and thickness of sea ice hold significant importance for navigation, as emphasized in [170]. MYI, known for its thickness and hardness, poses substantial risks to ships. In contrast, younger and thinner ice enables icebreakers and regular cargo vessels to navigate more freely along ice-free coastal areas during the summer [171]. A recent study [172] investigated the impact of sea ice conditions. Similarly, research [173] revealed that sea ice thickness has a greater impact on vessel speed than ice concentration, underscoring its pivotal role in successful transit through the Arctic route. Therefore, future research endeavors should focus on enhancing the spatial and temporal resolution of sea ice monitoring to accurately evaluate the navigational capabilities of critical straits and regions. Recent achievements have been made in this domain. A study [174] utilized high-quality, co-located satellite data and observation-calibrated reanalysis data to analyze sea ice changes along Arctic shipping routes. This research investigated the spatiotemporal distribution characteristics, melt/freeze timing, and variations across trans-Arctic routes using datasets such as NSIDC SIC and daily PIOMAS SIT products. Additionally, by incorporating optimal interpolation sea surface temperature (SST) and SIC data, another study [175] examined the spatiotemporal distribution characteristics of SST and SIC above 60°N in the Arctic, along with their interrelationships. These findings hold crucial implications for Arctic shipping and sea ice forecasting, contributing to enhanced navigation and decision-making in the region. C. Geographic Information Products In recent years, significant advancements have been made in utilizing remote sensing techniques to generate geographic information products related to ice and polar regions. These applications encompass various aspects, including mapping, GIS, and algorithmic approaches. Reference [176] highlights the positive impact of Interferometric Synthetic Aperture Radar (InSAR) technology on Antarctic topographic mapping, not only at scales as small as 1:25,000 but also in thematic analysis and monitoring. By employing multiple radar images and D-InSAR techniques, it becomes possible to monitor subtle centimeter-level changes, offering tremendous potential for studying Antarctic glacier movement, mass balance, and global environmental changes. In a similar vein, the work [177] demonstrates the production of polar remote sensing products using very high-resolution satellite (VHRS) imagery, which proves to be an effective alternative to costlier aerial photographs or ground surveys. Moreover, the work [178] utilizes high-resolution ICESat laser altimetry to observe the dynamic changes in the grounding line of Greenland and Antarctic ice sheets, revealing a widespread thinning phenomenon across Greenland's latitudes and intensified thinning along critical Antarctic grounding lines. Furthermore, the work [179] introduces the Ship Navigation Information Service System (SNISS), an advanced ship navigation information system based on geospatial data. SNISS offers a macroscopic perspective to develop optimal navigation routes for the Arctic NEP and provides ice image retrieval and automated data processing for key straits. Similarly, the work [180] develops RouteView, an interactive ship navigation system for Arctic navigation based on geospatial big data. By incorporating reinforcement learning and deep learning technologies, RouteView calculates the optimal routes for the next 60 days and extracts sea ice distribution. These studies have the potential to enhance the safety of vessels navigating the NEP and drive the development of augmented reality (AR) information extraction methods. Arctic sea ice distribution maps serve as valuable aids for route planning, enabling vessels to avoid ice-covered areas and ensure sufficient water depth for safe passage. In addition, PolarView is a ship navigation and monitoring system specifically designed for polar regions. It offers real-time vessel positioning and navigation information, including sea ice coverage, ship route planning, and hazard zone alerts. In the realm of path planning optimization, a sophisticated maze path planning algorithm with weighted regions has been proposed in research [162]. As remote sensing techniques continue to advance and polar observation data becomes increasingly accessible, a variety of geographic information integration and visualization platforms have emerged. One notable platform is Quantarctica [181], which has been specifically designed as a comprehensive visualization platform for mapping Antarctica, the Southern Ocean, and the islands surrounding Antarctica. It encompasses scientific data from nine disciplines, including sea ice, providing a wealth of information for researchers. Another significant resource is the International Bathymetric Chart of the Southern Ocean (IBCSO) [182], which offers detailed information about the bathymetry of the Southern Ocean. This dataset serves as a valuable resource for marine science research and the exploration of marine resources in the region. For terrain data in polar regions, ArcticDEM is a prominent system that enables terrain analysis, glacier research, hydrological modeling, and more. Its comprehensive dataset contributes to a better understanding of the physical characteristics of the polar regions. To access a wide range of information about the polar regions, the ArcticWeb platform serves as a comprehensive polar information hub. It offers various resources including maps, satellite imagery, weather data, and sea ice information. This integrated platform facilitates access to vital information for researchers, scientists, and policymakers working in the polar regions. Additionally, there are online systems dedicated to sea ice monitoring and prediction. IceMap utilizes satellite data and numerical models to provide real-time sea ice coverage maps, thickness estimates, and predictive simulations. It assists users in monitoring the state and trends of sea ice, providing valuable insights for various applications. For studying Arctic sea ice changes, the PIOMAS system offers simulation and analysis capabilities. It provides information on Arctic sea ice thickness, volume, and distribution, which are crucial for climate research and analysis of ice conditions. In terms of monitoring snow and ice cover thickness in polar regions, the SnowSAT remote sensing system employs radar and laser altimetry data to deliver high-resolution measurements. This data is valuable for understanding snow depth and ice cover thickness, aiding in researches related to climate change and polar ecosystems. Lastly, the Sea Ice Index, an online system provided by the U.S. National Snow and Ice Data Center, offers monitoring capabilities for global sea ice coverage and changes. It provides satellite-based sea ice indices and spatiotemporal distribution maps, enabling effective climate monitoring, environmental conservation, and management of marine resources in polar regions. These systems collectively contribute to a comprehensive understanding of the polar regions and their dynamic characteristics. Moving forward, it is crucial to enhance the analytical capabilities of these systems by incorporating structured modeling of sea ice, enabling more sophisticated geographical analysis and providing better support for various applications in polar environments. From glacier change observations to information system integration, and from ship navigation to route planning, these applications provide valuable data and tools for scientists, governments, policymakers, and related industries, helping them better understand and manage sea ice resources. Additionally, scholars have conducted research on polar mapping and achieved significant results. Wang et al. [183] identified three commonly used map projection methods for the Antarctic region: Polar Stereographic Projection, Transverse Mercator Projection, and Lambert Conformal Conic Projection, all of which are equal-angle projections. Fig. 5 lists several commonly used projection visualizations of the Arctic region. The Quantarctica system utilizes the Antarctic Polar Stereographic projection EPSG:3031. Due to the unique geographical position of polar regions, commonly used map projections have their limitations, and specific research is needed to address specific issues. D. Others Sea ice information is critical for the development of natural resources in coastal areas. Extracting and classifying sea ice can help assess its impact on activities such as fishing [184], oil and gas extraction [185], and submarine cable laying [186], providing important references for decision-makers. Sea ice is an essential component of the polar ecosystem. Its freezing and melting not only has a certain balancing effect on temperature changes in polar regions, but also affects the stability of ocean temperature, salinity, and stratification, thereby impacting global ocean circulation [187]. Extracting and classifying sea ice can generate information such as sea ice boundaries, ice-water interfaces, and cracks, which are useful for ecological research and conservation efforts. The results of and classification can be used in various fields of marine science [188] [189], including ocean physics, marine biology, and marine geology. By analyzing the characteristics and distribution of sea ice, changes and evolutionary processes of the marine environment can be inferred. V. CHALLENGES IN ICE DETECTION There are several issues and challenges in SIE tasks. Firstly, a major problem is the limited availability of data sources, which restricts the accuracy and spatiotemporal resolution of SIC. The scarcity and discontinuity of existing data sources make it difficult to comprehensively capture and analyze sea ice features. Secondly, current SIC techniques have limited accuracy in complex sea ice conditions. Sea ice exhibits diverse variations in morphology, density, thickness, and other characteristics, making it challenging for traditional algorithms to cope with. Moreover, complex sea ice features such as cracks, ridges, and leads undergo intricate changes, which are difficult to capture and represent using conventional methods. Additionally, there are limitations in the ability to detect underwater ice, making it challenging to obtain parameters such as its morphology and thickness. To address these issues, further exploration is needed in terms of detection methods, modeling approaches, and mapping applications. A. Exploration Methods Aspect 1) Multi-sensor integration: Current research in primarily relies on optical imagery, SAR imagery, or aerial photography captured by airborne cameras. Different sensors have their own characteristics and limitations in observing sea ice. A single sensor may not provide comprehensive information about sea ice. By introducing multi-sensor integration, the advantages of various sensors can be fully utilized to compensate for the limitations of a single sensor and obtain more comprehensive and accurate sea ice data. Multi-sensor integration can combine different technological approaches, such as microwave radar, optical sensors, acoustic techniques, etc., to acquire more comprehensive information about sea ice. For example, combining radar and optical sensor data enables simultaneous extraction of sea ice geometry and surface features, facilitating more precise and monitoring. Moreover, multi-sensor integration can also fuse data obtained from ground-based observations, satellite remote sensing, UAVs, and other platforms, providing multi-scale and multi-angle sea ice observations, thereby gaining a more comprehensive understanding of the spatiotemporal variations of sea ice. Furthermore, establishing a continuous monitoring system using multiple sensors allows for dynamic monitoring and analysis of sea ice through long time series of remote sensing observations. By utilizing satellite remote sensing and other data sources, long-term monitoring of sea ice changes can be achieved to reveal its seasonal and interannual variations. This enhances the reliability and consistency of data, enables multi-scale and all-weather sea ice observations, and improves the capability of sea ice monitoring and prediction. These advancements provide more comprehensive and accurate data support for sea ice research and related applications. 2) Underwater ice detection: Currently, remote sensing techniques are primarily used for, employing remote sensing sensors such as satellites, aircraft, and UAVs to obtain image data of sea ice. Common remote sensing techniques include optical remote sensing, SAR, and multispectral remote sensing, which provide information on the spatial distribution, morphological features, cracks, and ice floes of sea ice. In addition, close-range images of sea ice can be acquired by mounting imaging devices on ships. Shipborne observations provide higher accuracy and local-scale sea ice information. Furthermore, UAVs equipped with sensors such as cameras and thermal infrared cameras enable high-resolution observations and measurements of sea ice. UAV technology offers high maneuverability and flexibility, allowing for more detailed information about sea ice. However, remote sensing methods are primarily suitable for surface detection and observation of sea ice, while direct remote sensing detection of underwater ice, such as subsea ice caps, is relatively challenging. Due to the absorption and scattering properties of water, remote sensing techniques are limited in their penetration and detection capabilities underwater. However, the detection of underwater ice is crucial for navigation and hydrographic surveying, as it can have significant implications for ship and navigation safety. The presence of underwater ice can lead to collisions, obstruction of navigation, or structural damage to vessels. Therefore, accurate detection and localization of underwater ice are essential for safe navigation planning and guidance. Some remote sensing techniques and sensors can still provide some information about underwater ice under specific conditions. Sonar remote sensing is a technique that uses sound waves for detection and imaging in underwater environments. It can provide relevant information about underwater ice, such as the morphology of the ice bottom surface and ice thickness, by measuring the time and intensity of sound waves propagating in water. Sonar remote sensing finds widespread applications in the study of subsea ice caps and marine surveying. Additionally, technologies such as lasers and radars can also be used to some extent for underwater ice detection. Laser depth sounders can measure the distance and shape of underwater objects, providing information about ice thickness. Radar systems can penetrate to a certain depth underwater and detect the presence of underwater ice layers when operating at appropriate frequency bands. B. Model Approaches Aspect 1) Multi-source data fusion model: The monitoring of sea ice primarily relies on SAR remote sensing technology, which can penetrate meteorological conditions such as clouds, snowfall, and polar night to obtain high-resolution sea ice information. SAR also has the advantage of being sensitive to the structure and morphological changes of sea ice, enabling the identification and differentiation of different types of sea ice and providing more accurate monitoring and prediction of sea ice. There are also a few researches that utilize optical remote sensing technologies, such as visible light and infrared satellite imagery. However, optical remote sensing is limited under conditions of cloud cover, polar night, and other factors, making it difficult to obtain clear sea ice information. Furthermore, due to the complexity and variability of sea ice, the limitations of a single optical remote sensing technology can lead to misclassification and omission errors. Therefore, some studies have fully considered the complementarity of optical and SAR data in sea ice classification and have fused the two to extract sea ice information in the study area. Li et al. [11] analyzed the imaging characteristics of sea ice in detail and achieved fusion by solving the Poisson equation based on Sentinel-1 and S2 images to derive the optimal pixel values. Compared to the original optical images, the fused images exhibit richer spatial details, clearer textures, and more diverse material textures and colors. The constructed OceanTDL 5 model is then employed for SIE. In addition to directly fusing heterogeneous images, Han et al. [12] proposed a fusion of the features extracted from both sources. They first utilized an improved Spatial Pyramid Pooling (SPP) network to extract different-scale sea ice texture information from SAR images based on depth. The Path Aggregation Network (PANet) was employed to extract multilevel features, including spatial and spectral information, of different types of sea ice from the optical images. Finally, these extracted low-level features were fused to achieve sea ice classification. In their work [13], they further introduced a Gate Fusion Network (GFN) to adaptively adjust the feature contributions from the two heterogeneous data sources, thereby improving the overall classification accuracy. Han's work primarily focuses on feature-level fusion of SAR and optical images. In addition, input-level fusion and decision-level fusion have been demonstrated as effective methods [190]- [192], yielding favorable results in land use classification tasks. However, in the context of sea ice classification, it is crucial to consider the influence of different spectral bands on the radiation properties of sea ice. For instance, a simple approach involves replacing one of the R, G, or B channels in the RGB image with a single SAR band. Through experimentation, it was found that replacing the B band yielded superior results, as the B band exhibits weaker texture characteristics while SAR better reflects the radiation properties of sea ice. Furthermore, another approach involves concatenating a single SAR band with the RGB threechannel image to form a four-channel image. However, during the model's pretraining process, there may be difficulties in loading certain weights, resulting in suboptimal outcomes. 2) Unsupervised Deep Learning: However, deep learning methods currently face challenges in the classification of remote sensing images, and one major challenge is the extensive manual annotation required. Additionally, accurate labeling of sea ice categories relies on expert knowledge, resulting in a scarcity of large-scale sea ice datasets for research purposes. The emergence of unsupervised deep learning presents a promising solution to this problem. By leveraging pre-training techniques such as transfer learning and self-supervised learning, unsupervised approaches can learn informative features for different sea ice types, enabling effective sea ice classification tasks. Researches generally focus on specific regions of interest, such as the Greenland area. However, imagery exhibits variations across different regions, and sea ice distribution patterns differ as well. Consequently, testing the same model in different regions yields substantial discrepancies in the results. To tackle this challenge, the work [74] proposed the integration of texture features derived from gray-level cooccurrence matrices into the extraction and classification of training samples. Unsupervised generation of training samples replaced the costly and labor-intensive process of manual annotation. Moreover, the method produced adaptable training samples that better accommodate the pronounced fluctuations in sea ice conditions within the Arctic MIZ. This concept has undergone initial testing using a subset of Gaofen-3 images. In response to the scarcity of labeled pixels in remote sensing images, the work [193] presents an effective approach for sea ice classification from two perspectives. Firstly, a feature extraction method is developed that extracts contextual features from the classification map. Secondly, an iterative learning paradigm is established. Experimental results demonstrate that with limited training data available, the training and classification of sea ice image representations with comprehensive exemplar representation under mutual guidance provide insights for addressing the scarcity of labeled sea ice data. Therefore, in response to the limitations of annotated datasets in sea ice research, unsupervised deep learning emerges as a highly promising avenue. By directly extracting insights from unlabeled data itself, it serves as a powerful tool for automatic feature learning, representation learning, and clustering. Unsupervised deep learning methods exploit the intrinsic structures and patterns within sea ice imagery, enabling the automatic extraction of informative features without the reliance on external labels or manual feature engineering. Within the realm of sea ice classification tasks, unsupervised deep learning techniques, such as autoencoders, GANs, and variational autoencoders (VAEs), excel at acquiring meaningful representations from unlabeled sea ice data. These approaches discover similarities, textures, shapes, and other discernible patterns inherent in sea ice images, thereby transforming them into valuable feature representations. Moreover, the utilization of extensive unlabeled sea ice data for training purposes expands the available dataset, consequently enhancing the generalizability and robustness of sea ice classification models across varying timeframes, locations, and sensor conditions. However, the application of unsupervised deep learning methods to SIC tasks introduces certain challenges. Primarily, the absence of external labels as supervision signals may yield inaccurate or ambiguous feature representations. Therefore, it is imperative to design suitable objective functions and loss functions to guide the unsupervised learning process, ensuring the acquired features effectively facilitate the classification and analysis of sea ice images. Additionally, training unsupervised learning models may necessitate increased computational resources and time due to the involvement of complex network architectures and larger-scale datasets. Furthermore, evaluating the performance of unsupervised learning methods and conducting comparative analyses to discern the strengths and weaknesses of different approaches represent inherently challenging tasks in this domain. 3) Construct ICE-SAM large model: The Segment anything model (SAM) [194], originally designed for segmenting natural images, is capable of segmenting various objects. We applied this model to the task of sea ice classification, and the segmentation results are shown in Fig. 6. SAM demonstrates high precision in the task of sea ice image segmentation, effectively distinguishing different types of sea ice. However, the model itself cannot directly determine the specific category names of the sea ice, i.e., it cannot associate the segmentation results with predefined sea ice categories. To address this issue, we try to introduce the CLIP model [195] as an auxiliary classifier, as it possesses the capability of joint understanding of images and text. We use the segmented sea ice image patches as inputs and compare them with a range of predefined sea ice category names. Through this comparative analysis, the CLIP model comprehends the connection between image content and category names, identifying the most matching category. Consequently, we can accurately classify the sea ice image patches into their respective sea ice categories, obtaining specific category names for each sea ice region. Thus, the role of the CLIP model in sea ice image segmentation is to provide inference capability for sea ice category names. By leveraging its understanding of both images and text, the CLIP model establishes the association between segmentation results and category names, enabling us to acquire more comprehensive and detailed sea ice classification information. This approach allows for a more comprehensive understanding of sea ice features and attributes, providing more accurate data support for sea ice monitoring and research. C. Cartographic Applications Aspect 1) Polar Geographic Information Systems (GIS): Researchers have developed various GIS and tools specifically tailored for polar regions to support the processing, analysis, and visualization of polar environments and related data. In the early stages, a web-based GIS system [196] was developed, providing online access, exploration, visualization, and analysis of archived sea ice data. Subsequently, systems such as PolarView, SNISS [179], and RouteView [180] were designed for polar navigation planning and ship navigation. These systems offer functionalities such as voyage planning, vessel position monitoring, and channel information retrieval, utilizing real-time data and model analysis to facilitate safe and efficient navigation in polar waters. However, these systems have limited integration of information, and the analysis paths considered are relatively narrow, resulting in somewhat idealized outcomes that have only limited reference value. Furthermore, with the increasing availability of polar observation data, several geographic information integration and visualization platforms have emerged. For example, Quantarctica [181], (IBCSO) [182], ArcticDEM, and ArcticWeb provide functionalities for visualizing polar geographic data, scientific data querying, map generation, and analysis. Online systems dedicated to sea ice monitoring and prediction, such as IceMap, PIOMAS, SnowSAT, and Sea Ice Index, offer realtime sea ice coverage data, thickness estimation, and predictive simulations. The aforementioned systems primarily encompass ship navigation and monitoring, sea ice monitoring and prediction, polar mapping and geospatial information display, ice thickness measurement, climate research, and environmental protection. These GISs generally employ a layered architectural framework consisting of a data layer, an application layer, and a user interface layer. The data layer is responsible for storing and managing various polar-related geographic data, generally organized and stored in databases or file systems. These data can originate from multiple sources such as satellite observations, remote sensing imagery, marine surveys, meteorological stations, and vessels. The application layer is dedicated to processing and analyzing polar geospatial data, providing various functionalities and services. Within these polar systems, the application layer includes functions such as sea ice monitoring and prediction, navigation planning and guidance, map creation and visualization, and geospatial analysis and modeling. The functionalities within the application layer are typically implemented through algorithms, models, and tools, enabling data processing, analysis, and generating corresponding results and products. The user interface layer is responsible for presenting and displaying geospatial data, functionalities, and results to users, facilitating interaction and visualization of the system's capabilities. However, most existing systems primarily focus on data integration and visualization, lacking comprehensive geospatial analysis capabilities. In order to achieve geospatial analysis functions for polar regions (taking sea ice as an example), the architectural design and expansion of polar systems can be further improved. Here are some suggested feature enhancements and architectural directions: • Data Integration and Management. Polar systems should integrate sea ice data from multiple sources and manage them in a unified and standardized manner. This includes satellite observations, remote sensing imagery, marine measurements, and more. To enable structured modeling and geospatial analysis, the data integration and management module should incorporate functionalities such as data cleansing, format conversion, quality control, and metadata management. • Structured Modeling. The system needs to develop algorithms and models for structured modeling of sea ice, transforming raw sea ice data into structured representations with geospatial information. This involves modeling sea ice morphology, density, thickness, distribution, and the relationships between sea ice and other geographical features. The sea ice structured modeling module should consider the spatiotemporal characteristics of sea ice and establish associations with the geographic coordinate system. • Geospatial Analysis Capabilities. The system should provide a wide range of geospatial analysis functions to extract useful geospatial information from the sea ice structured model. This may include spatiotemporal analysis of sea ice changes, thermodynamic property analysis, analysis of sea ice interactions with the marine environment, and more. The geospatial analysis module should support various analysis methods and algorithms, along with interactive visualization and result presentation. It can be observed that: the first column accurately segments the image, the second and fifth columns can easily differentiate sea ice, the third and sixth columns do not perform segmentation, and the segmentation result in the fourth column is excessively detailed. • Real-time Data and Updates. To ensure timeliness, the system should support real-time acquisition and updates of sea ice data. This can be achieved through realtime connections with data sources such as satellite observations, buoys, UAVs, and more. Additionally, the system should possess efficient and scalable data storage and processing capabilities to handle large-scale data processing requirements. Future systems can further expand their architectural framework by incorporating technologies such as distributed computing, cloud computing, and artificial intelligence to enhance system performance and scalability. Furthermore, strengthening data sharing, standardization, and interoperability can facilitate data integration and functional consolidation among different systems, enabling a higher level of integration and collaborative work. These extended functionalities will enhance the overall performance and practicality of polar systems, providing comprehensive support for scientific research, navigation safety, and environmental protection, among other domains. 2) Polar Map Projections : The unique shape and geographical attributes of the Earth's surface in polar regions make mapping challenging, hence research on polar cartographic projections has always been an important topic. Specifically, Bian et al. [197] introduced the concept of complex variable isometric latitude based on the Gauss projection complex variable function. They overcame the limitations of traditional Gauss projections and established a unified and comprehensive "integrated representation" of Gauss projection in polar regions. Building upon this foundation, through rigorous mathematical derivations, they provided theoretically rigorous direct and inverse expressions for Gauss projection that can be used to fully represent polar regions, as well as corresponding scale factors and meridian convergence formulas. This approach addresses the problem of the impracticality of traditional Gauss projection formulas in polar regions and is of significant importance in improving the mathematical system of Gauss projection. It can be applied to the entire polar region and has important reference value for compiling polar maps and polar navigation [198]. Furthermore, research [199] demonstrates that the non-singular Gauss projection formula for polar regions meets the requirements of continuous projection within the polar region, providing a theoretical basis for the production of polar charts. Due to its conformal property, Gauss projection can better determine directional relationships and is of significant reference value for the production of topographic maps along the central meridian in polar regions, and can be combined with the current need for polar navigation charts for the Arctic route. Gauss projection has advantages over sundial projection when applied to polar regions. Currently, most globally released Antarctic sea ice distribution maps are presented in a spherical projection, which cannot be directly used for mainstream tiled map publication. The work [200] converts polar azimuthal stereographic projection sea ice charts to the mainstream web Mercator projection map, and utilizes appropriate image resampling methods to generate tiles and store them with numbered tiles according to different scale levels, ultimately achieving the publication and sharing of sea ice image maps. In recent years, there has been a relative lack of research on the latest developments in polar cartographic projections. The current major challenges include severe distortion of commonly used projection methods in polar regions and the difficulty of finding a suitable balance between equal area and equal angle properties. Additionally, polar regions generally possess highly complex data, such as sea ice distribution and ice sheet changes. Therefore, another challenge in polar projection is how to effectively visualize and present the geographical information of polar regions. To more effectively visualize and present geographic information of the polar regions to meet the needs of different users, there are several potential research prospects and directions for future development, including: • Novel polar projection methods. Researchers can continue to explore and develop new polar projection methods to address the existing issues in current projection methods. This may involve introducing more complex mathematical models or adopting new technologies such as machine learning and artificial intelligence to achieve more accurate and geographically realistic polar projec-tions. • Multiscale and multi-resolution polar projections. Polar regions encompass a wide range of scales, from local glaciers to the entire polar region, requiring map projections at different scales. Therefore, researchers can focus on how to perform effective polar projections at various scales and resolutions to meet diverse application requirements and data accuracy needs. • Dynamic polar projections. The geographical environment in polar regions undergoes frequent changes, such as the melting of sea ice and glacier movements. Researchers can investigate how to address this dynamism by developing dynamic polar projection methods that can adapt to changes in the geographical environment, as well as techniques for real-time updating and presentation of geographic information. • Multidimensional polar projections. In addition to spatial dimensions, data in polar regions also involve multiple dimensions such as time, temperature, and thickness. Researchers can explore how to effectively process and present multidimensional data within polar projections, enhancing the understanding of polar region changes and features. VI. CONCLUSION This review provides a summary and overview of the methods used for SIE in the past five years, including classical image segmentation methods, machine learning-based methods, and deep learning-based methods. In addition, we have compiled a list of currently available open-source datasets for ice classification and segmentation, and explored the application aspects of from multiple perspectives. Finally, we have identified potential research directions based on the challenges encountered in detection methods, model approaches, and cartographic applications. A.Yu, W. Huang, Q. Xu, Q. Sun, W. Guo, S. Ji, B. Wen and C. Qiu are with the PLA Strategic Support Force Information Engineering University, Zhengzhou 450001, China. Corresponding author: Wenjun Huang (huangwj geo@126.com). Fig. 1 . 1The co-citation network for SIE research. The frequency of the keywords was visually represented by the size of the nodes, while the strength of their relationships was indicated by the width of the linking lines. Additionally, the publication year was visually depicted through the color variation of the nodes. Fig. 2 . 2Structure of this review. Fig. 3 . 3Chronological overview of the most relevant deep learning-based SIE methods. extract sea ice from various data sources and achieve accurate results. In [100], a hyperspectral sea ice image classification method based on principal component analysis (PCA) was proposed. A comparison was made among SVM, 1D-CNN, 2D-CNN, and 3D-CNN, showing promising results in sea ice classification with fewer training samples and shorter training time. Xu et al. 2 ) 2Datasets: Compared to SAR-based datasets, there are fewer datasets based on optical imagery. To the best of our knowledge, there are currently two open-source optical imagery datasets available: • 2021Gaofen The dataset is based on HY-1 visible light images with a resolution of 50m. The scenes cover the surrounding region of the Bohai Sea in China. The provided images have varying sizes ranging from 512 to 2048 pixels and consist of over 2500 images. Each image has been manually annotated at the pixel level for sea ice, resulting in two classes: sea ice and background. The remote sensing images are stored in TIFF format and contain the R-G-B channels, while the annotation files are in PNG format with a single channel. In the annotation files, sea ice pixels are assigned a value of 255, and background pixels have a value of 0. • Arctic Sea Ice Image Masking The dataset consists of 3392 satellite images of the Hudson Bay sea ice in the Canadian Arctic region, captured between January 1, 2016, and July 31, 2018. The images are acquired from the Sentinel-2 satellite and composed of bands 3, 4, and 8 (false color). Each image is accompanied by a corresponding mask that indicates the SIC across the entire image. Fig. 5 . 5Several Projection Visualizations in the Arctic Region: (a) The projection center is at the North Pole, characterized by a circular boundary. The map is symmetrically and uniformly distorted in all directions from the North Pole as the center. (b) The projection center is shifted away from the North Pole. The map still has a circular boundary, but the center is no longer the North Pole, and the distortion of the projection is not symmetric. (c) Rectangular maps are commonly used to display the entire polar region. (d) Vertical map. The Universal Transverse Mercator projection is used to simultaneously depict the North and South Poles. (e) The projection center is shifted, resulting in a non-global polar effect, with the coordinate range forming a sector-shaped area. Fig. 6 . 6SAM segmentation results applied to Sentinel-2 imagery. (a) Sentinel-2 imagery and (b) SAM segmentation results. TABLE I THE IOVERVIEW OF THE DETAILED DESCRIPTION OF THE 12 DATASETS WE COLLECTED.Type Dataset Data Source Research Area Task Ref. Download Link SAR-based SI-STSAR-7 Sentinel-1 A/B dual- polarization (HH and HV) in EW scan mode cover the entire open ocean Classified by: OW, NI, GI, GWI, ThinFI, MedFI and ThickFI [159] Download link The TenGeoP-SARwv dataset the WV in VV polariza- tion from Sentinel-1A over the open ocean Classified by: Atmospheric Fronts, Biologi- cal Slicks, Icebergs, Low Wind Area, Micro Convective Cells, Oceanic Fronts, Pure Ocean Waves, Rain Cells, Sea Ice, Wind Streaks [16] Download link SAR WV Semantic Segmen- tation Same as above Same as above Same as above [131] Download link KoVMrMl Sentinel-1 IW SAR data, including SLC and GRDH products with HH channel Belgica Bank, an ice-covered area along the north-east coast of Greenland Classified by: Water, Young ice, FYI, Old ice, Mountains, Iceberg, Glaciers and Floating Ice [155] Download link SAR based Ice types/lce edge dataset for deep learning anal- ysis Sentinel-1A EW GRDM north of svalbard Classified by: Open Water, Leads with Water, Brash/Pancake Ice, Thin Ice, Thick Ice-Flat and Thick Ice-Ridged - Download link AI4SeaIce The Sentinel-1 dual- polarization HH and HV, along with the PMR measurements from the AMSR2 instrument on the JAXA GCOM-W satellite the waters surround- ing Greenland Sea ice concentration, developmental stages, and forms of sea ice [123] Download link Arctic sea ice cover product based on spaceborne SAR Sentinel-1 dual- polarization HH/HV data in EW mode the Arctic Arctic sea ice coverage data [122] Download link Optical-based 2021Gaofen HY-1 visible light imagery with a resolution of 50 meters near the Bering Strait,China Segmentation into sea ice and background [10] Download link Arctic Sea Ice Image Masking The Sentinel-2 satellite, composed of bands 3, 4, and 8 (false-color) Hudson Bay sea ice in the Canadian Arctic Segmented into different SIC categories Download link Airborne camera- based Sea Ice Detection Dataset and Sea Ice Classification Dataset GoPro images captured by the Nathaniel B. Palmer icebreaker Ross Sea, Antarc- tica automated detection of sea ice (ice, ocean, vessel, and sky) and classifying sea ice types (ocean, vessel, sky, lens artifacts, FYI, new ice, grey ice, and MYI) [14] Download link Drone-based River ice segmentation The Reconyx PC800 Hy- perfire professional game camera, and the Blade Chroma drone equipped with the CGO3 4K camera at the Genesee dock two Alberta rivers: North Saskatchewan River and Peace River Segmented into ice, anchor ice, and water [160] Download link NWPU YRCC2 dataset a fixed wing UAV ASN216 with a Canon 5DS visible light camera and a DJI Inspire 1 the Ningxia-Inner Mongolia reach of the Yellow River Segmented into: coastal ice, pack ice, water, and other [17] Download link Influence of propeller on brash ice loads and pressure fluctuation for a reversing polar ship. L Zhou, S Zheng, S Ding, C Xie, R Liu, Ocean Engineering. 280114624L. Zhou, S. Zheng, S. Ding, C. Xie, and R. Liu, "Influence of propeller on brash ice loads and pressure fluctuation for a reversing polar ship," Ocean Engineering, vol. 280, p. 114624, 2023. Tandem-x polardem 90 m of antarctica: Generation and error characterization. B Wessel, M Huber, C Wohlfart, A Bertram, N Osterkamp, U Marschalk, A Gruber, F Reuß, S Abdullahi, I Georg, The Cryosphere. 1511B. Wessel, M. Huber, C. Wohlfart, A. Bertram, N. Osterkamp, U. Marschalk, A. Gruber, F. Reuß, S. Abdullahi, I. Georg, et al., "Tandem-x polardem 90 m of antarctica: Generation and error charac- terization," The Cryosphere, vol. 15, no. 11, pp. 5241-5260, 2021. Mapping of polar areas based on high-resolution satellite images: the example of the henryk arctowski polish antarctic station. Z Kurczyński, S Różycki, P Bylina, Reports on Geodesy and Geoinformatics. 1041Z. Kurczyński, S. Różycki, and P. Bylina, "Mapping of polar areas based on high-resolution satellite images: the example of the henryk arctowski polish antarctic station," Reports on Geodesy and Geoinfor- matics, vol. 104, no. 1, pp. 65-78, 2017. Line design and optimization for polar expedition cruise ships with transoceanic voyage characteristics. J Liu, R Yao, L Yu, X Gan, X Wang, Journal of Marine Science and Technology. 281J. Liu, R. Yao, L. Yu, X. Gan, and X. Wang, "Line design and optimization for polar expedition cruise ships with transoceanic voyage characteristics," Journal of Marine Science and Technology, vol. 28, no. 1, pp. 270-287, 2023. Science mapping: A systematic review of the literature. C Chen, Journal of Data and Information Science. 22017C. Chen, "Science mapping: A systematic review of the literature," Journal of Data and Information Science, vol. 2, pp. 1-40, 02 2017. M Shokr, N K Sinha, Sea ice: physics and remote sensing. John Wiley & SonsM. Shokr and N. K. Sinha, Sea ice: physics and remote sensing. John Wiley & Sons, 2023. 50 years of lake ice research from active microwave remote sensing: Progress and prospects. J Murfitt, C R Duguay, Remote Sensing of Environment. 264112616J. Murfitt and C. R. Duguay, "50 years of lake ice research from active microwave remote sensing: Progress and prospects," Remote Sensing of Environment, vol. 264, p. 112616, 2021. A meta-analysis of sea ice monitoring using spaceborne polarimetric sar: Advances in the last decade. H Lyu, W Huang, M Mahdianpari, IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing. 15H. Lyu, W. Huang, and M. Mahdianpari, "A meta-analysis of sea ice monitoring using spaceborne polarimetric sar: Advances in the last decade," IEEE Journal of Selected Topics in Applied Earth Observa- tions and Remote Sensing, vol. 15, pp. 6158-6179, 2022. Automatic and accurate extraction of sea ice in the turbid waters of the yellow river estuary based on image spectral and spatial information. H Qiu, Z Gong, K Mou, J Hu, Y Ke, D Zhou, Remote Sensing. 144927H. Qiu, Z. Gong, K. Mou, J. Hu, Y. Ke, and D. Zhou, "Automatic and accurate extraction of sea ice in the turbid waters of the yellow river estuary based on image spectral and spatial information," Remote Sensing, vol. 14, no. 4, p. 927, 2022. Decoding the partial pretrained networks for sea-ice segmentation of 2021 gaofen challenge. J Kang, F Tong, X Ding, S Li, R Zhu, Y Huang, Y Xu, R Fernandez-Beltran, IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing. 15J. Kang, F. Tong, X. Ding, S. Li, R. Zhu, Y. Huang, Y. Xu, and R. Fernandez-Beltran, "Decoding the partial pretrained networks for sea-ice segmentation of 2021 gaofen challenge," IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, vol. 15, pp. 4521-4530, 2022. Fusion of sar and optical image for sea ice extraction. W Li, L Liu, J Zhang, Journal of Ocean University of China. 20W. Li, L. Liu, and J. Zhang, "Fusion of sar and optical image for sea ice extraction," Journal of Ocean University of China, vol. 20, pp. 1440-1450, 2021. Sea ice image classification based on heterogeneous data fusion and deep learning. Y Han, Y Liu, Z Hong, Y Zhang, S Yang, J Wang, Remote Sensing. 134592Y. Han, Y. Liu, Z. Hong, Y. Zhang, S. Yang, and J. Wang, "Sea ice image classification based on heterogeneous data fusion and deep learning," Remote Sensing, vol. 13, no. 4, p. 592, 2021. Sea ice image classification based on resfpg network and heterogeneous data fusion. Y Han, X Shi, J Wang, Y Zhang, Z Hong, Z Ma, R Zhou, International Journal of Remote Sensing. 43Y. Han, X. Shi, J. Wang, Y. Zhang, Z. Hong, Z. Ma, and R. Zhou, "Sea ice image classification based on resfpg network and heterogeneous data fusion," International Journal of Remote Sensing, vol. 43, no. 19- 24, pp. 6881-6898, 2022. Icenetv2: A fine-grained river ice semantic segmentation network based on uav images. X Zhang, Y Zhou, J Jin, Y Wang, M Fan, N Wang, Y Zhang, Remote Sensing. 134633X. Zhang, Y. Zhou, J. Jin, Y. Wang, M. Fan, N. Wang, and Y. Zhang, "Icenetv2: A fine-grained river ice semantic segmentation network based on uav images," Remote Sensing, vol. 13, no. 4, p. 633, 2021. Supplementing remote sensing of ice: Deep learning-based image segmentation system for automatic detection and localization of sea-ice formations from closerange optical images. N Panchi, E Kim, A Bhattacharyya, IEEE Sensors Journal. 2116N. Panchi, E. Kim, and A. Bhattacharyya, "Supplementing remote sensing of ice: Deep learning-based image segmentation system for automatic detection and localization of sea-ice formations from close- range optical images," IEEE Sensors Journal, vol. 21, no. 16, pp. 18 004-18 019, 2021. A labelled ocean sar imagery dataset of ten geophysical phenomena from sentinel-1 wave mode. C Wang, A Mouche, P Tandeo, J E Stopa, N Longépé, G Erhard, R C Foster, D Vandemark, B Chapron, Geoscience Data Journal. 62C. Wang, A. Mouche, P. Tandeo, J. E. Stopa, N. Longépé, G. Erhard, R. C. Foster, D. Vandemark, and B. Chapron, "A labelled ocean sar imagery dataset of ten geophysical phenomena from sentinel-1 wave mode," Geoscience Data Journal, vol. 6, no. 2, pp. 105-115, 2019. Icenet: A semantic segmentation deep network for river ice by fusing positional and channel-wise attentive features. X Zhang, J Jin, Z Lan, C Li, M Fan, Y Wang, X Yu, Y Zhang, Remote Sensing. 122221X. Zhang, J. Jin, Z. Lan, C. Li, M. Fan, Y. Wang, X. Yu, and Y. Zhang, "Icenet: A semantic segmentation deep network for river ice by fusing positional and channel-wise attentive features," Remote Sensing, vol. 12, no. 2, p. 221, 2020. Satellite sar data-based sea ice classification: An overview. N Zakhvatkina, V Smirnov, I Bychkova, Geosciences. 94152N. Zakhvatkina, V. Smirnov, and I. Bychkova, "Satellite sar data-based sea ice classification: An overview," Geosciences, vol. 9, no. 4, p. 152, 2019. Sea ice remote sensing using gnss-r: A review. Q Yan, W Huang, Remote Sensing. 11212565Q. Yan and W. Huang, "Sea ice remote sensing using gnss-r: A review," Remote Sensing, vol. 11, no. 21, p. 2565, 2019. A new likelihood ratio for supervised classification of fully polarimetric sar data: An application for sea ice type mapping. M Dabboor, M Shokr, ISPRS journal of photogrammetry and remote sensing. 84M. Dabboor and M. Shokr, "A new likelihood ratio for supervised classification of fully polarimetric sar data: An application for sea ice type mapping," ISPRS journal of photogrammetry and remote sensing, vol. 84, pp. 1-11, 2013. A heuristic method to use ice andwater probabilities from sar imagery to improve ice concentration estimates. Z Ashouri, A Scott, 2014 IEEE Geoscience and Remote Sensing Symposium. IEEEZ. Ashouri and A. Scott, "A heuristic method to use ice andwater probabilities from sar imagery to improve ice concentration estimates," in 2014 IEEE Geoscience and Remote Sensing Symposium. IEEE, 2014, pp. 4868-4871. Improved sea ice concentration estimation through fusing classified sar imagery and amsr-e data. L Wang, K A Scott, D A Clausi, Canadian Journal of Remote Sensing. 421L. Wang, K. A. Scott, and D. A. Clausi, "Improved sea ice concentra- tion estimation through fusing classified sar imagery and amsr-e data," Canadian Journal of Remote Sensing, vol. 42, no. 1, pp. 41-52, 2016. Magic: Map-guided ice classification system. D Clausi, A Qin, M Chowdhury, P Yu, P Maillard, Canadian Journal of Remote Sensing. 36sup1D. Clausi, A. Qin, M. Chowdhury, P. Yu, and P. Maillard, "Magic: Map-guided ice classification system," Canadian Journal of Remote Sensing, vol. 36, no. sup1, pp. S13-S25, 2010. Mapping sea-ice types from sentinel-1 considering the surface-type dependent effect of incidence angle. J Lohse, A P Doulgeris, W Dierking, Annals of Glaciology. 6183J. Lohse, A. P. Doulgeris, and W. Dierking, "Mapping sea-ice types from sentinel-1 considering the surface-type dependent effect of in- cidence angle," Annals of Glaciology, vol. 61, no. 83, pp. 260-270, 2020. Sea ice classification of terrasar-x scansar images for the mosaic expedition incorporating per-class incidence angle dependency of image texture. W Guo, P Itkin, S Singha, A P Doulgeris, M Johansson, G Spreen, The Cryosphere. 173W. Guo, P. Itkin, S. Singha, A. P. Doulgeris, M. Johansson, and G. Spreen, "Sea ice classification of terrasar-x scansar images for the mosaic expedition incorporating per-class incidence angle dependency of image texture," The Cryosphere, vol. 17, no. 3, pp. 1279-1297, 2023. Assimilation of ice and water observations from sar imagery to improve estimates of sea ice concentration. K A Scott, Z Ashouri, M Buehner, L Pogson, T Carrieres, Tellus A: Dynamic Meteorology and Oceanography. 67127218K. A. Scott, Z. Ashouri, M. Buehner, L. Pogson, and T. Carrieres, "As- similation of ice and water observations from sar imagery to improve estimates of sea ice concentration," Tellus A: Dynamic Meteorology and Oceanography, vol. 67, no. 1, p. 27218, 2015. Assessing polarimetric sar sea-ice classifications using 20 consecutive day images. M.-A Moen, S N Anfinsen, A P Doulgeris, A Renner, S Gerland, Annals of Glaciology. 5669M.-A. Moen, S. N. Anfinsen, A. P. Doulgeris, A. Renner, and S. Gerland, "Assessing polarimetric sar sea-ice classifications using 20 consecutive day images," Annals of Glaciology, vol. 56, no. 69, pp. 285-294, 2015. Application of textural analysis to map the sea ice concentration with sentinel 1a in the western region of the antarctic peninsula. F L Hillebrand, I D De Carvalho, U F Barreto, J Bremer, C W M Arigony-Neto, J C Júnior, C N Simões, J B Da Rosa, Jesus De, Polar Science. 29100719F. L. Hillebrand, I. D. de Carvalho Barreto, U. F. Bremer, J. Arigony- Neto, C. W. M. Júnior, J. C. Simões, C. N. da Rosa, and J. B. de Jesus, "Application of textural analysis to map the sea ice concentration with sentinel 1a in the western region of the antarctic peninsula," Polar Science, vol. 29, p. 100719, 2021. Sea ice detection using gnss-r delay-doppler maps from uk techdemosat-1. Y Zhu, K Yu, J Zou, J Wickert, 2017 IEEE International Geoscience and Remote Sensing Symposium (IGARSS). Y. Zhu, K. Yu, J. Zou, and J. Wickert, "Sea ice detection using gnss-r delay-doppler maps from uk techdemosat-1," in 2017 IEEE International Geoscience and Remote Sensing Symposium (IGARSS). . IEEE. IEEE, 2017, pp. 4110-4113. Adaptive probability thresholding in automated ice and open water detection from radarsat-2 images. A S Komarov, M Buehner, IEEE Geoscience and Remote Sensing Letters. 154A. S. Komarov and M. Buehner, "Adaptive probability thresholding in automated ice and open water detection from radarsat-2 images," IEEE Geoscience and Remote Sensing Letters, vol. 15, no. 4, pp. 552-556, 2018. Automatic classification of sar image based on r-gmm algorithm. X Zhang, S Ren, 2018 11th international congress on image and signal processing. IEEEX. Zhang and S. Ren, "Automatic classification of sar image based on r-gmm algorithm," in 2018 11th international congress on image and signal processing, BioMedical Engineering and Informatics (CISP- BMEI). IEEE, 2018, pp. 1-5. Automatic detection of the ice edge in sar imagery using curvelet transform and active contour. J Liu, K A Scott, A Gawish, P Fieguth, Remote Sensing. 86480J. Liu, K. A. Scott, A. Gawish, and P. Fieguth, "Automatic detection of the ice edge in sar imagery using curvelet transform and active contour," Remote Sensing, vol. 8, no. 6, p. 480, 2016. Detection of marginal ice zone in synthetic aperture radar imagery using curvelet-based features: a case study on the canadian east coast. J Liu, K A Scott, P W Fieguth, Journal of Applied Remote Sensing. 131J. Liu, K. A. Scott, and P. W. Fieguth, "Detection of marginal ice zone in synthetic aperture radar imagery using curvelet-based features: a case study on the canadian east coast," Journal of Applied Remote Sensing, vol. 13, no. 1, pp. 014 505-014 505, 2019. Discrimination of open water from sea ice in the labrador sea using quad-polarized synthetic aperture radar. T Xie, W Perrie, C Wei, L Zhao, Remote Sensing of Environment. 247111948T. Xie, W. Perrie, C. Wei, and L. Zhao, "Discrimination of open water from sea ice in the labrador sea using quad-polarized synthetic aperture radar," Remote Sensing of Environment, vol. 247, p. 111948, 2020. Active/passive multiple polarization sea ice detection during initial freeze-up. M R Keller, C M Gifford, N S Winstead, W C Walton, J E Dietz, IEEE Transactions on Geoscience and Remote Sensing. 597M. R. Keller, C. M. Gifford, N. S. Winstead, W. C. Walton, and J. E. Dietz, "Active/passive multiple polarization sea ice detection during initial freeze-up," IEEE Transactions on Geoscience and Remote Sensing, vol. 59, no. 7, pp. 5434-5448, 2020. Irgs: Image segmentation using edge penalties and region growing. Q Yu, D A Clausi, IEEE transactions on pattern analysis and machine intelligence. 30Q. Yu and D. A. Clausi, "Irgs: Image segmentation using edge penalties and region growing," IEEE transactions on pattern analysis and machine intelligence, vol. 30, no. 12, pp. 2126-2139, 2008. Automated ice-water classification using dual polarization sar satellite imagery. S Leigh, Z Wang, D A Clausi, IEEE Transactions on Geoscience and Remote Sensing. 529S. Leigh, Z. Wang, and D. A. Clausi, "Automated ice-water classifica- tion using dual polarization sar satellite imagery," IEEE Transactions on Geoscience and Remote Sensing, vol. 52, no. 9, pp. 5529-5539, 2013. Contextual classification of sea-ice types using compact polarimetric sar data. M Ghanbari, D A Clausi, L Xu, M Jiang, IEEE Transactions on Geoscience and Remote Sensing. 5710M. Ghanbari, D. A. Clausi, L. Xu, and M. Jiang, "Contextual classi- fication of sea-ice types using compact polarimetric sar data," IEEE Transactions on Geoscience and Remote Sensing, vol. 57, no. 10, pp. 7476-7491, 2019. Unsupervised segmentation of multilook compact polarimetric sar data based on complex wishart distribution. Mohsen Ghanbari, David A Clausi, Linlin Xu, Mingzhe Jiang, IGARSS 2020 -2020 IEEE International Geoscience and Remote Sensing Symposium. Ghanbari, Mohsen and Clausi, David A and Xu, Linlin and Jiang, Mingzhe, "Unsupervised segmentation of multilook compact polari- metric sar data based on complex wishart distribution," in IGARSS 2020 -2020 IEEE International Geoscience and Remote Sensing Symposium, 2020, pp. 1456-1459. Cp-irgs: A region-based segmentation of multilook complex compact polarimetric sar data. M Ghanbari, D A Clausi, L Xu, IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing. 14M. Ghanbari, D. A. Clausi, and L. Xu, "Cp-irgs: A region-based segmentation of multilook complex compact polarimetric sar data," IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, vol. 14, pp. 6559-6571, 2021. A semi-supervised approach for ice-water classification using dual-polarization sar satellite imagery. F Li, D A Clausi, L Wang, L Xu, Proceedings of the IEEE conference on computer vision and pattern recognition workshops. the IEEE conference on computer vision and pattern recognition workshopsF. Li, D. A. Clausi, L. Wang, and L. Xu, "A semi-supervised ap- proach for ice-water classification using dual-polarization sar satellite imagery," in Proceedings of the IEEE conference on computer vision and pattern recognition workshops, 2015, pp. 28-35. Semi-automated classification of lake ice cover using dual polarization radarsat-2 imagery. J Wang, C R Duguay, D A Clausi, V Pinard, S E Howell, Remote Sensing. 10111727J. Wang, C. R. Duguay, D. A. Clausi, V. Pinard, and S. E. Howell, "Semi-automated classification of lake ice cover using dual polarization radarsat-2 imagery," Remote Sensing, vol. 10, no. 11, p. 1727, 2018. Lake ice-water classification of radarsat-2 images by integrating irgs segmentation with pixel-based random forest labeling. M Hoekstra, M Jiang, D A Clausi, C Duguay, Remote Sensing. 1291425M. Hoekstra, M. Jiang, D. A. Clausi, and C. Duguay, "Lake ice-water classification of radarsat-2 images by integrating irgs segmentation with pixel-based random forest labeling," Remote Sensing, vol. 12, no. 9, p. 1425, 2020. Sea ice-water classification of radarsat-2 imagery based on residual neural networks (resnet) with regional pooling. M Jiang, L Xu, D A Clausi, Remote Sensing. 14133025M. Jiang, L. Xu, and D. A. Clausi, "Sea ice-water classification of radarsat-2 imagery based on residual neural networks (resnet) with regional pooling," Remote Sensing, vol. 14, no. 13, p. 3025, 2022. Sea-ice mapping of radarsat-2 imagery by integrating spatial contexture with textural features. M Jiang, D A Clausi, L Xu, IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing. 15M. Jiang, D. A. Clausi, and L. Xu, "Sea-ice mapping of radarsat-2 imagery by integrating spatial contexture with textural features," IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, vol. 15, pp. 7964-7977, 2022. Semi-supervised sea ice classification of sar imagery based on graph convolutional network. M Jiang, X Chen, L Xu, D A Clausi, IGARSS 2022-2022 IEEE International Geoscience and Remote Sensing Symposium. IEEEM. Jiang, X. Chen, L. Xu, and D. A. Clausi, "Semi-supervised sea ice classification of sar imagery based on graph convolutional network," in IGARSS 2022-2022 IEEE International Geoscience and Remote Sensing Symposium. IEEE, 2022, pp. 1031-1034. Uncertainty-incorporated ice and open water detection on dualpolarized sar sea ice imagery. X Chen, K A Scott, L Xu, M Jiang, Y Fang, D A Clausi, IEEE Transactions on Geoscience and Remote Sensing. X. Chen, K. A. Scott, L. Xu, M. Jiang, Y. Fang, and D. A. Clausi, "Uncertainty-incorporated ice and open water detection on dual- polarized sar sea ice imagery," IEEE Transactions on Geoscience and Remote Sensing, 2023. A study of the feasibility of using kompsat-5 sar data to map sea ice in the chukchi sea in late summer. H Han, S.-H Hong, H Kim, T.-B Chae, H.-J Choi, Remote Sensing Letters. 85H. Han, S.-H. Hong, H.-c. Kim, T.-B. Chae, and H.-J. Choi, "A study of the feasibility of using kompsat-5 sar data to map sea ice in the chukchi sea in late summer," Remote Sensing Letters, vol. 8, no. 5, pp. 468-477, 2017. Assessment of the high resolution sar mode of the radarsat constellation mission for first year ice and multiyear ice characterization. M Dabboor, B Montpetit, S Howell, Remote Sensing. 104594M. Dabboor, B. Montpetit, and S. Howell, "Assessment of the high resolution sar mode of the radarsat constellation mission for first year ice and multiyear ice characterization," Remote Sensing, vol. 10, no. 4, p. 594, 2018. Assessment of simulated compact polarimetry of the high resolution radarsat constellation mission sar mode for multiyear and first year sea ice characterization. Mohammed Dabboor, Montpetit, Benoit, Stephen Howell, IGARSS 2018-2018 IEEE International Geoscience and Remote Sensing Symposium. IEEEDabboor, Mohammed and Montpetit, Benoit and Howell, Stephen, "Assessment of simulated compact polarimetry of the high resolution radarsat constellation mission sar mode for multiyear and first year sea ice characterization," in IGARSS 2018-2018 IEEE International Geoscience and Remote Sensing Symposium. IEEE, 2018, pp. 2420- 2423. Estimation of degree of sea ice ridging based on dualpolarized c-band sar data. A Gegiuc, M Similä, J Karvonen, M Lensu, M Mäkynen, J Vainio, The Cryosphere. 121A. Gegiuc, M. Similä, J. Karvonen, M. Lensu, M. Mäkynen, and J. Vainio, "Estimation of degree of sea ice ridging based on dual- polarized c-band sar data," The Cryosphere, vol. 12, no. 1, pp. 343-364, 2018. Evaluation of summer passive microwave sea ice concentrations in the chukchi sea based on kompsat-5 sar and numerical weather prediction data. H Han, H.-C Kim, Remote Sensing of Environment. 209H. Han and H.-c. Kim, "Evaluation of summer passive microwave sea ice concentrations in the chukchi sea based on kompsat-5 sar and numerical weather prediction data," Remote Sensing of Environment, vol. 209, pp. 343-362, 2018. Semiautomated segmentation of sentinel-1 sar imagery for mapping sea ice in labrador coast. W Tan, J Li, L Xu, M A Chapman, IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing. 115W. Tan, J. Li, L. Xu, and M. A. Chapman, "Semiautomated segmenta- tion of sentinel-1 sar imagery for mapping sea ice in labrador coast," IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, vol. 11, no. 5, pp. 1419-1432, 2018. Method for detection of leads from sentinel-1 sar images. D Murashkin, G Spreen, M Huntemann, W Dierking, Annals of Glaciology. 5976pt2D. Murashkin, G. Spreen, M. Huntemann, and W. Dierking, "Method for detection of leads from sentinel-1 sar images," Annals of Glaciol- ogy, vol. 59, no. 76pt2, pp. 124-136, 2018. Automated coastal ice mapping with sar can inform winter fish ecology in the laurentian great lakes. J V Marcaccio, J Gardner Costa, J L Brooks, C M Boston, S J Cooke, J D Midwood, Canadian Journal of Remote Sensing. 481J. V. Marcaccio, J. Gardner Costa, J. L. Brooks, C. M. Boston, S. J. Cooke, and J. D. Midwood, "Automated coastal ice mapping with sar can inform winter fish ecology in the laurentian great lakes," Canadian Journal of Remote Sensing, vol. 48, no. 1, pp. 19-36, 2022. Simple method to extract lake ice condition from landsat images. X Yang, T M Pavelsky, L P Bendezu, S Zhang, IEEE Transactions on Geoscience and Remote Sensing. 60X. Yang, T. M. Pavelsky, L. P. Bendezu, and S. Zhang, "Simple method to extract lake ice condition from landsat images," IEEE Transactions on Geoscience and Remote Sensing, vol. 60, pp. 1-10, 2021. Classification of sea ice types in sentinel-1 synthetic aperture radar images. J.-W Park, A A Korosov, M Babiker, J.-S Won, M W Hansen, H.-C Kim, The Cryosphere. 148J.-W. Park, A. A. Korosov, M. Babiker, J.-S. Won, M. W. Hansen, and H.-C. Kim, "Classification of sea ice types in sentinel-1 synthetic aperture radar images," The Cryosphere, vol. 14, no. 8, pp. 2629-2645, 2020. Automated sea ice classification using sentinel-1 imagery. J.-W Park, A Korosov, M Babiker, H.-C Kim, IGARSS 2019-2019 IEEE International Geoscience and Remote Sensing Symposium. IEEEJ.-W. Park, A. Korosov, M. Babiker, and H.-C. Kim, "Automated sea ice classification using sentinel-1 imagery," in IGARSS 2019-2019 IEEE International Geoscience and Remote Sensing Symposium. IEEE, 2019, pp. 4008-4011. Comparing near coincident space borne c and x band fully polarimetric sar data for arctic sea ice classification. R Ressel, S Singha, Remote Sensing. 83198R. Ressel and S. Singha, "Comparing near coincident space borne c and x band fully polarimetric sar data for arctic sea ice classification," Remote Sensing, vol. 8, no. 3, p. 198, 2016. Evaluating suitability of pol-sar (terrasar-x, radarsat-2) for automated sea ice classification. R Ressel, S Singha, S Lehner, Land Surface and Cryosphere Remote Sensing III. SPIE9877R. Ressel, S. Singha, and S. Lehner, "Evaluating suitability of pol-sar (terrasar-x, radarsat-2) for automated sea ice classification," in Land Surface and Cryosphere Remote Sensing III, vol. 9877. SPIE, 2016, pp. 137-150. Investigation into different polarimetric features for sea ice classification using xband synthetic aperture radar. R Ressel, S Singha, S Lehner, A Rösel, G Spreen, IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing. 97R. Ressel, S. Singha, S. Lehner, A. Rösel, and G. Spreen, "Investigation into different polarimetric features for sea ice classification using x- band synthetic aperture radar," IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, vol. 9, no. 7, pp. 3131-3143, 2016. Comparison of ice/water classification in fram strait from c-and l-band sar imagery. W Aldenhoff, C Heuzé, L E Eriksson, Annals of Glaciology. 5976pt2W. Aldenhoff, C. Heuzé, and L. E. Eriksson, "Comparison of ice/water classification in fram strait from c-and l-band sar imagery," Annals of Glaciology, vol. 59, no. 76pt2, pp. 112-123, 2018. Arctic sea ice characterization using spaceborne fully polarimetric l-, c-, and x-band sar with validation by airborne measurements. S Singha, M Johansson, N Hughes, S M Hvidegaard, H Skourup, IEEE Transactions on Geoscience and Remote Sensing. 56S. Singha, M. Johansson, N. Hughes, S. M. Hvidegaard, and H. Skou- rup, "Arctic sea ice characterization using spaceborne fully polarimetric l-, c-, and x-band sar with validation by airborne measurements," IEEE Transactions on Geoscience and Remote Sensing, vol. 56, pp. 3715- 3734, 2018. Robustness of sar sea ice type classification across incidence angles and seasons at l-band. S Singha, A M Johansson, A P Doulgeris, IEEE Transactions on Geoscience and Remote Sensing. 5912S. Singha, A. M. Johansson, and A. P. Doulgeris, "Robustness of sar sea ice type classification across incidence angles and seasons at l-band," IEEE Transactions on Geoscience and Remote Sensing, vol. 59, no. 12, pp. 9941-9952, 2020. A sea ice concentration estimation algorithm utilizing radiometer and sar data. J Karvonen, The Cryosphere. 85J. Karvonen, "A sea ice concentration estimation algorithm utilizing radiometer and sar data," The Cryosphere, vol. 8, no. 5, pp. 1639- 1650, 2014. Baltic sea ice concentration estimation using sentinel-1 sar and amsr2 microwave radiometer data. Juha Karvonen, IEEE Transactions on Geoscience and Remote Sensing. 555Karvonen, Juha, "Baltic sea ice concentration estimation using sentinel- 1 sar and amsr2 microwave radiometer data," IEEE Transactions on Geoscience and Remote Sensing, vol. 55, no. 5, pp. 2871-2883, 2017. Bohai sea ice parameter estimation based on thermodynamic ice model and earth observation data. J Karvonen, L Shi, B Cheng, M Similä, M Mäkynen, T Vihma, Remote Sensing. 93234J. Karvonen, L. Shi, B. Cheng, M. Similä, M. Mäkynen, and T. Vihma, "Bohai sea ice parameter estimation based on thermodynamic ice model and earth observation data," Remote Sensing, vol. 9, no. 3, p. 234, 2017. Neural networks based sea ice detection and concentration retrieval from gnss-r delay-doppler maps. Q Yan, W Huang, C Moloney, IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing. 108Q. Yan, W. Huang, and C. Moloney, "Neural networks based sea ice detection and concentration retrieval from gnss-r delay-doppler maps," IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, vol. 10, no. 8, pp. 3789-3798, 2017. Evaluation of a neural network with uncertainty for detection of ice and water in sar imagery. N Asadi, K A Scott, A S Komarov, M Buehner, D A Clausi, IEEE Transactions on Geoscience and Remote Sensing. 591N. Asadi, K. A. Scott, A. S. Komarov, M. Buehner, and D. A. Clausi, "Evaluation of a neural network with uncertainty for detection of ice and water in sar imagery," IEEE Transactions on Geoscience and Remote Sensing, vol. 59, no. 1, pp. 247-259, 2020. Svm-based sea ice classification using textural features and concentration from radarsat-2 dual-pol scansar data. H Liu, H Guo, L Zhang, IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing. 84H. Liu, H. Guo, and L. Zhang, "Svm-based sea ice classification using textural features and concentration from radarsat-2 dual-pol scansar data," IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, vol. 8, no. 4, pp. 1601-1613, 2014. Operational algorithm for ice-water classification on dual-polarized radarsat-2 images. N Zakhvatkina, A Korosov, S Muckenhuber, S Sandven, M Babiker, The Cryosphere. 111N. Zakhvatkina, A. Korosov, S. Muckenhuber, S. Sandven, and M. Babiker, "Operational algorithm for ice-water classification on dual-polarized radarsat-2 images," The Cryosphere, vol. 11, no. 1, pp. 33-46, 2017. An approach to discrimination of sea ice from open water using sar data. H Liu, H Guo, X.-M Li, L Zhang, 2016 IEEE International Geoscience and Remote Sensing Symposium (IGARSS). H. Liu, H. Guo, X.-M. Li, and L. Zhang, "An approach to discrim- ination of sea ice from open water using sar data," in 2016 IEEE International Geoscience and Remote Sensing Symposium (IGARSS). . IEEE. IEEE, 2016, pp. 4865-4867. Automatic discrimination approach of sea ice in the arctic ocean using sentinel-1 extra wide swath dual-polarized sar data. D.-B Hong, C.-S Yang, International journal of remote sensing. 3913D.-B. Hong and C.-S. Yang, "Automatic discrimination approach of sea ice in the arctic ocean using sentinel-1 extra wide swath dual-polarized sar data," International journal of remote sensing, vol. 39, no. 13, pp. 4469-4483, 2018. Extraction of sea ice cover by sentinel-1 sar based on support vector machine with unsupervised generation of training data. X.-M Li, Y Sun, Q Zhang, IEEE Transactions on Geoscience and Remote Sensing. 594X.-M. Li, Y. Sun, and Q. Zhang, "Extraction of sea ice cover by sentinel-1 sar based on support vector machine with unsupervised generation of training data," IEEE Transactions on Geoscience and Remote Sensing, vol. 59, no. 4, pp. 3040-3053, 2020. Sea ice classification using terrasar-x scansar data with removal of scalloping and interscan banding. L Zhang, H Liu, X Gu, H Guo, J Chen, G Liu, IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing. 122L. Zhang, H. Liu, X. Gu, H. Guo, J. Chen, and G. Liu, "Sea ice classification using terrasar-x scansar data with removal of scalloping and interscan banding," IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, vol. 12, no. 2, pp. 589-598, 2019. Detecting sea ice from techdemosat-1 data using support vector machines with feature selection. Q Yan, W Huang, 12IEEE journal of selected topics in applied earth observations and remote sensingQ. Yan and W. Huang, "Detecting sea ice from techdemosat-1 data using support vector machines with feature selection," IEEE journal of selected topics in applied earth observations and remote sensing, vol. 12, no. 5, pp. 1409-1416, 2019. Sea ice concentration estimation from techdemosat-1 data using support vector regression. Qingyun Yan, Weimin Huang, 2019 IEEE Radar Conference (RadarConf). IEEEYan, Qingyun and Huang, Weimin, "Sea ice concentration estimation from techdemosat-1 data using support vector regression," in 2019 IEEE Radar Conference (RadarConf). IEEE, 2019, pp. 1-6. Antarctic sea-ice classification based on conditional random fields from radarsat-2 dualpolarization satellite images. T Zhu, F Li, G Heygster, S Zhang, IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing. 96T. Zhu, F. Li, G. Heygster, and S. Zhang, "Antarctic sea-ice clas- sification based on conditional random fields from radarsat-2 dual- polarization satellite images," IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, vol. 9, no. 6, pp. 2451-2467, 2016. A cooperative framework based on active and semi-supervised learning for sea ice classification using eo-1 hyperion data. Y Han, Y Zhao, Y Zhang, J Wang, S Yang, Z Hong, S Cao, TRANSACTIONS OF THE JAPAN SOCIETY FOR AERONAUTICAL AND SPACE SCI-ENCES. 626Y. Han, Y. Zhao, Y. Zhang, J. Wang, S. Yang, Z. Hong, and S. Cao, "A cooperative framework based on active and semi-supervised learning for sea ice classification using eo-1 hyperion data," TRANSACTIONS OF THE JAPAN SOCIETY FOR AERONAUTICAL AND SPACE SCI- ENCES, vol. 62, no. 6, pp. 318-330, 2019. Icy lakes extraction and water-ice classification using landsat 8 oli multispectral data. K Barbieux, A Charitsi, B Merminod, International journal of remote sensing. 3911K. Barbieux, A. Charitsi, and B. Merminod, "Icy lakes extraction and water-ice classification using landsat 8 oli multispectral data," International journal of remote sensing, vol. 39, no. 11, pp. 3646- 3678, 2018. An optimal decision-tree design strategy and its application to sea ice classification from sar imagery. J Lohse, A P Doulgeris, W Dierking, Remote Sensing. 11131574J. Lohse, A. P. Doulgeris, and W. Dierking, "An optimal decision-tree design strategy and its application to sea ice classification from sar imagery," Remote Sensing, vol. 11, no. 13, p. 1574, 2019. Automated detection of ice and open water from dual-polarization radarsat-2 images for data assimilation. A S Komarov, M Buehner, IEEE Transactions on Geoscience and Remote Sensing. 5510A. S. Komarov and M. Buehner, "Automated detection of ice and open water from dual-polarization radarsat-2 images for data assimilation," IEEE Transactions on Geoscience and Remote Sensing, vol. 55, no. 10, pp. 5755-5769, 2017. Ice concentration from dual-polarization sar images using ice and water retrievals at multiple spatial scales. Alexander S Komarov, Mark Buehner, IEEE Transactions on Geoscience and Remote Sensing. 592Komarov, Alexander S and Buehner, Mark, "Ice concentration from dual-polarization sar images using ice and water retrievals at multiple spatial scales," IEEE Transactions on Geoscience and Remote Sensing, vol. 59, no. 2, pp. 950-961, 2020. Superpixel based sea ice segmentation with high-resolution optical images: Analysis and evaluation. S Chen, Y Yan, J Ren, B Hwang, S Marshall, T Durrani, Communications, Signal Processing, and Systems: Proceedings of the 10th International Conference on Communications. Springer2S. Chen, Y. Yan, J. Ren, B. Hwang, S. Marshall, and T. Durrani, "Superpixel based sea ice segmentation with high-resolution optical images: Analysis and evaluation," in Communications, Signal Process- ing, and Systems: Proceedings of the 10th International Conference on Communications, Signal Processing, and Systems, Vol. 2. Springer, 2022, pp. 474-482. A two-round weight voting strategy-based ensemble learning method for sea ice classification of sentinel-1 imagery. B Wang, L Xia, D Song, Z Li, N Wang, Remote Sensing. 13193945B. Wang, L. Xia, D. Song, Z. Li, and N. Wang, "A two-round weight voting strategy-based ensemble learning method for sea ice classification of sentinel-1 imagery," Remote Sensing, vol. 13, no. 19, p. 3945, 2021. Object-based landfast sea ice detection over west antarctica using time series alos palsar data. M Kim, H.-C Kim, J Im, S Lee, H Han, Remote Sensing of Environment. 242111782M. Kim, H.-C. Kim, J. Im, S. Lee, and H. Han, "Object-based landfast sea ice detection over west antarctica using time series alos palsar data," Remote Sensing of Environment, vol. 242, p. 111782, 2020. Arctic sea ice classification based on cfosat swim data at multiple small incidence angles. M Liu, R Yan, J Zhang, Y Xu, P Chen, L Shi, J Wang, S Zhong, X Zhang, Remote Sensing. 14191M. Liu, R. Yan, J. Zhang, Y. Xu, P. Chen, L. Shi, J. Wang, S. Zhong, and X. Zhang, "Arctic sea ice classification based on cfosat swim data at multiple small incidence angles," Remote Sensing, vol. 14, no. 1, p. 91, 2022. A new gmrf self-supervised algorithm applied to sar image classification. S Ren, X Zhang, Journal of the Indian Society of Remote Sensing. 497S. Ren and X. Zhang, "A new gmrf self-supervised algorithm applied to sar image classification," Journal of the Indian Society of Remote Sensing, vol. 49, no. 7, pp. 1569-1580, 2021. Sea ice concentration estimation during melt from dual-pol sar scenes using deep convolutional neural networks: A case study. L Wang, K A Scott, L Xu, D A Clausi, IEEE Transactions on Geoscience and Remote Sensing. 548L. Wang, K. A. Scott, L. Xu, and D. A. Clausi, "Sea ice concen- tration estimation during melt from dual-pol sar scenes using deep convolutional neural networks: A case study," IEEE Transactions on Geoscience and Remote Sensing, vol. 54, no. 8, pp. 4524-4533, 2016. Ice concentration estimation in the gulf of st. lawrence using fully convolutional neural network. L Wang, K A Scott, D A Clausi, Y Xu, 2017 IEEE International Geoscience and Remote Sensing Symposium (IGARSS). IEEEL. Wang, K. A. Scott, D. A. Clausi, and Y. Xu, "Ice concentration estimation in the gulf of st. lawrence using fully convolutional neural network," in 2017 IEEE International Geoscience and Remote Sensing Symposium (IGARSS). IEEE, 2017, pp. 4991-4994. Sea ice concentration estimation during freeze-up from sar imagery using a convolutional neural network. L Wang, K A Scott, D A Clausi, Remote Sensing. 95408L. Wang, K. A. Scott, and D. A. Clausi, "Sea ice concentration estimation during freeze-up from sar imagery using a convolutional neural network," Remote Sensing, vol. 9, no. 5, p. 408, 2017. Gaofen-3 sea ice detection based on deep learning. J Li, C Wang, S Wang, H Zhang, Q Fu, Y Wang, 2017 Progress in Electromagnetics Research Symposium-Fall (PIERS-FALL). IEEEJ. Li, C. Wang, S. Wang, H. Zhang, Q. Fu, and Y. Wang, "Gaofen- 3 sea ice detection based on deep learning," in 2017 Progress in Electromagnetics Research Symposium-Fall (PIERS-FALL). IEEE, 2017, pp. 933-939. Sea ice sensing from gnss-r data using convolutional neural networks. Q Yan, W Huang, IEEE geoscience and remote sensing letters. 15Q. Yan and W. Huang, "Sea ice sensing from gnss-r data using convolutional neural networks," IEEE geoscience and remote sensing letters, vol. 15, no. 10, pp. 1510-1514, 2018. Convolutional neural networksbased sea ice detection from tds-1 data. Qingyun Yan, Weimin Huang, 2018 18th International Symposium on Antenna Technology and Applied Electromagnetics (ANTEM). IEEEYan, Qingyun and Huang, Weimin, "Convolutional neural networks- based sea ice detection from tds-1 data," in 2018 18th International Symposium on Antenna Technology and Applied Electromagnetics (ANTEM). IEEE, 2018, pp. 1-2. Hyperspectral sea ice image classification based on the spectral-spatial-joint feature with deep learning. Y Han, Y Gao, Y Zhang, J Wang, S Yang, Remote Sensing. 11182170Y. Han, Y. Gao, Y. Zhang, J. Wang, and S. Yang, "Hyperspectral sea ice image classification based on the spectral-spatial-joint feature with deep learning," Remote Sensing, vol. 11, no. 18, p. 2170, 2019. Classification of sea ice types in sentinel-1 sar data using convolutional neural networks. H Boulze, A Korosov, J Brajard, Remote Sensing. 12132165H. Boulze, A. Korosov, and J. Brajard, "Classification of sea ice types in sentinel-1 sar data using convolutional neural networks," Remote Sensing, vol. 12, no. 13, p. 2165, 2020. Baltic sea ice concentration estimation from c-band dualpolarized sar imagery by image segmentation and convolutional neural networks. J Karvonen, IEEE Transactions on Geoscience and Remote Sensing. 60J. Karvonen, "Baltic sea ice concentration estimation from c-band dual- polarized sar imagery by image segmentation and convolutional neural networks," IEEE Transactions on Geoscience and Remote Sensing, vol. 60, pp. 1-11, 2021. A convolutional neural network architecture for sentinel-1 and amsr2 data fusion. D Malmgren-Hansen, L T Pedersen, A A Nielsen, M B Kreiner, R Saldo, H Skriver, J Lavelle, J Buus-Hinkler, K H Krane, IEEE Transactions on Geoscience and Remote Sensing. 593D. Malmgren-Hansen, L. T. Pedersen, A. A. Nielsen, M. B. Kreiner, R. Saldo, H. Skriver, J. Lavelle, J. Buus-Hinkler, and K. H. Krane, "A convolutional neural network architecture for sentinel-1 and amsr2 data fusion," IEEE Transactions on Geoscience and Remote Sensing, vol. 59, no. 3, pp. 1890-1902, 2020. Combining 3d-cnn and squeeze-and-excitation networks for remote sensing sea ice image classification. Y Han, C Wei, R Zhou, Z Hong, Y Zhang, S Yang, Mathematical Problems in Engineering. 2020Y. Han, C. Wei, R. Zhou, Z. Hong, Y. Zhang, and S. Yang, "Combining 3d-cnn and squeeze-and-excitation networks for remote sensing sea ice image classification," Mathematical Problems in Engineering, vol. 2020, pp. 1-15, 2020. Hyperspectral sea ice image classification based on the spectral-spatial-joint feature with the pca network. Y Han, X Shi, S Yang, Y Zhang, Z Hong, R Zhou, Remote Sensing. 13122253Y. Han, X. Shi, S. Yang, Y. Zhang, Z. Hong, and R. Zhou, "Hyper- spectral sea ice image classification based on the spectral-spatial-joint feature with the pca network," Remote Sensing, vol. 13, no. 12, p. 2253, 2021. Sea ice and open water classification of sar imagery using cnn-based transfer learning. Y Xu, K A Scott, 2017 IEEE International Geoscience and Remote Sensing Symposium (IGARSS). IEEEY. Xu and K. A. Scott, "Sea ice and open water classification of sar imagery using cnn-based transfer learning," in 2017 IEEE International Geoscience and Remote Sensing Symposium (IGARSS). IEEE, 2017, pp. 3262-3265. Impact of intermediate ice concentration training data on sea ice concentration estimates from a convolutional neural network. Yan Xu, Scott, Andrea, International Journal of Remote Sensing. 4015Xu, Yan and Scott, K Andrea, "Impact of intermediate ice concentration training data on sea ice concentration estimates from a convolutional neural network," International Journal of Remote Sensing, vol. 40, no. 15, pp. 5799-5811, 2019. Sea ice classification of sar imagery based on convolution neural networks. S Khaleghian, H Ullah, T Kraemer, N Hughes, T Eltoft, A Marinoni, Remote Sensing. 1391734S. Khaleghian, H. Ullah, T. Kraemer, N. Hughes, T. Eltoft, and A. Mari- noni, "Sea ice classification of sar imagery based on convolution neural networks," Remote Sensing, vol. 13, no. 9, p. 1734, 2021. Densely connected convolutional networks. G Huang, Z Liu, L Van Der Maaten, K Q Weinberger, Proceedings of the IEEE conference on computer vision and pattern recognition. the IEEE conference on computer vision and pattern recognitionG. Huang, Z. Liu, L. Van Der Maaten, and K. Q. Weinberger, "Densely connected convolutional networks," in Proceedings of the IEEE conference on computer vision and pattern recognition, 2017, pp. 4700-4708. Estimating sea ice concentration from sar: Training convolutional neural networks with passive microwave data. C L Cooke, K A Scott, IEEE Transactions on Geoscience and Remote Sensing. 577C. L. Cooke and K. A. Scott, "Estimating sea ice concentration from sar: Training convolutional neural networks with passive microwave data," IEEE Transactions on Geoscience and Remote Sensing, vol. 57, no. 7, pp. 4735-4747, 2019. A multi-scale technique to detect marginal ice zones using convolutional neural networks. A S Nagi, M S Minhas, L Xu, K A Scott, IGARSS 2020-2020 IEEE International Geoscience and Remote Sensing Symposium. IEEEA. S. Nagi, M. S. Minhas, L. Xu, and K. A. Scott, "A multi-scale technique to detect marginal ice zones using convolutional neural networks," in IGARSS 2020-2020 IEEE International Geoscience and Remote Sensing Symposium. IEEE, 2020, pp. 3035-3038. Proof of concept for sea ice stage of development classification using deep learning. R Kruk, M C Fuller, A S Komarov, D Isleifson, I Jeffrey, Remote Sensing. 12152486R. Kruk, M. C. Fuller, A. S. Komarov, D. Isleifson, and I. Jeffrey, "Proof of concept for sea ice stage of development classification using deep learning," Remote Sensing, vol. 12, no. 15, p. 2486, 2020. Eastern arctic sea ice sensing: First results from the radarsat constellation mission data. H Lyu, W Huang, M Mahdianpari, Remote Sensing. 1451165H. Lyu, W. Huang, and M. Mahdianpari, "Eastern arctic sea ice sensing: First results from the radarsat constellation mission data," Remote Sensing, vol. 14, no. 5, p. 1165, 2022. High-performance large-scale image recognition without normalization. A Brock, S De, S L Smith, K Simonyan, International Conference on Machine Learning. PMLR, 2021. A. Brock, S. De, S. L. Smith, and K. Simonyan, "High-performance large-scale image recognition without normalization," in International Conference on Machine Learning. PMLR, 2021, pp. 1059-1071. A residual convolution neural network for sea ice classification with sentinel-1 sar imagery. W Song, M Li, Q He, D Huang, C Perra, A Liotta, 2018 IEEE International Conference on Data Mining Workshops (ICDMW). IEEEW. Song, M. Li, Q. He, D. Huang, C. Perra, and A. Liotta, "A residual convolution neural network for sea ice classification with sentinel-1 sar imagery," in 2018 IEEE International Conference on Data Mining Workshops (ICDMW). IEEE, 2018, pp. 795-802. Automatic sea-ice classification of sar images based on spatial and temporal features learning. W Song, M Li, W Gao, D Huang, Z Ma, A Liotta, C Perra, IEEE Transactions on Geoscience and Remote Sensing. 5912W. Song, M. Li, W. Gao, D. Huang, Z. Ma, A. Liotta, and C. Perra, "Automatic sea-ice classification of sar images based on spatial and temporal features learning," IEEE Transactions on Geoscience and Remote Sensing, vol. 59, no. 12, pp. 9887-9901, 2021. Robust multiseasonal ice classification from high-resolution x-band sar. K Kortum, S Singha, G Spreen, IEEE Transactions on Geoscience and Remote Sensing. 60K. Kortum, S. Singha, and G. Spreen, "Robust multiseasonal ice classification from high-resolution x-band sar," IEEE Transactions on Geoscience and Remote Sensing, vol. 60, pp. 1-12, 2022. An improved sea ice classification algorithm with gaofen-3 dual-polarization sar data based on deep convolutional neural networks. J Zhang, W Zhang, Y Hu, Q Chu, L Liu, Remote Sensing. 144906J. Zhang, W. Zhang, Y. Hu, Q. Chu, and L. Liu, "An improved sea ice classification algorithm with gaofen-3 dual-polarization sar data based on deep convolutional neural networks," Remote Sensing, vol. 14, no. 4, p. 906, 2022. Accounting for label errors when training a convolutional neural network to estimate sea ice concentration using operational ice charts. M S Tamber, K A Scott, L T Pedersen, IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing. 15M. S. Tamber, K. A. Scott, and L. T. Pedersen, "Accounting for label errors when training a convolutional neural network to estimate sea ice concentration using operational ice charts," IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, vol. 15, pp. 1502-1513, 2022. Sea ice and open water classification of sar images using a deep learning model. Y Ren, H Xu, B Liu, X Li, IGARSS 2020-2020 IEEE International Geoscience and Remote Sensing Symposium. IEEEY. Ren, H. Xu, B. Liu, and X. Li, "Sea ice and open water classifi- cation of sar images using a deep learning model," in IGARSS 2020- 2020 IEEE International Geoscience and Remote Sensing Symposium. IEEE, 2020, pp. 3051-3054. Development of a dual-attention u-net model for sea ice and open water classification on sar images. Y Ren, X Li, X Yang, H Xu, IEEE Geoscience and Remote Sensing Letters. 19Y. Ren, X. Li, X. Yang, and H. Xu, "Development of a dual-attention u-net model for sea ice and open water classification on sar images," IEEE Geoscience and Remote Sensing Letters, vol. 19, pp. 1-5, 2021. Sea ice detection from sar images based on deep fully convolutional networks. Yibin Ren, Xiaofeng Li, Yang , Xiaofeng Xu, Huan , Artificial Intelligence Oceanography. Springer Nature. Singapore SingaporeRen, Yibin and Li, Xiaofeng and Yang, Xiaofeng and Xu, Huan, "Sea ice detection from sar images based on deep fully convolutional networks," in Artificial Intelligence Oceanography. Springer Nature Singapore Singapore, 2023, pp. 253-276. Automated extraction of antarctic glacier and ice shelf fronts from sentinel-1 imagery using deep learning. C A Baumhoer, A J Dietz, C Kneisel, C Kuenzer, Remote Sensing. 11212529C. A. Baumhoer, A. J. Dietz, C. Kneisel, and C. Kuenzer, "Automated extraction of antarctic glacier and ice shelf fronts from sentinel-1 imagery using deep learning," Remote Sensing, vol. 11, no. 21, p. 2529, 2019. Semantic segmentation of arctic sea ice in summer from remote sensing satellite images based on baunet. W Ji, Z Fang, D Feng, X Ge, Journal of Applied Remote Sensing. 16446514W. Ji, Z. Fang, D. Feng, and X. Ge, "Semantic segmentation of arctic sea ice in summer from remote sensing satellite images based on bau- net," Journal of Applied Remote Sensing, vol. 16, no. 4, p. 046514, 2022. Prediction of categorized sea ice concentration from sentinel-1 sar images based on a fully convolutional network. I De Gelis, A Colin, N Longépé, IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing. 14I. De Gelis, A. Colin, and N. Longépé, "Prediction of categorized sea ice concentration from sentinel-1 sar images based on a fully convolutional network," IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, vol. 14, pp. 5831-5841, 2021. Sea ice concentration estimation: Using passive microwave and sar data with a u-net and curriculum learning. K Radhakrishnan, K A Scott, D A Clausi, IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing. 14K. Radhakrishnan, K. A. Scott, and D. A. Clausi, "Sea ice concentration estimation: Using passive microwave and sar data with a u-net and curriculum learning," IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, vol. 14, pp. 5339-5351, 2021. Arctic sea ice cover data from spaceborne synthetic aperture radar by deep learning. Y.-R Wang, X.-M Li, Earth System Science Data. 136Y.-R. Wang and X.-M. Li, "Arctic sea ice cover data from spaceborne synthetic aperture radar by deep learning," Earth System Science Data, vol. 13, no. 6, pp. 2723-2742, 2021. Ai4seaice: Toward solving ambiguous sar textures in convolutional neural networks for automatic sea ice concentration charting. A Stokholm, T Wulf, A Kucik, R Saldo, J Buus-Hinkler, S M Hvidegaard, IEEE Transactions on Geoscience and Remote Sensing. 60A. Stokholm, T. Wulf, A. Kucik, R. Saldo, J. Buus-Hinkler, and S. M. Hvidegaard, "Ai4seaice: Toward solving ambiguous sar textures in convolutional neural networks for automatic sea ice concentration charting," IEEE Transactions on Geoscience and Remote Sensing, vol. 60, pp. 1-13, 2022. Ruf: Effective sea ice floe segmentation using end-to-end res-unet-crf with dual loss. A S Nagi, D Kumar, D Sola, K A Scott, Remote Sensing. 13132460A. S. Nagi, D. Kumar, D. Sola, and K. A. Scott, "Ruf: Effective sea ice floe segmentation using end-to-end res-unet-crf with dual loss," Remote Sensing, vol. 13, no. 13, p. 2460, 2021. E-mpspnet: Ice-water sar scene segmentation based on multi-scale semantic features and edge supervision. W Song, H Li, Q He, G Gao, A Liotta, Remote Sensing. 14225753W. Song, H. Li, Q. He, G. Gao, and A. Liotta, "E-mpspnet: Ice-water sar scene segmentation based on multi-scale semantic features and edge supervision," Remote Sensing, vol. 14, no. 22, p. 5753, 2022. Unet++: A nested u-net architecture for medical image segmentation. Z Zhou, M M Rahman Siddiquee, N Tajbakhsh, J Liang, Deep Learning in Medical Image Analysis and Multimodal Learning for Clinical Decision Support: 4th International Workshop, DLMIA 2018, and 8th International Workshop. Granada, SpainSpringerML-CDSZ. Zhou, M. M. Rahman Siddiquee, N. Tajbakhsh, and J. Liang, "Unet++: A nested u-net architecture for medical image segmenta- tion," in Deep Learning in Medical Image Analysis and Multimodal Learning for Clinical Decision Support: 4th International Workshop, DLMIA 2018, and 8th International Workshop, ML-CDS 2018, Held in Conjunction with MICCAI 2018, Granada, Spain, September 20, 2018, Proceedings 4. Springer, 2018, pp. 3-11. Arctic sea ice mapping using sentinel-1 sar scenes with a convolutional neural network. D Murashkin, A Frost, 2021 IEEE International Geoscience and Remote Sensing Symposium IGARSS. IEEED. Murashkin and A. Frost, "Arctic sea ice mapping using sentinel- 1 sar scenes with a convolutional neural network," in 2021 IEEE International Geoscience and Remote Sensing Symposium IGARSS. IEEE, 2021, pp. 5660-5663. Super-resolution-aided sea ice concentration estimation from amsr2 images by encoder-decoder networks with atrous convolution. T Feng, X Liu, R Li, IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing. T. Feng, X. Liu, and R. Li, "Super-resolution-aided sea ice concentra- tion estimation from amsr2 images by encoder-decoder networks with atrous convolution," IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2022. An automated, generalized, deep-learning-based method for delineating the calving fronts of greenland glaciers from multi-sensor remote sensing imagery. E Zhang, L Liu, L Huang, K S Ng, Remote Sensing of Environment. 254112265E. Zhang, L. Liu, L. Huang, and K. S. Ng, "An automated, general- ized, deep-learning-based method for delineating the calving fronts of greenland glaciers from multi-sensor remote sensing imagery," Remote Sensing of Environment, vol. 254, p. 112265, 2021. Sea ice classification with dual-polarized sar imagery: A hierarchical pipeline. X Chen, K A Scott, M Jiang, Y Fang, L Xu, D A Clausi, Proceedings of the IEEE/CVF Winter Conference on Applications of Computer Vision. the IEEE/CVF Winter Conference on Applications of Computer VisionX. Chen, K. A. Scott, M. Jiang, Y. Fang, L. Xu, and D. A. Clausi, "Sea ice classification with dual-polarized sar imagery: A hierarchical pipeline," in Proceedings of the IEEE/CVF Winter Conference on Applications of Computer Vision, 2023, pp. 224-232. Semantic segmentation of metoceanic processes using sar observations and deep learning. A Colin, R Fablet, P Tandeo, R Husson, C Peureux, N Longépé, A Mouche, Remote Sensing. 144851A. Colin, R. Fablet, P. Tandeo, R. Husson, C. Peureux, N. Longépé, and A. Mouche, "Semantic segmentation of metoceanic processes using sar observations and deep learning," Remote Sensing, vol. 14, no. 4, p. 851, 2022. Application of a convolutional neural network for the detection of sea ice leads. J P Hoffman, S A Ackerman, Y Liu, J R Key, I L Mcconnell, Remote Sensing. 13224571J. P. Hoffman, S. A. Ackerman, Y. Liu, J. R. Key, and I. L. McConnell, "Application of a convolutional neural network for the detection of sea ice leads," Remote Sensing, vol. 13, no. 22, p. 4571, 2021. Boundary aware u-net for glacier segmentation. B Aryal, K E Miles, S A V Zesati, O Fuentes, arXiv:2301.11454arXiv preprintB. Aryal, K. E. Miles, S. A. V. Zesati, and O. Fuentes, "Boundary aware u-net for glacier segmentation," arXiv preprint arXiv:2301.11454, 2023. Incorporating aleatoric uncertainties in lake ice mapping using radarsat-2 sar images and cnns. N Saberi, K A Scott, C Duguay, Remote Sensing. 143644N. Saberi, K. A. Scott, and C. Duguay, "Incorporating aleatoric uncertainties in lake ice mapping using radarsat-2 sar images and cnns," Remote Sensing, vol. 14, no. 3, p. 644, 2022. Deep convolutional neural network with random field model for lake ice mapping from sentinel-1 imagery. Z Ma, Z Liu, J Pu, L Xu, K Li, L Wangqu, R Wu, Y Ma, Y Chen, C Duguay, International Journal of Remote Sensing. 4224Z. Ma, Z. Liu, J. Pu, L. Xu, K. Li, L. Wangqu, R. Wu, Y. Ma, Y. Chen, and C. Duguay, "Deep convolutional neural network with random field model for lake ice mapping from sentinel-1 imagery," International Journal of Remote Sensing, vol. 42, no. 24, pp. 9351-9375, 2021. A second-order attention network for glacial lake segmentation from remotely sensed imagery. S Wang, M V Peppa, W Xiao, S B Maharjan, S P Joshi, J P Mills, ISPRS Journal of Photogrammetry and Remote Sensing. 189S. Wang, M. V. Peppa, W. Xiao, S. B. Maharjan, S. P. Joshi, and J. P. Mills, "A second-order attention network for glacial lake segmentation from remotely sensed imagery," ISPRS Journal of Photogrammetry and Remote Sensing, vol. 189, pp. 289-301, 2022. Sea ice classification via deep neural network semantic segmentation. B Dowden, O Silva, W Huang, D Oldford, IEEE Sensors Journal. 2110B. Dowden, O. De Silva, W. Huang, and D. Oldford, "Sea ice classification via deep neural network semantic segmentation," IEEE Sensors Journal, vol. 21, no. 10, pp. 11 879-11 888, 2020. In-situ sea ice detection using deeplabv3 semantic segmentation. N Balasooriya, B Dowden, J Chen, O De Silva, W Huang, OCEANS 2021. San Diego-PortoIEEEN. Balasooriya, B. Dowden, J. Chen, O. De Silva, and W. Huang, "In-situ sea ice detection using deeplabv3 semantic segmentation," in OCEANS 2021: San Diego-Porto. IEEE, 2021, pp. 1-7. Improved seaice identification using semantic segmentation with raindrop removal. N M Alsharay, Y Chen, O A Dobre, O. De Silva, IEEE Access. 10N. M. Alsharay, Y. Chen, O. A. Dobre, and O. De Silva, "Improved sea- ice identification using semantic segmentation with raindrop removal," IEEE Access, vol. 10, pp. 21 599-21 607, 2022. Sea-ice classification using conditional generative adversarial networks. N M Alsharay, O A Dobre, Y Chen, O. De Silva, IEEE Sensors Letters. 74N. M. Alsharay, O. A. Dobre, Y. Chen, and O. De Silva, "Sea-ice classification using conditional generative adversarial networks," IEEE Sensors Letters, vol. 7, no. 4, pp. 1-4, 2023. Semantic image segmentation for sea ice parameters recognition using deep convolutional neural networks. C Zhang, X Chen, S Ji, International Journal of Applied Earth Observation and Geoinformation. 112102885C. Zhang, X. Chen, and S. Ji, "Semantic image segmentation for sea ice parameters recognition using deep convolutional neural networks," International Journal of Applied Earth Observation and Geoinforma- tion, vol. 112, p. 102885, 2022. Semantic segmentation of sea ice based on u-net network modification. J Zhao, L Chen, J Li, Y Zhao, 2022 IEEE International Conference on Robotics and Biomimetics (ROBIO). IEEEJ. Zhao, L. Chen, J. Li, and Y. Zhao, "Semantic segmentation of sea ice based on u-net network modification," in 2022 IEEE International Conference on Robotics and Biomimetics (ROBIO). IEEE, 2022, pp. 1151-1156. Am-resnet: An attentionbased multi-label classification network. L Chen, J Zhao, K Tian, Y Zhao, 2022 IEEE International Conference on Robotics and Biomimetics (ROBIO). IEEEL. Chen, J. Zhao, K. Tian, and Y. Zhao, "Am-resnet: An attention- based multi-label classification network," in 2022 IEEE International Conference on Robotics and Biomimetics (ROBIO). IEEE, 2022, pp. 380-384. Navigation environment detection in ice area based on vibration of ship main engine. L Chen, J Zhao, W Li, Y Zhao, 2022 IEEE International Conference on Robotics and Biomimetics (ROBIO). L. Chen, J. Zhao, W. Li, and Y. Zhao, "Navigation environment detection in ice area based on vibration of ship main engine," in 2022 IEEE International Conference on Robotics and Biomimetics (ROBIO). . IEEE. IEEE, 2022, pp. 1162-1166. Prediction of monthly arctic sea ice concentrations using satellite and reanalysis data based on convolutional neural networks. Y J Kim, H.-C Kim, D Han, S Lee, J Im, The Cryosphere. 143Y. J. Kim, H.-C. Kim, D. Han, S. Lee, and J. Im, "Prediction of monthly arctic sea ice concentrations using satellite and reanalysis data based on convolutional neural networks," The Cryosphere, vol. 14, no. 3, pp. 1083-1104, 2020. Seasonal arctic sea ice forecasting with probabilistic deep learning. T R Andersson, J S Hosking, M Pérez-Ortiz, B Paige, A Elliott, C Russell, S Law, D C Jones, J Wilkinson, T Phillips, Nature communications. 1215124T. R. Andersson, J. S. Hosking, M. Pérez-Ortiz, B. Paige, A. Elliott, C. Russell, S. Law, D. C. Jones, J. Wilkinson, T. Phillips, et al., "Seasonal arctic sea ice forecasting with probabilistic deep learning," Nature communications, vol. 12, no. 1, p. 5124, 2021. A mid-and long-term arctic sea ice concentration prediction model based on deep learning technology. Q Zheng, W Li, Q Shao, G Han, X Wang, Remote Sensing. 14122889Q. Zheng, W. Li, Q. Shao, G. Han, and X. Wang, "A mid-and long-term arctic sea ice concentration prediction model based on deep learning technology," Remote Sensing, vol. 14, no. 12, p. 2889, 2022. Predicting sea ice concentration with uncertainty quantification using passive microwave and reanalysis data: A case study in baffin bay. X Chen, R Valencia, A Soleymani, K A Scott, IEEE Transactions on Geoscience and Remote Sensing. 61X. Chen, R. Valencia, A. Soleymani, and K. A. Scott, "Predicting sea ice concentration with uncertainty quantification using passive microwave and reanalysis data: A case study in baffin bay," IEEE Transactions on Geoscience and Remote Sensing, vol. 61, pp. 1-13, 2023. Sea ice change detection in sar images based on collaborative representation. Y Gao, F Gao, J Dong, S Wang, IGARSS 2018-2018 IEEE International Geoscience and Remote Sensing Symposium. IEEEY. Gao, F. Gao, J. Dong, and S. Wang, "Sea ice change detection in sar images based on collaborative representation," in IGARSS 2018- 2018 IEEE International Geoscience and Remote Sensing Symposium. IEEE, 2018, pp. 7320-7323. Transferred deep learning for sea ice change detection from syntheticaperture radar images. Yunhao Gao, Feng Gao, Junyu Dong, Shengke Wang, IEEE Geoscience and Remote Sensing Letters. 1610Gao, Yunhao and Gao, Feng and Dong, Junyu and Wang, Shengke, "Transferred deep learning for sea ice change detection from synthetic- aperture radar images," IEEE Geoscience and Remote Sensing Letters, vol. 16, no. 10, pp. 1655-1659, 2019. Small data challenges in big data era: A survey of recent progress on unsupervised and semi-supervised methods. G.-J Qi, J Luo, IEEE Transactions on Pattern Analysis and Machine Intelligence. 444G.-J. Qi and J. Luo, "Small data challenges in big data era: A survey of recent progress on unsupervised and semi-supervised methods," IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 44, no. 4, pp. 2168-2187, 2020. Deep learning for sea-ice classification on synthetic aperture radar (sar) images in earth observation. classification using semi-supervised generative adversarial networks on partially labeled data. F Staccone, F. Staccone, "Deep learning for sea-ice classification on synthetic aperture radar (sar) images in earth observation. classification using semi-supervised generative adversarial networks on partially labeled data," 2020. Deep semisupervised teacher-student model based on label propagation for sea ice classification. S Khaleghian, H Ullah, T Kraemer, T Eltoft, A Marinoni, IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing. 14S. Khaleghian, H. Ullah, T. Kraemer, T. Eltoft, and A. Marinoni, "Deep semisupervised teacher-student model based on label propagation for sea ice classification," IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, vol. 14, pp. 10 761-10 772, 2021. Fine-scale sea ice segmentation for high-resolution satellite imagery with weakly-supervised cnns. B C Gonçalves, H J Lynch, Remote Sensing. 13183562B. C. Gonçalves and H. J. Lynch, "Fine-scale sea ice segmentation for high-resolution satellite imagery with weakly-supervised cnns," Remote Sensing, vol. 13, no. 18, p. 3562, 2021. Physics-aware feature learning of sar images with deep neural networks: A case study. Z Huang, C O Dumitru, J Ren, 2021 IEEE International Geoscience and Remote Sensing Symposium IGARSS. IEEEZ. Huang, C. O. Dumitru, and J. Ren, "Physics-aware feature learning of sar images with deep neural networks: A case study," in 2021 IEEE International Geoscience and Remote Sensing Symposium IGARSS. IEEE, 2021, pp. 1264-1267. Physically explainable cnn for sar image classification. Z Huang, X Yao, Y Liu, C O Dumitru, M Datcu, J Han, ISPRS Journal of Photogrammetry and Remote Sensing. 190Z. Huang, X. Yao, Y. Liu, C. O. Dumitru, M. Datcu, and J. Han, "Phys- ically explainable cnn for sar image classification," ISPRS Journal of Photogrammetry and Remote Sensing, vol. 190, pp. 25-37, 2022. Aleatoric uncertainty embedded transfer learning for sea-ice classification in sar images. Y Liu, Z Huang, J Han, IGARSS 2022-2022 IEEE International Geoscience and Remote Sensing Symposium. IEEEY. Liu, Z. Huang, and J. Han, "Aleatoric uncertainty embedded transfer learning for sea-ice classification in sar images," in IGARSS 2022- 2022 IEEE International Geoscience and Remote Sensing Symposium. IEEE, 2022, pp. 4980-4983. C-and l-band sar signatures of arctic sea ice during freeze-up. M S Mahmud, V Nandan, S Singha, S E Howell, T Geldsetzer, J Yackel, B Montpetit, Remote Sensing of Environment. 279113129M. S. Mahmud, V. Nandan, S. Singha, S. E. Howell, T. Geldsetzer, J. Yackel, and B. Montpetit, "C-and l-band sar signatures of arctic sea ice during freeze-up," Remote Sensing of Environment, vol. 279, p. 113129, 2022. Si-stsar-7: A large sar images dataset with spatial and temporal information for classification of winter sea ice in hudson bay. W Song, W Gao, Q He, A Liotta, W Guo, Remote Sensing. 141168W. Song, W. Gao, Q. He, A. Liotta, and W. Guo, "Si-stsar-7: A large sar images dataset with spatial and temporal information for classification of winter sea ice in hudson bay," Remote Sensing, vol. 14, no. 1, p. 168, 2022. River ice segmentation with deep learning. A Singh, H Kalke, M Loewen, N Ray, IEEE Transactions on Geoscience and Remote Sensing. 5811A. Singh, H. Kalke, M. Loewen, and N. Ray, "River ice segmentation with deep learning," IEEE Transactions on Geoscience and Remote Sensing, vol. 58, no. 11, pp. 7570-7579, 2020. Future arctic marine access: analysis and evaluation of observations, models, and projections of sea ice. T Rogers, J Walsh, T Rupp, L Brigham, M Sfraga, The Cryosphere. 71T. Rogers, J. Walsh, T. Rupp, L. Brigham, and M. Sfraga, "Future arctic marine access: analysis and evaluation of observations, models, and projections of sea ice," The Cryosphere, vol. 7, no. 1, pp. 321-332, 2013. Route planning and cost analysis for travelling through the arctic northeast passage using public 3d gis. K.-Y Chang, S He, C Chou, S L Kao, A Chiou, International Journal of Geographical Information Science. 298K.-Y. Chang, S. He, C. Chou, S. L. Kao, and A. Chiou, "Route planning and cost analysis for travelling through the arctic northeast passage using public 3d gis," International Journal of Geographical Information Science, vol. 29, no. 8, pp. 1375-1393, 2015. Assessments of the arctic amplification and the changes in the arctic sea surface. J.-L Chen, S.-C Kang, X.-H Meng, Q.-L You, Advances in Climate Change Research. 104J.-L. Chen, S.-C. Kang, X.-H. Meng, and Q.-L. You, "Assessments of the arctic amplification and the changes in the arctic sea surface," Advances in Climate Change Research, vol. 10, no. 4, pp. 193-202, 2019. Satellite observations for detecting and forecasting sea-ice conditions: A summary of advances made in the spices project by the eu's horizon 2020 programme. M Mäkynen, J Haapala, G Aulicino, B Balan-Sarojini, M Balmaseda, A Gegiuc, F Girard-Ardhuin, S Hendricks, G Heygster, L Istomina, Remote Sensing. 1271214M. Mäkynen, J. Haapala, G. Aulicino, B. Balan-Sarojini, M. Bal- maseda, A. Gegiuc, F. Girard-Ardhuin, S. Hendricks, G. Heygster, L. Istomina, et al., "Satellite observations for detecting and forecasting sea-ice conditions: A summary of advances made in the spices project by the eu's horizon 2020 programme," Remote Sensing, vol. 12, no. 7, p. 1214, 2020. Validation of the sea ice surface albedo scheme of the regional climate model hirham-naosim using aircraft measurements during the acloud/pascal campaigns. E Jäkel, J Stapf, M Wendisch, M Nicolaus, W Dorn, A Rinke, The Cryosphere. 136E. Jäkel, J. Stapf, M. Wendisch, M. Nicolaus, W. Dorn, and A. Rinke, "Validation of the sea ice surface albedo scheme of the regional climate model hirham-naosim using aircraft measurements during the acloud/pascal campaigns," The Cryosphere, vol. 13, no. 6, pp. 1695- 1708, 2019. Changes in sea ice conditions along the arctic northeast passage from 1979 to 2012. R Lei, H Xie, J Wang, M Leppäranta, I Jónsdóttir, Z Zhang, Cold Regions Science and Technology. 119R. Lei, H. Xie, J. Wang, M. Leppäranta, I. Jónsdóttir, and Z. Zhang, "Changes in sea ice conditions along the arctic northeast passage from 1979 to 2012," Cold Regions Science and Technology, vol. 119, pp. 132-144, 2015. Sea ice decline and 21st century trans-arctic shipping routes. N Melia, K Haines, E Hawkins, Geophysical Research Letters. 4318N. Melia, K. Haines, and E. Hawkins, "Sea ice decline and 21st century trans-arctic shipping routes," Geophysical Research Letters, vol. 43, no. 18, pp. 9720-9728, 2016. Changes in sea ice and future accessibility along the arctic northeast passage. J Chen, S Kang, C Chen, Q You, W Du, M Xu, X Zhong, W Zhang, J Chen, Global and Planetary Change. 195103319J. Chen, S. Kang, C. Chen, Q. You, W. Du, M. Xu, X. Zhong, W. Zhang, and J. Chen, "Changes in sea ice and future accessibility along the arctic northeast passage," Global and Planetary Change, vol. 195, p. 103319, 2020. Perspectives on future sea ice and navigability in the arctic. J Chen, S Kang, W Du, J Guo, M Xu, Y Zhang, X Zhong, W Zhang, J Chen, The Cryosphere. 1512J. Chen, S. Kang, W. Du, J. Guo, M. Xu, Y. Zhang, X. Zhong, W. Zhang, and J. Chen, "Perspectives on future sea ice and navigability in the arctic," The Cryosphere, vol. 15, no. 12, pp. 5473-5482, 2021. Commercial arctic shipping through the northeast passage: routes, resources, governance, technology, and infrastructure. A Buixadé Farré, S R Stephenson, L Chen, M Czub, Y Dai, D Demchev, Y Efimov, P Graczyk, H Grythe, K Keil, Polar Geography. 374A. Buixadé Farré, S. R. Stephenson, L. Chen, M. Czub, Y. Dai, D. Demchev, Y. Efimov, P. Graczyk, H. Grythe, K. Keil, et al., "Com- mercial arctic shipping through the northeast passage: routes, resources, governance, technology, and infrastructure," Polar Geography, vol. 37, no. 4, pp. 298-324, 2014. Revisiting trans-arctic maritime navigability in 2011-2016 from the perspective of sea ice thickness. X Zhou, C Min, Y Yang, J C Landy, L Mu, Q Yang, Remote Sensing. 13142766X. Zhou, C. Min, Y. Yang, J. C. Landy, L. Mu, and Q. Yang, "Revisiting trans-arctic maritime navigability in 2011-2016 from the perspective of sea ice thickness," Remote Sensing, vol. 13, no. 14, p. 2766, 2021. Feasibility of the northeast passage: The role of vessel speed, route planning, and icebreaking assistance determined by sea-ice conditions for the container shipping market during 2020-2030. Y Wang, K Liu, R Zhang, L Qian, Y Shan, Transportation Research Part E: Logistics and Transportation Review. 149102235Y. Wang, K. Liu, R. Zhang, L. Qian, and Y. Shan, "Feasibility of the northeast passage: The role of vessel speed, route planning, and icebreaking assistance determined by sea-ice conditions for the container shipping market during 2020-2030," Transportation Research Part E: Logistics and Transportation Review, vol. 149, p. 102235, 2021. Navigability of the northern sea route for arc7 ice-class vessels during winter and spring sea-ice conditions. C Shi-Yi, S Kern, L Xin-Qing, H Feng-Ming, Y Yu-Fang, X Cheng, Advances in Climate Change Research. 13C. Shi-Yi, S. Kern, L. Xin-Qing, H. Feng-Ming, Y. Yu-Fang, and X. Cheng, "Navigability of the northern sea route for arc7 ice-class vessels during winter and spring sea-ice conditions," Advances in Climate Change Research, vol. 13, no. 5, pp. 676-687, 2022. Trans-arctic shipping routes expanding faster than the model projections. Y Cao, S Liang, L Sun, J Liu, X Cheng, D Wang, Y Chen, M Yu, K Feng, Global Environmental Change. 73102488Y. Cao, S. Liang, L. Sun, J. Liu, X. Cheng, D. Wang, Y. Chen, M. Yu, and K. Feng, "Trans-arctic shipping routes expanding faster than the model projections," Global Environmental Change, vol. 73, p. 102488, 2022. Changes in sea surface temperature and sea ice concentration in the arctic ocean over the past two decades. M Yang, Y Qiu, L Huang, M Cheng, J Chen, B Cheng, Z Jiang, Remote Sensing. 1541095M. Yang, Y. Qiu, L. Huang, M. Cheng, J. Chen, B. Cheng, and Z. Jiang, "Changes in sea surface temperature and sea ice concentration in the arctic ocean over the past two decades," Remote Sensing, vol. 15, no. 4, p. 1095, 2023. Feasibility of insar application to antarctic mapping. C Zhou, E Dongchen, M Liao, Geomatics and Information Science of Wuhan University. 297C. ZHOU, E. Dongchen, and M. LIAO, "Feasibility of insar application to antarctic mapping," Geomatics and Information Science of Wuhan University, vol. 29, no. 7, pp. 619-623, 2004. Mapping of polar areas based on high-resolution satellite images: the example of the henryk arctowski polish antarctic station. Z Kurczyński, S Różycki, P Bylina, Reports on Geodesy and Geoinformatics. 1041Z. Kurczyński, S. Różycki, and P. Bylina, "Mapping of polar areas based on high-resolution satellite images: the example of the henryk arctowski polish antarctic station," Reports on Geodesy and Geoinfor- matics, vol. 104, no. 1, pp. 65-78, 2017. Extensive dynamic thinning on the margins of the greenland and antarctic ice sheets. H D Pritchard, R J Arthern, D G Vaughan, L A Edwards, Nature. 4617266H. D. Pritchard, R. J. Arthern, D. G. Vaughan, and L. A. Edwards, "Extensive dynamic thinning on the margins of the greenland and antarctic ice sheets," Nature, vol. 461, no. 7266, pp. 971-975, 2009. A ship navigation information service system for the arctic northeast passage using 3d gis based on big earth data. A Wu, T Che, X Li, X Zhu, Big Earth Data. 64A. Wu, T. Che, X. Li, and X. Zhu, "A ship navigation information service system for the arctic northeast passage using 3d gis based on big earth data," Big Earth Data, vol. 6, no. 4, pp. 453-479, 2022. Routeview: an intelligent route planning system for ships sailing through arctic ice zones based on big earth data. Adan Wu, Che , Tao Li, Xin Zhu, Xiaowen , International Journal of Digital Earth. 151Wu, Adan and Che, Tao and Li, Xin and Zhu, Xiaowen, "Routeview: an intelligent route planning system for ships sailing through arctic ice zones based on big earth data," International Journal of Digital Earth, vol. 15, no. 1, pp. 1588-1613, 2022. Quantarctica, an integrated mapping environment for antarctica, the southern ocean, and sub-antarctic islands. K Matsuoka, A Skoglund, G Roth, J De Pomereu, H Griffiths, R Headland, B Herried, K Katsumata, A Le Brocq, K Licht, Environmental Modelling & Software. 140105015K. Matsuoka, A. Skoglund, G. Roth, J. de Pomereu, H. Griffiths, R. Headland, B. Herried, K. Katsumata, A. Le Brocq, K. Licht, et al., "Quantarctica, an integrated mapping environment for antarctica, the southern ocean, and sub-antarctic islands," Environmental Modelling & Software, vol. 140, p. 105015, 2021. The international bathymetric chart of the southern ocean version 2. B Dorschel, L Hehemann, S Viquerat, F Warnke, S Dreutter, Y S Tenberge, D Accettella, L An, F Barrios, E Bazhenova, Scientific data. 91275B. Dorschel, L. Hehemann, S. Viquerat, F. Warnke, S. Dreutter, Y. S. Tenberge, D. Accettella, L. An, F. Barrios, E. Bazhenova, et al., "The international bathymetric chart of the southern ocean version 2," Scientific data, vol. 9, no. 1, p. 275, 2022. Popularmapprojectionsinantarcticaandtheirapplicag tion. W Qinghua, E Dongchen, C Chunming, ChineseJournalofPolar-Research. 143W. Qinghua, E. Dongchen, C. Chunming, et al., "Popularmap- projectionsinantarcticaandtheirapplicag tion," ChineseJournalofPolar- Research, vol. 14, no. 3, p. 226G233, 2002. How will diminishing sea ice impact commercial fishing in the bering sea?. G L Hunt, L Eisner, N M Call, Arctic, Antarctic, and Alpine Research. 531G. L. Hunt, L. Eisner, and N. M. Call, "How will diminishing sea ice impact commercial fishing in the bering sea?" Arctic, Antarctic, and Alpine Research, vol. 53, no. 1, pp. 269-270, 2021. Oil behavior in sea ice: Changes in chemical composition and resultant effect on sea ice dielectrics. D S Desmond, D Saltymakova, T D Neusitzer, N Firoozy, D Isleifson, D G Barber, G A Stern, Marine pollution bulletin. 142D. S. Desmond, D. Saltymakova, T. D. Neusitzer, N. Firoozy, D. Isleif- son, D. G. Barber, and G. A. Stern, "Oil behavior in sea ice: Changes in chemical composition and resultant effect on sea ice dielectrics," Marine pollution bulletin, vol. 142, pp. 216-233, 2019. A review of potential impacts of submarine power cables on the marine environment: Knowledge gaps, recommendations and future directions. B Taormina, J Bald, A Want, G Thouzeau, M Lejart, N Desroy, A Carlier, Renewable and Sustainable Energy Reviews. 96B. Taormina, J. Bald, A. Want, G. Thouzeau, M. Lejart, N. Desroy, and A. Carlier, "A review of potential impacts of submarine power cables on the marine environment: Knowledge gaps, recommendations and future directions," Renewable and Sustainable Energy Reviews, vol. 96, pp. 380-391, 2018. Impacts of arctic sea ice loss on global ocean circulations and interbasin ocean heat exchanges. S Li, W Liu, Climate Dynamics. 599S. Li and W. Liu, "Impacts of arctic sea ice loss on global ocean circulations and interbasin ocean heat exchanges," Climate Dynamics, vol. 59, no. 9-10, pp. 2701-2716, 2022. Effect of sea ice retreat on marine aerosol emissions in the southern ocean, antarctica. J Yan, J Jung, Q Lin, M Zhang, S Xu, S Zhao, Science of the Total Environment. 745140773J. Yan, J. Jung, Q. Lin, M. Zhang, S. Xu, and S. Zhao, "Effect of sea ice retreat on marine aerosol emissions in the southern ocean, antarctica," Science of the Total Environment, vol. 745, p. 140773, 2020. Exploring the impact of southern ocean sea ice on the indian ocean swells. M Sreejith, R Pg, B P Kumar, A Raj, T Nair, Scientific Reports. 121M. Sreejith, R. PG, B. P. Kumar, A. Raj, and T. Nair, "Exploring the impact of southern ocean sea ice on the indian ocean swells," Scientific Reports, vol. 12, no. 1, pp. 1-9, 2022. Mcanet: A joint semantic segmentation framework of optical and sar images for land use classification. X Li, G Zhang, H Cui, S Hou, S Wang, X Li, Y Chen, Z Li, L Zhang, International Journal of Applied Earth Observation and Geoinformation. 106102638X. Li, G. Zhang, H. Cui, S. Hou, S. Wang, X. Li, Y. Chen, Z. Li, and L. Zhang, "Mcanet: A joint semantic segmentation framework of optical and sar images for land use classification," International Journal of Applied Earth Observation and Geoinformation, vol. 106, p. 102638, 2022. Collaborative attentionbased heterogeneous gated fusion network for land cover classification. X Li, L Lei, Y Sun, M Li, G Kuang, IEEE Transactions on Geoscience and Remote Sensing. 595X. Li, L. Lei, Y. Sun, M. Li, and G. Kuang, "Collaborative attention- based heterogeneous gated fusion network for land cover classifica- tion," IEEE Transactions on Geoscience and Remote Sensing, vol. 59, no. 5, pp. 3829-3845, 2020. Aligning semantic distribution in fusing optical and sar images for land use classification. W Li, K Sun, W Li, J Wei, S Miao, S Gao, Q Zhou, ISPRS Journal of Photogrammetry and Remote Sensing. 199W. Li, K. Sun, W. Li, J. Wei, S. Miao, S. Gao, and Q. Zhou, "Aligning semantic distribution in fusing optical and sar images for land use classification," ISPRS Journal of Photogrammetry and Remote Sensing, vol. 199, pp. 272-288, 2023. Sea ice classification using mutually guided contexts. X Sun, X Zhang, W Huang, Z Han, X Lyu, P Ren, IEEE Transactions on Geoscience and Remote Sensing. 61X. Sun, X. Zhang, W. Huang, Z. Han, X. Lyu, and P. Ren, "Sea ice classification using mutually guided contexts," IEEE Transactions on Geoscience and Remote Sensing, vol. 61, pp. 1-19, 2023. A Kirillov, E Mintun, N Ravi, H Mao, C Rolland, L Gustafson, T Xiao, S Whitehead, A C Berg, W.-Y Lo, arXiv:2304.02643Segment anything. arXiv preprintA. Kirillov, E. Mintun, N. Ravi, H. Mao, C. Rolland, L. Gustafson, T. Xiao, S. Whitehead, A. C. Berg, W.-Y. Lo, et al., "Segment anything," arXiv preprint arXiv:2304.02643, 2023. Learning transferable visual models from natural language supervision. A Radford, J W Kim, C Hallacy, A Ramesh, G Goh, S Agarwal, G Sastry, A Askell, P Mishkin, J Clark, International conference on machine learning. PMLRA. Radford, J. W. Kim, C. Hallacy, A. Ramesh, G. Goh, S. Agarwal, G. Sastry, A. Askell, P. Mishkin, J. Clark, et al., "Learning transferable visual models from natural language supervision," in International conference on machine learning. PMLR, 2021, pp. 8748-8763. A web gis for sea ice information and an ice service archive. S Li, C Xiong, Z Ou, Transactions in GIS. 152S. Li, C. Xiong, and Z. Ou, "A web gis for sea ice information and an ice service archive," Transactions in GIS, vol. 15, no. 2, pp. 189-211, 2011. The non-singular formula of gauss projection in polar regions by complex numbers. B Shaofeng, L Zhongmei, L Houpu, Acta Geodaetica et Cartographica Sinica. 434B. Shaofeng, L. Zhongmei, and L. Houpu, "The non-singular formula of gauss projection in polar regions by complex numbers," Acta Geodaetica et Cartographica Sinica, vol. 43, no. 4, pp. 348-352, 2014. Forward and inverse expressions of polar gauss projection without zoning limitations. L Zhongmei, B Shaofeng, J Lixin, C Cheng, L Qiang, Acta Geodaetica et Cartographica Sinica. 466780L. Zhongmei, B. Shaofeng, J. Lixin, C. Cheng, and L. Qiang, "Forward and inverse expressions of polar gauss projection without zoning limitations," Acta Geodaetica et Cartographica Sinica, vol. 46, no. 6, p. 780, 2017. Comparisons between gauss and gnomonic projections in polar regions. X Zhang, S Bian, Z Li, Geomatics and Information Science of Wuhan University. 405X. ZHANG, S. BIAN, and Z. LI, "Comparisons between gauss and gnomonic projections in polar regions," Geomatics and Information Science of Wuhan University, vol. 40, no. 5, pp. 667-672, 2015. Application of sea ice map projection transformation and tile cutting over the antarctic ocean. T Lu, A Songtao, E Dongchen, G Hongqing, S Quan, X Ning, Z Hongyang, Chinese Journal of Polar Research. 243284T. Lu, A. Songtao, E. Dongchen, G. Hongqing, S. Quan, X. Ning, and Z. Hongyang, "Application of sea ice map projection transformation and tile cutting over the antarctic ocean," Chinese Journal of Polar Research, vol. 24, no. 3, p. 284, 2012.
sample_9374
0.9432
arxiv
CAPÍTULO 4 ALGORITMO PARA GERAÇÃO DE CONTORNO DE MALHAS RETANGULARES PARA CÁLCULO DE DIFERENÇAS FINITAS RECTANGULAR MESH CONTOUR GENERATION ALGORITHM FOR FINITE DIFFERENCES CALCULUS Pedro Zaffalon Da Silva Neyva Maria Lopes Romeiro Rafael Furlanetto Casamaximo Iury Pereira De Souza Paulo Laerte Natti Eliandro Rodrigues Cirilo Universidade Estadual de Londrina Paraná -Londrina Universidade Estadual de Londrina Paraná -Londrina Universidade Estadual de Londrina Paraná -Londrina Universidade Estadual de Londrina Paraná -Londrina Universidade Estadual de Londrina Paraná -Londrina Universidade Estadual de Londrina Paraná -Londrina CAPÍTULO 4 ALGORITMO PARA GERAÇÃO DE CONTORNO DE MALHAS RETANGULARES PARA CÁLCULO DE DIFERENÇAS FINITAS RECTANGULAR MESH CONTOUR GENERATION ALGORITHM FOR FINITE DIFFERENCES CALCULUS Coleção desafios das engenharias: Engenharia de computação Capítulo 4 38 Data de aceite: 02/08/2021 PALAVRAS-CHAVE: Geometria irregular, contorno, malha, diferenças finitas. RESUMO: Neste trabalho, um algoritmo para geração de contorno 2D envolvendo regiões irregulares é proposto. Nesse algoritmo, o contorno do domínio físico é aproximado para segmentos de malha utilizando as coordenadas do contorno dado. Para este propósito, o código usa uma estrutura de repetição que analisa as coordenadas do contorno irregular conhecidas para aproximar o contorno do domínio físico para segmentos de malha. Para isso, calculase o coeficiente linear da reta definida pelos pontos do contorno conhecido e seus vértices vizinhos. Desta forma, o algoritmo calcula os pontos da linha e sua distância para os nós da malha mais próximos, permitindo obter pontos do contorno aproximado. Esse processo é repetido até que o contorno aproximado completo seja gerado. Sendo assim, um algoritmo para geração de contorno aproximado, sob os nós da malha, torna-se adequado para descrever malhas envolvendo geometrias com contornos irregulares para fins de cálculo de diferenças finitas, resultando em simulações numéricas da modelagem matemática de fenômenos naturais. O algoritmo é analisado usando três geometrias, onde avalia-se a diferença entre as áreas delimitadas pelo contorno dado e aproximado em porcentagens, número de nós e a quantidade de pontos internos. Verifica-se que quanto maior a complexidade da geometria, maior a quantidade de nós no contorno é necessária, exigido desta forma, malhas mais refinadas, para obter diferenças de áreas abaixo de 2%.ABSTRACT: In this work, a 2D contour generation algorithm, involving irregular regions is proposed. RESUMO: Neste trabalho, um algoritmo para geração de contorno 2D envolvendo regiões irregulares é proposto. Nesse algoritmo, o contorno do domínio físico é aproximado para segmentos de malha utilizando as coordenadas do contorno dado. Para este propósito, o código usa uma estrutura de repetição que analisa as coordenadas do contorno irregular conhecidas para aproximar o contorno do domínio físico para segmentos de malha. Para isso, calculase o coeficiente linear da reta definida pelos pontos do contorno conhecido e seus vértices vizinhos. Desta forma, o algoritmo calcula os pontos da linha e sua distância para os nós da malha mais próximos, permitindo obter pontos do contorno aproximado. Esse processo é repetido até que o contorno aproximado completo seja gerado. Sendo assim, um algoritmo para geração de contorno aproximado, sob os nós da malha, torna-se adequado para descrever malhas envolvendo geometrias com contornos irregulares para fins de cálculo de diferenças finitas, resultando em simulações numéricas da modelagem matemática de fenômenos naturais. O algoritmo é analisado usando três geometrias, onde avalia-se a diferença entre as áreas delimitadas pelo contorno dado e aproximado em porcentagens, número de nós e a quantidade de pontos internos. Verifica-se que quanto maior a complexidade da geometria, maior a quantidade de nós no contorno é necessária, exigido desta forma, malhas mais refinadas, para obter diferenças de áreas abaixo de 2%. PALAVRAS-CHAVE: Geometria irregular, contorno, malha, diferenças finitas. RECTANGULAR MESH CONTOUR GENERATION ALGORITHM FOR FINITE DIFFERENCES CALCULUS ABSTRACT: In this work, a 2D contour generation algorithm, involving irregular regions is proposed. In this algorithm, the contour of the physical domain is approximated by mesh segments using the coordinates of the known contours. For this purpose, the algorithm uses one repetition structure that analyzes the coordinates of the known irregular contours to approximate the contour of the physical domain by mesh segments. To this end, the algorithm calculates the slope of the line defined by the known point of the irregular contours and the neighboring vertices. Then the algorithm calculates the line points and the shortest distance from these points to a mesh node, thus generating a point of the approximate contour. This process is repeated until the approximate contour is obtained. Therefore, an approximate contour generation algorithm, under mesh nodes, becomes appropriate to describe irregular contours geometries used in finite difference method, allowing numerical simulations of mathematical modelling of natural phenomena. The algorithm is analyzed using tree geometries, which are evaluated by the difference between the area bounded by the known and approximate contour, the number of nodes on the contour and inside the geometry. It is observed that the more complex the geometry, the more nodes are necessary in the contour, demanding more refined meshes, to obtain area differences below 2%. KEYWORDS: Irregular geometry, contour, mesh, finite differences. INTRODUÇÃO A modelagem e simulação, por meio da manipulação de equações diferenciais, constitui uma importante ferramenta para a análise e a descrição matemática de diversos fenômenos. Entretanto, devido ao fato de que, a grande maioria das equações diferenciais não possui solução analítica, faz-se necessário a aplicação de métodos numéricos para sua resolução. Para aplicar métodos numéricos, é necessário conhecer informações da geometria do meio que está sendo investigado, considerando a malha computacional. A malha computacional consiste na representação discretizada do domínio físico descrito através de um contorno dado. Assim, a malha é formada por um conjunto de células, limitadas pelas arestas, nos quais são denominadas de faces, contendo vértices, que são chamados de nós. No entanto, na modelagem de fenômenos naturais, raramente o domínio onde estão definidas as condições de contorno do problema, encontra-se sob os nós da malha computacional [3]. Assim, malhas cartesianas em num plano bidimensional, se deparam com sérias dificuldades ao prescrever condições de contorno em domínios não regulares, dificultando a resolução do problema considerando o método de diferenças finitas [12]. Porém, discretizações utilizando malhas cartesianas são atraentes em termos de eficiência e baixo armazenamento de memória [5]. Com o objetivo de identificar qual nó deve ser adicionado ao contorno aproximado, é necessário verificar a distância de cada ponto em relação ao contorno dado. Para isso, utiliza-se a função ƒ(x), que representa a reta definida pelo ponto atual do contorno dado e seu antecessor. Obtido a função, calcula-se os valores de ƒ(x 0 + δ x ) e de g(y 0 + δ y ), sendo g(x)=ƒ -1 (x), os quais permitem obter a distância em relação aos nós analisados. DESENVOLVIMEMTO Sendo o contorno dado, inscrito em uma região de domínio retangular R =[X 0 , X f ]x[Y 0 , Y f ], Para identificar qual nó deve ser adicionado, são analisados dois pontos na reta, sendo X = x 0 + δ x e Y = y 0 + δ y . Desta forma, obtêm-se (x 0 + δ x , ƒ(x 0 + δ x )) e ƒ (-1) (y 0 + δ y ), y 0 + δ y ), conforme ilustrado na Figura 2b. Verifica-se que o ponto que deve ser adicionado no contorno aproximado é (x 0 + δ x , y 0 + δ y ) pois a distância entre a reta e o ponto (x 0 , y 0 + δ y ) é maior que δ x e (x 0 + δ x , y 0 ) não é um ponto interno à figura. ALGORITMO Todo o desenvolvimento descrito encontra-se apresentado de forma resumida no Algoritmo 1. Os parâmetros v x e v y representam a diferença entre dois pontos do contorno dado. RESULTADOS Utilizando o Algoritmo 1, apresenta-se resultados de malhas retangulares, considerando as geometrias da mama, da garrafa e do avião. Na geometria da mama, os autores Foucher, Ibrahim e Saad [6] e Manganin et al. [9] apresentam simulações numéricas utilizando equações diferenciais parciais, para descreverem o crescimento tumoral, enquanto as geometrias da garrafa e do avião encontram-se ilustradas em Naozuka [10]. Naozuka [10] e Naozuka et al [11], utilizaram as geometrias para avaliar o gerador de malhas desenvolvido em coordenadas generalizadas, envolvendo técnicas de multiblocos. Também, devido ao procedimento utilizado, avaliou a qualidade dos elementos de malha. Os pontos do contorno das geometrias foram coletados utilizando o programa WebPlotDigitizer 4.3 [13]. As malhas internas foram obtidas utilizando a função inpolygon Figura 2 . 2Etapas do algoritmo para obter os nós entre dois pontos. Fonte: Os autores. Na Figura 2a, o ponto (x 0 , y 0 ) em vermelho, representa o primeiro ponto do contorno aproximado, as retas azuis descrevem o contorno dado no sentido anti-horário. Devido a reta ser crescente em x e em y, o próximo nó do contorno aproximado deve ter coordenadas maior ou igual, tanto em x quanto em y. Sendo assim, tem-se três possibilidades para o próximo nó, sendo (x 0 + δ x , y 0 ), (x 0 , y 0 + δ x ) e (x 0 + δ x + y 0 + δ y ), como pode ser identificado pela cor verde na Figura 2a. Figura 3 . 3Exemplo de nó externo em relação à próxima reta. Fonte: Os autores. Na Figura 3 o ponto P é o nó mais próximo acima da primeira reta do contorno, porém em relação à reta seguinte está externa à figura. Com o objetivo de evitar esta situação, é realizado uma verificação para excluir nós externos em convexidades.Caso 2: Em concavidades, o último nó obtido pode não ser o nó inicial da próxima reta, como descreve a Figura 4. Figura 4 . 4Exemplo de um caso no qual é necessário adicionar um nó adicional. Fonte: Os autores. Na Figura 4a, o ponto P é o último nó da primeira reta do contorno e, consequentemente, o inicial para a reta seguinte. Considerando que a reta possui valor crescente em y e decrescente em x, o próximo nó obtido seria externo. Isso ocorre porque o último nó obtido não é adequado como valor inicial para a reta seguinte. Para evitar nós incorretos, um novo nó é adicionado no contorno neste caso, realizando a mesma operação, porém verificando em relação à próxima reta, obtendo o nó inicial adequado, conforme ilustrado na Figura 4b. onde N x e N y são as partições em x e y, respectivamente. A partir desses valores, define-se a malha na qual o domínio irregular será representado, por meio do contorno aproximado. parâmetros de entrada o vetor com as coordenadas x e y do contorno dado, os valores mínimos das coordenadas deste vetor, representado por (x min , y min ), e o espaçamento da malha, δ x e δ y . Também, é definido o sentido no qual os pontos do contorno dado encontram-se ordenados. Assim, o primeiro ponto do contorno aproximado, ou como denotado, primeiro nó, será utilizado como base para calcular os demais nós. Este nó será obtido aproximando o ponto inicial do contorno dado a um nó mais próximo, interno a região da área do contorno aproximado, sob um ponto de malha. Entretanto, para isso faz-se necessário verificar em qual direção a região interna, da área de interesse, se encontra. Para verificar está região, deve-se observar qual o sentido em que as coordenadas dos pontos do contorno estão ordenadas, se é horário ou anti-horário. Para definir como encontra-se ordenado o contorno, utiliza-se as Figuras 1a-d. Na Figura 1a, as coordenadas encontram-se ordenadas no sentido horário, onde observa-se que em cada parte dos segmentos de retas de cor azul, o ponto subsequente apresenta valor maior para a coordenada x, e a área interna da figura localiza-se abaixo dos segmentos de retas. Por outro lado, nos segmentos de reta de cor vermelha, o ponto subsequente apresenta valor menor para a coordenada x, e a área interna encontra-se acima dos segmentos de retas. Na Figura 1b, as coordenadas encontram-se ordenadas no sentido anti-horário. Observa-se que em cada parte dos segmentos de retas de cor azul, o ponto subsequente apresenta valor maior para a coordenada x, e a área interna da figura localiza-se acima dos segmentos de retas. Nos segmentos de reta de cor vermelha, o ponto subsequente apresenta valor menor para a coordenada x e a área interna encontra-se abaixo dos segmentos de retas.define-se e , Para obter o contorno aproximado, foi considerado um algoritmo que utiliza funções lineares, que representa retas definidas pelos pontos do contorno dado, para gerar o contorno aproximado mais próximos dos pontos da malha. Desta forma, o algoritmo recebe como Figura 1. Os pontos do contorno encontram-se ordenados nos sentidos: a) e c) horário; b) e d) anti- horário. Fonte: Os autores. Na Figura 1c, as coordenadas encontram-se ordenadas no sentido horário. observa- se que nos segmentos de retas de cor azul, o ponto subsequente apresenta valor maior para y, e a área interna da figura localiza-se à direita do ponto. Por outro lado, nos segmentos de retas de cor vermelha o ponto subsequente apresenta valor menor de y, e a área interna encontra-se à esquerda. Ainda, nesta figura, pode-se observar segmentos de retas na cor amarela, onde não ocorre variação no valor de y, neste caso a direção será a mesma do ponto anterior. Na Figura 1d, as coordenadas encontram-se ordenadas no sentido anti-horário. observa-se que nos segmentos de retas de cor azul, o ponto subsequente apresenta valor maior para y, e a área interna da figura localiza-se à esquerda do ponto. Por outro lado, nos segmentos de retas de cor vermelha o ponto subsequente apresenta valor menor de y, e a área interna está à direita. Similarmente a Figura 1c, nos segmentos de retas na cor amarela, não ocorre variação no valor de y, neste caso a direção será a mesma do ponto anterior. Verificado qual a direção em que a área interna da região se encontra, o algoritmo aproximar o primeiro ponto do contorno dado para o nó interno mais próximo. Após obter o nó inicial, o algoritmo calcula as coordenadas dos nós aproximados até o segundo ponto do contorno dado, conforme exemplificado nas Figuras 2a-d. Obtido o segundo nó, continua-se o processo realizando as mesmas operações, conforme ilustrado na Figura 2c. Interrompese a etapa ao obter o nó mais próximo ao ponto atual do contorno dado, conforme ilustrado na Figura 2d. Finalizada a etapa para o ponto atual, o mesmo procedimento será realizado para os demais pontos do contorno dado, de forma que, ao passar por todos os pontos, o porém em relação à reta seguinte está externa à figura. Com o objetivo de evitar esta situação, é realizado uma verificação para excluir nós externos em convexidades.contorno aproximado é obtido. EXCEÇÕES: CONVEXIDADES E CONCAVIDADES Em certos casos, nos quais o sentido de ou de muda em relação à reta anterior, é necessário realizar verificações para gerar o contorno aproximado correto. Assim, tem-se aos casos 1 e 2. Caso 1: Em convexidades os nós obtidos podem ser externos em relação à próxima reta, como ilustra a Figura 3. Na Figura 3 o ponto P é o nó mais próximo acima da primeira reta do contorno, Na Tabela 2 têm-se os resultados dos contornos dados e aproximados e, as malhas geradas pelo Algoritmo 1, considerando as geometrias da mama, garrafa e avião em quatro dos nove refinamentos dados na Tabelas 1.Tabela 2. Resultados obtidos dos contornos dados e aproximados e, malhas considerando as geometrias da mama, garrafa e avião. Verifica-se na Tabelas 1 e 2, como era esperado, que com o refinamento das malhas as diferenças entre as áreas delimitadas pelo contorno dado e aproximado diminuem. Por fim, as figuras na Tabela 3, apresentam resultados das distâncias entre os nós do contorno aproximado e do contorno dado, para cada ponto da fronteira obtida sobre os nós da malha. Tabela 3. Resultados das distâncias entre os nós no contorno dado e aproximado, considerando as geometrias da mama, garrafa e avião. Fonte: Os autores. Para os resultados apresentados na Tabela 5, optou-se em manter a escala no eixo que descreve as distâncias entre os nós do contorno aproximado e do contorno dado, para uma melhor visualização das diferenças. Observa-se que com o aumento de partições N i e N j , o número de nós, no contorno aproximado, aumenta significativamente e a diferença entre as distâncias entre os nós do contorno aproximado e do contorno dado diminuem. Destaca-se que uma das vantagens do algoritmo desenvolvido, refere-se a detectar todos os nós do contorno sobre os pontos de malha, possibilitando o cálculo de diferenças finitas para fins se simulações numéricas de fenômenos como o crescimento tumoral na geometria da mama, a distribuição de calor na geometria da garrafa, análise de escoamento de aeronaves. Desenvolveu-se, neste trabalho, um algoritmo que descreve o contorno aproximado de uma região irregular. O algoritmo resultou em geometrias próximas as geometrias do domínio dado, observou-se que o contorno dado e o contorno aproximado, com o refinamento, tornam-se cada vez mais próximos, comprovando que a diferença entre as áreas delimitadas pelos contornos diminui. Observou-se que, mesmo utilizando um maior número de nós nas malhas, a geometria do avião apresenta diferenças de áreas maiores em comparação com as outras figuras. Entre os motivos pelo quais isso ocorre, pode-se citar a complexidade da geometria e a grande quantidade de pontos no contorno dado, tornando necessário malhas mais refinadas, para obter diferenças de áreas abaixo de 2%. Além disso, é possível observar que o avião possui região interna mais estreita comparada às outras figuras, fazendo com que as diferenças presentes no contorno se tornem mais relevantes comparadas à área total. Os autores agradecem o apoio do grupo de pesquisa vinculado ao laboratório de simulação e análise numérica (LabSan) da Universidade Estadual de Londrina. Silva, P. Z agradece o apoio do CNPq sob o processo 152547/2019-3.do Octave [4], a partir do contorno aproximado das figuras. As áreas das geometrias foram obtidas pelo método de Gauss, onde calcula a área, , de polígonos irregulares a partir do conjunto de coordenadas dos vértices do polígono ordenados no sentido anti-horário [1], utilizando a equação (1) onde x n e y n , representam os pontos a serem utilizados para calcular a área tanto da região do domínio dado e do domínio aproximado. Utilizando a equação (1), apresenta-se na Tabela 1, diferenças entre as áreas delimitadas pelo contorno dado e aproximado em porcentagens, das geometrias da mama, garrafa e avião, utilizando diferentes refinamentos de malha. Informa-se o número de nós do contorno dado, do contorno obtido nos refinamentos e a quantidade de nós internos, para fins de cálculo de diferenças finitas. Algoritmo 1: Algoritmo para obter o contorno dado. Entrada: vetor do contorno dado x min , y min , δ x e δ y Saída: Contorno Aproximada 1 início 2 Aproxime a primeira coordenada para o nó mais próximo da malha; 3 Adicione o nó obtido ao contorno aproximado 4 para i←2; i < tamanho do contorno dado; i++ faça 5 Calcule a diferença entre o ponto atual e o anterior do contorno dado, tanto para x(v x ) quanto para y(v y ) ; 6 Calcule o número de nós entre o último nó e o ponto atual do contorno dado, tanto para x(n x ) quanto para y(n y ) ; 7 se n x ≥ 1 ou n y ≥ 1 então 8 se v x == 0 então 9 para j←1; j < n y ; j ++ faça 10 Adicione um novo nó no contorno aproximado, com coordenada igual ao anterior somada com δ y 11 fim 12 fim 13 senão, se v y == 0 então 14 para j←1; j < n y ; j ++ faça 15 Adicione um novo nó no contorno aproximado, com coordenada igual ao anterior somada com δ x 16 fim 17 fim 18 senão 19 Calcule o coeficiente angular da reta definida pelo atual e anterior (v y \v x ) 20 enquanto Diferença entre o último nó obtido e o ponto atual em x ≥ δ X ou diferença em y ≥ δ y 21 Calcule os 3 possíveis próximos nós; 22 Verifique qual é o nó interno mais próximo da reta; 23 Adicione o nó obtido ao contorno aproximado 24 fim 25 fim 26 Se Região apresentar convexidade então 27 enquanto Último nó estiver externo à figura faça 28 Remova o último nó; 29 fim 30 fim 31 Senão se Região apresentar convexidade então 32 Obter o próximo nó, conforme o método anterior 33 fim 34 fim 35 fim Mama Garrafa Avião 50x50 50x50 70x70 70x70 70x70 100x100 100x100 120x120 300x300 250x250 250x250 400x400 Fonte: Os autores. Mama Garrafa Avião 50x50 50x50 70x70 70x70 70x70 100x100 100x100 120x120 300x300 250x250 250x250 400x400 CONCLUSÃO AGRADECIMENTOS fimFonte: Os autores.Os refinamentos, definidos por N i e N j , i = 1,2,...,N x e j = 1,2,..., N y , descrevem os números de partições nas direções x e y respectivamente. The surveyor's area formula. B Braden, The College Mathematics Journal. 174BRADEN, B. The surveyor's area formula. The College Mathematics Journal, 17, 4, (1986), 326-337. Approximate imposition of boundary conditions in immersed boundary methods. R Codina, J Baiges, International Journal for Numerical Methods in Engineering. 80CODINA, R., BAIGES, J. Approximate imposition of boundary conditions in immersed boundary methods. International Journal for Numerical Methods in Engineering 80, 11 (2009), 1379-1405. Discretização de equações diferenciais parciais: técnicas de diferenças finitas. Sociedade Brasileira de Matemática. J A Cuminato, M Meneguette, CUMINATO, J. A., AND MENEGUETTE, M. Discretização de equações diferenciais parciais: técnicas de diferenças finitas. Sociedade Brasileira de Matemática, 2013. . J W Eaton, Octave, version 6.2.0Eaton, J. W. GNU Octave (version 6.2.0). https://octave.org/doc/v6.2.0/. Acesso em janeiro de 2021. Very highorder method on immersed curved domains for finite difference schemes with regular cartesian grids. J Fernández-Fidalgo, S Clain, L Ramírez, I Colominas, X Nogueira, Computer Methods in Applied Mechanics and Engineering. 360112782FERNÁNDEZ-FIDALGO, J., CLAIN, S., RAMÍREZ, L., COLOMINAS, I., NOGUEIRA, X. Very high- order method on immersed curved domains for finite difference schemes with regular cartesian grids. Computer Methods in Applied Mechanics and Engineering 360 (2020), 112782. Convergence of a positive nonlinear control volume finite element scheme for solving an anisotropic degenerate breast cancer development model. F Foucher, M Ibrahim, M Saad, Computers Mathematics with Applications. 76FOUCHER, F., IBRAHIM, M., SAAD, M. Convergence of a positive nonlinear control volume finite element scheme for solving an anisotropic degenerate breast cancer development model. Computers Mathematics with Applications 76, 3 (2018), 551 -578. Finite difference method and algebraic polynomial interpolation for numerically solving Poisson's equation over arbitrary domains. T Fukuchi, AIP Advances. 460701FUKUCHI, T. Finite difference method and algebraic polynomial interpolation for numerically solving Poisson's equation over arbitrary domains. AIP Advances 4, 6 (2014), 060701. The embedded finite difference method for the Poisson equation in a domain with an irregular boundary and dirichlet boundary conditions. Z Jomaa, C Macaskill, Journal of Computational Physics. 202JOMAA, Z., MACASKILL, C. The embedded finite difference method for the Poisson equation in a domain with an irregular boundary and dirichlet boundary conditions. Journal of Computational Physics 202, 2 (2005), 488 -506. Simulação de um modelo matemático de crescimento tumoral utilizando diferenças finitas. J Maganin, N M L Romeiro, E R Cirilo, P L Natti, Brazilian Journal of Development. 611MAGANIN, J.; ROMEIRO, N. M. L.; CIRILO, E. R.; NATTI, P. L. Simulação de um modelo matemático de crescimento tumoral utilizando diferenças finitas. Brazilian Journal of Development, 6, 11, (2020), 87696-87709. Geração e análise de qualidade de malhas computacionais em coordenadas curvilíneas. Dissertação. G T Naozuka, Londrina, Pr, BrasilUniversidade Estadual de Londrina -Departamento de Ciência da ComputaçãoNAOZUKA, G. T. Geração e análise de qualidade de malhas computacionais em coordenadas curvilíneas. Dissertação, Universidade Estadual de Londrina -Departamento de Ciência da Computação, Londrina, Pr, Brasil, 2018. Twodimensional mesh generator and quality analysis of elements on the curvilinear coordinates system. G T Naozuka, N M L Romeiro, A S Felinto, P L Natti, E R Cirilo, Semina: Ciências Exatas e Tecnológicas. 42NAOZUKA, G. T.; ROMEIRO, N. M. L.; FELINTO, A. S.; NATTI, P. L.; CIRILO, E. R. Two- dimensional mesh generator and quality analysis of elements on the curvilinear coordinates system. Semina: Ciências Exatas e Tecnológicas, 42, 1 (2021), 29-44. Análise de métodos numéricos de diferenças finitas para solução da equação de Poisson em domínios irregulares. Dissertação, Programa de Pós-graduação em Matemática Aplicada e Computacional da. P F S Othechar, Presidente Prudente, SP, BrasilUniversidade Estadual Paulista Júlio de Mesquita FilhoOTHECHAR, P. F. S. Análise de métodos numéricos de diferenças finitas para solução da equação de Poisson em domínios irregulares. Dissertação, Programa de Pós-graduação em Matemática Aplicada e Computacional da Universidade Estadual Paulista Júlio de Mesquita Filho, Presidente Prudente, SP, Brasil, 2013. . A Rohatgi, ROHATGI, A. Webplotdigitizer -versão 4.3. <https://automeris.io/WebPlotDigitizer>, 2020. Acesso em dezembro de 2020.
sample_9657
0.7841
arxiv
GRANDES FRAUDES Y GOBIERNOS CORPORATIVOS EN LA ECONOMÍA DESDE MEDIADOS DEL SIGLO XX Inés Martín inesmartin@ucm.es D E Santos GRANDES FRAUDES Y GOBIERNOS CORPORATIVOS EN LA ECONOMÍA DESDE MEDIADOS DEL SIGLO XX Les escribo a ustedes como profesional de una disciplina desgraciada. La teoría económica, tal como se enseña desde los años 80, ha fracasado miserablemente en punto a entender las fuerzas determinantes de la crisis financiera. Conceptos centrales, como los de las "anticipaciones racionales" y la "disciplina de mercado", así como la "hipótesis de la eficiencia de los mercados", llevaron a los economistas a sostener que la especulación estabilizaría los precios, que los vendedores actuarían para proteger su propia reputación, que podía confiarse en el caveat emptor y que, por consecuencia, no podría darse un fraude generalizado. No todos los economistas creyeron eso. Pero la mayoría, sí. (James K. Galbraith. Por qué los economistas no vieron el fraude financiero. The Huffington Post, 12 de octubre 2009, p. 1. Testimonio ante el Senado de los EEUU 06/06/10). PREÁMBULO El término fraude (fraud: wrongful or criminal deception intended to result in financial or personal gain) se puede presentar, al menos, desde dos perspectivas diferentes: una parte ética o deontológica como comportamiento deshonesto, y otra parte jurídica como delito contra la legislación vigente de un gobierno. Estos dos aspectos son diferentes, pero hay que tenerlos en cuenta como aspectos complementarios o, dicho de otro modo, no debieran ser analizados de manera excluyente. Elaborar una tipología de fraudes ocuparía mucho tiempo y probablemente nunca obtendría un consenso general. Someramente, en la vida social, podemos considerar demasiadas clases de fraudes, pero los más vinculantes para nosotros, en esta ocasión, son solapadamente los fraudes científicos y sobre todo los fraudes de índole económica, en los que se centra este estudio. El fenómeno no es nuevo sin embargo, a veces resulta comprometedor e inapropiado considerar fraudes algunas creencias populares como sucede con las de los bestiarios, antecedentes de la actual Zoología, o las cuestiones de carácter metodológico 1 . Profesora Ayudante Doctora. Departamento de Administración Financiera y Contabilidad. Universidad Complutense de Madrid. E-mail inesmartin@ucm.es como la opinión los enemigos del álgebra cartesiana en el siglo XVII, convencidos de que los problemas matemáticos podían seguir resolviéndose mediante tradicionales procedimientos geométricos. Otra cosa es faltar a la verdad conscientemente o presumir de haber recurrido a las fuentes originales sin haberlo hecho. Ya en la España del siglo XVIII, José Cadalso (1772) en Los eruditos a la violeta aludía a la arrogancia de ciertos sabios indocumentados: "Cualquier libro que os citen, decid que ya lo habéis leído, y examinado" (p. 68). En esta línea, uno de los mayores escándalos mundiales fue el imaginario hombre de Piltdown (1912) que suponía el eslabón perdido de la cadena de los homínidos y tuvo engañada a la ciencia durante 40 años. Más recientemente, uno de los fraudes más llamativos fue el del físico Jan Hendrik Schön, doctor por la Universidad de Constanza y trabajador de los laboratorios Bell de New Jersey. El hecho se descubrió porque Schön y sus coautores publicaban un artículo por semana y dio que pensar cuando se advirtió que en sus artículos se repetían los mismos gráficos en diferentes experimentos. La comisión investigadora que revisó los trabajos en el año 2005 comprobó 16 amaños en 24 artículos; lo más sorprendente fue, además, que 8 de ellos aparecieron en la revista Science. El plagio y el autoplagio son, asimismo, tipos de fraudes corrientes que ni siquiera han podido frenar a veces los derechos de la propiedad intelectual y de la propiedad industrial. Alertadas por las informaciones falsas, muchas revistas científicas de prestigio están revisando de manera retrospectiva sus publicaciones y se están detectando aproximadamente unos 500 artículos con informaciones fraudulentas cada año. INTRODUCCIÓN Los fraudes tanto a la hacienda pública como a los particulares, de variados tipos y bajo diversas denominaciones, han aparecido en todo tiempo y lugar. Durante el pasado siglo, el más conocido fue la crisis norteamericana producida por el hundimiento de la bolsa de Nueva York, iniciada en 1929, que afectó no sólo a la economía norteamericana sino a gran parte del resto del mundo (la Gran Depresión) y que duró en Estados Unidos hasta la terminación de la Segunda Guerra Mundial (aproximadamente 1954, año de recuperación de la bolsa neoyorquina). Con el objetivo de prevenir futuras debacles a nivel macroeconómico, a partir de los años 50 se ha venido desarrollando la idea de Responsabilidad Social Corporativa (RSC) que en la práctica se materializa en los Gobiernos Corporativos (GC) de las grandes y, en menor medida, medianas empresas. Los fraudes más destacados se han extendido por muchos otros países pero los más señalados se han producido en los grandes centros financieros (Peachey, 2011). España, como la mayor parte de los países, no ha sido ni es ajena a las fluctuaciones internacionales derivadas de las malas prácticas financieras. Habida cuenta de experiencias previas, se considera y evalúa si los Gobiernos Corporativos se muestran suficientemente operativos para prevenir futuros desastres económicos a gran escala. LOS FRAUDES ECONÓMICOS La teoría de los ciclos económicos es una de las constantes más comúnmente aceptadas en Economía y a veces asumidas como mal menor. Unas veces los cambios de ciclo se pueden producir de manera inopinada por inercia o agotamiento del modelo económico, como hasta hace poco se pensaba; pero otras veces son provocados por acontecimientos especiales que inciden en el desarrollo ordinario de la actividad económica a modo, por ejemplo, de un músico que desafinara en una orquesta: la interpretación de la pieza, por consiguiente, resultaría nefasta. Estos últimos fenómenos son los que más tienen que ver con los grandes fraudes que producen desastres principalmente de carácter macroeconómico. El origen de los fraudes financieros es tan viejo como la historia de la humanidad ya que nace desde el mismo momento en que aparecen los préstamos de bienes y servicios, y pueden observarse vestigios de estos hechos tanto en la India como en China o la antigua Mesopotamia entre los siglos XX y XVIII antes de nuestra era. La financiación ha sido la base para el sostenimiento tanto de los imperios como de los países soberanos, principalmente para afrontar los gastos derivados de los conflictos bélicos. El problema fundamental del préstamo es la devolución de la deuda. Entre las grandes quiebras medievales podemos destacar, por ejemplo, la de la familia Peruzzi. En la Edad Moderna, tanto en España (Caro Baroja, 1985) como en el resto de Europa (Delumeau, 1983) continuaron los desfalcos. En cuanto a los fraudes económicos, es preciso recordar que la primera gran bancarrota de la edad moderna se produjo en España en 1557 a comienzos del reinado de Felipe II a causa del exagerado endeudamiento de su padre Carlos I para afrontar los gastos del imperio. A partir de entonces, la deuda exterior ha sido constantemente deficitaria llegando a casos extremos como el de las desamortizaciones decimonónicas para poder evitar la suspensión de pagos. España, con catorce casos, encabeza el número de veces que un país se ha declarado en suspensión de pagos. Le siguen, en cuanto al número de veces y relevancia: Venezuela y Ecuador (11), Brasil (10), Francia y México (9), Alemania, Argentina y El Salvador (8), Colombia, Uruguay y Portugal (7), Estados Unidos y Rusia (6). La declaración de quiebra técnica puede parecer una medida fácil de adoptar, pero sólo se debe aplicar en casos excepcionales e irremediables ya que el gran problema aparecerá con posterioridad cuando el país abandone una necesaria y empobrecedora situación de autarquía y desee volver a competir en los mercados internacionales. LOS DESFALCOS INDIVIDUALES Interesa conocer algunos casos concretos de estafas para cotejarlos con las penas que les fueron impuestas. Retrotrayendo nuestra mirada un poco antes del período seleccionado en el este estudio, una de las personas más perjudiciales fue Carlo Ponzi, quien en 1919 ideó un sistema peculiar de estafa prometiendo unas rentabilidades del 50% y hasta del 100% a corto plazo, un modelo similar a la estructura piramidal y a la estructura multinivel. Por su primera estafa sólo llegó a cumplir tres años de cárcel. Fue reincidente. Bernard Madoff cometió otro fraude similar al de Ponzi sobre una aparente capitalización manipulada a base de ingeniería económica. Lo sorprendente fue que el engaño duró unos 16 años entre 1992 y 2008. Con 71 años, fue condenado a 150 años de cárcel. Sentencia ilógica. Frank Abagnale, en los años 90, fue precoz en el arte de la falsificación de talones bancarios combinada con los cambios de identidad personal. Se le conmutó la condena por su colaboración con la policía. Lo preocupante fue su declaración de que hoy tendría 4000 veces más posibilidades de estafar y esta afirmación no debe extrañar dado que se prevé que las redes que funcionen con tecnología 5G así como los repositorios big data, independientemente de las indudables mejoras para la comunicación, puedan propiciar una ciberdelincuencia. Nicholas Leeson, ejecutivo de Banca Baring hundió esta entidad debido a sus desacertadas gestiones en el mercado de futuros de Singapur. Se declaró culpable de engaño a sus superiores y a la bolsa de este país. La condena fue de seis años y medio que no llegó a cumplir íntegramente. Richard Fuld y Josep Gregory, últimos directivos de Lehman Brother's declararon en quiebra este banco de inversión y gestión de activos el 15 de setiembre del 2008. La responsabilidad de sus otros responsables se ha ido diluyendo con el tiempo y finalmente se produjo una situación de impunidad. Los perjudicados de esta bancarrota fueron tanto los accionistas como los acreedores. Además, el caso Lehman Brother's puso en tela de juicio la credibilidad de las agencias de calificación o empresas auditoras. En relación con España, Nieves Carrera (2011) ha estudiado los fraudes más importantes de las últimas décadas a partir de 1980: Caja Rural de Jaén, Banesto, Gescartera, Promotora Social de Viviendas e Iniciativas de Gestión de Servicios (PSV), Afinsa y Fórum Filatélico (este último creado por el ex-fraile agustino Jesús Fernández Prada). Habría que añadir Sofico (1974. En este caso, escapa al período seleccionado por la investigadora), Rumasa y Acciones Preferentes de Caja Madrid (hoy Bankia). Los pequeños fraudes no parecen menos relevantes, sobre todo si se tiene en cuenta que son señas de identidad de una determinada sociedad. Se pueden consultar en la base de datos INEbase. He seleccionado aquellos que tienen que ver con la actividad económica, a saber: Fuente: INEbase. Tabla. Última actualización hasta 2018. Como se puede observar en el gráfico siguiente, la evolución de los delitos va en aumento, y aquí solamente figuran aquellos fraudes juzgados y condenados. Más inquietante que las cifras y los porcentajes es la evolución de la curva en sentido ascendente. Fuente: INEbase, Gráfico. Última actualización hasta 2018. LAS CRISIS DE MAYOR ENVERGADURA mundial atemperó esta crisis y fue en buena parte la solución que hizo salir de ella a Estados Unidos aproximadamente hacia 1954. En 1973 se produjo la primera crisis del petróleo. En este caso no se trataba de una crisis financiera diversificada sino de una materia prima de primer orden. Fue, además, una crisis provocada de manera arbitraria por parte de los países árabes productores de petróleo al suprimir la exportación de esta materia a los países defensores de Israel en la guerra de Yom Kipur contra Siria y Egipto. La decisión árabe fue un duro golpe sobre todo para Estados Unidos y sus aliados europeos al propiciar un tremendo coste de productos derivados del petróleo y la exagerada inflación. En 1990 nuevamente el aumento de los precios del petróleo, juntamente con la burbuja inmobiliaria japonesa, sacudieron la estabilidad del sistema financiero internacional. A partir de entonces hasta la actualidad, también ha habido crisis importantes, aunque de menor alcance mundial: la mejicana de 1994, la asiática de 1997, la rusa de 1998 y la argentina de 2001. Entre 1997 y 2001 cabe destacar la crisis de las empresas conocidas genéricamente como las puntocom; algunas de estas empresas realizaron enormes inversiones en el sector informático y de las telecomunicaciones. Adquirieron en bolsa unas cotizaciones si no ficticias, al menos bastante alejadas de su valor real. En 2001 esta burbuja reventó y en 2002 aún aumentó su devaluación en el índice Nasdaq produciendo enormes pérdidas a sus inversores. Además de la ya citada caída de Lehman, el mayor escándalo financiero fue el del gigante norteamericano Enron, empresa dedicada al sector energético que no solo mostraba unos activos abultados sino que también realizó sobornos y cometió delitos fiscales. La desacertada calificación de Arthur Andersen hizo desaparecer prácticamente casi del todo esta empresa auditora. La quiebra Enron está considerada en las publicaciones de carácter divulgativo como la más grande de la historia tras la Gran Depresión aunque si nos atenemos a las cifras que presenta Jaramillo (2013, s.p.), fue mucho mayor la catástrofe de WorlCom, casi el doble. Independientemente de su perjuicio a los accionistas, podemos también asegurar que su contagio fue notorio en la economía internacional y sirvió de modelo para una escalada de quiebras similares dentro y fuera de Estados Unidos, asentadas en la falsificación de sus estados de cuentas, sueldos multimillonarios para los directivos y, en definitiva, lo que se ha dado en llamar la aplicación práctica de la ingeniería contable y financiera. En España el caso más significativo, entre las puntocom, fue el de Terra la compañía que acabó quebrando en 2005 tras seis años de vicisitudes. La crisis financiera más reciente, y antesala de la actual, provocada por la pandemia internacional del virus covid-19, se venía gestando desde 2006 y estalló en 2008, precedida de las hipotecas subprime o hipotecas basura en EEUU como el anteriormente citado caso Lehman Brother's que contagió a la banca de muchos otros países y afectó principalmente al sector inmobiliario. Dio lugar a una abundante producción cinematográfica y literaria entre cuyas obras destaca el bestseller Griftopia (2010). En definitiva, si hacemos un recuento de las crisis más importantes acaecidas en el planeta durante el último medio siglo, constatamos la cifra de diez (incluyendo la actual). Es, por consiguiente, un dato preocupante para el sostenimiento del sistema capitalista, que es el predominante en casi todo el mundo, sobre todo a partir del deterioro de la hegemonía de Estados Unidos en el siglo XXI (Dabat, 2009) y de las directrices estadounidenses que puedan afectar a otros países. LOS PERÍODOS CRÍTICOS La mayor parte de las crisis se produce con el advenimiento de las revoluciones o cambios tecnológicos que en general se muestran más eficientes por la absorción o menor necesidad de mano de obra y el consiguiente paro. El caso de las puntocom que he nombrado sería un ejemplo de esta clase de crisis inevitables. Sin embargo, observamos que junto a estos fenómenos hay que añadir el factor que voy a denominar voluntad humana, encaminada sobre todo al desarrollo de las operaciones financieras. Referirse a las finanzas es hablar de economía dinámica, es decir de inversión pero también de deuda, y un endeudamiento desproporcionado suele ser el germen de cualquier crisis, y remontar una crisis puede suponer una duración de varias décadas. Este tipo de crisis es evitable. El barómetro de medir las crisis principalmente es la bolsa. Antes he mencionado la crisis del 29, la más larga de todas por el momento, pero el 19 de octubre de 1987 también se resintieron los cimientos de gran parte de las bolsas del mundo (la española perdió nada menos que un 31% de su valor ese día). El motivo de esta debacle no fueron las medidas fiscales de Estados Unidos tendentes a mermar la caída de beneficios, como demostró Shiller (2003), sino un presentimiento general de los inversores a la caída, motivado por el uso del apalancamiento en las compras y el excesivo endeudamiento generalizado. Desde una perspectiva diacrónica, los fraudes y las crisis aparecidas a partir de la última década del siglo pasado han sido más frecuentes. Las tecnologías basadas en la Informática posibilitan y facilitan las tareas laborales pero también el crecimiento de las estafas, y los gobiernos deben arbitrar medidas adecuadas para impedir o al menos frenar este desajuste del sistema. Una solución apropiada, entre otras, es la instauración de gobiernos corporativos al menos en las grandes empresas y entidades financieras. LOS GOBIERNOS CORPORATIVOS En la actualidad, estamos leyendo con frecuencia frases como economía circular, desarrollo sostenible, economía colaborativa (por ejemplo, la popular plataforma Airbnb), producción ecológica, responsabilidad social corporativa, gobierno corporativo y equivalentes, es decir observamos que se extiende cada vez más una voluntad regeneracionista para el eficiente aprovechamiento de los recursos naturales. Los accionistas de las mayores entidades gestoras de fondos de inversión (con BlacRok a la cabeza) están mostrando, asimismo, un interés especial por conectar con esta tendencia a la hora de tomar decisiones. Grosso modo, se puede decir que el Gobierno Corporativo (Corporate Governance) es la materialización de la Responsabilidad Social Corporativa o, dicho de otra forma, la inclusión real en los órganos rectores de la empresa de los denominados stakeholders entendiendo como tales no sólo presidente y cuerpo directivo sino también instituciones sin ánimo de lucro, entidades gubernamentales, accionistas, representantes de los propios asalariados e incluso de los consumidores, es decir miembros propios o ajenos a la empresa con capacidad influyente en la planificación de la actividad empresarial. El establecimiento de gobiernos corporativos tiene como en tantas otras ocasiones sus defensores y detractores. De hecho, en el título de algunas obras (Martín Fernández, 2019; Turullols, 2019) ya es indicativo que se haya incluido la palabra buen puesto que da a entender que puede haber malos o inadecuados gobiernos corporativos como también la adaptación a la Responsabilidad Social Corporativa puede anunciarse como mera táctica de mercadotecnia para promocionar las ventas. La figura de los gobiernos corporativos está pensada sobre todo para empresas con una estructura compleja y una facturación extraordinaria, de todas formas también puede incluir grandes empresas de carácter familiar (Rayza Mirelle, F.N. et al., 2019). La puesta en marcha de un gobierno corporativo en las empresas no es tan novedosa como puede parecer y viene a relevar y hacer efectiva la idea de la Responsabilidad Social Corporativa (RSC) desarrollada inicialmente por Bowen (1953) y que cuenta en nuestro país con un nutrido grupo de seguidores, organización de congresos monográficos y publicación de manuales en constante renovación, entre los que me atrevo a destacar el de García del Junco (2018). Algunos proyectos caracterizados por el espíritu de Responsabilidad Social Corporativa, además de dar muestras de solidaridad social, han presentado unos resultados satisfactorios como es el caso de los microcréditos concedidos Muhammad Yunus en Bangladesh, sin embargo no siempre suponen ventajas (Vargas Escudero, 2006), incluso Yunus intentó repetir el mismo experimento en Perú y fracasó. Las razones de este fracaso probablemente haya que encontrarlas en la idiosincrasia de los pueblos, un factor al que hay que dar más importancia de la que a menudo se da. La instauración de gobiernos corporativos en las empresas es una de las herramientas posiblemente más poderosas para hacer frente a los grandes desfalcos que puedan producirse en el mundo de las finanzas. Pero esta figura no cuenta con el respaldo de muchos empresarios y además puede entrañar ciertas dificultades para un ágil funcionamiento de las decisiones empresariales. Por ejemplo, establecer un gobierno corporativo en el mercado de derivados apenas es operativo (Turegeldiyev, 2014). Los gobiernos corporativos, en todo caso, parecen insuficientes para atajar los problemas de fraude, puesto que por regla general sus funciones comienzan y terminan en la adopción de decisiones y no suelen realizar seguimientos de gestión. En la actualidad, se están desarrollando en el ámbito informático algoritmos que supuestamente son más potentes que el mero control manual de los expertos. Un interesante estudio reciente ha expuesto las modalidades más empleadas llevadas a cabo (Ramírez-Alpízar, 2020). DIMENSIÓN SOCIAL DE LOS FRAUDES La incidencia de un fraude económico en la vida social depende de la magnitud del mismo. La víctima siempre es la hacienda pública y en último caso la sociedad, pero el perjuicio afectará en mayor o menor grado a las personas relacionadas con el origen de la estafa. La ventaja que hoy día tiene la sociedad es una mayor información sobre los fraudes recibida tanto a través de los medios oficiales o públicos como privados (mass media) y desde luego las populares redes sociales, principales forjadoras de la opinión pública. En el sistema económico actual los demandantes de productos o servicios, por el hecho de estar más informados que en otro período histórico anterior, desempeñan un papel fundamental en el mercado como fuerza activa. Las decisiones de los consumidores están mejor forjadas que en épocas pasadas y ello se debe en gran parte al desarrollo de la Responsabilidad Social Corporativa, antesala de los Gobiernos Corporativos. La creciente preocupación social por los fraudes económicos ha generado una inmensa literatura. La extensión de grandes fraudes tanto en el ámbito de comercio tradicional como en el del e-commerce ha sido y es objeto de multitud de publicaciones, algunas con un acentuado carácter divulgativo (Taibbit, 2010); otras con excelentes compilaciones académicas (Jones, 2011), otras derivadas de directivas gubernamentales (v.g. Comisión Europea, 2001), e incluso la repercusión del tema ha llegado también a documentales de gran éxito (Ferguson, 2010, (Sington, 2011 Cada día que pasa es mayor el número de personas que, por ejemplo, a la hora de hacer la compra no sólo se fija en el precio de los alimentos, también mira la procedencia, si son productos transgénicos o sin tratar, si se ha empleado mano de obra barata o ilegal, si la empresa reinvierte parte de sus ganancias en mejorar el medio ambiente, en fomentar la conciliación familiar. CONCLUSIONES Si se acepta la consideración del dinero como deuda, se puede afirmar que el sistema financiero internacional en la actualidad aún no está preparado para afrontar una previsible crisis motivada principalmente por la dicotomía entre economía real y economía financiera o virtual. El escepticismo cunde incluso cuando se trata de inversiones en economía sostenible. A pesar del fenómeno de la globalización, el mundo actual se encuentra a gran distancia de resolver los problemas derivados de los grandes fraudes para el desarrollo del crecimiento económico sostenible. La concentración del capital en pocas manos es uno de los mayores riesgos para la posible reiteración de las crisis económicas. Se apunta como necesaria la antiglobalización como una posibilidad para mantener el espíritu de la libre competencia. Las benévolas sentencias de los tribunales a algunos de los defraudadores no contribuyen a alejar el fantasma del fraude como tampoco a la desaparición de los paraísos fiscales. En la actualidad, seguimos lejos de cumplir los deseos del Presidente de la Segunda República Española Manuel Azaña de que los defraudadores devuelvan las ganancias conseguidas ilegítimamente. El comercio electrónico si bien es capaz de mostrar su eficiencia aminorando costes, tampoco es menos cierto que puede propiciar fraudes a pequeña y gran escala habida cuenta de que permite mayor nivel de enmascaramiento de los defraudadores. Desde la perspectiva diacrónica, se observa que las crisis económicas son cada vez más frecuentes e incidentes siempre en ámbito financiero; lo que obliga a replantear un modelo económico a escala internacional en el que se produzca un mayor peso de la política económica de los gobiernos sobre el poder de las compañías multinacionales en el contexto de la globalización. Esta política debe dar prioridad al sostenimiento de los recursos naturales. Una de las formas posibles es el desarrollo de gobiernos corporativos en las empresas de mayor incidencia en el PIB de los países. En el contexto de la Responsabilidad Social Corporativa, los Gobiernos Corporativos se apuntan como uno de los resortes fundamentales para frenar los grandes fraudes empresariales pero su eficiencia parece insuficiente a falta de una normativa internacional y el desconocimiento de fuerzas ocultas en lo que se viene conociendo como ingeniería fiscal y financiera. La aplicación de unas políticas liberales de manera poco ortodoxa, que no se corresponden en muchos casos con la doctrina de los maestros, está ocasionando enormes desajustes en el sistema, está provocando verdaderas brechas sociales en la distribución de la renta y está minando el actual sistema capitalista. La popularización de la información sobre las crisis financieras a través no sólo de la literatura sino sobre todo de documentales y películas de cine y televisión está formando una conciencia social cada vez más crítica con los escándalos financieros de gran influencia que aboca a las grandes empresas a la necesidad de implementar gobiernos corporativos como una de las fórmulas imprescindibles para el sostenimiento del sistema económico internacional. Se insta al desarrollo internacional de leyes de transparencia parecidas a la Ley española 19/2013, de 9 de diciembre, de transparencia, acceso a la información pública y buen gobierno. , además de las creaciones cinematográficas: Wall Street (2010), Margin Call (2011), Too big to fail (2011), The Big Short (2015),… Como ya he adelantado anteriormente, la aparición de un gran fraude puede ocasionar una crisis. La crisis más conocida del mundo contemporáneo fue la producida en Estados Unidos conocida como el Crack del 29 o la Gran Depresión, propiciada fundamentalmente por una sobreproducción manufacturera, una concesión crediticia sin garantías y, en definitiva, una sobrevaloración de activos en bolsa poco acorde con la economía real. A pesar de haber tenido un origen nacional, tiene su incidencia en la mayor parte del mundo debido al comercio internacional. La segunda guerra Social Responsibilities of the Businessmen. R H Bowen, Harper & RowNew YorkBowen R. H. (1953). Social Responsibilities of the Businessmen, New York: Harper & Row. Los eruditos a la violeta. Madrid: Antonio de Sancha, 1772. J Cadalso, 16/05/2020Cadalso, J. Los eruditos a la violeta. Madrid: Antonio de Sancha, 1772. Accesible en: https://tinyurl.com/ybd5bflk [consulta 16/05/2020]. Las formas complejas de la vida religiosa (religión, sociedad y carácter en la España de los siglos XVI y XVII). Madrid: Sarpe. Especialmente en los capítulos XIV-XVI dedica bastantes páginas al "negocio impío. Caro Baroja, J , en la España de los siglos XVI y XVIICaro Baroja, J. (1985). Las formas complejas de la vida religiosa (religión, sociedad y carácter en la España de los siglos XVI y XVII). Madrid: Sarpe. Especialmente en los capítulos XIV-XVI dedica bastantes páginas al "negocio impío" en la Es- paña de los siglos XVI y XVII. Creative accounting, Fraud and International Accounting Scandals. N Carrera, M. JonesWiley and SonsLondonCreative Accounting and Financial Scandals in SpainCarrera, N. (2011). Creative Accounting and Financial Scandals in Spain. In: M. Jones. Creative accounting, Fraud and International Accounting Scandals. London: Wiley and Sons. p. 325-358. Libro verde. Fomentar un marco europeo para la responsabilidad social de las empresas. Comisión de las Comunidades Europeas. Bruselas: Comisión Europea. Consulta 01/06/2020Comisión de las Comunidades Europeas (2001). Libro verde. Fomentar un marco eu- ropeo para la responsabilidad social de las empresas. Bruselas: Comisión Euro- pea. Bruselas. Accesible en: https://tinyurl.com/y2e4jrvo [Consulta 01/06/2020]. La crisis financiera en Estados Unidos y sus consecuencias internacionales. A Dabat, 10.22201/iiec.20078951e.2009.157.7767Problemas del desarrollo. 40Dabat, A. (2009). La crisis financiera en Estados Unidos y sus consecuencias internacionales. Problemas del desarrollo, vol. 40, nº 157, p. 39-74. DOI: 10.22201/iiec.20078951e.2009.157.7767. Le péché et la peur. J Delumeau, La culpabilisation en Occident XIII e -XVIII e siècles. 246Delumeau, J. (1983). Le péché et la peur. La culpabilisation en Occident XIII e -XVIII e siècles, Pris: Fayard, 1983, a partir de la p. 246. . Ch Ferguson, dir.).. Inside Job [documental]. USA. 105 minFerguson, Ch. (dir.). (2010). Inside Job [documental]. USA. 105 min. Manual práctico de responsabilidad social corporativa. J García Del Junco, B Palacios Florencio, Y Espasandín, Francisco Bustelo, 2ª ed. Madrid: PirámideGarcía del Junco, J., Palacios Florencio, B. y Espasandín Bustelo, Francisco. Manual práctico de responsabilidad social corporativa. 2ª ed. Madrid: Pirámide, 2018. Financial Statement Fraud: Insights from the Academic Literature. C E Hogan, R Rezaee, Jr Riely, U K Veluri, AUDITING: A Journal of Practice & Theory. 272Hogan, C.E., Rezaee, R.A & Riely, Jr. & Veluri, U.K. (2008). Financial Statement Fraud: Insights from the Academic Literature. AUDITING: A Journal of Practice & Theory. Vol. 27, No. 2, pp. 231-252. https://tinyurl.com/y7e29q5y . 18/06/2020Instituto Nacional de Estadística. INEbase. Delitos. Instituto Nacional de Estadística. INEbase. Delitos. https://www.ine.es/jaxiT3/Tabla.htm?t=25997 [Consulta 18/06/2020]. Escándalos financieros y su efecto sobre la credibilidad de la auditoría. Pamplona 25-27 de setiembre. Jaramillo Jaramillo, M García Benau, M A . Y Pérez Chávez, M A , XVII Congreso AECA. Consulta 14/06/2020Jaramillo Jaramillo, M., García Benau, M.A. y Pérez Chávez, M.A. Escándalos financieros y su efecto sobre la credibilidad de la auditoría. Pamplona 25-27 de setiembre. XVII Congreso AECA. En: https://tinyurl.com/y6wo8fgr [Consulta 14/06/2020] Creative accounting, Fraud and International Accounting Scandals. M Jones, Wiley and SonsLondonJones, M. (2011). Creative accounting, Fraud and International Accounting Scandals. London: Wiley and Sons. El Buen Gobierno Corporativo en España: claves prácticas para su implementación y seguimiento. J Martín Fernández, X Subirats, L Amor Acedo, Francis LefebvreMadridMartín Fernández, J., Subirats, X., Amor Acedo, L. (2019). El Buen Gobierno Corporativo en España: claves prácticas para su implementación y seguimiento. Madrid: Francis Lefebvre. Neue Betriebswirtschaftliche Studienbücher. Alan N Peachey, Great Financial Disasters of Our Time. Bd. 21. WebPeachey, Alan N. Great Financial Disasters of Our Time. 3rd ed. Mortsel: Intersentia, 2011. Neue Betriebswirtschaftliche Studienbücher ; Bd. 21. Web. Uso de técnicas de minería de datos y aprendizaje automático para la detección de fraudes en estados financieros: un mapeo sistemático de literatura. A Ramírez-Alpízar, M Jenkins, A Martínez, Ch Quesada López, Revista Ibérica de Sistemas e Tecnologias de Informação, nº E28. Ramírez-Alpízar, A., Jenkins, M., Martínez, A. y Quesada López, Ch. (2020). Uso de técnicas de minería de datos y aprendizaje automático para la detección de fraudes en estados financieros: un mapeo sistemático de literatura. Revista Ibérica de Sistemas e Tecnologias de Informação, nº E28, p. 97-109. Corporate Governance Practices in Brazilian Family Construction Companies. DYNA: Revista de la Facultad de Minas. Medellín, Universidad Nacional De Colombia. F N Rayza Mirelle, Neves, J A Santos, Pereira Soares, C A Wainer Da Silveira E Silva, D , 10.15446/dyna.v86n209.77135Tomo. 86209Rayza Mirelle, F.N. Neves dos Santos, J. A. and Pereira Soares, C. A. and Wainer da Silveira e Silva, D. (2019). Corporate Governance Practices in Brazilian Family Construction Companies. DYNA: Revista de la Facultad de Minas. Medellín, Universidad Nacional De Colombia. Tomo 86 nº 209, p. 281-288. DOI:10.15446/dyna.v86n209.77135. Irrational Exuberance. R Shiller, Princeton University PressPrinceton; Sington, DThe flaw [documentalShiller, R. (2003). Irrational Exuberance . Princeton. Princeton University Press. Sington, D. (2011). The flaw [documental]. . Reino Unido, 82Reino Unido. 82 min. M Taibbi, Griftopia: Bubble Machines, Vampire Squids, and the Long Con That Is Breaking America. New York: Spiegel & Grau. Trad. española: Cleptopía: fabricantes de burbujas y vampiros financieros en la era de la estafa. Madrid: Lengua de Trapo. Taibbi, M. (2010). Griftopia: Bubble Machines, Vampire Squids, and the Long Con That Is Breaking America. New York: Spiegel & Grau. Trad. española: Cleptopía: fabricantes de burbujas y vampiros financieros en la era de la estafa. Madrid: Lengua de Trapo 2011. Corporate Governance Failures in Trading Financial Derivatives. Bc Turegeldiyev, Praga: Visoka Skola Ekonomicka. tesis doctoralTuregeldiyev, Bc. (2014). Corporate Governance Failures in Trading Financial Derivatives [tesis doctoral]. Praga: Visoka Skola Ekonomicka. Guía del buen gobierno corporativo. E Turullols, AlmuzaraCórdobaTurullols, E. (2019). Guía del buen gobierno corporativo. Córdoba: Almuzara. Mitos y realidades de la Responsabilidad Social Corporativa en España. Un enfoque multidisciplinar. L Vargas Escudero, Coord, Navarra: ThompsonVargas Escudero, L. (Coord.). (2006). Mitos y realidades de la Responsabilidad So- cial Corporativa en España. Un enfoque multidisciplinar. Navarra: Thompson; . Civitas, Civitas, 2006.
sample_10344
0.9902
arxiv
Dimensionnement des messages dans un réseau mobile opportuniste 20 Jan 2010 John Whitbeck LIP6/CNRS UPMC Paris Universitas Vania Conan LIP6/CNRS UPMC Paris Universitas Marcelo Dias De Amorim LIP6/CNRS UPMC Paris Universitas Thalès Communications LIP6/CNRS UPMC Paris Universitas Dimensionnement des messages dans un réseau mobile opportuniste 20 Jan 2010MOTS-CLÉS : Réseaux tolérants aux délais (DTN), Réseaux mobilesà connections intermittentes (ICMN), Taille des messages, Applications Mobiles KEY WORDS: Delay/Disruption Tolerant Networks (DTN), Intermittently Connected Mobile Networks (ICMN), Message Size, Mobile Applications 2 CFIP'09. Comprendre la capacité des réseaux mobilesà connections intermittentes (ICMN -Intermittently Connected Mobile Networks) est important pour bien répondre aux divers besoins d'interactivité et de bande passante des applications mobiles. Un problème pratique concerne la transformation des messages d'une application en paquets prêtsàêtre transmisà travers un ICMN. Dans ce papier, nous proposons un nouveau modèle Markovien de graphes aléatoires temporels et montrons,à la fois analytiquement et en rejouant une trace de connectivité obtenue lors d'une randonnée roller, que la taille des messages envoyés dans un ICMN a un impact décisif sur leur taux de livraison. Cependant, nous montronségalement que ce gain de fiabilité n'apparaît que sous l'effet de fortes contraintes sur le délai maximal toléré. Ainsi, il faut ajuster la taille des messages en fonctionà la fois des besoins des applications et de la dynamique de la topologie du réseau pour améliorer les performances du routage.ABSTRACT. Understanding transport capacity in intermittently connected mobile networks (ICMN) is crucial since different applications have different interactivity and bandwidth requirements. One practical issue is how to transform an application's messages into packets suitable for transport over an ICMN. In this paper, we propose a new Markovian model for random temporal graphs and show, both analytically and by replaying a real life trace obtained in a rollerblading tour, that the size of the messages sent over an ICMN has a decisive impact on their delivery ratio. A given message could therefore be broken down into smaller packets to increase reliability. However, we also show that this gain in reliability only appears under tight constraints on the maximum delay tolerated. Mobile application designers should therefore balance message size against both application requirements and network topology dynamics to improve performance. Introduction La prolifération d'appareils mobiles, tels que les téléphones portables, les consoles de jeux ou lecteurs multimédias, dotés de multiples interfaces sans fil, offre de nombreuses nouvelles opportunités de communications ad-hoc. Les processus sociaux qui mettent ces appareils en contact donnent naissanceà des réseaux mobilesà connectivité intermittente (ICMN). A cause de la grande mobilité des noeuds et de l'absence fréquente de connectivité de bout en bout, le transport des messages dans de tels réseaux est typiquement assuré en stockant entièrement le messageà chaque saut avant de le transmettre au suivant (store-and-forward). Toutefois, un telle approche esquive certains problèmes plus concrets. Différentes applications mobiles ont des besoins différents d'interactivité et de bande passante, et doivent gérer la pénurie de ressources dans un ICMN. Elles doivent toutes notamment diviser leurs messages en paquets avant de les transmettre sur le réseau. Ceci nécessite non seulement uneévaluation de l'impact que la taille de ces paquets aura sur le taux de livraison et le délai, maiségalement une compréhension de la relation entre taille optimale des paquets et dynamique du réseau. Dans ce papier, nous examinons, analytiquement et expérimentalement, l'influence de la taille des paquets sur le taux de livraison, sous la contrainte d'un délai maximum toléré par l'application. Nous présentons trois contributions. Tout d'abord, nous proposons un nouveau modèle de graphe aléatoire temporel fondé sur des chaînes de Markov qui capture la corrélation desétats des liens lors de pas de temps successifs et permet l'étude de la relation entre stabilité des liens et taux de livraison. A partir de ce modèle, nous montrons que le taux de livraison augmente pour des paquets plus petits, mais que le gain ainsi obtenu est borné et n'est significatif qu'en présence de fortes contraintes sur le délai. Finalement, nous comparons nos résultats théoriques avec ceux obtenusà partir d'une trace de connectivité collectée lors d'une randonnée roller. L'étude des graphes aléatoires temporels en est encoreà ses débuts. Les travaux précédents se focalisaient sur des graphes avec un nombre croissant de sommets et d'arêtes [LES 05]. Toutefois, ceux-ci ne rendent pas compte de la mobilité des noeuds et/ou de l'instabilité des liens. Plus récemment, des suites de graphes aléatoires uniformes ontété proposés pour modéliser des graphes aléatoires temporels [CHA 07]. Cependant, de tels modèles ne capturent pas la corrélation entreétats successifs du graphe de connectivité. Le modèle de graphe temporel Markovien que nous proposons comble ce vide. Enétudiant la propagationépidemique de messages sur ce modèle, nous calculons le meilleur taux de livraison possible pour tout protocole de routage de type "store-and-forward". Nous montrons que ceci amène une meilleure compréhension des interactions entre la mobilité des noeuds, les contraintes de délais et la taille des paquets, et comment ceux-ci affectent le taux de livraison. Dans la prochaine section, nous décrivons notre approche et nos hypothèses. Dans la section 3, nous décrivons notre modèle de graphe temporel Markovien. Nous calculons ensuite le taux de livraison pour le routageépidemique dans la section 4 et montrons l'impact de la taille des paquets sur le taux de livraison. Nous validons ensuite ces intuitions théoriques sur une trace de connectivité expérimentale, l'expérience Rollernet, dans la section 5. Préliminaires Travaux connexes La topologie d'un réseau d'appareils mobilesévolue au cours du temps au gré des apparitions et chutes de liens. La succession des instantanés de ce graphe de connectivitéévolutif donne un graphe temporel, une suite indexée par le temps de graphes de connectivité statiques. L'ajout de cette composante temporelle se traduit par de nouvelles métriques comme, par exemple, l'existence de chemins spatio-temporels entre deux sommets même en l'absence,à tout instant, de chemin de bout en bout entre eux. Puisque de tels graphes temporels apparaissent naturellement lors de l'étude de traces de connectivité dans lesquelles les participants sondent leur voisinageà intervalles réguliers, leurétude théorique est importante pour la compréhension de la dynamique sous-jacente aux réseaux mobiles. Les résultats théoriques sur la connectivité, la dynamique et la performance de protocoles de routage dans les réseaux ad-hoc (au sens large) s'obtiennent typiquement ou bienà partir de simulations sur des modèles de mobilité [LEB 05, LEN 08], ou bienà partir de modèlesà base de graphes aléatoires temporels [DEP 07]. Les premiers disposent d'un modèle physique plus réaliste, alors que les seconds sont plus simples et permettent le calcul explicite de grandeurs topologiques (distribution du degré des noeuds ou de la longueur des chemins, par exemple) et de métriques de performance (taux de livraison, délai, par exemple). Ces approches doivent toutes deuxêtre confrontées aux données expérimentales issues de traces de connectivité réelles, où l'attention s'est focalisée sur la distribution des temps d'inter-contact. Lorsque les dynamiques sociales sous-jacentes sont fortes, cette distribution suit typiquement une loi de puissance [CHA 06]. Cependant, dans d'autres scénarios, elle peut suivre une loi exponentielle [LEN 08]. De façon intéressante, il suffit de retirer aux modèles de mobilité classiques leurs frontières pour passer d'une loi exponentielleà une loi de puissance [CAI 07]. Les approches fondées sur des graphes aléatoires, y compris la nôtre, présentent une distribution exponentielle (ou géométrique) des temps d'inter-contact. La modélisation de réseaux mobiles dynamiquesà partir de graphes aléatoires temporels est un domaine assez nouveau. De simples suites de graphes aléatoires réguliers peuventêtre utilisées pour analyser le diamètre de réseaux mobiles opportunistes [CHA 07]. La notion de d'emergence de connectivité spatio-temporelle aétéétudiée mais celle-ci perd toute information sur l'ordre dans lequel ces opportunités de contact sont apparues [DEP 07]. Dans ce papier, nous améliorons ces travaux en capturant la forte corrélation qui existe entre les graphes de connectivité aux instants t et t + 1. Pour cela, nous proposons un modèle Markovien de graphes aléatoires temporels dans la section 3. Des résultats asymptotiques pour l'inondation de ce genre de graphes, lorsque le nombre de noeuds tend vers l'infini, ontété obtenus [CLE 08]. Nos résultats, en revanche, concernent des paires source/destination, un nombre de noeuds fini, ainsi que des capacités et des tailles de message finies. Hypothèses Dans la suite de ce papier, nous considérons des graphes temporels de N noeuds mobiles quí evoluent en temps discret. Le pas de temps τ est le plus petit temps de contact ou d'inter-contact. Tableau 1 -Notations utlisées dans ce papier. Notation Description N nombre de noeuds τ pas de temps α taille des paquets d délai maximum (en nombre de pas de temps) r durée de vie moyenne d'un lien λ fraction du temps pendant laquelle un lien est "down" Sur une trace réelle, τ seraégalà la période d'échantillonage. La seule différence entre pas de temps successifs est l'état des liens. Ces derniers peuvent apparaître ou disparaître au début de chaque pas de temps, mais la topologie reste ensuite statique jusqu'au pas de temps suivant. Lorsqu'ils existent, tous les liens partagent le même débit φ et peuvent donc transporter la même quantité φτ d'information pendant un pas de temps. Nous appelons φτ la capacité du lien. La taille des paquets vaut αφτ où α peutêtre plus grande ou plus petite que 1. Par abus de langage, nous appelons α la taille des paquets. Par exemple, un paquet de taille 2 (α = 2) pourra uniquement traverser des liens qui subsistent plus que 2 pas de temps, alors qu'un paquet de taille 0.5 pourra effectuer deux sauts pendant chaque pas de temps. La taille des paquets ainsi définie est proportionnelleà τ . De petites valeurs de τ indiquent que le temps caractéristique d'évolution de la topologie du réseau est court, et donc que seules de petites quantités d'information peuvent transiter sur un lien pendant un pas de temps. De plus, nous supposons qu'une application mobile ne peut tolérer qu'un certain délai maximum. Nous notons d le nombre de pas temps au-delà duquel on considère que la livraison d'un paquetàéchoué. Toutes ces notations sont résumées dans le tableau 1. Graphes temporels Markoviens Dans cette section, nous introduisons une nouvelle famille de graphes aléatoires temporels qui utilisent une chaîne de Markov discrète pour modéliser la transition d'un graphe de connectivitéà l'instant tà son successeurà t + 1. Considérons un réseauà N noeuds. Chacun des N (N −1) 2 liensévolue indépendamment et peut se trouver dans l'un des deuxétats ↑ ou ↓. Plutôt que d'utiliser, comme dans un graphe aléatoire classique, une probabilité p d'être dans l'état ↑, nous modélisons chaque lien par un chaîne de Markov a deuxétats où q c (resp. q i ) est la probabilité que le lien reste dans l'état ↑ (resp. ↓). L'évolution du graphe de connectivité peut ainsi s'envisager comme une chaîne de Markov sur le produit tensoriel desétats de ses liens. Cependant, ses 2 N (N −1) 2é tats font qu'elle est trop lourdeà manipuler en pratique. A chaque pas de temps, chaque lien effectue une transition dans sa chaîne de Markov. Si 0 < q i < 1 et 0 < q c < 1, cette chaîne est positive, récurrente et apériodique, et donc ergodique. Dans la suite du papier, nous utiliserons les deux paramètres suivants : r = 1 1 − q c ; λ = 1 − q c 1 − q i .(1) Les temps de contact (T c ) et d'inter-contact (T i ) suivent une distribution géométrique et leurs espérances sont : E(T c ) = rτ ; E(T i ) = λrτ.(2) Soit π ↑ (resp. π ↓ ) la probabilité stationnaire d'être dans l'état ↑ (resp. ↓) : π ↑ = 1 1 + λ ; π ↓ = λ 1 + λ .(3) Ici r est le nombre moyen de pas de temps qu'un lien passe dans l'état ↑, tandis que λ est la fraction du temps qu'un lien passe dans l'état ↓. D'une certaine façon, r mesure la vitesse d'évolution de la topologie du réseau, tandis que λ est liéà sa densité. La durée de vie moyenne d'un lien est, par définition, rτ , tandis que le degré moyen vaut N −1 1+λ . Puisque nous considérons un temps discret, un lien ne peut pas demeurer moins de 1 pas de temps dans unétat donné. Ainsi r ≥ 1 et λ ≥ 1 r . Propagationépidémique avec contrainte de délai Notre but ici est de calculer la probabilité de livraison d'un paquet en utilisant du routagé epidémique dans notre modèle de réseau aléatoire Markovien. Pour réussir, le paquet doit atteindre sa destination avant le délai maximal toléré. Le routageépidémique est utile pour des raisons théoriques car son taux de livraison est aussi celui du routage spatio-temporel optimal avec une unique copie du paquet. Nos paramètres sont le nombre de noeuds N , les paramètres r et λ du modèle de lien, le délai maximum d (en nombre de pas de temps) et la taille du paquet α. Pour des raisons de simplicité, nous présenterons, dans un premier temps, le modèle pour α = 1. Dans les sections 4.2 et 4.3, nous décrirons respectivement comment adapter le modèle aux cas où les paquets sont plus petits (α < 1) ou plus grands (α > 1) que la capacité du lien. Finalement, nous analyserons l'influence de chaque paramètre sur le taux de livraison. En particulier, nous montrerons comment le taux de livraison augmente pour de petites tailles de paquets, mais que le gain ainsi obtenu est borné et n'est significatif que lorsque les contraintes sur le délai sont très fortes. Paquets de tailleégaleà la capacité du lien (α = 1) La source a désire envoyer un paquetà la destination b en utilisant du routageépidémique. Dans la suite, on dira d'un noeud disposant d'une copie du paquet qu'il est infecté. En un pas de temps, un noeud infecté peut uniquement infecter ses voisins directs puisque la taille du paquet est 1 et ne peut donc effectuer qu'un seul saut par pas de temps. Cet infectionà lieu au début du pas de temps. Soit V l'ensemble des noeuds du réseau. Après k pas de temps, les noeuds autres que b se répartissent en l'une des trois catégories suivantes : -ceux qui viennent juste d'être infectés : J k ; -ceux qui sont infectés depuis au moins deux pas de temps : I k ; -ceux qui sont encore sains : Cette distinction est nécessaire pour déterminer qui est susceptible de se faire infecter au pas de temps k + 1. En effet, si un noeud appartientà I k , alors tous ses voisins au pas de temps k sont dans I k ∪ J k . Il peut uniquement infecter d'autres noeuds si un lien vers un noeud sain dans S k apparaît au pas de temps k + 1. Cependant, un noeud dans J k peut avoir des voisins dans S k . Si ces liens se maintiennent au temps k + 1, ces voisins deviendraient infectésà leur tour ( fig. 1). S k = V \ (I k ∪ J k ∪ {b}). Dans ce papier, nous nous intéressons uniquementà la probabilité que b reçoive une copie d pas de temps ou moins. Dans ce cas, la seule information nécessaire pour caractériser l'état de l'épidémie est le nombre i et j de noeuds dans lesétats I k et J k respectivement. Le taux de livraison peutêtre obtenu comme la probabilité d'absorption de la chaîne de Markov décrite ci-dessous. Etats. Nous décrivons l'épidémie par une chaîne de Markov sur les 2 + N (N −1) 2é tats suivants : -Init : l'état initial où seule l'origine a est infectée (Cetétat est transitoire) ; -Succ : l'état où la destination b aété infectée (Cetétat est absorbant et indique que le routage a réussi) ; -lesétats (i, j) pour 1 ≤ i ≤ N − 1 et 0 ≤ j ≤ N − 1 − i. Primitives. Les probabilités de transition sont des fonctions des primitives suivantes. Soient deux ensembles de noeuds U et W , si chaque noeud de U peut infecter chaque noeud de W avec probabilité p, alors la probabilité que m noeuds de W seront contaminés est : P cont (m, p, |U |, |W |) = pdf B m, 1 − (1 − p) |U | , |W |(4) où pdf B (k, p, n) est la densité de probabilité d'une distribution binomiale de névénements indépendants avec probabilité p. Les noeuds qui viennent d'être infectés peuvent contaminer la destination au pas de temps suivant avec probabilité π ↑ , tandis que des noeuds qui sont infectés depuis plus longtemps peuvent le faire avec probabilité 1 − q i (un nouveau lien apparaît). Si i noeuds sont infectés depuis plus de deux pas de temps et j noeuds viennent d'être infectés, alors la probabilité d'infecter la destination au pas de temps suivant est : P succ (i, j) = 1 − π j ↓ q i i .(5) Probabilités de transition. L'état Succ est absorbant. Toute transition depuis l'état Init peutêtre calculée comme une transition a partir de l'état (0, 1). Unétat (i, j) peut aller ou bien dans l'état Succ avec probabilité P succ (i, j) ou bien dans un autreétat (i + j, j ) avec probabilité : (1 − P succ (i, j)) j m=0 P cont (m, π ↑ , j, N − 1 − i − j) ×P cont (j − m, 1 − q i , i, N − 1 − i − j − m) .(6) Taux de livraison. Soit T la matrice de transition de la chaîne de Markov, i le vecteur d'état initial et s le vecteur d'état avec un coefficient 1 pour l'état Succ et 0 pour tous les autres. Ainsi, la probabilité de succès, c.-à-d. d'être dans l'état Succ en d pas de temps ou moins est : P deliv (d, α = 1) = iT d s.(7) 4.2. Paquets plus petits que la capacité d'un lien (α < 1) Lorsque la taille d'un paquet est plus petit que la capacité d'un lien, ceux-ci peuvent effectuer jusqu'à 1 α sauts par pas de temps. Or nous avons supposé que la topologie du réseau changeait instantanément au début de chaque pas de temps, avant le premier saut. Les sauts suivants se passent sur la même topologie statique. Pour en tenir compte, nous définissons une matrice de propagation statique R qui utilise les mêmeétats que précédemment mais avec des probabilités de transition légèrement modifiées. Sur une topologie statique aucun nouveau lien n'apparaît donc P static succ (i, j) = 1 − π j ↓ et la probabilité de transition d'unétat (i, j) vers (i + j, j ) devient : 1 − P static succ (i, j) · P cont (j , π ↑ , j, N − 1 − i − j).(8) Au final, la probabilité de succès du routage (c.-à-d. la probabilité d'être dans l'état Succ en moins de d pas de temps) vaut : P deliv (d, α < 1) = i TR 1 α −1 d s.(9) 4.3. Paquets plus grands que la capacité d'un lien (α > 1) Les paquets plus grands que la capacité des liens ne peuvent utiliser que ceux qui durent α ou plus pas de temps. Le calcul exact de la probabilité de succès dans ce cas requiert de distinguer les noeuds qui vont finir de recevoir une copie du paquet dans 1, 2, · · · , α pas de temps, ce qui devient rapidement intractable. En revanche, il est possible de calculer facilement des bornes supérieures et inférieures sur la probabilité de succès en considérant des intervalles successifs et disjoints de α pas de temps, et uniquement les liens qui durent plus de α pas de temps. Ces derniers seront dans la suite appelés les liens suffisament longs. La borne inférieure s'obtient en ne prenant en compte que les liens suffisamment longs qui existent ou apparaissent au début d'un intervalle. On ignore donc les liens qui apparaissent plus La borne supérieure s'obtient en considérant que tout lien suffisamment long qui apparaît pendant un intervalle pourra faire passer la totalité du paquetà travers lui avant la fin de l'intervalle. Par exemple, si α = 2 et qu'un lien suffisamment long apparaît au deuxième pas de temps de l'intervalle, alors nous considérons que ce lien pourra transmettre la totalité du paquet avant la fin de l'intervalle (c.-à-d. en 1 pas de temps). Ceci surestimeévidemment le nombre de noeuds infectésà chaque pas de temps. Plus précisément, nous remplaçons π ↑ par (π ↑ + π ↓ (1 − q α −1 i ))q α −1 c et 1 − q i par (1 − q α i )q α −iT inf d α s ≤ P deliv (d, α > 1) ≤ iT sup d α s.(10) Influence de la taille du paquet Les paquets de taille supérieureà la capacité du lien voient leur taux de livraison se dégrader sérieusement, bien que ce soità nuancer pour de grands délais tolérés ( fig. 2). A l'inverse, les paquets plus petits que la capacité du lien sont capables d'effectuer plusieurs sauts par pas de temps. Ceci est particulièrement avantageux lorsque les contraintes de délai sont fortes (d = 4 sur la fig. 2), mais l'est moins lorsque cette contrainte est relâchée. L'influence de la mobilité des noeuds apparaît ici. En effet, puisque la taille des paquets est proportionnelle au pas de temps τ (cf. section 2.2), une mobilité importante (c.-à-d. un τ petit) rend plus petite la capacité réelle des liens (également proportionelleà τ ) et donc place davantage de contraintes sur les tailles de paquet envisageables. Résultats expérimentaux Les résultats théoriques de la section précédente guident notre intuition sur des scénarios réels. Bien que le modèle ne soit pas quantitativement comparableà des résultats obtenusà partir de traces de connectivité réellesà cause de propriétés "petit-monde" indésirables, il prédit précisément les relations entre le taux de livraison, le délai maximum et la taille des paquets, comme nous le verrons dans cette section. Jeux de données La collecte de traces de connectivité sans-fil entre appareils portables s'effectue typiquementà partir de sondages Bluetooth périodiques. Dans ce papier, nous avons choisi d'étudier la trace Rollernet [TOU 09], collectée lors d'une randonnée roller, pour sa très courte période d'échantillonage. En effet, plus la période d'échantillonage est longue, plus il devient difficile de supposer qu'un contact equivautà l'existence d'un lien qui dureà peu près aussi longtemps que la période d'échantillonage, ce qui est l'une de nos hypothèses de base. C'est pourquoi, afin de pouvoir comparer théorie et pratique, nous avons besoin de traces avec de très courtes périodes d'échantillonage. D'autres traces furent considérées, comme l'expérience "Reality Mining" du MIT, dans laquelle chaque participant faisait tourner une application sur son téléphone mobile qui relevait périodiquement sa proximité avec les 100 autres participants pendant une année complète [EAG 06]. Le projet Haggle utilisa des Intel iMotes pour mesurer les contacts entre participants de la conférence Infocom 2005 [CHA 06]. Une rapide comparaison des ces traces se trouve sur le tableau 2. La trace Rollernet est la seuleà proposer une période d'échantillonage suffisamment courte. D'une certaine façon, on peut dire que les traces MIT et Infocom capturent un sous-ensemble des opportunités de contact, tandis que la trace Rollernet s'approche de l'évolution du graphe de connectivité. Méthodologie Nousétudions le taux de livraison réalisé par du routageépidémique pour différentes tailles de paquets sur la trace de connectivité sans-fil Rollernet [TOU 09]. Comme dans le modèle Markovien décrità la section 3, nous supposons que tous les liens ont la même capacité. La période d'échantillonage dans Rollernet est de 15 secondes. La trace dure 3000 secondes. Toutes les 15 secondes pendant les premières 2000 secondes, nous tirons au sort 60 couples source/destination pour une simulation de routageépidémique. Des paquets plus petits augmentent le taux de livraison Sur la fig. 4a, le taux de livraison est constant et proche de 1 avant de chuter rapidement au-delà d'une certaine taille de paquet qui dépend du délai fixé. Due a la mobilité trèsélevée, la durée de vie moyenne d'un lien dans Rollernet est 26.2 secondes et plus de la moitié des liens durent moins de 15 secondes. Ainsi, des paquets de taille plus grande que 1 perdent de nombreuses opportunités de contact mais ceci peutêtre compensé par une plus grande tolérance sur les délais. Ces observations correspondent exactement aux résultats théoriques sur la taille, le délai et la mobilité de la fig. 2. Un gain borné pour des paquets plus petits Sur la fig. 4a, lorsque le délai maximum est d'une minute, le taux de livraison maximal est d'environ 0.95. Prendre des paquets plus petits n'y changera rien. Cette borne sur le gain obtenu par de petits paquets apparaît car ils atteignent les limites de performance du routageépidémique. En effet, la plus rapide diffusionépidémique possible infectera,à chaque pas de temps, la totalité d'une composante connexe dès lors que l'un de ses noeudsétait contaminé. Un paquet suffisamment petit pourrait produire cet effet, mais des paquets encore plus petits n'auraient aucun avantage en termes de taux livraison. Cette même limite de gain pour les petits paquets est visible sur la courbe d = 4 de la fig. 2. Des délais courts nécessitent de petits paquets Afin de mieux comprendre la relation entre délai maximum et taille de paquet convenable, la fig. 4b trace la plus grande taille de paquet qui est capable de respecter un taux de livraison fixé, en fonction du délai maximum. Une contrainte forte sur le délai, moins de quelques minutes par exemple, impose l'usage de petits paquets afin d'obtenir un taux de livraison satisfaisant.À l'inverse, le relâchement de cette contrainte de délai amène davantage de flexibilité concernant la taille des paquets. Conclusion Dans ce papier, nous avons proposé un nouveau modèle de graphes temporels aléatoires qui, pour la première fois, capture la corrélation entre graphes de connectivité successifs. Les résultats théoriques concernant l'interaction entre la mobilité des noeuds, le délai maximum toléré et la taille des paquets sont confirmés expérimentalement. En particulier, nous avons montré que, pour un délai maximum fixé et une certaine mobilité des noeuds, la taille des paquets a un impact majeur sur le taux de livraison. Ce résultat devraitêtre pris en considération lors de la conception et l'implémentation de nouveaux services mobiles. Figure 1 - 1depuis au moins deux pas de temps (I) Noeud venant juste d'être infecté (J) Noeud sain (S) Propagationépidémique dans un réseau aléatoire Markovien. Figure 2 - 2Influence de la taille du paquet sur le taux de livraison (N = 20, r = 2.0, λ = 10.0) pour différentes valeurs du délai maximal toléré (d). Il y a deux lignes pour chaque valeur de d qui correspondent aux bornes inférieure et supérieure.tard dans l'intervalle, ce qui conduità sous-estimer la propagation de l'épidémie. Plus précisément, nous remplaçons π ↑ par π ↑ q α −1 c et 1 − q i par (1 − q i )q inf et T sup les matrices de transition obtenues pour les bornes inférieures et supérieures. La probabilité d'acheminer le paquet en moins de d pas de temps est bornée par : Figure 3 - 3Influence des paramètres du modèle sur le taux de livraison. Sauf mention contraire, N = 20, r = 2.0, λ = 10.0 et d = 5.4.5. Influence des autres paramètresNombre de noeuds.(fig. 3a) Le taux de livraison tend vers 1 lorsque N augmente. En effet, pour une paire source/destination donnée, chaque nouveau noeud est un nouveau relais potentiel lors de la disséminationépidémique, ce qui ne peut qu'aider le taux de livraison. de livraison en fonction de la taille des paquets. de paquet maximale capable de respecter un taux de livraison fixé en fonction du délai. Figure 4 - 4Résultats sur la trace Rollernet. RemerciementsCe travail aété partiellement soutenu par le projet ANR Crowd ANR-08-VERS-006 7. Bibliographie Crossing over the bounded domain : from exponential to power-law intermeeting time in MANET. H Cai, D Y Eun, Proc. ACM MobiCom. ACM MobiComCAI H., EUN D. Y., Crossing over the bounded domain : from exponential to power-law inter- meeting time in MANET , Proc. ACM MobiCom, 2007. Impact of Human Mobility on the Design of Opportunistic Forwarding Algorithms. Chaintreau A, Hui P, J Crowcroft, C Diot, Gass R, J Scott, Proc. IEEE INFOCOM. IEEE INFOCOMCHAINTREAU A., HUI P., CROWCROFT J., DIOT C., GASS R., SCOTT J., Impact of Human Mobility on the Design of Opportunistic Forwarding Algorithms , Proc. IEEE INFOCOM, 2006. The diameter of opportunistic mobile networks. Chaintreau A, Mtibaa A, L Massoulie, C Diot, Proc. ACM CoNEXT. ACM CoNEXTCHAINTREAU A., MTIBAA A., MASSOULIE L., DIOT C., The diameter of opportunistic mobile networks , Proc. ACM CoNEXT, 2007. Flooding time in edge-Markovian dynamic graphs. E Clementi A, C Macci, Monti A, Pasquale F, Silvestri R, Proc. ACM PODC. ACM PODCCLEMENTI A. E., MACCI C., MONTI A., PASQUALE F., SILVESTRI R., Flooding time in edge- Markovian dynamic graphs , Proc. ACM PODC, 2008. A Graph-Based Model for Disconnected Ad Hoc Networks. F De Pellegrini, D Miorandi, Carreras I, Chlamtac I, Proc. IEEE INFOCOM. IEEE INFOCOMDE PELLEGRINI F., MIORANDI D., CARRERAS I., CHLAMTAC I., A Graph-Based Model for Disconnected Ad Hoc Networks , Proc. IEEE INFOCOM, 2007. Eagle N, Pentland A, Reality Mining : Sensing Complex Social Systems , Personal and Ubiquitous Computing. 10EAGLE N., PENTLAND A., Reality Mining : Sensing Complex Social Systems , Personal and Ubiquitous Computing, vol. 10, n o 4, 2006. Perfect simulation and stationarity of a class of mobility models. Le Boudec J.-Y Vojnovic, M , Proc. IEEE INFOCOM. IEEE INFOCOMLE BOUDEC J.-Y., VOJNOVIC M., Perfect simulation and stationarity of a class of mobility models , Proc. IEEE INFOCOM, 2005. An empirical study of the impact of mobility on link failures in an 802.11 ad hoc network. Lenders V, J Wagner, S Heimlicher, May M Plattner B, Wireless Communications. 156IEEELENDERS V., WAGNER J., HEIMLICHER S., MAY M., PLATTNER B., An empirical study of the impact of mobility on link failures in an 802.11 ad hoc network , Wireless Communications, IEEE, vol. 15, n o 6, 2008. Graphs over time : densification laws, shrinking diameters and possible explanations. J Leskovec, J Kleinberg, C Faloutsos, Proc. ACMSIGKDD. ACMSIGKDDLESKOVEC J., KLEINBERG J., FALOUTSOS C., Graphs over time : densification laws, shrinking diameters and possible explanations , Proc. ACMSIGKDD, 2005. The Accordion Phenomenon : Analysis, Characterization, and Impact on DTN Routing. Tournoux P.-U Leguay, J Benbadis, F , Conan V D De Amorim M, J Whitbeck, Proc. IEEE INFOCOM. IEEE INFOCOMTOURNOUX P.-U., LEGUAY J., BENBADIS F., CONAN V., DE AMORIM M. D., WHITBECK J., The Accordion Phenomenon : Analysis, Characterization, and Impact on DTN Routing , Proc. IEEE INFOCOM, 2009.
sample_10437
0.8934
arxiv
Modélisation multi-niveaux dans AA4MM B Camus .camus@loria.frjulien.siebert@enib.frchristine.bourjot@loria.frvincent.chevrier@loria.fr UMR 7506 Université de Lorraine LORIA F-54506Vandoeuvre les NancyFrance Inria F-54600Villers-Lès-NancyFrance J Siebert Lab-STICC Ecole Nationale d'Ingénieurs de Brest France C Bourjot UMR 7506 Université de Lorraine LORIA F-54506Vandoeuvre les NancyFrance Inria F-54600Villers-Lès-NancyFrance V Chevrier UMR 7506 Université de Lorraine LORIA F-54506Vandoeuvre les NancyFrance Inria F-54600Villers-Lès-NancyFrance Benjamin Modélisation multi-niveaux dans AA4MM Modeling and simulation multi- level representationemergencemetamodel Dans cet article, nous proposons de représenter un phénomène multi-niveaux sous la forme de plusieurs modèles en interaction. Cette vision structure la réflexion en rendant explicites les niveaux de représentation et leurs relations. Pour répondre aux défis de cohérence, causalité et coordination entre ces modèles, nous nous appuyons sur le méta-modèle AA4MM dédié à ce type de représentation. Un phénomène de flocking permet d'illustrer notre propos et de monter l'intérêt de cette approche.Cette démarche pose des bases conceptuelles relativement simples pour aborder une question encore largement ouverte de la modélisation des systèmes complexesMots-clés : modélisation et simulation multiniveaux ; émergence ; méta-modèleAbstractIn this article, we propose to represent a multi-level phenomenon as a set of interacting models. This perspective makes the levels of representation and their relationships explicit. To deal with coherence, causality and coordination issues between models, we rely on AA4MM, a metamodel dedicated to such a representation. We illustrate our proposal and we show the interest of our approach on a flocking phenomenon. Introduction Lorsque l'on aborde la modélisation de phénomènes collectifs, que ce soit en sciences humaines et sociales ou en biologie, il est souvent nécessaire de représenter le système selon plusieurs niveaux (Troitzsch, 1996). Par exemple en biologie (Sloot, 2010) (Uhrmacher, 2009) (Ballet, 2012), le système à modéliser fait "naturellement" intervenir plusieurs niveaux ; tels celui des molécules, membranes, cellules, groupes de cellules, etc. ; qu'il est nécessaire de représenter et ainsi pouvoir étudier les liens entre ces niveaux. Les systèmes multi-agents font partie des approches intégrant à la fois les aspects individuels et collectifs d'un système. Ils ont ainsi permis la modélisation de phénomènes où des individus en interactions locales font émerger un comportement collectif et permettent de répondre à des questions quant aux relations entre comportements individuels et propriétés collectives. De manière plus générale, cette question s'inscrit dans l'étude des systèmes complexes. Ainsi dans (Chavalarias, 2008), les auteurs écrivent : "La complexité des systèmes naturels et sociaux provient de l'existence de plusieurs niveaux d'organisation correspondant à différentes échelles spatio-temporelles. L'un des principaux défis de la science des systèmes complexes consiste à développer … des mé-thodes de modélisation capables de saisir toutes les dynamiques d'un système par l'intégration de ses activités à de nombreux niveaux, souvent organisés hiérarchiquement." Cet article tente d'apporter une première réponse à ce défi. Après avoir situé la problématique de la modélisation multi-niveaux, nous proposons de représenter un phénomène multi-niveaux sous la forme de plusieurs modèles (ici on se limitera aux niveaux micro et macro) en interaction (partie 2). Cette vision structure la réflexion en rendant explicites les niveaux de représentation et leurs relations. Après avoir décrit un exemple de phénomène multi-niveaux simple, le flocking (partie 3), nous nous appuyons (partie 4) sur les concepts du méta-modèle AA4MM (Agent et Artefact pour la Multi-Modélisation) dédié à ce type de représentation pour réaliser une preuve de concepts autour de l'exemple choisi (partie 5). La modélisation multi-niveaux L'étude des phénomènes collectifs nécessite donc au moins deux niveaux de représentations (individuel et collectif). Les SMA offrent un paradigme intéressant car on a deux niveaux de discours qui sont le niveau micro (l'agent) et le niveau macro (le système). Cependant seul le niveau micro y est traditionnellement explicitement représenté, le niveau macro se contente le plus souvent d'être observé mais n'est pas défini en tant que tel. Par conséquent, ce niveau n'existe que par la présence d'un observateur extérieur au système et ne prend pas place dans un processus de modélisation. C'est ce que (Quijano, 2010) décrivent comme une approche "mono-niveau dans la conception et bi-niveaux dans l'analyse des comportements produits". Il existe toutefois un certain nombre de travaux qui vont au delà de cette approche. (David, 2009, David 2010, David 2011 proposent une démarche pour réifier les propriétés émergentes. Une première étape (processus d'introspection) consiste en la détection des propriétés émergentes. Cette détection s'appuie sur des connaissances du phénomène étudié. Ensuite ces propriétés sont réifiées (si besoin) sous la forme d'un agent émergent qui sera doté de propriétés et comportements. Enfin, il est possible de représenter l'influence de la propriété émergente sur le système sous la forme d'un élément d'interposition qui pourra modifier la perception et/ou l'influence des agents au niveau micro. (Quijano, 2010) proposent une première analyse des manières dont peuvent être couplées des organisations multi-agents multi-niveaux à partir de différentes expériences de modélisation. Ils distinguent trois catégories de systèmes selon le type de couplage qui est réalisé entre les modèles associés à ces niveaux. Ils retiennent qu'il faut pouvoir intégrer des modèles existants aux formalismes potentiellement hétérogènes, ainsi que de pouvoir détecter, réifier et détruire dynamiquement les structures émergentes. Traounez (Traounez, 2005) analyse le système au niveau micro pour détecter puis réifier des propriétés émergentes (en l'occurrence des tourbillons). De plus, il utilise une structure de donnée récursive pour représenter leur environnement à des échelles spatiales différentes. Cette représentation peut se rapprocher de celle de (Marilleau, 2008). Néanmoins, ces représentations correspondent à un changement d'échelle (plus ou moins précise) mais pas un changement de niveau de description. Ces travaux considèrent tous que pour étudier un phénomène complexe à différents niveaux de description, il est nécessaire de représenter explicitement chacun des niveaux, de détecter puis réifier (Bonabeau, 1997) (si besoin) les propriétés collectives, et enfin, il doit être possible de contraindre le niveau micro à partir de considérations du niveau macro. (David, 2010) (Traounez, 2005) proposent différents concepts mais ils sont pensés comme intégrés dans un tout. Ils n'abordent qu'insuffisamment les différents couplages possibles entre les niveaux (tels qu'évoqués dans (Quijano, 2010)). Notamment, les questions de comment représenter un phénomène à partir de modèles différents, de comment formaliser les couplages entre modèles qui correspondent aux relations entre niveaux de descriptions sont encore ouvertes. (Bourgine, 2008) propose un cadre relativement général qui apporte un début de réponse à ces questions. Cette vision fait intervenir explicitement les modèles utilisés pour chaque niveau, ainsi que les relations entre ces niveaux. Le principe général est résumé par le schéma en figure 1. L'idée sous-jacente est la suivante : on peut décrire un phénomène à un niveau macro si l'on est capable de caractériser ce phénomène par un ensemble d'informations (noté Y) et que l'on peut décrire l'évolution de Y temporellement sans avoir à faire référence au niveau micro. Cette vision exprime les différents éléments qui interviennent lors de la modélisation multi-niveaux et la manière dont ils s'articulent : • X (resp. Y) correspond à l'ensemble des informations représentant le phénomène au niveau micro (resp. macro). • f (resp g) est une fonction qui décrit la dynamique du phénomène au niveau micro (resp. macro). • e est une fonction d'interprétation (émergence) permettant le passage du niveau de description micro à celui macro. Elle correspond aux méta-connaissances de (David, 2010). • i correspond à l'immergence, c'est à dire, à l'influence du niveau macro sur le niveau micro (ce que (David, 2010) appelle fonction d'interposition). Cette influence modifie le comportement au niveau micro. Si cette vision permet de situer et mettre en relation chacun des éléments, elle n'indique rien quant à leurs expressions (Quels formalismes pour exprimer e, i f ou g? Quelles correspondances entre t et t' ? Etc.). La partie suivante présente un exemple jouet de modélisation multi-niveaux faisant intervenir les différents éléments évoqués par (Bourgine, 2008). Nous décrivons ensuite le métamodèle AA4MM qui nous permet de décrire cette représentation comme une société de modèles interagissant ; puis de l'implanter et la simuler. Exemple de modélisation multiniveaux Cet exemple volontairement simple servira à illustrer notre proposition de modélisation multi-niveaux et à montrer comment s'instancient les différents concepts évoqués. Les deux niveaux de modélisation du 3.1. flocking Nous prenons comme exemple les nuées d'oiseaux. Nous considérons deux niveaux de description : celui des oiseaux (microscopique) et celui des nuées (macroscopique). La modélisation au niveau microscopique reprend le modèle multi-agent développé dans (Wilensky, 1998). L'état d'un oiseau est défini par un identifiant, une position et une orientation. Son comportement se déduit de ses comportements de cohésion, alignement et séparation vis à vis des autres oiseaux. La figure 2 visualise un état du niveau micro. Ce modèle macroscopique est une adaptation du modèle de (Wilensky, 1998) qui prend notamment en compte la taille de l'agent. Par simplification, il ne gère pas les fusions ni les séparations des nuées. La figure 3 visualise un état du niveau macro. Les influences mutuelles 3.2. L'influence du niveau micro sur le niveau macro est fonction de l'interprétation que nous ferons d'une nuée (Cavagna, 2008) : si plusieurs oiseaux sont suffisamment rapprochés et possèdent des orientations proches, ils constitueront une nuée évoluant dans un déplacement commun. Après avoir détecté les nuées, celles-ci seront réifiées dans le modèle macro par un agent situé au centre de gravité de la nuée et orienté selon la direction moyenne des oiseaux qui la composent, la taille est fonction de la dispersion. Ainsi, au fur et à mesure que les nuées apparaissent ou disparaissent, on met à jour le modèle au niveau macroscopique. Nous supposons que l'influence du niveau macro sur le niveau micro est la suivante : tous les oiseaux appartenant à une nuée se déplacent de la même manière et ont la même orientation. Le modèle macroscopique calcule le déplacement de chaque nuée (vecteur de translation  v ). Nous utilisons ce vecteur de déplacement global pour déplacer, au niveau micro chacun des oiseaux appartenant à la nuée. On remarquera qu'il faut donc étendre le modèle de (Wilensky, 1998) pour prendre en compte ce deuxième mode de déplacement au niveau microscopique. Enfin, nous supposons également dans un premier temps que les dynamiques évoluent à la même vitesse. La correspondance entre ce multi-modèle et le schéma inspiré de (Bourgine, 2008) s'effectue comme suit : • X correspond aux caractéristiques des oiseaux, • Y correspond aux caractéristiques des nuées, • f est le modèle de déplacement des oiseaux, • g est le modèle de déplacement des nuées, • e est le mécanisme de détection des nuées, • i est l'influence des nuées sur le comportement d'un oiseau. Instanciation avec AA4MM Nous proposons de représenter ce modèle multi-niveaux sous la forme de modèles (ici on se limitera aux niveaux micro et macro) en interaction (émergence et immergence). Pour cela, nous nous appuyons sur AA4MM, un métamodèle dédié à ce type de représentation. Le méta-modèle AA4MM 4.1. AA4MM (Siebert, 2011) modélise un phénomène complexe comme un ensemble de modèles en interaction (ce que nous appellerons par la suite un multi-modèle). Il s'inscrit dans le paradigme multi-agent : à tout modèle est associé un agent et les interactions sont supportées par des artefacts (Ricci, 2007). On retrouve ce type d'approche également dans Reiscop (Desmeulles, 2009), Ioda (Kubera, 2011) ou encore Geamas (Marcenac, 1998). Les dynamiques du phénomène (micro/macro) sont représentées par des modèles différents. La dynamique globale du phénomène est simulée grâce à l'interaction des modèles. L'originalité vis à vis d'autres approches de multi-modélisation est d'envisager les interactions de manière indirecte, supportées par un environnement, et ainsi de modéliser explicitement le partage d'informations entre modèles (couplage structurel). L'intérêt d'un méta-modèle dans notre cas est de disposer d'un cadre conceptuel dans lequel nous pourrons décrire les niveaux de représentation et la manière dont ils interagissent, c'est à dire modéliser un système sous la forme de dynamiques à différents niveaux ainsi que de leurs relations (influences). D'un point de vue méthodologique, cette vision oblige à expliciter les choix de modélisation relatifs à chacun des modèles et à leurs interactions dès la phase de conception du multi-modèle et nous contraint sur la manière de les exprimer. La contrepartie est que AA4MM possède des spécifications opérationnelles et des algorithmes prouvés concernant la cohérence temporelle entre modèles qui permettent d'implanter le multi-modèle et de le simuler en ne devant coder qu'un nombre restreint de fonctions spécifiques à l'application visée. En effet, les spécifications opérationnelles permettent de disposer d'un intergiciel. Cette approche a donné lieu à des preuves de concepts avec Netlogo Le comportement d'un m-agent correspond au cycle : • lecture des informations en provenance des artefacts de couplage, • mise-à-jour et exécution de son modèle via l'artéfact d'interface, • écriture d'informations à destination des artefacts de couplage. Un artéfact de couplage propose des opérations d'écriture (un m-agent écrit les informations à transmettre), de transformations (changement d'unités par exemple), et de lecture (un m-agent lit des informations). Un artéfact d'interface autorise les opérations suivantes sur le modèle : initialisation des données, mise à jour des caractéristiques individuelles, exécution d'un pas de simulation. Démarche de modélisation d'un phé- nomène multi-niveaux La création d'un multi-modèle via AA4MM se déroule en plusieurs étapes que nous déclinons ci-après dans le cas de la modélisation multiniveaux. La première étape consiste à définir le graphe d'interaction entre les modèles, c'est à dire, quelles informations sont échangées. Dans sa conception originelle, un artéfact de couplage conserve le cardinal des informations qui lui sont fournies lorsqu'il les transmet. La relation d'émergence oblige à concevoir un nouveau type d'artéfact (dit d'interprétation) qui dans le cas de la relation d'émergence réduit les informations (ici en taille). De plus, il se peut qu'il n'y ait aucune nuée. Le m-agent A M lit les informations interprétées par l'artéfact de couplage e ; met à jour les nuées répertoriées, ajoute les nouvelles et supprime celles disparues dans le simulateur ; fait exécuter un pas de simulation ; récupère les nouvelles positions des nuées ; calcule les vecteurs de déplacement des nuées puis écrit ces informations dans l'artéfact de couplage i. Cet artéfact est également un artéfact d'interprétation car il y a augmentation de la quantité d'informations transmises. Le comportement du m-agent A m consiste à lire les données en provenance de l'artéfact de couplage i, à faire exécuter un pas de simulation en tenant compte des deux modes de déplacement, à récupérer les identifiant, position et orientation de chacun des oiseaux, puis à écrire ceux-ci dans l'artéfact de couplage e. Comme il est possible qu'il n'y ait pas de nuée, ce m-agent doit être étendu pour traiter l'absence d'information en provenance de l'artéfact d'immergence. Expérimentations L'objectif des expérimentations est de montrer la faisabilité de notre proposition et d'en illustrer l'intérêt et les possibilités. Nous avons donc implanté l'exemple du flocking. La figure 7 correspond à une copie d'écran de la simulation multi-niveaux. Il faut noter qu'ici les modèles s'exécutent dans deux instances Netlogo (Wilensky, 1999) séparées. Concernant l'intérêt de l'approche au niveau du "multi-modélisateur", nous montrons son pouvoir explicatif (cf 5.1), sa capacité à construire différentes déclinaisons du multi-modèle par changement de modèles (cf 5.2), de couplages (cf 5.3) ou de dynamique temporelle (cf 5.4) et à comparer ces déclinaisons (cf 5.5). Les propriétés prouvées de AA4MM (cohérence, causalité et coordination entre modèles (Siebert, 2011)) facilitent le développement des différentes déclinaisons. Niveaux micro-macro explicites 5.1. L'existence de deux niveaux de description distincts utilisant chacun un vocabulaire différent (Muller, 2004) permet de rendre compte de phénomènes, comme par exemple, exprimer explicitement le croisement entre plusieurs nuées (invisible au niveau micro mais visible au niveau macro, voir figure 8). Influence du modèle macro sur le 5.2. Phénomène sans immergence 5.3. Nous souhaitons également étudier le comportement du phénomène sans immergence. L'implantation se déduit à partir de la figure 9 : les composants inutiles sont supprimés et les magents modifiés de la manière suivante : A M se contente de lire les informations en provenance de e, A m n'a plus besoin de lire les données en provenance de i (lequel a disparu). Cette déclinaison sera notée m en figure 10. Couplage avec des échelles tempo-5.4. relles différentes Nous reprenons notre exemple tel qu'en section 3 mais en supposant maintenant des échelles de temps différentes : il y a quatre pas de simulation au niveau micro pour un au niveau macro (noté ici M3). Nous revisitons l'interprétation que nous faisons de l'immergence : le déplacement macro est décomposé linéairement en quatre déplacements micro. L'artéfact de couplage i transforme donc les données qu'il reçoit pour construire quatre listes associant à un identifiant un quart de vecteur déplacement. Au niveau de la cohérence temporelle, nous tirons parti de l'algorithme d'exécution prouvé de AA4MM qui gère les relations temporelles et ne modifions que i et la correspondance temporelle au niveau de A M3 . Comparaison des déclinaisons du 5.5. multi-modèle Dans notre exemple, l'évolution du nombre de de nuées dépend de plusieurs facteurs : le comportement individuel micro, et en cas d'immergence du niveau macro au travers des paramètres du comportement des nuées. La figure 10 montre une comparaison de l'influence de ces différents facteurs. Chaque point d'une courbe correspond à 100 exécutions. Conclusion Dans cet article, nous avons apporté une première réponse au problème de la représentation multi-niveaux de phénomènes complexes. Notre proposition, au niveau conceptuel, s'inspire de (Bourgine, 2008) qui envisage la représentation multi-niveaux comme un couplage entre plusieurs systèmes dynamiques, ce que nous exprimons de façon modulaire sous la forme de plusieurs modèles multi-agents en interaction. Pour répondre aux défis de cohérence, causalité et coordination entre ces modèles, nous nous appuyons sur le méta-modèle AA4MM dédié à ce type de représentation. AA4MM nous offre de par son approche modulaire une flexibilité que nous pouvons exploiter dans le cadre d'une modélisation multi-niveaux. Cela permet facilement le changement de modèles, le changement d'échelle temporelle, le changement de couplage entre niveaux ; ainsi que la réutilisation de modèles existants. La démarche sous-jacente propose de partir du problème de modélisation multi-niveaux, pour établir un graphe de relations (émergence/immergence) entre les deux niveaux micro/macro que nous traduisons sous la forme d'un diagramme AA4MM. Ce diagramme est alors implanté à partir de l'intergiciel de AA4MM. Ce travail pose des bases conceptuelles relativement simples pour aborder une question encore largement ouverte de la modélisation des systèmes complexes. Nous envisageons d'étendre cette approche à des systèmes qui ne sont plus simplement bi-niveaux (micromacro), et de la confronter à d'autres phénomènes dont les relations d'émergence et d'immergence prennent d'autres formes. Figure 1 : 1Relations (d'après(Bourgine, 2008)) entre niveaux de description et évolution temporelle du phénomène.Nous proposons de faire un pas vers une clarification de ce principe en envisageant chaque niveau comme un modèle et les relations entre eux comme des interactions. Figure 2 : 2vue du niveau micro.Au niveau macroscopique, une nuée est modélisée par un agent caractérisé par une position, une orientation et une taille. Nous supposons de manière arbitraire que le comportement d'une nuée se déduit de ses comportements de cohésion, alignement et séparation vis à vis des autres nuées. Figure 3 : 3vue du niveau macro. Figure 4 : 4et une application dans le cadre des réseaux mobiles ad-hoc (Leclerc, 2010) notamment en réutilisant des modèles existants et hétérogènes. Représentation multi-niveaux avec 4.2. AA4MM Nous allons maintenant expliciter la représentation multi-niveaux à l'aide des composants de AA4MM. Il repose sur trois concepts à partir desquels il est possible de décrire un multimodèle : 1. le m-agent contrôle un modèle et prend en charge les aspects dynamiques des interactions de ce modèle avec les autres modèles (figure 4a), 2. chacune de ces interactions (entre magents) est réifiée par un artéfact de couplage (figure 4b), 3. enfin l'artéfact d'interface réifie les interactions entre un m-agent et son modèle (figure 4c). symboles des composants du métamodèle AA4MM (a) m-agent, (b) artéfact de couplage, (c) artéfact d'interface et son modèle m. Dans notre cas, ce graphe se déduit assez simplement. Chaque niveau de représentation est associé à un modèle (noté m pour le niveau micro et M pour le niveau macro). Les interac-tions sont les relations d'émergence (notée e) de micro vers macro et d'immergence (notée i) de macro vers micro (voirfigure 5). Figure 5 : 5Graphe des relations entre modèles. La seconde étape consiste à exprimer ce graphe à l'aide des concepts de AA4MM. Ainsi à chaque modèle, et donc à chaque niveau, correspond un m-agent et un artefact d'interface. Le m-agent A m contrôle (gère) le modèle du niveau micro et le m-agent A M contrôle le modèle du niveau macro. A chaque relation entre modèles correspond un artefact de couplage entre leurs m-agents correspondants (cf. figure 6). La mise en oeuvre de ce diagramme nécessite des extensions de AA4MM par rapport à ses spécifications initiales. En détaillant notre exemple, nous soulignons les manques et indiquons 1 la manière dont nous y répondons ciaprès. Concernant les artéfacts d'interface, nous réutiliserons ceux existant pour Netlogo dans la bibliothèque AA4MM. Dans une démarche bottom-up, initialement le niveau micro comporte un certain nombre d'oiseaux créés aléatoirement. Le m-agent A m fait exécuter un pas de simulation, récupère les identifiants, positions et orientations des oiseaux et les écrit dans l'artefact de couplage e. L'artefact de couplage e reçoit donc du magent A m la liste des positions et orientation de chacun des oiseaux et les interprète pour construire des nuées. Ceci est réalisé par un algorithme d'identification de cluster avec deux paramètres : un seuil de proximité et un seuil d'orientation. Ces informations (liste de nuées avec centre de gravité, orientation et taille) sont alors disponibles pour le m-agent A M . Figure 6 : 6Diagramme AA4MM de la représentation multi-niveaux. Figure 7 : 7exécution du multi-modèle. Figure 8 : 8croisement de plusieurs nuées (gauche niveau micro, droite niveau macro). phénomène Outre le modèle M décrit en section 3, nous avons utilisé deux autres modèles (dérivés de M) pour le niveau macro : M1 utilise un fort facteur de séparation et de faibles facteurs de cohésion et alignement ; M2 utilise de forts facteurs de cohésion et alignement et un faible facteur de séparation. Figure 9 : 9couplage sans immergence, ni comportement macro. démarche de modélisation, ce type d'étude est important pour comprendre les relations entre niveaux. Notre approche permet de situer précisément quelle partie du multimodèle est impliquée. Figure 10 : 10comparaison du nombre de nuées selon l'influence de différents facteurs. Les notations m, M, M1, M2 et M3 font référence aux modèles présentés précédemment. La place disponible dans cet article ne nous permet pas de fournir l'intégralité des spécifications. Nous nous contentons d'indiquer les modifications qualitativement. RemerciementsLes auteurs remercient l'un des relecteurs pour ses remarques constructives. une approche interdisciplinaire pour la création et le développement de logiciels intégrés de et de simulation en biologie computationnelle. P Ballet, Biodyn, Mémoire d'HDR, Université de Bretagne OccidentaleBallet P. BioDyn, une approche interdisciplinaire pour la création et le développement de logiciels intégrés de et de simulation en biologie computation- nelle. Mémoire d'HDR, Université de Bretagne Occi- dentale, 2012. Detection and emergence. E Bonabeau, J-L Dessalles, Intellectica. 252Bonabeau, E., Dessalles, J-L. Detection and emer- gence. Intellectica, 25 (2), 85-94, 1997. Distributed Problem Solving in natural and artificial complex systems. P Bourgine, Invited talk in Engineering Societies in the Agents World IX, 9th International Workshop. ESAWBourgine, P. Distributed Problem Solving in natural and artificial complex systems. Invited talk in Engi- neering Societies in the Agents World IX, 9th Inter- national Workshop, ESAW 2008. Procaccini A. The STARFLAG handbook on collective animal behaviour: Part II, three-dimensional analysis. A Cavagna, I Giardina, A Orlandi, G Parisi, Animal Behaviour. 1Cavagna A., Giardina I., Orlandi A., Parisi G., Pro- caccini A. The STARFLAG handbook on collective animal behaviour: Part II, three-dimensional analy- sis. Animal Behaviour. Volume: 76, Issue: 1, Pages: 237-248, 2008. . D Chavalarias, P Bourgine, E Perrier, F Amblard, F Arlabosse, P Auger, J.-B Baillon, O Barreteau, Chavalarias D., Bourgine P., Perrier E., Amblard F., Arlabosse F., Auger P., Baillon J.-B., Barreteau O., Roadmap for complex Systems. P Baudot, E Bouchaud, French, French National Network for Complex Systems (RNSC), Paris Ile-de France Complex Systems Institute (ISC-PIF) and IXXI, Entretiens de CargèseBaudot P., Bouchaud E. French Roadmap for com- plex Systems 2008-2009, French National Network for Complex Systems (RNSC), Paris Ile-de France Complex Systems Institute (ISC-PIF) and IXXI, Entretiens de Cargèse 2008, 2008. See Emergence as a Metaknowledge, a Way to Reify Emergent Phenomena in Multiagent Simulations?. D David, R Courdier, International Conference on Agents and Artificial Intelligence (ICAART'09). Porto, PortugalDavid D., Courdier R. See Emergence as a Me- taknowledge, a Way to Reify Emergent Phenomena in Multiagent Simulations?, International Conference on Agents and Artificial Intelligence (ICAART'09), pp. 564-569, Porto, Portugal, Jan. 19-21, 2009. Prospective Territoriale par Simulation Orientée Agent. D David, Université de La RéunionThèse de DoctoratDavid D. Prospective Territoriale par Simulation Orientée Agent, Thèse de Doctorat, Université de La Réunion, 2010. Réification de zones urbaines émergentes dans un modèle simulant l'évolution de la population à La Réunion. D David, R Payet, Courdier, Journées Francophones sur les Systèmes Multi-Agents (JFS-MA'11). Valenciennes, FranceDavid D., Payet, R. Courdier. Réification de zones urbaines émergentes dans un modèle simulant l'évolution de la population à La Réunion, Journées Francophones sur les Systèmes Multi-Agents (JFS- MA'11), pp. 63-72, Valenciennes, France, 17-19 Octobre 2011. G Desmeulles, S Bonneaud, P Redou, V Rodin, J Tisseau, virtuo experiments based on the multiinteraction system framework: the reiscop metamodel. CMES. Desmeulles G., Bonneaud S., Redou P., Rodin V., Tisseau J. In virtuo experiments based on the multi- interaction system framework: the reiscop meta- model. CMES, Computer Modeling in Engineering & Sciences, 2009. Accroche-toi au niveau, je retire l'échelle, Eléments d'analyse sur la modélisation multi-niveaux dans les simulations multi-agents. Revue d. J Gil-Quijano, G Hutzler, T Louail, Intelligence Artificielle. 245Gil-Quijano J., Hutzler G., Louail T. Accroche-toi au niveau, je retire l'échelle, Eléments d'analyse sur la modélisation multi-niveaux dans les simulations multi-agents. Revue d'Intelligence Artificielle, Vol. 24, no 5, pp. 625-648, 2010. IODA: an interaction-oriented approach for multi-agent based simulations Autonomous Agents and Multi-Agent Systems. Y Kubera, P Mathieu, S Picault, Kubera Y., Mathieu P., Picault S. IODA: an interac- tion-oriented approach for multi-agent based simula- tions Autonomous Agents and Multi-Agent Systems, pp. 1-41, 2011. Festor O. Multi-Modeling and Co-Simulation-based Mobile Ubiquitous Protocols and Services Development and Assessment. T Leclerc, J Siebert, V Chevrier, L Ciarletta, 7th International ICST Conference on Mobile and Ubiquitous Systems (Mobiquitous 2010). Leclerc T., Siebert J., Chevrier V., Ciarletta L., Fes- tor O. Multi-Modeling and Co-Simulation-based Mobile Ubiquitous Protocols and Services Develop- ment and Assessment. In 7th International ICST Con- ference on Mobile and Ubiquitous Systems (Mobiq- uitous 2010), 2010. Emergence of Collective Behaviour and Problem Solving. J.-P Muller, LNAI. A. Omicini, P. Petta, and J. Pitt3071Springer-VerlagMuller J.-P. Emergence of Collective Behaviour and Problem Solving. A. Omicini, P. Petta, and J. Pitt (Eds.): ESAW 2003, LNAI 3071, pp. 1-21, 2004. Springer-Verlag, Berlin Heidelberg, 2004. A Generic Architecture for Agent-Oriented Simulations of Complex Processes. P Marcenac, S Giroux, Geamas, Applied Intelligence. 83Marcenac P, Giroux S. GEAMAS: A Generic Archi- tecture for Agent-Oriented Simulations of Complex Processes. Applied Intelligence, Volume 8, Number 3, pp. 247-267, 1998. Environnement multiéchelle à base de fractales pour la modélisation agent d'écosystèmes. N Marilleau, C Cambier, A Drogoul, J.-L Chotte, E Perrier, E Blanchard, Proc. JFSMA'08. René Mandiau et Pierre ChevaillerJFSMA'08CépaduèsMarilleau N., Cambier C., Drogoul A., Chotte J.-L., Perrier E., Blanchard E.. Environnement multi- échelle à base de fractales pour la modélisation agent d'écosystèmes. in Proc. JFSMA'08 René Mandiau et Pierre Chevailler (eds), pp23-32, Cépaduès, 2008. Give agents their artifacts : the a&a approach for engineering working environments in mas. A Ricci, M Viroli, A Omicini, AAMAS '07: Proceedings of the 6th international joint conference on Autonomous agents and multiagent systems. New York, USARicci A., Viroli M., Omicini A. Give agents their artifacts : the a&a approach for engineering working environments in mas. In AAMAS '07: Proceedings of the 6th international joint conference on Autonomous agents and multiagent systems, pp601-603, New York, USA, 2007. Approche multi-agent pour la multimodélisation et le couplage de simulations. Application à l'étude des influences entre le fonctionnement des réseaux ambiants et le comportement de leurs utilisateurs. J Siebert, Université Henri Poincaré -Nancy 1Thèse de lSiebert J. Approche multi-agent pour la multi- modélisation et le couplage de simulations. Applica- tion à l'étude des influences entre le fonctionnement des réseaux ambiants et le comportement de leurs utilisateurs. Thèse de l'Université Henri Poincaré - Nancy 1, September 2011. Building complex system simulation as a set of interacting models. J Siebert, L Ciarletta, V Chevrier, Proceedings of the International Conference on Autonomous Agents and Multiagent Systems, in proc. of AAMAS 2010. the International Conference on Autonomous Agents and Multiagent Systems, in proc. of AAMAS 2010CanadaAgents and artefacts for multiple models co-evolution. TorontoSiebert J., Ciarletta L., Chevrier V. Agents and arte- facts for multiple models co-evolution. Building complex system simulation as a set of interacting models. In Proceedings of the International Confer- ence on Autonomous Agents and Multiagent Sys- tems, in proc. of AAMAS 2010, May 10, 2010, To- ronto, Canada, pp509-516. Multi-scale modelling in computational biomedicine. P Sloot, A Hoekstra, Briefings in Bioinformatics. 111Sloot P., Hoekstra A. Multi-scale modelling in com- putational biomedicine Briefings in Bioinformatics, Volume 11, Issue 1, pp. 142-152, 2010. Contribution à la modélisation et à la prise en compte informatique de niveaux de descriptions multiples. Application aux écosystèmes aquatiques. P Traounez, Social Science Microsimulation. Troitzsch, K., Mueller, U., Gilbert, G., Doran, J.SpringerUniversité du HavreThèse de lTroitzsch, K. Multilevel SimulationTraounez, P. Contribution à la modélisation et à la prise en compte informatique de niveaux de descrip- tions multiples. Application aux écosystèmes aqua- tiques. Thèse de l'Université du Havre. 2005. Troitzsch, K. Multilevel Simulation. In Troitzsch, K., Mueller, U., Gilbert, G., Doran, J., eds., Social Sci- ence Microsimulation. Springer (1996) 107-120 Discrete Event Multi-level Models for Systems Biology. A Uhrmacher, D Degenring, B Zeigler, Transactions on Computational Systems Biology. C. Priami et al.Berlin HeidelbergSpringer-Verlag3380Uhrmacher A., Degenring D., Zeigler B. Discrete Event Multi-level Models for Systems Biology. in C. Priami et al. (Eds.), Transactions on Computational Systems Biology, LNBI 3380, pp. 66-89, Springer- Verlag Berlin Heidelberg, 2009. NetLogo Flocking model. U Wilensky, Evanston, ILCenter for Connected Learning and Computer-Based Modeling, Northwestern UniversityWilensky, U. NetLogo Flocking model. http://ccl. northwestern.edu/netlogo/models/Flocking. Center for Connected Learning and Computer-Based Model- ing, Northwestern University, Evanston, IL, 1998. . U Wilensky, Netlogo, Evanston, ILNorthwestern UniversityWilensky, U. NetLogo. http://ccl.northwestern.edu/ netlogo/. Center for Connected Learning and Com- puter-Based Modeling, Northwestern University, Evanston, IL, 1999.
sample_10518
0.8768
arxiv
2005 La Gaceta De La Rsme 85972005 La Cosmología y los matemáticospor José M. M. Senovilla Se presentan algunos de los hitos históricamente relevantes y llevados a cabo o instigados, de manera esencial, por matemáticos en la creación, avance y desarrollo de la cosmología como disciplina científica. Asimismo, se detalla la estrecha relación entre las matemáticas y la cosmología, a través de la geometrización deésta llevada a cabo por Einstein con su teoría de la relatividad general y la colaboración posterior de ilustres matemáticos del siglo XX. INTRODUCCIÓN Como es notorio, durante 2005 celebramos el Año Mundial de la Física con motivo del centenario del annus mirabilis del grandísimo Albert Einstein (Ulm, Alemania, 1879 -Princeton, EE UU, 1955). En 1905 Einstein, a la sazón empleado de una oficina de patentes en Berna, publicó cuatro artículos revolucionarios, visionarios, bellos, de consecuencias devastadoras para la ciencia -¡y las matemáticas!-moderna. La lista de revoluciones científicas provocadas, comenzadas o catalizadas por Einstein es tan extensa que seguramente resulta inverosimil. Probablemente por ello es el más famoso de los poquísimos científicos conocidos por los legos. La mayoría de dichas revoluciones se fraguaron antes de o durante el celebrado 1905: los fundamentos de las teorías cinética y estadística; la explicación del movimiento browniano de partículas en suspensión de un líquido; el efecto fotoeléctrico y la introducción de los quanta de energía, lo que llevó a la teoría cuántica de la radiación y posteriormente de la materia; la teoría de la relatividad especial o restringida. Hay no obstante otras revoluciones einsteinianas que tuvieron lugar bastante después, las más conocidas deéstas son, naturalmente, la teoría de la relatividad general y las bases de la estadística cuántica. Por si el lector no está abrumado aún, permítanme la originalidad de hablar aquí, empero, de otra revolución fundamental iniciada por Einstein, con consecuencias del mismo calado y probablemente mayor alcance, que trastornó completamente nuestra manera de conocer y analizar el Cosmos: el nacimiento de la Cosmología como una genuina disciplina científica. Teniendo en cuenta que este año se celebra también el cincuentenario de la desaparición tanto de Einstein como del influyente matemático, y colega suyo en Princeton, Hermann Weyl (Elsmhorn, Alemania, 1885 -Zürich, Suiza, 1955), quien contribuyó también al desarrollo de la relatividad general y la geometría del espacio-tiempo, este artículo se adentrará en la relación entre la cosmología y las matemáticas, y en las contribuciones, absolutamente imprescindibles, de grandes matemáticos a aquella. Sirva como homenaje a Einstein, Weyl, Friedman (San Petersburgo 1888 -Leningrado 1925) de quién ahora se cumplen 80 años de su muerte, y a los demás matemáticos que irán apareciendo en el texto de este artículo: Pitágoras, Ptolomeo, Newton, Bianchi, Riemann, Minkowski, Grossmann, Christoffel, Levi-Civita, Ricci-Curbastro, Jacobi, Lanczos, Robertson, Walker, Gödel, Taub... Lo que sigue contiene exclusivamente hechos conocidos, pero teñidos de un punto de vista personal que me permitirá resaltar los pasos fundamentales y los acontecimientos extraordinarios que rodearon esta apasionante historia. ANTES DE 1905 La historia de la ciencia (y de la filosofía) está salpicada de visiones del cosmos, intuiciones sobre su forma, sus propiedades y composición. Hay por ejemplo innumerables cosmogonías antiguas, mayormente basadas en creencias o razones de fe, cuyo principal objetivo era servir de ambiente para los fenómenos, identificar el Universo como marco en el que ocurren las cosas. Se pueden citar, como casos destacados • las cosmogonías de la escuela naturalista de Mileto entre 560 y 525 a.c. -como las de Tales, Anaximandro o Anaxímenes-, en las que la Tierra tenía forma de disco plano o de rodaja de sandía, y los cuatro elementos se distribuían debajo de una "esfera celeste"; • la cosmogonía de la escuela de Elea, debida a Parménides circa 530 a.c., en la que la Tierra era redonda preservando las demás propiedades de las cosmogonías previas; • la del pitagorismo, escuela de resonancia matemática, atribuída a Filolao, en la que los números tuvieron una importancia fundamental ya que para mantener la perfección del número 10 se creó un fantasmagórico planeta llamado Antichton o anti-Tierra que resguardaba la Tierra del fuego central. Eraéste, por tanto, un modelo no geocéntrico, aunque tampoco heliocéntrico, ya que el Sol giraba también en torno al mencionado fuego; • el primer sistema heliocéntrico se debe al gran Aristarco de Samos, quien circa 260 a.c. propuso que la Tierra era esférica, giraba en torno al Sol y también sobre sí misma, e incluso puso el eje de rotación de la Tierra inclinado respecto del plano de rotación en torno al Sol (hoy eclíptica). Como vemos, las ideas de Aristarco de Samos se adelantaron muchos siglos a las de Copérnico, aunque se ha de señalar que tuvieron un impacto nimio debido a su "evidente sinrazón". Aparte de lo anterior, se han de mencionar también los pocos marcos teóricos surgidos antes de los siglos XIX-XX para explicar el Cosmos. Seguramente el primero de relevancia fue el sistema ideado por Claudio Ptolomeo (Hermiou, Egipto, 85-Alejandría 165) en el famoso Almagesto, donde se da un tratado detalladísimo y completo de la "teoría de los cielos", comoél mismo la llamó, fundando la astronomía, que permitió predecir el movimiento de los cuerpos celestes conocidos y llegar a una mejor comprensión del mundo. Como se sabe, todo ello basado en un modelo geocéntrico, deéxito casi sin par (probablemente sólo los Elementos de Euclides hayan estado en uso por un periodo mayor de tiempo), y que llegó prácticamente intacto al siglo XVI. El siguiente marco teórico, y probablemente el de mayor relevancia histórica, surge después de la revolución heliocéntrica llevada a cabo por Copérnico (Torun, Polonia 1473 -Frombork 1543), continuada, defendida e impulsada por el nacimiento del método científico y los telescopios con Galileo (Pisa, 1564 -Arcetri 1642), ayudada por las precisas observaciones de Tycho Brahe (Knudstrup, Dinamarca, 1546 -Praga, Bohemia, 1601) y finalmente asentada con las magníficas leyes de Kepler (Weil der Stadt, Württemberg, 1571 -Regensburg, Alemania, 1630) del movimiento planetario. Nos referimos, claro está, al marco teórico creado en la genial síntesis desarrollada por Isaac Newton (Woolsthorpe, Inglaterra, 1643 -Londres 1727) en sus Principia, usando sus técnicas matemáticas del cálculo de fluxiones (hoy cálculo diferencial). Si el cálculo diferencial fue un paso gigantesco en el desarrollo de las matemáticas, no hay quizás adjetivo suficiente para resaltar lo que significaron los Principia en la historia de la física. Resaltemos aquí que las leyes de Kepler se deducen dentro del marco newtoniano basándose simplemente en el cálculo diferencial y en la famosa ley newtoniana de la gravitación universal, F = GM m r 2 r r ,(1) que cuantifica la fuerza de atracción entre dos cuerpos cualesquiera con masas M y m, siendo G la constante de la gravitación universal y r el radio vector que une (los centros de masas de) los dos cuerpos. Los movimientos astronómicos quedaban así "explicados" dentro de la física clásica de Newton. Dicho lo anterior, hay que resaltar empero que el marco teórico newtoniano presuponía, como hipótesis esencial (basada supuestamente en la experiencia) la existencia de un espacio y un tiempo absolutos, inmutables e inalterables, que no estaban influidos por ningún agente material, y eran infinitos. Este "aburrido" espacio-tiempo newtoniano estaba dado a priori, y servía de campo de referencia para el movimiento y la existencia de los objetos reales. Por ello mismo, el cosmos como un todo no se estudiaba, o sea, el Universo como tal no era objeto de estudio científico. Es necesario reseñar ahora dos pasos menos conocidos pero de gran importancia para la historia que nos ocupa. El primero se debió a Richard Bentley (Oulton, Inglaterra 1662 -Cambridge 1742), contemporáneo de Newton y un hombre por lo demás disparatado, cuyo afán era probar la existencia de Dios usando la física newtoniana, quien puso de manifiesto que un Universo finito es inestable según la ley de Newton (1). Más aún, la misma conclusión se sigue si, a pesar de que el espacio fuera infinito, toda su materia estuviera concentrada sólo en una región finita, ya que toda la materia colapsaría por efecto de la atracción gravitatoria. Por esta razón el propio Newton sugirió que la distribución de la materia cósmica tenía que estar distribuida por todas partes, ser infinita y, probablemente entonces, estable de acuerdo con su ley (1), de manera que la fuerza neta resultante de todo el Universo sobre la Tierra pudiera considerarse comoúnicamente la del Sol. Como veremos después, esta conjetura resultó ser completamente insostenible. El segundo paso que es necesario recordar, una de las ideas más lúcidas y visionarias en lo que concierne a la organización del cosmos, se debió al grandísimo filósofo Immanuel Kant (Königsberg, Alemania, 1724 -1804), que en 1755 publicó en su tratado Historia natural universal y teoría de los cielos la idea de que, igual que el Sol formaba parte de un sistema aislado de estrellas con forma de disco, era probable que las nebulosas elípticas que podían observarse en el firmamento fuesen agrupaciones estelares del mismo tipo. Kant llamó a estas nebulosas "universos isla" haciendo una sorprendente predicción que se confirmaría ¡170 años más tarde! A caballo entre los siglos XIX y XX aparecieron las primeras voces con críticas científicas de calado que abrirían la puerta al posterior desarrollo de la Cosmología. Una crítica de particular relevancia fue la realizada por Ernst Mach (Chirlitz-Turas, Austria 1838 -Vaterstetten, Alemania 1916), quien con demoledor estilo desmenuzó el problema que representaba el concepto de la inercia, definida respecto del espacio absoluto, en la teoria newtoniana. Mach discutió brillante y razonadamente que la inercia de un cuerpo no debía ser referida al espacio absoluto sino que, de hecho, ha de ser una propiedad relativa con respecto de la distribución total de materia en el resto del Universo. Esta idea influyó decisivamente en Einstein y sus primeras concepciones acerca del cosmos. Otra crítica de similar importancia fue la denominada paradoja de Seeliger, que no es otra cosa que la concreción, con argumentos cuantitativos decisivos, de la inestabilidad del cosmos newtoniano señalada por Bentley y mencionada más arriba. Si hoy en día es evidente que la gravedad es la fuerza más relevante para el estudio del Universo, lo era más aún en el siglo XIX y principios del XX cuando sólo se conocían dos interacciones en la naturaleza, la electromagnética y la gravitatoria. Era por ello imprescindible usar una teoría de la gravitación en cualquier estudio del cosmos como un todo. La teoría vigente era la de la gravitación universal de Newton, pero conducía a conclusiones insostenibles como las mencionadas. La conjetura de Newton para refutar los argumentos de Bentley resultó ser totalmente falsa, como demostró rigurosamente Hugo von Seeliger (Biala bei Bielitz, Austria 1849 -Munich, Alemania 1924) en 1894: si la ley (1) valiera para el cosmos, el campo gravitatorio sería infinito por doquier. Curiosamente, Seeliger trató de modificar la ley (1) de la manera siguiente F = GM m r 2 e −kr r r(2) para una constante positiva k. Esta nueva ley todavía permite explicar el comportamiento de los planetas en el sistema solar, pero al mismo tiempo la gravedad deviene muy débil a grandes distancias y es factible que distribuciones materiales a gran escala sean estables, incluso en el caso de distribuciones no homogéneas. Desafortunadamente, la modificación (2) de la ley de la gravitación no estaba exenta de problemas, como la inmensa mayoría de las modificaciones ad hoc con parámetros ajustables de cualquier teoría física. Hay que enfatizar que la paradoja de Seeliger y su propuesta solución no conllevaba una búsqueda de la forma o de las propiedades del Universo, no era un intento de construir una teoría cosmológica; simplemente sirvió como crítica a la visión newtoniana en la que se daba por supuesto que el espacio era infinito. Llegados a este punto, hacía falta una nueva teoría de la gravitación para pavimentar el camino hacia una nueva Cosmología con estatus de ciencia. Esto es precisamente lo que creó Einstein con su relatividad general, pero no con la intención de resolver los problemas mencionados, sino por razones de otrá ındole, de carácter primordialmente estético, de simetría y completitud. Claro está que si, de paso, se podían resolver la paradoja de Seeliger y la problemática de la inercia de Mach, miel sobre hojuelas. Especialmente este año sabemos que, en 1905, Einstein llevó a cabo una de sus más famosas revoluciones por medio de la teoría de la relatividad especial, en la que se mezclaron el espacio y el tiempo y se tendió un puente que enlazaba la electrodinámica con la mecánica, dando carácter absoluto al valor de la velocidad de la luz en el vacío y elevando el principio de relatividad entre sistemas de referencia inerciales a la categoría de axioma indiscutible. Las consecuencias de este avance fueron, son y serán trascendentales para toda la física... ¡Y también para las matemáticas! Para empezar a saborear las decisivas e ingentes contribuciones de los matemáticos al desarrollo de la relatividad y, a fortiori, de la cosmología, nos encontramos con la unión en unaúnica entidad -el espacio-tiempo-que realizó Hermann Minkowski (Alexotas [Kaunas], Rusia 1864 -Göttingen, Alemania 1909) en 1907. Este continuo espacio-tiempo seguía teniendo un carácter absoluto, e infinito, pero el espacio y el tiempo por separado dejaban de tener ese sentido y quedaban indisolublemente unidos para siempre (o eso creemos ahora). En sus propias palabras, de su más famosa cita: A partir de ahora, el espacio por sí solo, y el tiempo por sí mismo, se han desvanecido en meras sombras y solamente una especie de mezcla de los dos existe por derecho propio. Como se sabe, Minkowski propuso entender la relatividad especial y la electrodinámica desarrollada por Lorentz, Poincaré y Einstein utilizando un continuo espacio-temporal. Usando coordenadas cartesianas {x, y, z} para describir el espacio tridimensional y t para denotar el tiempo en un sistema de referencia inercial 1 , Minkowski propuso considerar un elemento de línea dado por ds 2 = −c 2 dt 2 + dx 2 + dy 2 + dz 2 ,(3) siendo c una constante que tiene el valor de la velocidad de la luz en un tal sistema de referencia y en el vacío. Como se sabe, este valor de c es una constante universal según la teoría relativista. El elemento de línea anterior mide el intervalo infinitesimal entre cualesquiera dos sucesos (dos puntos) con coordenadas (t, x, y, z) y (t + dt, x + dx, y + dy, z + dz). Como se ve, el intervalo "al cuadrado" ds 2 no es necesariamente positivo, debido al signo menos delante del primer término del miembro derecho de (3), y puede ser negativo o nulo. El primer caso corresponde a puntos separados temporalmente y mide el tiempo transcurrido (por ejemplo, entre Ud. mismo al leer esto y esto otro); el segundo caso corresponde a puntos separados de manera luminosa, o sea por un rayo de luz, de manera que ningún otro agente físico puede conectarlos (la velocidad de la luz es la máxima posible); finalmente, el caso tradicional donde el intervalo ds 2 es positivo corresponde a una separación espacial y mide la distancia tradicional entre dos puntos en el sistema de referencia dado. Una manera más matemática de decir lo mismo es que el marco de la relatividad especial es una variedad pseudo-riemanniana de tipo lorentziano, (IR 4 , g) cuyo campo tensorial métrico g adopta la forma g = diag(−1, 1, 1, 1) en la cobase natural {cdt, dx, dy, dz}. O mejor aún, el campo tensorial métrico es g = −c 2 dt ⊗ dt + dx ⊗ dx + dy ⊗ dy + dz ⊗ dz .(4) Así pues, el tiempo alcanza la misma categoría que el resto de coordenadas espaciales, pero con un status especial, el que le da el signo menos en la signatura de la métrica g, el signo menos en la forma diagonal de g. Obviamente, con una tal métrica, que no es definida positiva, existen vectores tangentes con módulo negativo, nulo o positivo, y a posteriori curvas diferenciables con vectores tangentes que pueden ser de estos tres tipos, llamadas temporales, luminosas y espaciales, respectivamente. LA IDEA CLAVE: EL PRINCIPIO DE EQUIVALENCIA Todo lo anterior permitía simplificar la matemática subyacente a la relatividad y a su primogenitora, la electrodinámica, de manera que la mecánica y el electromagnetismo tenían un nuevo y más potente lenguaje natural. Pero, ¿qué pasaba con la Gravitación? ¿Y dónde quedaban los sistemas de referencia no inerciales 2 ? ¿Como "ciudadanos" de segunda categoría? La respuesta reposo o en movimiento rectilíneo y uniforme; la realización material, o incluso la existencia real, de tales sistemas ideales sólo se puede conseguir o asegurar de forma aproximada. 2 Un sistema no inercial es cualquiera que esté acelerado con respecto a uno inercial, por ejemplo el de un tiovivo, o de un cohete en su lanzamiento, o el de un tren frenando, arrancando o dando una curva. completa a estas cuestiones básicas sólo alcanzaron la condición de verdadera teoría físico-matemática a finales de 1915, gracias, en particular, a la ayuda que Einstein recibió de su amigo y compañero de estudios, el matemático Marcel Grossmann (Budapest, Hungría 1878 -Zurich, Suiza 1936). De esto hablaremos brevemente en lo que sigue, pero antes de eso hay que resaltar que la intuición fundamental, el resultado esencial sobre el que posteriormente se construiría todo el edificio, el concepto básico detrás de la teoría de la Relatividad General,ésta la tuvo Einstein muy temprano: en 1907. Se llama el Principio de Equivalencia, y es una genial pero sencillísima idea que interpreta -o sea, traduce, explica el sentido de-la igualdad de las masas gravitatoria e inercial 3 (un hecho que Newton ya conocía), dotando de paso a los sistemas no inerciales de la misma respetabilidad que cualquier otro sistema, e incluyendo asimismo la gravitación dentro de una teoría relativista. En palabras del propio Einstein: "glücklichste Gedanke meines Lebens" ("la idea más lúcida de toda mi vida" -lo cual, tratándose de Albert Einstein, ¡es mucho!). El principio de equivalencia es un principio físico que se puede expresar como: cualquier sistema de referencia no inercial es localmente equivalente a un sistema inercial con un cierto campo de gravitación. Viceversa, todo campo gravitatorio puede hacerse desaparecer localmente escogiendo un sistema de referencia adecuado -por ejemplo, poniéndose en caída libre en la Tierra-. Este magnífico principio, comprobado experimentalmente a día de hoy hasta la saciedad, se basa en la propiedad fundamental de los campos de gravedad, ya comprobada por Galileo, de que todos los cuerpos libres adquieren la misma aceleración independientemente de su masa y constitución (en el vacío). Una propiedad que es obviamente cierta también en los sistemas acelerados. Es evidente que el principio de equivalencia estaba implícito en la mencionada igualdad de las masas gravitatoria e inercial, porque de la segunda ley de Newton y la fórmula (1) se deduce: m a = GM m r 2 r r =⇒ a = GM r 2 r r . Las masas inercial y gravitatoria se han cancelado a ambos lados de la ecuación debido a su igualdad, de donde finalmente se sigue que el campo vectorial de aceleración a es independiente de la masa m del cuerpo sometido a la fuerza de la gravedad creado por la masa M . Siendo esto conocido durante muchísimos años (desde mediados del siglo XVII), y a pesar de que grandes científicos avisaron de la relevancia y de la necesidad de explicar este hecho 4 , durante todo ese tiempo nadie supo extraer la información ni las consecuencias que dé el se derivaban hasta la llegada de Einstein y su enunciado del principio de equivalencia. Seguramente esta es la marca de los mayores genios frente a los, "simplemente", grandísimos científicos. LA GEOMETRIZACIÓN El principio de equivalencia lleva casi inexorablemente a la geometrización de la gravedad: dado que todos los cuerpos se mueven igual independientemente de su masa, podemos imaginar que de hecho siguen trayectorias determinadas por "la forma" del espacio, que simplemente van por los caminos menos esforzados de un espacio que no es plano. Esto es análogo a lo que sucede, por poner un ejemplo, cuando se quiere iróptimamente de un punto a otro de la superficie terrestre: para ello hay que seguir las geodésicas, que como se sabe son trozos de circunferencias de radio máximo. Hay que observar que esta geometrización no es posible para el electromagnetismo, porque el movimiento de las partículas cargadas sí que depende de su relación carga/masa. Diferentes cargas siguen por tanto diferentes caminos. Veamos ahora cómo puede usarse el principio de equivalencia para deducir, en primera aproximación, el marco matemático de la nueva teoría de la relatividad general. Supongamos que queremos describir el sistema de referencia de un tiovivo que se mueve con velocidad angular constante ω. Si suponemos que los caballitos giran con respecto a un sistema de referencia inercial tradicional cuyas coordenadas cartesianas son {t, x, y, z}, basta para ello con realizar el siguiente cambio elemental de coordenadas T = t, ρ = x 2 + y 2 , φ= arctan y x + ωt, Z = z, válido en un dominio adecuado. Entonces, el campo métrico (4) se transforma en g = −(c 2 − ω 2 ρ 2 )dT ⊗ dT − ωρ 2 (dT ⊗ dφ + dφ ⊗ dT ) + (5) +dρ ⊗ dρ + ρ 2 dφ ⊗ dφ + dZ ⊗ dZ, que mantiene signatura lorentziana correcta en c > ωρ. Como se ve, el campo tensorial g deja de ser diagonal, sus componentes ya no son constantes y, de mayor interés físico, el dominio de validez del sistema coordenado pasa a ser finito: de hecho, la región ωρ → c es un horizonte, un concepto de fundamental importancia en relatividad. Usando el principio de equivalencia, se sigue por lo tanto que este tipo de propiedades de g aparecerán en las regiones con un campo gravitatorio. En consecuencia, se postula que un campo gravitatorio vendrá determinado por un cierto campo tensorial g que es arbitrario excepto por dos requisitos fundamentales: que sea no degenerado, det g = 0, por lo que g no tiene radical lo que asegura la cuadridimensionalidad efectiva y real del espacio-tiempo; y que g tenga signatura lorentziana -o sea, hay un tiempo y tres dimensiones espaciales-. Claro está, para tratar de describir la física en un sistema no inercial tal como el anterior, o en un campo gravitatorio real, hace falta saber cómo se transforman las leyes de la física. Además, hay que incorporar en el marco matemático la idea de localidad, o en otras palabras, el hecho de que en un campo gravitatorio real se puedan anular sus efectos localmente. Para lo primero, que se ha venido en llamar "covariancia general", implicando que las leyes de la física se han de saber escribir en cualquier base (y sistema de coordenadas) hacía falta usar el cálculo tensorial, o diferencial absoluto, desarrollado por Christoffel, Ricci-Curbastro y Levi-Civita. Para lo segundo, era necesaria la teoría general de los espacios curvos de Riemann. En ambos aspectos la colaboración de Grossmann con Einstein fue vital, razón por la cual la comunidad relativista le sigue rindiendo homenaje actualmente mediante un congreso trianual que lleva su nombre. Pues bien, conjugando audazmente su principio de equivalencia, que llevaba a formas cuadráticas tales como (6), con las novedosas teorías matemáticas del genial Riemann sobre espacios curvos, Einstein alcanzó la maravillosa e inaudita conclusión de que la curvatura del espacio-tiempo era, pura y simplemente, el mismísimo campo gravitatorio. Dicho de otro modo, no hay fuerza de la gravedad, sino que simplemente las grandes masas deforman la geometría del espacio-tiempo y las partículas siguen las trayectorias extremales naturales de dicha geometría. Para ello necesitó la inestimable ayuda de su amigo Grossmann. El concepto básico en la teoría tenía que ser el campo tensorial métrico fundamental g que, aparte las restricciones mencionadas más arriba, era arbitrario y por lo tanto siempre se puede expresar como g = 3 a,b=0 g ab dx a ⊗ dx b ≡ g ab dx a ⊗ dx b en una cierta carta local {x a } de una variedad diferenciable cuadridimensional, donde g ab = g ba son funciones sobre la variedad. Hay que notar que la segunda manera de escribir esa fórmula, sin el sumatorio, en la que se usa el convenio de sumación de Einstein, nació naturalmente en estaépoca de desarrollo de la nueva teoría. Un espacio con un tensor métrico fundamental tiene asociados, automáticamente, unaúnica conexión canónica ∇ -la conexión denominada de Levi-Civita, que satisface ∇g = 0 y no tiene torsión-, y la correspondiente curvatura R: ∇ X ∇ Y − ∇ Y ∇ X − ∇ [ X, Y ] Z ≡ R( X, Y ) Z .(6) Aquélla define las trayectorias "geodésicas", que son a su vez extremales de la longitud L definida como L = λ f λ i |g( v, v)| dλ(7) para cualquier arco continuo de curva γ(λ) que una los puntos p = γ(λ i ) y q = γ(λ f ), sea diferenciable a trozos, y cuyo campo vectorial tangente en los trozos diferenciables es v -naturalmente, la integral se compone de la suma de los trozos diferenciables concatenados-. Estas geodésicas son las trayectorias que describen los cuerpos de prueba, o sea, los no sometidos a influencia externa alguna aparte de la gravedad. Y esto tanto si g describe un campo gravitatorio real como si es la manifestación de fuerzas no inerciales. Obsérvese que hay curvas tales que L = 0 (las curvas luminosas, por las que se mueve la radiación electromagnética como la luz), y que por ello es evidente que L no puede minimizarse para puntos con separación temporal 5 . En este caso L puede, no obstante, maximizarse -lo que lleva directamente a la famosa "paradoja" de los gemelos, que no es tal, claro está-. Por su parte, el tensor de curvatura R mide, a través de la famosa ecuación de los campos de Jacobi, o igualmente de la llamada identidad de Ricci (6), la aceleración o desviación relativa de geodésicas cercanas. De esta manera, si R = 0 no hay aceleración relativa, lo que sirve para describir sistemas no inerciales, mientras que si R = 0 sí que la hay y se tiene un modelo de un cierto campo gravitatorio real. Como se sabe, matemáticamente la condición R = 0 identifica el caso en que el espacio-tiempo es plano, o sea, sin curvatura, y un teorema fundamental de Riemann asegura que se pueden escoger localmente coordenadas cartesianas tales que g adopta la forma (4) si y sólo si R = 0. El anterior edificio matemático queda redondo si además notamos, como hizo Einstein, que a lo largo de cualquier curva se pueden escoger coordenadas tales que los símbolos de Christoffel de la conexión se anulan, o sea, de tal forma que las geodésicas parecen ser, localmente, rectas. Esto es una versión matemática del principio de equivalencia local. Del principio de equivalencia y la geometrización de la gravitación, que pasa a ser la curvatura del espacio-tiempo, se pueden deducir, directamente, algunos de los resultados más sorprendentes predichos por Einstein, tales como el cambio de la frecuencia de la luz al subir/bajar por la vertical (y en general el efecto Doppler gravitatorio) -véase (18) más adelante-, la desviación de la luz al pasar rasante al Sol, y en general la influencia del campo gravitatorio sobre la luz y sus trayectorias. Todo esto lo dedujo Einstein en los años 1907-13. LAS ECUACIONES DE CAMPO DE EINSTEIN Quedaba por resolver, empero, el problema más dificil. La fórmula (1) perderá su validez excepto como caso límite, ya que las fuerzas gravitatorias se han desvanecido y sólo queda la pura geometría. De forma similar, la ecuación de Poisson ∆Φ = 4πG ,(8) siendo ∆ el operador laplaciano, que permite determinar el potencial gravitatorio 6 Φ dada la densidad de masa de la distribución material que crea 5 Una cuestión que suele sorprender al profesional de las matemáticas no avisado es que una variedad lorentziana no es un espacio métrico en el sentido clásico, ya que no se puede definir una noción de distancia clásica. Por ello el clásico teorema de Hopf-Rinow no es válido, y de ahí que pueda haber muchos espacio-tiempos geodésicamente incompletos. 6 El potencial Φ contiene la información de la energía por unidad de masa de un campo gravitatorio newtoniano, y la fuerza por unidad de masa correspondiente se obtiene mediante f = −grad Φ. el campo, también queda en suspenso: ha de ser generalizada, a la vez que recuperada en un caso límite. Ahora bien, ¿cómo sustituir (1) y (8)? ¿Cómo cuantificar la curvatura del espacio-tiempo, la deformación producida por una distribución de masas? ¿Cómo determinar el tensor métrico g en casos concretos de interés físico? Einstein no supo resolver este problema durante años y, de hecho, propuso diversas ecuaciones para la nueva teoría. En un realmente ajetreado mes de Noviembre de 1915, en el que semanalmente presentó nuevas propuestas para las ecuaciones, finalmente se convenció de cuáles eran las correctas y las presentó el día 25. Se cree que este esfuerzo contribuyó a un deterioro gravísimo de su salud que por poco le hizo fenecer en 1917. Para encontrar las ecuaciones de Einstein, que así es como se conocen desde entonces, el genio tuvo que relacionar ideas deíndole diversa y usar una profunda intuición junto con el conocimiento que había adquirido de la geometría riemanniana. Dado que la teoría era relativista, la generalización de (8) debía contener también la constante fundamental c. Por otro lado, la relatividad especial había unificado la masa y la energía, y tambiénésta con la cantidad de movimiento en un 4-vector momento. Por ello, no sólo la densidad de masa sino todas las densidades de energía y momento debían aparecer como fuentes del campo gravitatorio. O sea, a la derecha de las ecuaciones. ¿Qué poner a la izquierda? Para descifrar este misterio se podía usar como inspiración el campo métrico válido en la aproximación newtoniana, que Einstein ya creía conocer basándose en su principio de equivalencia. Este campo g se puede escribir, en un sistema inercial tradicional, como g = −(c 2 − 2Φ) dt ⊗ dt + dx ⊗ dx + dy ⊗ dy + dz ⊗ dz(9) por lo que se intuye que las funciones g ab serán, en general, las que sustituyan al potencial Φ (por ello se denomina a veces potenciales a las g ab ). Obsérvese que la generalización no es baladí . . . , se pasa ¡de una a diez funciones! Se sigue de ello que las derivadas primeras (los símbolos de Christoffel de la conexión ∇) son análogos a las fuerzas gravitatorias de Newton, lo que concuerda con la expresión en coordenadas de la ecuación de las geodésicas. Y teniendo en cuenta que la relación (8) es lineal y contiene las derivadas segundas de Φ, se espera por lo tanto que las buscadas ecuaciones tengan en el miembro izquierdo algo que contenga las derivadas segundas de las g ab , a ser posible que sea lineal en ellas. ¿Qué puede ser ese algo? Para empezar, es necesario que esté matemáticamente bien definido, o sea, que sea un objeto con carácter tensorial para poder considerarlo sin problemas en bases arbitrarias. Una posibilidad sería poner un campo vectorial proveniente de las derivadas segundas de g, para igualarlo a la densidad de 4-momento de la distribución material y energética. No obstante, no era posible construir un campo vectorial de las citadas características. Eĺ unico objeto tensorial que se puede fabricar con las derivadas segundas de g, lineal enéstas, es ni más ni menos que R. Pero el tensor de curvatura es demasiado complicado, y tiene un excesivo número de componentes independientes (20 en dimensión 4). A lo mejor que se podía aspirar, por lo tanto, era a usar una traza de R. La traza natural es el conocido tensor de Ricci Ric ≡ trR, o usando notación deíndices R ab ≡ R c acb , donde R a bcd representa el tensor de Riemann asociado a la curvatura R. Ric es un campo tensorial 2-covariante simétrico. A primera vista se puede pensar en igualar Ric al tensor energía-momento de la materia T , que es del mismo tipo y ya se conocía bien a partir de los trabajos sobre el campo electromagnético y también de los estudios en dinámica de fluidos. No obstante, la relación Ric ∝ T tenía graves problemas, uno de ellos es que no se deduce el límite newtoniano correcto, o sea, no conduce a (8) usando (9). Otro grave problema es que estas ecuaciones no incorporan las necesarias relaciones de conservación de la energía y el momento de la materia, que se pueden expresar como ∇ · T = 0,(10) donde ∇· denota la divergencia. Hay que subrayar, para ser fieles a la verdad, que Einstein no usó esta propiedad y no la mencionó en sus trabajos hasta después de haber encontrado las ecuaciones correctas. Finalmente, las ecuaciones que propuso, y que excepto por lo que se dirá en la próxima sección siguen hoy plenamente vigentes, fueron Ric − trRic 2 g = 8πG c 4 T ,(11) donde trRic denota la traza respecto de g de Ric, o sea, la curvatura escalar. El miembro izquierdo de (11) es un campo tensorial 2-covariante simétrico que se denomina tensor de Einstein y en virtud de las identidades de Bianchi para la curvatura satisface idénticamente la propiedad ∇· Ric − trRic 2 g = 0, recuperando así de manera manifiesta la ley (10) en toda situación posible. Como se aprecia, las ecuaciones de Einstein relacionan las propiedades métricas del espacio-tiempo junto con su deformación en términos de la curvatura con la cantidad y distribución energético-material que crea esa deformación. La fórmula (11) representa un sistema de diez ecuaciones diferenciales en derivadas parciales no lineales y acopladas de segundo orden, por lo que son matemáticamente muy complicadas. Desde un punto de vista físico no se conocía nada igual, ya que las fuentes crean un campo gravitatorio que es una deformación de la geometría subyacente, pero la propia materia se tiene que mover según dicta dicha geometría, y este movimiento afecta a la geometría de nuevo que a su vez modifica la dinámica de las fuentes..., y así sucesivamente en un baile sin fin de la pescadilla que quiere morderse la cola. El año 1916 se publicó el artículo fundacional de la Relatividad General. Se había dado así un paso de gigante en la física, que fue además fundamental para el nacimiento de la Cosmología en una doble vertiente: por disponer de una nueva teoría de la gravedad, y porqueésta relacionaba la materia con la geometría del espacio y del tiempo. Tales herramientas en manos del genio de Einstein eran las piezas de una "bomba de relojería", valga la expresión, por lo que la eclosión de una ciencia del cosmos era inevitable. Además, la ciencia contó en este caso con un gran catalizador e instigador, Wilhem de Sitter, astrónomo holandés que discutió con Einstein en 1916 acerca de la nueva teoría y de la posibilidad de que la inercia tuviera un origen totalmente materialuna idea machiana como ya se ha mencionado-, lo que parecía requerir un Universo finito. Por cierto que de paso esto parecía arreglar la paradoja de Seeliger. Estas discusiones influyeron en Einstein decisivamente, de manera que en 1917 publicó el articulo fundacional de la Cosmologia teórica, titulado Kosmologische Betrachtungen zur allgemeinen Relativitätstheorie [1]. En esta contribución fundamental se presentaba un modelo de Universo conocido hoy día como el universo estático de Einstein. En laépoca que nos ocupa, la mayoría pensaba que el Universo era estático y consistía en la Vía Láctea y si acaso vacío más allá. Esta creencia es fácil de entender, de aceptar como sensata y basada en las observaciones, si pensamos por un lado que -a pesar de la premonitoria idea kantiana de los universos isla-las galaxias como tales no se habían descubierto todavía, y por otro que los movimientos estelares visibles son claramente periódicos y debidos a la rotación de la Tierra sobre sí misma y en torno al Sol: nadie había pensado en movimientos radiales, de alejamiento, ni era lógico ni fácil buscarlos. Einstein quiso modelizar el Universo entero y para ello supuso que, en buena aproximación, todas las estrellas tenían velocidades despreciables respecto de un sistema de referencia adecuado de manera que la distribución material se podía considerar, a parte de estática, espacialmente homogénea e isótropa. Las razones para esta hipótesis eran parcialmente observacionales, pero tampoco parece muy arriesgado aventurar que las ideas de simplicidad, sencillez, democracia y erradicación de privilegios inspiraron al genio una vez más. Con ello dio lugar a un nuevo principio de "humildad": no ocupamos un lugar especial en el Universo. Y como en tantas otras ocasiones, este paso de modestia desencadenó un salto adelante gigantesco. La estaticidad y este principio le condujeron a un campo métrico del tipo g = −c 2 dt ⊗ dt + 3 g donde 3 g es el tensor métrico tridimensional de cualquier espacio homogéneo e isótropo, o en matemáticas palabras, un espacio máximamente simétrico. Aludiendo aquí a las ideas machianas que tanto le inspiraron, y tratando de evitar la desagradable tarea de decidir cuales debían ser las condiciones de contorno adecuadas para todo el Universo, Einstein consideró que el espacio debía ser finito pero ilimitado. Lo cual conduce a que 3 g sea el tensor métrico natural de una 3-esfera (o sea, el 3 g heredado por una esfera tridimensional inmersa de manera natural en IR 4 ). Naturalmente, una tal 3-esfera tiene un volumen finito, no hay límites, y todos sus puntos son equivalentes. Y esta simple idea fue otro golpe de intuición sin igual, una drástica revolución en la física y unéxito de las matemáticas aplicadas. Es el primer caso de la historia -de la física, o sea del mundo real-en que se cambia la topología del espacio. En lenguaje matemático esto equivale a decir que se ha cambiado la variedad subyacente. Así, el espacio-tiempo es la variedad IR × S 3 con campo métrico g = −c 2 dt ⊗ dt + a 2 dχ ⊗ dχ + sin 2 χ dθ ⊗ dθ + sin 2 θ dφ ⊗ dφ(12) en una carta local clásica donde a es una constante que representa el radio de curvatura de la 3-esfera de forma que su volumen total es 2π 2 a 3 . Surgió entonces un problema inesperado y aparentemente irresoluble que puso a prueba el inigualable coraje de Einstein. Resulta que las ecuaciones de campo (11) no admiten ninguna solución estática a la vez que espacialmente homogénea e isotrópa. Einstein no se arredró, desechó la idea de abandonar la isotropía y homogeneidad del espacio universal a gran escala (¡qué sabiduría!), y ni siquiera tomó en consideración la posibilidad de renunciar a un mundo estático 7 . Desapasionadamente, Einstein decidió que no había problema, el fin justifica el camino, y pensó: "simplemente", ¡cambiemos las ecuaciones! Después de años detrás de las ecuaciones (11), y cuando ya todo parecía cuadrar, decidió desdecirse, y ello aunque hubiera de corregirse a sí mismo en la meta que más le había costado conseguir y que casi le privó de una buena salud. Y así fue cómo las ecuaciones (11), que tantos esfuerzos le ocasionaron, fueron modificadas con tal de acomodar una solución cosmológica estática y uniforme. Las ecuaciones modificadas toman la forma Ric − trRic 2 g + Λg = 8πG c 4 T(13) donde el nuevo sumando Λg se denomina "término cosmológico" y la nueva constante Λ se llama "constante cosmológica". Obviamente, la condición de nula divergencia para el término de la izquierda sigue siendo válida ∇· Ric − trRic 2 g + Λg = 0 por lo que la ecuación fundamental de conservación (10) se mantiene plenamente. Ahora se sabe que, de hecho, el lado izquierdo de la relación (13) es el más general posible compatible con esta conservación junto con su tensorialidad y la linealidad en las derivadas segundas de g. Para apreciar mejor la radicalidad de la introducción de Λ, notemos que con el nuevo término cosmológico la atracción gravitatoria en el límite de bajas velocidades, o sea en el límite newtoniano, se puede describir aproximadamente con la siguente modificación de la fórmula (1) F = GM m r 2 − Λ 3 mc 2 r r r(14) donde constatamos que, para distancias cortas, se recupera la ley de Newton; pero para largas distancias domina el segundo sumando que es repulsivo (si Λ es positiva). Esto de hecho impone estrictos límites experimentales en los valores de una Λ que sea constante universal si se quiere recuperar la astronomía planetaria del sistema solar. En el artículo en consideración se presentó una solución de las nuevas ecuaciones (13) verificando las hipótesis adoptadas. Curiosamente, la resolución de las ecuaciones (13) para el campo (12) cerraba el círculo de manera elegante, redondeaba la tarea cuantificando la relación entre la cantidad de materia y la forma del Universo mediante la fórmula exacta Λ = 1 a 2 = 4πG c 2(15) siendo la densidad de masa del cosmos -que es constante en este el primer modelo del mismo-para una materia enrarecida que no siente presiones ni tensiones ni contiene flujos de energías: T = c 4 dt ⊗ dt .(16) La expresión (15) implica que para universos pequeños la densidad ha de ser grande y, viceversa, si la 3-esfera es muy grande la densidad de masa es muy reducida. Finalmente, Einstein analizó la cuestión de si la inercia de las partículas de prueba puede ser una manifestación de la influencia de todo el Universo, y llegó a la conclusión de que, en este modelo, la inercia está influida, pero no determinada completamente, por la materia universal. Estas conclusiones son dudosas y actualmente es inusual perseguir las ideas machianas en el marco de la relatividad general. De hecho, Einstein fue perdiendo poco a poco interés en estas ideas hasta rechazarlas totalmente en 1954 [2]. Resumiendo lo que se ha escrito en esta sección, podemos recopilar en la tabla siguiente las ideas germinales, atrevidas y geniales que Einstein presentó de forma natural en su artículo, erigiendo una instigadora lista que irremediablemente cautiva. El Universo como objeto de la física. Por tanto, nacimiento de la ciencia de la Cosmología teórica. Homogeneidad e isotropía espacial. Esta idea se conoce ahora como el Principio Cosmológico. En boga actualmente y con amplio apoyo observacional. Es la base de los modelos cosmológicos corrientes. Estudio de la 'forma' del Universo. Cambio de la topología del espacio por primera vez en la historia. Esto es un ejercicio habitual en la ciencia actual. Propuesta de un espacio finito e ilimitado. Esta posibilidad sigue abierta. Parece ser cierta si el Universo es 'cerrado'-ver sección 6. Relación precisa entre la geometría del Universo y su distribución material. Naturalmente, esto es una consecuencia directa de la relatividad general. Por ello, continúa (y continuará) vigente adecuadamente modificada. Corrección de sus ecuaciones originales; introducción del término cosmológico. Ahora hay muchas razones para creer que Λ no es nula. Gran controversia actual. Búsqueda de una explicación científica de la inercia. Obsoleta. Willem de Sitter se había licenciado en matemáticas en Groningen, por lo que tuvo una buena formación en esta rama de la ciencia a pesar de que se doctoró y destacó como astrónomo, siéndole concedida la medalla Bruce en 1931. Su sapiencia matemática le permitió comprender y usar sin mayores problemas las herramientas de geometría subyacentes a la relatividad general, de manera que en los artículos mencionados presentó y discutió una solución de las ecuaciones modificadas (13) que representa un modelo totalmente vacío, o sea, tal que el miembro derecho de (13) se anula, lo que significa ni más ni menos que no hay ningún tipo de materia 8 . El campo tensorial métrico de la solución de de Sitter es g = −c 2 cos 2 χ dt ⊗ dt + a 2 dχ ⊗ dχ + sin 2 χ dθ ⊗ dθ + sin 2 θ dφ ⊗ dφ (17) por lo que parece compartir la variedad subyacente, y la 3-esfera espacial, con (12). No obstante, hay que resaltar que ahora el rango permitido de valores de χ no es el habitual (evitando las singularidades en los polos 0 < χ < π), porque para χ → π/2 aparece una singularidad en g, que deviene un tensor métrico degenerado con radical no vacío. Esta propiedad indica la existencia de un horizonte, un concepto de la máxima importancia en relatividad y que desafortunadamente no podemos analizar aquí ni medianamente. Baste decir, para los lectores con aficiones físicas, que el tipo de comportamiento que aparece en χ → π/2 es análogo al visto en (6) para ωρ → c, el cual es intuitivamente más asequible. En realidad, es muy sencillo comprobar que (17) es (parte de) un espacio-tiempo -es decir como variedad cuadridimensional-máximamente simétrico y por ello de curvatura constante (positiva). Es fácil entonces encontrar cambios de coordenadas que extienden (17) a todo el espacio-tiempo global con curvatura constante y positiva -véase ( 5.4 ) más abajo-, lo que es análogo al cambio que extiende (6) a todo el espacio-tiempo plano de Minkowski (4). En todo caso, calculando la curvatura de (17) se puede llegar rápidamente a la conclusión de que este campo métrico es una solución de (13) con CONTRIBUCIÓN T = 0, Λ = 3 a 2 de donde se deduce que no hay materia en este segundo universo estático. Esta indeseada propiedad cambió radicalmente el comienzo incipiente de la Cosmología, ya que prueba que las partículas de prueba, que se mueven por las geodésicas temporales de (17), experimentan una inercia que, habida cuenta de que el Universo está vacío, no puede ser machiana, sino que parece ser relativa al espacio. Un resultado que hizo desmoronarse el esquema einsteinano sobre el cosmos, la inercia, el principio de Mach y les ecuaciones modificadas (13). Seguramente en este preciso momento empezó a arrepentirse de haber cambiado sus ecuaciones originales (11)... De mayor relevancia aún para lo que nos ocupa es otra inesperada propiedad de la solución (17): imaginemos una partícula cualquiera en reposo en un punto arbitrario del espacio (χ,θ,φ). Si calculamos L para esta curva del espacio-tiempo entre dos valores de t, según la fórmula (7) obtenemos L 12 c = (t 2 − t 1 ) cosχ lo que da el tiempo propio transcurrido para estas partículas entre t 1 y t 2 . Como se ve, este tiempo propio depende de la posición de la partícula. Por ello, dos personas distintas viviendo en este universo ven que sus relojes marchan a un ritmo diferente según la posición que ocupen en (el trozo de) la 3-esfera. Naturalmente, esto se puede medir, por ejemplo emitiendo uno onda electromagnética (un rayo de luz) con frecuencia fija desde un cierto punto y recibiéndola en otro. Al cambiar la medida del tiempo con χ, la onda recibida tiene una frecuencia distinta de la de la onda emitida. Esto se mide mediante el parámetro z de desplazamiento ("shift" en inglés) 1 + z ≡ ν e ν r = λ r λ e siendo ν la frecuencia y λ la correspondiente longitud de onda para el emisor (e) y el receptor (r). No hay que olvidar que este tipo de efecto había sido calculado ya por Einstein mucho antes usando la aproximación newtoniana (9), de donde se sigue fácilmente El siguiente paso esencial, que además portaría al poco tiempo a la síntesis definitiva, fue llevado a cabo en 1922 por el matemático ruso Aleksandr Aleksandrovich Friedman (también se usa a menudo Friedmann, germanización de la transcripción directa del ruso cirílico original 'Fridman'), quien en un artículo de relevancia histórica tituladoÜber der Krümmung des Raumes [4] presentó una nueva familia de soluciones de las ecuaciones (13) de acuerdo con el principio cosmológico, es decir, para distribuciones materiales espacialmente homogéneas e isótropas. La historia de este artículo es ejemplar desde el punto de vista de la relación entre las matemáticas y la física, y tiene una moraleja de hondo calado para los profesionales de aquélla: la segunda avanza muchas veces gracias a las aportaciones originalísimas de los matemáticos. 1 + z = c 2 − Φ e c 2 − Φ r =⇒ z ≈ 1 2c 2 (Φ e − Φ r ) ,(18) El planteamiento de Friedman no puede ser más lógico y natural para un matemático. Se trata de encontrar la familia de soluciones de las ecuaciones (13) que cumplen ciertas hipótesis (un espacio de curvatura constante positiva, materia sin presión ni flujos) deduciendo de paso las soluciones conocidas de Einstein y de Sitter e identificándolas como las que satisfagan alguna propiedad dentro de la familia general, si es queésta existe (en otro caso, se probaría la unicidad de las dos soluciones mencionadas). Por otro lado, el planteamiento de Friedman no podía sonar más descabellado a cualquier físico razonable de laépoca, ya que permitió que la curvatura constante del espacio dependiera del tiempo, en flagrante contradicción con el dogma vigente: el Universo era estático. En fin, el caso es que Friedman probó que con esas hipótesis el tensor métrico debía adoptar necesariamente la forma g = −M 2 dt ⊗ dt + a 2 (t) dχ ⊗ dχ + sin 2 χ dθ ⊗ dθ + sin 2 θ dφ ⊗ dφ(19) donde M es una función cualquiera en IR × S 3 y ahora a(t) depende de t. Y demostró entonces que las ecuaciones (13) se satisfacen para un tensor T del tipo (16) solamente siȧ dM = 0, donde un punto indica derivada respecto de ct, lo que lleva a dos posibles situaciones. 1. a es constante. Entonces el resto de las ecuaciones conducen irremediablemente a una de las dos soluciones conocidas (12) o (17). De este modo las soluciones conocidas quedan definitivamente caracterizadas como las que son estáticas dentro de la familia general. 2.ȧ = 0. En este caso se sigue que M ha de ser constante y siempre se puede escoger M = c. En este segundo caso el conjunto completo de ecuaciones de Einstein conducen a 8πG c 2 + Λ = 3 a 2 (ȧ 2 + 1), Λ = 2ä a + 1 a 2 (ȧ 2 + 1) lo que proporciona una relación precisa entre la evolución de las propiedades geométricas del espacio-tiempo y las variables de la materia. La segunda de estas ecuaciones tiene una integral primera inmediata a(ȧ 2 + 1) = A + Λ 3 a 3 para una constante A, lo que permite resolver para a(t) siquiera implícitamente en términos de integrales elípticas. La otra ecuación da entonces la forma explícita de la densidad de masa = 3c 2 8πG A a 3 . Nótese que la constante cosmológica queda libre, como un parámetro, y que por lo tanto es innecesaria: existe una solución de Friedman para las ecuaciones originales (11). Las soluciones de Friedman estaban en expansión o contracción dependiendo del signo deȧ. En todo caso eran dinámicas, lo que conllevaba un parámetro de desplazamiento z no nulo. Pero el análisis de las soluciones para a(t) llevaba a la conclusión de que en una mayoría de casos (para Λ < 4πG /c 2 ) era inevitable que a → 0 para un valor de t finito, en el "futuro" siȧ < 0, o en el pasado en el otro caso. Matemáticamente esto es una singularidad catastrófica, ya que el campo tensorial métrico pasa a tener un radical tridimensional (el espacio) y la curvatura R diverge. Físicamente esto es peor que una catástrofe, ¡es el fin del mundo!-casi literalmente. El espacio desaparece y la densidad de masa se hace infinita. Friedman hablaba en su artículo del "tiempo de creación" para designar el valor de t desde a → 0 hasta el instante actual siȧ > 0. Si aquello de permitir que el Universo fuera dinámico ya era malo, la catástrofe anterior era el colmo, no sólo inaudita, sino que a cualquier científico de laépoca le debió parecer una extravagancia inaceptable. La reacción de Einstein fue inmediata, fulminante y, claro está, negativa. De hecho, las hipótesis y las consecuencias de los modelos de Friedman eran tan descabelladas que Einstein publicó casi instantáneamente una réplica [5] asegurando que tales modelos no eran soluciones de (13): "Los resultados acerca de un mundo no estacionario [...] me parecen sospechosos. En realidad, resulta que la solución dada no satisface las ecuaciones de campo" [5]. Claro está, en este caso erró de plano. Al cabo de poco, Friedman logró convencerle, epistolarmente, de que sus cálculos eran correctos. La historia tiene su miga, porque La carta llegó a Berlin cuando Einstein ya no estaba allá, y adonde no volvería hasta el 15 de Marzo de 1923. ¿Dónde estaba? De gira por Japón, Palestina, y finalmente degustando caldos y viandas sin igual en... ¡España! [6]. Ni siquiera a su vuelta se percató o tuvo tiempo de leer la misiva de Friedman, de la que parece tuvo conocimiento cuando un colega deéste llamado Krutkov alertó a Einstein, en Mayo de ese año, acerca de ella y su contenido. Sólo entonces admitió Einstein su error y rápidamente lo corrigió en una nueva nota [7,8]: "En mi nota previa criticaba [4]. Sin embargo, mi crítica, como me ha convencido la carta de Friedman que me trasladó el Sr. Krutkov, se basaba en un error de mis cálculos. Creo que los resultados del Sr. Friedman son correctos e iluminadores . . . " de la que sólo en elúltimo momento (¿buena educación?, ¿intuición?) eliminó una frase donde literalmente decía que los resultados de Friedman eran matemáticamente correctos, pero físicamente irrelevantes [8]. Einstein simplemente no podía imaginarse la posibilidad de que el Universo no fuera estacionario. Ahora podemos decir queél y el resto de científicos estaban obsesionados -eso sí, basándose en observaciones-con la estacionariedad del cosmos. No había pruebas, ni siquiera indicios, de que el Universo sufriera una evolución dinámica. La predicción teórica de la expansión universal quedó así, desafortunadamente, frustrada de nuevo. En resumidas cuentas, Friedman recogió todas las ideas geniales de Einstein (y de Sitter) pero descartando, o al menos abriendo la posibilidad de descartar, la inmutabilidad del cosmos. Me gustaría resaltar solemnemente que los matemáticos tienen en ocasiones, muchas más veces de lo que podamos pensar, esta gran ventaja: su falta de "prejuicios físicos" les permiten descrubrir resultados que están vedados a los mejores físicos. Esta es la moraleja. Sospecho, por otro lado, que la falta de "prejuicios matemáticos" de estoś ultimos ha permitido devolver el favor con creces. A.A. Fridman Aunque pueda parecer que los prejuicios sobre la estacionariedad del cosmos eran razonables -que lo eran-y que por lo tanto la historia siguió un curso hasta cierto punto lógico, hay que señalar, mal que le pese al autor de estas líneas, que en este caso concreto los físicos teóricos no estuvieron a la altura de las circunstancias. Digo esto porque cualquier físico medianamente formado, no digamos ya el genial Einstein, se debería haber percatado inmediatamente, al verse confrontado con las soluciones de Friedman, de que el universo estático de Einstein es inestable: cualquier mínima perturbación conduciría a una situación dinámica, a su colapso irremediable. De hecho, este fue uno de los argumentos posteriores de Lemaître y Eddington -véase más abajo-. Pero ya se sabe, así se escribe la historia. UN PARÉNTESIS ASTRONÓMICO: LAS OBSERVACIONES A pesar de que puede ser de menor interés para un matemático, necesitamos ahora un breve paréntesis sobre la revolución que tuvo lugar, en paralelo, acerca de las dimensiones y constitución del Universo en el periodo 1915-30. Esto es así porque fueron las observaciones astronómicas las que destruyeron final y definitivamente el prejuicio de la inmutabilidad del Universo. El final feliz de esta historia llegó cuando los desarrollos teóricos que se han ido relatando se vieron complementados por la experimentación, que como se sabe siempre tiene laúltima palabra en la ciencia. La estructura del Universo, la distribución de la materia, y la distancia de los objetos cósmicos eran cuestiones de grandísima controversia en esaépoca. El momentoálgido ocurrió el 26 de abril de 1920 con el renombrado "Gran debate de la Astronomía", que tuvo como principales protagonistas a Heber Doust Curtis y Harlow Shapley. Se discutieron muchos temas en ese debate que se tituló The Scale of the Universe, nos interesa ahora su parte más conocida referente a los divergentes puntos de vista sobre la existencia de nebulosas espirales extra-galácticas -¡los universos-isla de Kant!-. Se pueden consultar fuentes más precisas en [9], pero en pocas palabras Curtis estaba a favor de su existencia, mientras que Shapley defendía lo contrario 9 . La resolución del debate se produjo con las aportaciones trascendentales del gran Edwin Powell Hubble en uno de los momentos clave de la historia de la ciencia. Usando el histórico telescopio Hooker del observatorio del Monte Wilson (California, EE UU) en los años 1923-24, Hubble descubrió estrellas cefeidas en los brazos espirales de la "nebulosa" M31 (Andrómeda), demostrando con ello que la distancia a M31 era mucho mayor que las estimaciones más optimistas del diámetro de la Vía Láctea. Por consiguiente, M31 estaba fuera deésta, y era de hecho otra galaxia como la propia Vía Láctea. Esto mismo lo corroboró con las nebulosas M33 y NGC 6822, todas ellas miembros de nuestro grupo local de galaxias. Hubble estimó la distancia a M31 en 900000 años-luz (la distancia aceptada hoy en día es de aproximadamente 2,9 millones de añosluz), lo cual engrandecía el Universo conocido de manera insospechada, radical y explosiva. Hubble también merece el crédito de haber medido el sistemático desplazamiento al rojo de los espectros recibidos de las nebulosas (hoy galaxias), y de la ley que lleva su nombre. El primer astrónomo que midió tales comportamientos fue, en realidad, Vesto Melvin Slipher, quien durante los años 1913-25 analizó los espectros de muchas nebulosas descubriendo una clara preferencia por el desplazamiento hacia el rojo: 11 nebulosas de 15 en 1915 [10], y una razón de 21 a 4 (rojo versus azul) en 1917 [11]. En este artículo Slipher defendió que, teniendo en cuenta que nosotros teníamos un movimiento respecto de las nebulosas 10 , pero no respecto de las estrellas, las observaciones favorecían la idea de que las nebulosas espirales eran sistemas estelares a grandes distancias. Esto años antes de que Hubble descubriera las cefeidas en Andrómeda. Dejando esto a un lado, Hubble sí que descubrió la relación existente entre el desplazamiento hacia el rojo y la distancia a las nebulosas/galaxias. Esta relación es aproximadamente lineal z ≈ H 0 c D (ley de Hubble)(20) siendo D la distancia al emisor, de manera que cuanto más lejana esté una galaxia, mayor es su velocidad de recesión. La constante H 0 se denomina constante de Hubble y tiene un valor controvertido que en el momento de escribir estas líneas parece ser H 0 70 ± 5 Km/s Mpc = (13 ± 1) × 10 9 años −1 . Esta es la base experimental de la expansión del Universo, por ello se considera uno de los cimientos de la Cosmología moderna, y es seguramente uno de los descubrimientos más inesperados y sorprendentes de la historia de la ciencia. DE NUEVO LOS MATEMÁTICOS: LANCZOS Y WEYL Dos matemáticos ilustrísimos hicieron aportaciones de relevancia al tema de la expansión del Universo, el desplazamiento al rojo, y los modelos de Friedman y de Sitter. Primero, fue Cornelius Lanczos 11 quien en 1922 [12] escribió la solución de de Sitter -con más precisión habría que decir una extensión métrica de esa solución-en forma de modelo de Friedman. Seguidamente, dedujo la expresión para el desplazamiento al rojo en este modelo dinámico [13]. Algo parecido hizo independientemente Hermann Weyl en otro magnífico artículo [14]. Quizásésta sea la primera discusión en profundidad de las fórmulas para el desplazamiento al rojo en modelos cosmológicos relativistas, y la fórmula obtenida se reduce, para velocidades pequeñas, a la expresión (20) que posteriormente vendría en llamarse ley de Hubble. Hay que señalar además que, entre otras muchas contribuciones a la geometría riemanniana y la relatividad -como por ejemplo el tensor de curvatura conforme-, Weyl dio la primera versión rigurosa del Principio Cosmológico pero desde el punto de vista de un conjunto de observadores, o sea, de una congruencia diferenciable de curvas temporales en la variedad. O dicho sucintamente, usando un campo vectorial temporal. La inspiración vino al tratar de reconciliar una teoría covariante general (tensorial) como la relatividad general con la posibilidad de describir unúnico y particular conjunto de fenómenos físicos, el Universo. La solución fue la caracterización de un sistema de referencia, un campo vectorial temporal cuyas curvas integrales describen el movimiento medio de la materia cósmica en el Universo. Las velocidades peculiares de objetos concretos tales como galaxias pueden medirse, y despreciarse en magnitud, respecto al sistema dado. La noción de espacio homogéneo e isotrópo es entonces simplemente el hecho de que las hipersuperficies ortogonales al campo vectorial -cuya existencia se supone-tienen dicha propiedad. Bello y matemáticamente simple. H. Weyl (izquierda) y C. Lanczos. Con notación y visión matemáticas actuales, la cuestión es que el espaciotiempo de de Sitter (17) es de curvatura constante positiva por lo que de hecho se puede dar en su forma canónica de Riemann, u otras. Es evidente, por otro lado, que la forma (17) no cubre toda la variedad IR×S 3 . Una forma adecuada del espacio-tiempo de curvatura constante positiva es la siguiente g = −c 2 dt ⊗ dt + a 2 cosh 2 (ct/a) dχ ⊗ dχ + sin 2χ dθ ⊗ dθ + sin 2 θ dφ ⊗ dφ que se puede obtener a partir de (17) proporcionando de hecho una extensión máxima de (17). Como se aprecia, esta forma del espacio-tiempo de de Sitter es un caso particular también de los modelos de Friedman (19), donde a(t) = a cosh(ct/a). En esta forma no estática del campo métrico la explicación dada en la sección 5.1 de la aparición del corrimiento al rojo no se aplica, ya que ahora la componente gtt es constante. Desde un punto de vista físico esto es una manifestación de cambio de sistema de observadores fundamentales, o en breve, de sistema de referencia, ya que se ha pasado de un campo vectorial temporal que respeta el Principio Cosmológico, a otro campo vectorial que también lo hace 12 . La explicación y fórmulas dadas por Weyl para z son, esencialmente, las que se presentan en la sección 6 para los modelos corrientes en general. 5.5 LA SÍNTESIS DE LEMAÎTRE: LA CIENCIA DE LA COSMOLOGÍA La síntesis definitiva que hizo encajar todas las piezas del puzzle cosmológico, combinando espléndidamente los resultados experimentales de Hubble con los modelos de Friedman, vino de la mano de George Lemaître. En un artículo esencial [15], cuyo título era meridianamente claro, certero y toda una declaración de intenciones: Un universe homogène de masse constante et de rayon croissant, rendant compte de la vittese radiale des nébuleuses extragalactiques Lemaître mejoró y generalizó los modelos de Friedman para el caso de un fluido perfecto, o sea tal que el tensor energía-momento se puede escribir como T = c 4 dt ⊗ dt + p 3 g ,(21) donde p es la presión. El autor además hizo estimaciones del tamaño del Universo, y de su expansión, y estudió estos modelos en el contexto de las observaciones cosmológicas, dando una explicación teórica a los desplazamientos al rojo observados por Slipher y Hubble. De nuevo los entresijos de este episodio y su posterior influencia no tienen desperdicio pedagógico. Todavía en 1927, y a pesar de los trabajos de Friedman, Lemaître, Lanczos y Weyl, además de los resultados de Slipher y Hubble, la inmensa mayoría de científicos seguía pensando que el Universo era estacionario. Por ello, los resultados de Friedman y Lemaître fueron ignorados durante años, cuando no abiertamente criticados. Por ejemplo, en el congreso Solvay de 1927 Einstein y Lemaître tuvieron oportunidad de verse y discutir, y se sabe que aquél continuaba rechazando un modelo de universo en expansión por no sustentarse en base física posible. Por comentarios de Lemaître se sabe que grosso modo Einstein insistía entonces en la validez matemática de los resultados, pero abominaba de la física subyacente -un eco de su frase tachada en [7,8]. G. Lemaître Las cosas cambiaron paulatinamente a partir de un encuentro de la Royal Astronomical Society, en Enero de 1930, cuando Eddington 13 y otros [17] empezaron a sopesar la posibilidad de soluciones no estacionarias, o sea, otras soluciones aparte de (12) y (17). Curiosamente, Lemaître había sido brevemente un postdoc con Eddington, yéste había visto su trabajo [15], pero lo había olvidado por completo. Cuando Lemaître vio las observaciones de Eddington en [17], le escribió recordando la existencia de su trabajo en [15], con el cual Eddington quedó, ahora sí, profundamente impresionado y empezó a mover los hilos para darle la publicidad merecida. De esta manera, Eddington por un lado probó la inestabilidad del universo estático de Einstein [18] y por otro arregló las cosas para que una traducción al inglés de [15] se publicase en [19]. Teniendo en cuenta que los resultados de Hubble se habían asentado, y que Lemaître pudo usar su modelo para explicarlos, por fin llegó el momento en el que la fruta estaba madura y todos finalmente aceptaron lo inevitable: la expansión del Universo, tal y como predecía la Relatividad General. En particular, Einstein mismo reconoció en 1931 [20] que estos modelos daban una explicación plausible de la expansión universal (o mejor, de las medidas de z), e incluso escribió que por ello el término cosmológico en (13) era superfluo y ya no estaba justificado. Si esto es así o no ha provocado ríos de tinta, amargas discusiones, y problemas aún hoy irresolutos. En resumen, se había conseguido un marco teórico falsable, que predecía fenómenos después observados y explicaba otras observaciones previas: la Cosmologia adquiría, al fin, carácter científico. 6 LOS MODELOS CORRIENTES Como era de esperar, hay muchas otras curiosidades, intentos fallidos, y vaivenes diversos en esta ya larga historia. Dos que merece la pena mencionar son (i) una vez que los resultados de Lemaître fueron aceptados como clarificadores y correctos, hubo una tendencia -pensemos que desinteresada y honrada-a olvidar los artículos originales de Friedman; y (ii) que ninguno de los dos, Friedman y Lemaître, encontraron el caso más sencillo de todos, aquel en que el campo métrico espacial 3 g asociado al sistema de referencia cósmico es plano. Esto viene a cuento porque la primera persona en encontrar este modelo sencillo fue el matemático H.P. Robertson [21] en 1929. El propio Robertson [22] y casi simultáneamente otro matemático, A.G. Walker [23], fueron los primeros en derivar de manera detallada y rigurosa todos los modelos posibles que satisfacen el Principio Cosmológico. Hoy en día se suele llamar a estos modelos de Friedman-Lemaître-Robertson-Walker (FLRW), o abreviadamente modelos corrientes (standard models en inglés). Robertson y Walker además caracterizaron las propiedades de simetría de estos modelos, así como sus posibles inmersiones en espacios de mayor dimensión. La presentación habitual que se hace actualmente de estos modelos se basa simplemente en el Principio Cosmológico, o sea en la suposición de que existe un campo vectorial temporal u con hipersuperficies ortogonales (g(·, u) ∝ dt) que son máximamente simétricas, o sea tal que el espacio en cada instante de tiempo propio (t =cte. ) del obervador asociado a u es homogéneo e isótropo. Por ello, el espacio-tiempo admite un grupo de isometrías de 6 parámetros cuyas superficies de transitividad son las mencionadas hipersuperficies t =cte. Bajo esta suposición, el campo tensorial métrico se puede escribir localmente en un sistema de coordenadas {t, χ, θ, φ} como g = −c 2 dt ⊗ dt + a 2 (t) dχ ⊗ dχ + Σ 2 (χ, k) dθ ⊗ dθ + sin 2 θ dφ ⊗ dφ(22) donde a(t) es una función cualquiera llamada factor de escala, k = ±1, 0 es uń ındice de curvatura que selecciona los tres posibles signos para la curvatura constante de las hipersuperficies t =cte. , y la función Σ(χ, k) es Σ(χ, k) ≡ ⎧ ⎨ ⎩ sin χ if k = 1 χ if k = 0 sinh χ if k = −1. Por razones obvias se suelen denominar modelos cerrado, abierto y espacialmente plano a los que tienen k = 1, −1, 0 respectivamente. Las variedades subyacentes tradicionales 14 son IR 4 para los casos k = 0, −1 y IR × S 3 para k = 1. Es elemental comprobar que losúnicos tensores energía-momento T compatibles con (22) a través de las ecuaciones de Einstein (13) son del tipo (21), y dichas ecuaciones conducen simplemente a 8πG c 2 + Λ = 3ȧ 2 + k a 2 ,(23) 8πG c 4 p − Λ = −2ä a −ȧ 2 + k a 2 .(24) Estas son las leyes que gobiernan la forma y evolución del Universo y su contenido material. Su extrema simplicidad permite analizar propiedades generales de los modelos corrientes con métodos elementales. Las más sobresalientes se siguen de la fórmula 8πG c 4 ( c 2 + 3p) − 2Λ = −6ä a ,(25) que es una consecuencia inmediata de (23)(24). En un universo típico, formado por galaxias, sus aglomeraciones y radiación, es seguro que la cantidad c 2 + 3p es positiva 15 , de donde se sigue inmediatamente la siguiente conclusión sorprendente para universos en expansión (ȧ 0 > 0, donde el subíndice cero indica el valor actual): si Λ ≤ 0, existe un valor finitot < t 0 tal que a(t → t) → 0 16 . Además, es obvio que t 0 −t ≤ 1 c ȧ a (t 0 ) ≡ 1 H 0 donde la nomenclatura escogida para H 0 , en concordancia con la notación de (20), no es causalidad como ahora veremos. Hay que notar, por lo tanto, que en los modelos corrientes la edad del Universo queda directamente relacionada con un parámetro observable y medido con gran precisión, la constante de Hubble. En todo caso, la catástrofe que aparecía en los modelos de Friedman, y discutida anteriorimente, parece ser bastante genérica en los modelos corrientes con una constante cosmológica no positiva, en particular si Λ = 0. Una pregunta que surge rápidamente es ¿cuándo ocurrirá que un modelo cambie su etapa de expansión por una de contracción? Claramente, para ello hace falta queȧ = 0 para algún valor de t. Usando ahora la ley (23) y el hecho de que > 0 es evidente que esto puede ocurrir solamente si se da una de las dos circunstancias siguientes • k = 1, o sea, el modelo es cerrado; • Λ < 0. 15 Esta propiedad se suele llamar condición fuerte de la energía y, aunque se satisface ampliamente, no está asegurada si existen campos escalares o materia más exótica. 16 Esto es de hecho ni más ni menos que un ejemplo trivial de los famosos teoremas de singularidades. Por ello se suele identificar la posibilidad de recolapso del Universo con que el modelo sea cerrado, lo cual claro está es incorrecto en general -se hace cuando se consideran las ecuaciones originales (11), o sea, si la constante cosmológica no se toma en consideración, lo que entonces es lícito-. Dicho esto, es natural cuestionarse si podemos discernir cuándo un universo descrito por estos modelos será cerrado o abierto. De nuevo usando la primera ley (23) y tomándola en el tiempo actual t 0 se deduce que signo(k) = signo (t 0 ) − H 2 0 8πG − Λc 2 8πG . La cantidad H 2 0 /8πG, que como se ve es también directamente observable al estar relacionadaúnicamente con el parámetro observacional H 0 , se denomina densidad crítica. En el caso de no considerar la constante cosmológica, esta valor decide, por comparación con la densidad real de la materia del Universo, siéste es cerrado, plano o abierto. Por completitud, queda finalmente por probar que la ley de Hubble (20) se deduce aproximadamente en estos modelos y que de ello se sigue la relación anunciada H 0 = cȧ a (t 0 ) = 1 a(t 0 ) da dt (t 0 ) .(26) El cálculo se puede hacer escogiendo un evento cualquiera (t e , χ e , 0, 0) desde el que se nos envía radiación electromagnética que recibimos ahora en (t 0 , χ 0 , 0, 0). Teniendo en cuenta que la radiación se propaga por geodésicas luminosas, es un ejercicio sencillo probar que a lo largo de tales curvas se satisface |χ 0 − χ e | = c t 0 te dt a(t) . Por consiguiente, si en un instante cercano posterior (t e +∆t e , χ e , 0, 0) el emisor nos sigue mandando radiación, que nos llegará en (t 0 +∆t 0 , χ 0 , 0, 0), la fórmula anterior para ambos casos nos lleva inmediatamente a t 0 te dt a(t) = t 0 +∆t 0 te+∆te dt a(t) . Esta relación implica a primer orden en ∆t 0 , ∆t e ∆t 0 ∆t e = a(t 0 ) a(t e ) = ν e ν 0 ≡ 1 + z de donde, usando la relación que se puede obtener para t 0 (t e ) deducida de la ecuación de las geodésicas luminosas y haciendo un desarrollo en serie se obtiene finalmente z ≈ȧ(t 0 ) |χ 0 − χ e | . Calculando la distancia actual D 0e entre los dos puntos con el campo métrico (22) se sigue fácilmente D 0e = a(t 0 ) |χ 0 − χ e | de donde finalmente llegamos a la relación (20) con la definición (26), como se deseaba. LA IRRUPCIÓN DE GÖDEL A partir de 1933 hubo diversas generalizaciones y variados estudios de los modelos corrientes, a parte de nuevas soluciones de las ecuaciones de Einstein con simetrías esférica y cilíndrica. Siendo estos pasos de importancia, no podemos tratarlos aquí en aras de la concisión. Por ello, damos el salto a 1949 cuando apareció un número del Reviews of Modern Physics dedicado a Einstein por su septuagésimo cumpleaños. En este número, el mejor lógico matemático del siglo XX y amigo personal -aparte de colega en Princeton-de Einstein, Kurt Gödel (Brünn, imperio austro-húngaro, 1906 -Princeton, EE UU, 1978), publicó un artículo sobre cosmología relativista que zarandeó las creencias de los físicos relativistas, hizo zozobrar la base causal de la teoría, e incitó numerosos avances y nuevos conceptos fundamenales que se desarrollarían en la segunda mitad del siglo pasado. Una vez más, vamos a ver como la falta de prejuicios físicos de un matemático, como ya ocurrió en el caso de Friedman, permite una profundización, una mejora y un salto adelante gigantesco en la física relativista. La contribución de Gödel, además de ser originalísima, tuvo una influencia enorme en la comunidad relativista y se considera el origen de los estudios modernos en teoría de causalidad, técnicas globales en variedades lorentzianas, estudios de singularidades, y muchos otros relacionados. Gödel se planteó la posibilidad de rotación de la materia universal. Claro está, la rotación ha de referirse a un cierto sistema de referencia. Por ello, si se quiere definir la rotación del sistema de observadores fundamental respecto del sistema de referencia que define, hay que hablar de rotación respecto de la brújula de la inercia, en palabras del propio autor. Aunque ya se conocían soluciones con rotación en relatividad general (debidas a Lanczos y van Stockum), la posibilidad de materia rotante en el contexto cosmológico no se había considerado, especialmente debido a la manera de entender el Principio Cosmológico: dado que la homogeneidad e isotropía del espacio se refería a las hipersuperficies ortogonales al campo vectorial temporal que define el sistema de observadores fundamental, este campo es integrable, es decir, considerado como 1-forma es proporcional a una diferencial exacta. Esto es incompatible con la rotación intrínseca de la materia. En términos matemáticos, si u = g(· , u) es la 1-forma asociada al campo vectorial unitario fundamental u, la rotación se puede definir como ω ≡ * (u ∧ du) donde * es el dual de Hodge. Trivialmente, ω es espacial y ortogonal a u, y como probó Gödel coincide con la velocidad angular newtoniana en coordenadas adaptadas al campo u. Como es evidente, si u es integrable la rotación se anula. El modelo de Gödel [24] es un espacio-tiempo (IR 4 , g) cuyo campo tensorial métrico se expresa en coordenadas cartesianas {t, x, y, z} como sigue g = −(cdt + e ax dz) ⊗ (cdt + e ax dz) + dx ⊗ dx + dy ⊗ dy + 1 2 e 2ax dz ⊗ dz(27) siendo a una constante arbitraria. Obviamente, el caso a = 0 es el espaciotiempo plano de Minkowski. Este campo métrico satisface las ecuaciones de Einstein (13) con el miembro derecho de un fluido sin presiones dado por T = c 2 (cdt + e ax dz) ⊗ (cdt + e ax dz) donde además se satisfacen las relaciones 4πG c 2 = −Λ = g(ω, ω) > 0 de donde se sigue que en este caso la constante cosmológica es negativa 17 . Si uno descompone el campo tensorial ∇u en sus partes ortogonales y tangentes a u, y las primeras en su parte simétrica y antisimétrica se obtiene en general ∇u = −u ⊗ a + Σ + * (u ∧ ω) donde a = ∇ u u es la aceleración (o primera curvatura) y el tensor simétrico espacial Σ se suele denominar tensor de deformación. En el universo (27), el campo vectorial fundamental está dado por u = 1 c ∂ ∂t , u = −(cdt + e ax dz) y Gödel acertadamente mencionó que tanto la aceleración como la deformación se anulan, solamente la rotación es no nula. Estas nociones, que son cantidades cinématicas, fueron posteriormente base de muchos desarrollos y ampliamanete usadas en la Cosmología teórica. El hecho de que la deformación y la aceleración sean cero implican, en particular, que u es un campo de Killing 18 . Por ello, el modelo de Gödel es estacionario. Se puede probar además que los campos vectoriales siguientes ∂ ∂x − az ∂ ∂z , −2e −ax 1 c ∂ ∂t + az ∂ ∂x + e −2ax − a 2 z 2 2 ∂ ∂z , ∂ ∂y , ∂ ∂z son también campos de Killing, todos ellos linealmente independientes. Esto implica, como bien señaló Gödel, que el espacio-tiempo es homogéneo, con un grupo de isometrías de 5 parámetros que actúa de manera multiplemente transitiva. Todas las propiedades anteriores eran relativamente novedosas, especialmente por su presentación, pero la propiedad auténticamente sorprendente, demoledoramente impactante, que probó Gödel es que el espacio-tiempo (27) es causalmente orientable -o sea, se puede asociar consistentemente una dirección al futuro, de manera continua, en toda la variedad; todos los vectores tangentes temporales o luminosos se pueden dividir en futuros y pasados, consistentemente de manera que las curvas temporales quedan también así orientadas, y de forma continua-, y a pesar de eso existen curvas temporales cerradas dirigidas al futuro. Hablando llanamente, dejando pasar el tiempo como es natural, ¡uno puede llegar a su propio pasado! Más aún, diseñando adecuadamente el camino del viaje, uno puede llegar tan atrás al pasado de sí mismo -yendo al futuro continuamente-como se quiera. Varias paradojas surgen inmediatamente, como la tradicional de "persona que va al pasado, mata a su madre antes de que mantenga la relación sexual correspondiente a su engendramiento, y... ¿?". En fin, esta posibilidad, en una solución de las ecuaciones que además está libre de singularidades, es estacionaria y con un contenido material razonable, es muy desagradable, molesta y perturbadora. Supongo que esto es así incluso para muchos matemáticos, por lo que me permito mostrar explícitamente la siguiente familia de curvas ct = A (2 sin τ − sin τ cos τ ) , x = −B cos τ, y = 0, z = −2A sin τ donde τ es el parámetro de la curva, y dejo como ejercicio al lector que compruebe para qué valores de las constantes A y B son temporales, futuras y cerradas -topológicamente S 1 -en el universo de Gödel dado por (27). Hay que resaltar, para mayor desconsuelo, que dado que (27) es homogéneo, existen curvas temporales futuras cerradas pasando por cualquier punto de la variedad. Y también que no aparecen debido a raras propiedades topológicas, ni se pueden evitar pasando a supuestos "recubridores universales", porque la variedad es en este caso IR 4 , que es simplemente conexa. Gödel relacionó estas circunferencias temporales con la ausencia de hipersuperficies ortogonales a u, o sea, con la rotación, y claramente demostró que no podía haber una función temporal, o sea, una función continua sobre IR 4 que crezca en la dirección futura a lo largo de cualquier curva temporal futura 19 . Es evidente que esta ausencia es una condición necesaria para la existencia de curvas temporales cerradas, y por ello esta discusión fue la base de gran parte de las posteriores condiciones de causalidad que los físicos trataron de definir para evitar las paradojas mencionadas. Esta teoría de la causalidad se reveló como de fundamental importancia para los desarrollos relacionados con los teoremas de singularidades, o la (in)completitud geodésica de los espaciotiempos. Notemos, de paso, que la solución (27) es geodésicamente completa. Por si todo lo anterior no fuera suficiente, Gödel ya menciona en su artículo los resultados de Bianchi sobre espacios tridimensionales que admiten grupos continuos de transformaciones. Dice por ejemplo que la parte de (27) en la que se prescinde del término dy ⊗ dy es esencialmente uno de los espacios en forma canónica encontrada por Bianchi en [26]. El "esencialmente", claro está, se refiere a la diferente signatura. Esta línea de actuación la generalizó el propio Gödel en su segundo artículo sobre relatividad [25], otro auténtico punto de inflexión, conteniendo un marasmo de ideas y de nociones que fueron de utilidad e inspiración para los físicos durante décadas posteriores. Habida cuenta de que su modelo (27) no era realista al no expandirse (es estacionario), trató de encontrar nuevas soluciones que se expandieran (lo que necesita que la traza de la deformación Σ sea no nula) y mantuvieran la rotación. Para ello consideró modelos que fueran invariantes por el grupo SO(3), actuando de manera transitiva sobre hipersuperficies espaciales. Esta es la base, cambiando simplemente el grupo, de los modelos espacialmente homogéneos (no necesariamente isótropos) que se han venido en llamar modelos de Bianchi desde la década de los 1950. Luigi Bianchi [26] clasificó, a finales del siglo XIX, todos los espacios riemannianos tridimensionales que admitían un grupo de isometrías continuo. En particular, si la acción es transitiva, por lo que lasórbitas son tridimensionales, obtuvo la forma canónica en coordenadas adaptadas a los campos de Killing de estos espacios, que resulta deducirse de la clasificación de los propios grupos de 3 parámetros, de acuerdo con sus constantes de estructura. Estos grupos se denominan tipos de Bianchi y se clasifican desde el I hasta el IX, aunque alguno de los casos son en realidad familias uniparamétricas de constantes de estructura. Esta misma nomenclatura se heredó en relatividad y los modelos cosmológicos de Bianchi se dividen en grupos del tipo I al IX. La idea es bastante simple. Dado el grupo triparamétrico actuando en el espacio-tiempo conórbitas tridimensionales espaciales, y sus constantes de estructura, se puede probar que las 1-formas invariantes por la izquierda (o la derecha) del grupo se trasladan a la variedad, mediante la acción del grupo, a 1-formas {θ α } (α, β = 1, 2, 3) que son invariantes por los correspondientes campos de Killing que generan la acción del grupo. Es fácil demostrar entonces que el campo métrico adopta necesariamente la forma g = −c 2 dt ⊗ dt + g αβ (t)θ α θ β (28) donde las funciones g αβ dependen ahora de t. La forma concreta de las 1formas {θ α } depende del grupo escogido y su expresión explícita es sencilla [26], véase, por ejemplo, [27]. Es obvio que u = −cdt define un sistema de referencia cuyos espacios ortogonales son homogéneos. Pero eso, como se ha explicado antes, impide que una hipotética materia moviéndose a lo largo de las curvas integrales de u tenga rotación. Por ello, aunque lo lógico parece ser escoger en estos modelos u = −cdt como la 1-forma media del movimiento de la materia, Gödel demostró la existencia de soluciones para un fluido perfecto donde el campo de velocidades es distinto de u. La distribución material tiene rotación, y este tipo de modelos, los de mayor complejidad dentro de la familia de Bianchi, se denominan ahora modelos ladeados ("tilted models" en inglés). Los modelos de Gödel en [25] eran del tipo Bianchi IX, y escogió ese grupo porque deseaba que lasórbitas, o sea, el espacio, fuera compacto. Hizo notar, cosa que es válida para todos los modelos de Bianchi, que las ecuaciones de Einstein se reducen a un sistema diferencial ordinario para las variables g αβ (t), e incluso dio un lagrangiano para derivar estas ecuaciones en su caso. Obviamente, esta propiedad de los modelos de Bianchi tiene una importancia enorme, y permite utilizar todas las técnicas modernas de sistemas dinámicos, e incluso las más modernas teorías de caos, aplicadas a modelos de Universo. Se puede ver un resumen relativamente reciente en [28]. El segundo artículo de Gödel está escrito con un estilo un tanto misterioso, enumerando gran cantidad de resultados y propiedades pero sin pruebas o con levísimas indicaciones de las mismas. Esto conformó un rompecabezas que puso manos a la obra a grandes físicos y algunos matemáticos, que permitieron probar los antedichos resultados y desarrollar las brillantes ideas godelianas. Entre ellos hay que citar a A. Taub, quien casi simultáneamente a [25] encontró todas las formas canónicas de los modelos de Bianchi [29], estudió cuándo eran soluciones sin materia y dio una detallada e iluminadora discusión de sus propiedades físicas. Un resumen de las ideas germinales de Gödel, que se convertirían en aspectos esenciales de la relatividad moderna y de los desarrollos actuales, es (véase [30] para más detalles): • La rotación de la materia que define el movimiento medio universal respecto de la brújula de la inercia. Esto conduce al abandono definitivo de las ideas machianas. • Posibilidad de curvas temporales cerradas. Relación de esto con la ausencia de funciones temporales globales. Esto reveló la necesidad de una teoría de la causalidad, que fue posteriormente desarrollada y es base de la geometría lorentziana global. A. Einstein y K. Gödel en Princeton. • Uso de la clasificación de Bianchi, y de las acciones de grupos sobre el espacio-tiempo. Esto, junto con la clasificación algebraica del tensor de curvatura, despejó el camino para la clasificación y proliferación de soluciones de las ecuaciones de Einstein. • Modelos ladeados, y uso por tanto de coordenadas no adaptadas al fluido. • Definición de las cantidades cinemáticas, lo que parece ser tuvo una influencia determinante en la aparición de la ecuación de Raychaudhuri y la correspondiente focalización de geodésicas. • El punto anterior es la base, junto con los dominios de dependencia, también subyacentes en el trabajo de Gödel, de los famosos teoremas de singularidades. Todos estas líneas fueron la base del gran desarrollo de la relatividad moderna -debida entre otros a Penrose, Hawking, Geroch, Carter-, en la segunda mitad del siglo XX. Pero esa es otra historia... EPÍLOGO La principal conclusión de esta larga narración es, en mi modesta opinión, que no tendríamos una ciencia de la Cosmología si Einstein no hubiera desarrollado su teoría de la relatividad general, aplicándola a todo el Universo en 1917 [1]. Siendo las observaciones de Slipher y Hubble absolutamente esenciales, era por otro lado imprescindible tener una teoría que ligase la forma geométrica del Universo con su contenido, distribución material, y evolución temporal. En consecuencia, la cosmología se puede apuntar al ya largo haber de las revoluciones científicas de su responsabilidad. Otra conclusión de interés es que la aportación de los matemáticos fue determinante, aparte de muy original, para llevar a buen puerto los incipientes primeros pasos teóricos y para una mejor comprensión de los resultados obtenidos. La falta de prejuicios físicos, como ya he mencionado varias veces, permitió a grandes matemáticos realizar los avances que se les escapaban a los desconcertados físicos teóricos. Lamentablemente, la aportación de los matemáticos a la relatividad en la segunda mitad del siglo XX, a pesar de que gran parte de los desarrollos teóricos son fundamentales y básicamente matemáticos, no estuvo a la misma altura. Estoy seguro de que la visión original de los matemáticos, con puntos de vista diferentes, susángulos y perspectivas de análisis globales, y su falta de prejuicios, podría llevar a un desarrollo sin igual, a nuevos puntos de inflexión de la teoría y su sustrato geométrico, y a aportar novedosas y fructíferas ideas. ¡Ánimo! Celebración del septagésimo cumpleaños de Einstein en Pasadena (de izq. a dch.) H.P. Robertson, E. Wigner, H. Weyl, K. Goedel, I.I. Rabi, A. Einstein, R. Ladenburg, J.R. Oppenheimer y G.M. Clemence. Friedman escribió a Einstein el 6 de Diciembre de 1922: "Considerando que la posible existencia de un mundo no estacionario tenga cierto interés, me permito presentarle aquí los cálculos que he hecho [...] para su verificación y evaluación crítica. [...] Si encontrase estos cálculos correctos, le ruego por favor que sea tan amable de informar de ello a los editores de Zeitschrift für Physik [...]". (ct/a) + cosh(ct/a) cosχ 1 − cosh 2 (ct/a) sin 2χ ⎤ ⎦ , sin χ = cosh(ct/a) sinχ 4 1917 : 1917EL NACIMIENTO DE LA COSMOLOGÍA TEÓRICA DE LOS MATEMÁTICOS ENTRE 1917 Y 1933 Como ya se ha mencionado, de Sitter influyó decisivamente en el despegue de la ciencia cosmológica por medio de sus conversaciones con Einstein. De mayor importancia probablemente fueron, si cabe, sus contribuciones directas al nacimiento y desarrollo de las ideas cosmológicas en la relatividad, mediante dos artículos fundamentales publicados el mismo 1917 titulados: On the Relativity of Inertia, remarks concerning Einstein's latest Hypothesis y On the Curvature of Space[3].5.1 LA CONTRIBUCIÓN DE DE SITTER A.Einstein y W. de Sitter discutiendo en el International School of Advanced Science del California Institute of Technology, Pasadena, en enero de 1932.pero nunca en un contexto cosmológico. Incluso de Sitter rebuscó entre los resultados experimentales para saber si había fuentes estelares lejanas (in- sistamos en que las galaxias no se conocían aún) de las que recibiéramos sus espectros desplazados hacia el rojo o el azul. Desafortunadamente, las medidas de laépoca al respecto eran escasísimas y los primeros resultados concluyentes de Slipher (véase la sección 5.3 ) fueron publicados en 1915-17. 5.2 LA OSADÍA MATEMÁTICA DE FRIEDMAN En física se puede definir teóricamente un sistema de referencia inercial como aquel en el que los cuerpos abandonados a sí mismos, sin agentes externos obrando sobre ellos, están en La masa gravitatoria de un cuerpo es la que aparece en la fórmula (1) y mide la intensidad con que un cuerpo reacciona a la atracción de la gravedad. La masa inercial mide la inercia de un cuerpo, su resistencia a cambiar de movimiento, y es la que aparece en la segunda ley de Newton: F = m a, donde a es la aceleración del cuerpo respecto del espacio absoluto. Por ejemplo, el gran Hertz, en su obraÜber der Constitution der Materie (1884), escribió: "ciertamente tenemos frente a nosotros dos propiedades totalmente fundamentales de la materia que deben considerarse como completamente independientes entre sí, pero en nuestra experiencia, y sólo experimentalmente, se nos aparecen como iguales. Esta correspondencia debe significar mucho más que ser un simple milagro ( . . . ) Debemos percatarnos claramente de que la correspondencia entre masa e inercia tiene que tener una explicación más profunda, y no puede despacharse como algo de poca importancia...". A esto se llama profunda intuición y buen olfato; a lo de Einstein, genialidad. Antes de seguir adelante, hay que hacer una pequeña pero decisiva puntualización acerca del uso de la palabra local en los enunciados precedentes del principio de equivalencia. Para ello, notemos que si se quiere ir del polo sur al polo norte de una esfera con desgaste mínimo, se puede recorrer cualquiera de sus meridianos. Por tanto, dos personas viajando simultáneamente por dos meridianos diferentes verán como su distancia mutua varía, creciendo inicialmente y disminuyendo después de cruzar el ecuador, hasta que se crucen de nuevo en el polo norte, y todo ello a pesar de que ambas siguen curvas geodésicas. Esta aceleración relativa que sufren cuerpos que se mueven geodésicamente es una consecuencia de la curvatura de la superficie de la esfera. De manera análoga, si dos cuerpos se dejan caer libremente desde una misma altura en el campo gravitatorio terrestre, es evidente que a medida que pasa el tiempo los dos cuerpos se acercan, dado que sus trayectorias apuntan hacia el centro de la Tierra. O sea, sufren una aceleración relativa. Está claro, por otro lado, que en un sistema de referencia no inercial, sin gravitación, dos partículas de prueba libres jamás sufren tal aceleración relativa. En resumidas cuentas, hay una manera de distinguir entre los campos gravitatorios reales y los sistemas de referencia no inerciales, siempre y cuando se usen dos o más masas de prueba para sondear los efectos no locales. Hoy podemos decir que esto fue una obstinación, una clara tozudez... Pero ¿quién en su sano juicio hubiera dicho en 1917 que el Universo no era estático? En este sentido, véase más adelante la discusión de la magnífica aportación de Friedman y la reacción de Einstein. La solución de de Sitter es muy importante en aplicaciones y estudios actuales, debido a que presenta una etapa inflacionaria y un horizonte -véase el apartado 5.4 más abajo-, conceptos que eran desconocidos o malentendidos en 1917, pero que contribuyó a aclarar y explicar. Para hacer justicia, hay que decir que muchas de las otras proclamas de Curtis resultaron ser erróneas, y que por su parte Shapley fue el responsable de la tarea "copernicana" de poner al Sol (y de paso a la Tierra) en su sitio . . . , o sea, en los suburbios de la Vía Láctea -contra lo que Curtis pensaba-, y quien dio una estimación precisa de sus dimensiones.10 El desplazamiento al rojo se puede interpretar como efecto Doppler, o sea, como efecto de un movimiento de alejamiento o recesión de los objetos, análogamente a lo que ocurre con los pitidos de un tren cuando se aleja de la estación. Lanczos es muy conocido para los relativistas, colaboró con Einstein, de quien fue asistente en 1928-29 en Berlin, e hizo múltiples contribuciones a la relatividad general a lo largo de su vida. De hecho, existen aún otros sistemas de observadores fundamentales en el espacio-tiempo de de Sitter. Un ejemplo de relevancia histórica y física está dado por la formag = −c 2 dT ⊗ dT + e 2cT /a (dx ⊗ dx + dy ⊗ dy + dz ⊗ dz)que es la base del modelo del estado estable de Bondi, Gold y Hoyle, el mayor rival para los modelos de la gran explosión. No eséste el lugar para una discusión de estos temas. En todo caso, y naturalmente, hay que decir que no todos ellos cubren toda la variedad. A.S. Eddington era uno de los astrónomos más influyentes y respetados de laépoca, aparte de un relativista de pro, siendo el director de las expediciones para observar los eclipses que confirmaron la desviación de la luz en acuerdo con la relatividad general. Además escribió uno de los primeros tratados importantes sobre relatividad general[16]. Hay que hacer constar, naturalmente, que se puede variar la topología del espacio en estos modelos sin mayores problemas, y así se puede tener un modelo 'espacialmente plano' con topología IR × S 1 × S 1 × S 1 , por poner sólo un ejemplo. El universo de Gödel también se puede interpertar como solución para un fluido perfecto.18 Un campo de Killing es el generador local de un grupo uniparamétrico de isometrías locales. De paso, Gödel también probó que no existe ninguna hipersuperficie sin borde espacial en(27), otra propiedad inesperada. A Einstein, Sitzungsber. Preuss. Akad. Wiss. phys.-math Klasse VI 142. A. Einstein, Sitzungsber. Preuss. Akad. Wiss. phys.-math Klasse VI 142 (1917). La ciencia y la vida de Albert Einstein. A Pais, Ariel Methodos. El Señor es sutilA. Pais, 'El Señor es sutil...'. La ciencia y la vida de Albert Einstein, Ariel Methodos, Barcelona, 1984. . W Sitter, Proc. K. Ak. Amsterdam. 191217W. de Sitter, Proc. K. Ak. Amsterdam 19 (1917) 1217; . A Friedman, Zeitschrift für Physik. 10377A. Friedman, Zeitschrift für Physik 10 (1922) 377; . Gen. Rel. Grav. 31Traducido y reproducido en 1999, Gen. Rel. Grav. 31 1991-2000. . A Einstein, Zeitschrift für Physik. 11326A. Einstein, Zeitschrift für Physik 11 (1922) 326. . E Sallent, A Roca, Quark. 36Homenaje a Albert Einstein. Año Mundial de la FísicaE. Sallent, A. Roca, Quark 36 (2005) 72-84, Homenaje a Albert Einstein. Año Mundial de la Física. . A Einstein, Zeitschrift für Physik. 11A. Einstein, Zeitschrift für Physik 11 (1923). Se puede consultar el manuscrito original. con las tachaduras correspondientesSe puede consultar el manuscrito original, con las tachaduras correspondientes, en http://www.alberteinstein.info/db/ViewImage.do?DocumentID=34026&Page=1 The 'Great Debate': What Really Happened. M Hoskin, J. Hist. Astron. 7M. Hoskin, The 'Great Debate': What Really Happened, J. Hist. Astron. 7 (1976) 169-182. . V M Slipher, Popular Astronomy. 2321V.M. Slipher, Popular Astronomy 23 (1915) 21. . V M Slipher, Proc. Amer. Phil. Soc. 56403V.M. Slipher, Proc. Amer. Phil. Soc. 56 (1917) 403. . K Lanczos, Physikalische Zeitschrift. 23539K. Lanczos, Physikalische Zeitschrift 23 (1922) 539. . K Lanczos, Zeitschrift für Physik. 17168K. Lanczos, Zeitschrift für Physik 17 (1923) 168. . H , Physikalische Zeitschrift. 24230H. Weyl, Physikalische Zeitschrift 24 (1923) 230. . G Lemaître, Ann. Soc. Sci. Brux. A47. 49G. Lemaître, 1927 Ann. Soc. Sci. Brux. A47 49 A S Eddington, The Mathematical Theory of Relativity Cambridge Univ. CambridgePressA. S. Eddington, 1924 The Mathematical Theory of Relativity Cambridge Univ. Press, Cambridge . Royal Astronomical Society Discussion. 5339ObservatoryRoyal Astronomical Society Discussion 1930 Observatory 53 39 . A S Eddington, Monthly Not. Roy. Ast. Soc. 90668A. S. Eddington, Monthly Not. Roy. Ast. Soc. 90 (1930) 668. . G Lemaître, Monthly Not. Roy. Ast. Soc. 91483G. Lemaître, Monthly Not. Roy. Ast. Soc. 91 (1931) 483. . A Einstein, S B Preuss Akad, Wiss. 235A. Einstein, S. B. preuss Akad. Wiss. 235 (1931). H P Robertson, Proc. Nat. Acad. Sci. USA. Nat. Acad. Sci. USA15822H. P. Robertson, Proc. Nat. Acad. Sci. USA 15 (1929) 822. . H P Robertson, Rev. Mod. Phys. 562H. P. Robertson, Rev. Mod. Phys. 5 (1933) 62. . A G Walker, Quart. J. Math. Oxford ser. 681A. G. Walker, Quart. J. Math. Oxford ser 6 (1935) 81. . K Gödel, Rev. Mod. Phys. 21447K. Gödel, Rev. Mod. Phys. 21 (1949) 447. Rotating Universes. K Gödel, Proceedings of the International Congress of Mathematicians. L.M. Graves et al. eds., Cambridge Massthe International Congress of Mathematicians1175K. Gödel, "Rotating Universes" in Proceedings of the International Congress of Mathematicians, L.M. Graves et al. eds., Cambridge Mass. vol.1, 1952, p.175 . Gen. Rel. Grav. 332171Traducido y reproducido en 2001, Gen. Rel. Grav. 33 2171. Homogeneous Relativistic Cosmologies. M P Ryan, L Shepley, Princeton Univ. PressPrincetonM.P. Ryan and L. Shepley, Homogeneous Relativistic Cosmologies, Princeton Univ. Press, Princeton, 1975. Dynamical systems in Cosmology. J. Wainwright and G.F.R. EllisCambridgeCambridge Univ. pressJ. Wainwright and G.F.R. Ellis (eds.), Dynamical systems in Cosmology, Cam- bridge Univ. press, Cambridge, 1997. . A Taub, Ann. Math. 53472A. Taub, Ann. Math. 53 (1951) 472. . G F Ellis, Contributions of K. Gödel to Relativity and Cosmology" in Gödel. 9634SpringerLectures Notes in LogicG.F.R Ellis, "Contributions of K. Gödel to Relativity and Cosmology" in Gödel 96, Lectures Notes in Logic 6, P. Hajek ed., Springer, Berlin, 1998, p.34. Senovilla Física Teórica Universidad del País Vasco Apartado 644 48080 Bilbao Correo electrónico: josemm. M José, senovilla@ehu.esJosé M M Senovilla Física Teórica Universidad del País Vasco Apartado 644 48080 Bilbao Correo electrónico: josemm.senovilla@ehu.es
sample_10759
0.9837
arxiv
IMPACT: INTEGRATED BOTTOM-UP GREENHOUSE GAS EMISSION PATHWAYS FOR CITIES The Engineering University Texas T X Austin The Of Architecture University Texas Austin IMPACT: INTEGRATED BOTTOM-UP GREENHOUSE GAS EMISSION PATHWAYS FOR CITIES 1 9 5 SCHOOL OF PUBLIC POLICY, GEORGIA INSTITUTE OF TECHNOLOGY, GA, USA 6 DNV, NORWAY 15 18Increasing urbanization puts ever-increasing pressure on cities to prioritize sustainable growth and avoid carbon lock-in, yet available modeling frameworks and tools fall acutely short of robustly guiding such pivotal decision-making at the local level. Financial incentives, behavioral interventions, and mandates 21 drive sustainable technology adoption, while land-use zoning plays a critical role in carbon emissions from the built environment. Researchers typically evaluate impacts of policies top down, on a national scale, or else post-hoc on developments vis-à-vis different polices in the past. Such high-level analyses 24 and post-hoc evaluations cannot forecast emission pathways for specific cities, and hence cannot serve as input to local policymakers. Here, we present IMPACT pathways, from a bottom-up model with residence level granularity, that integrate technology adoption policies with zoning policies, climate 27 change, and grid decarbonization scenarios. With the city at the heart of our analysis, we show that for our site rapid grid decarbonization is the largest single mitigation measure. We identify an emission premium for sprawling development and show that adverse policy combinations exist that can exhibit 30 rebounding emissions over time. POLICY RELEVANCE 33 Cities are at the forefront of implementation of climate impact mitigation strategies. Yet, there are no tools available for them to project expected emissions for given policies into the future. As there are no one-size-fit all mitigation measures, they have to be compared to each other. It is also important to 36 compare impacts over longer periods of time to analyze compounding effects. This paper makes the case that cities should generate projections of their building stock development and anlyze their impact on emissions on residence resolution. This allows to integrate measures such as incentives and adoption for 39 technologies, e.g., heat pumps as well as longer term effects such as spatial planning and grid decarbonization. The paper also makes the case that it should become common practice to investigate energy demand of buildings using climate change scenarios. 42 INTRODUCTION Buildings account for ~40% of the global energy consumption and ~30% of the associated greenhouse 45 gas emissions, while also offering a 50-90% CO2 mitigation potential Lucon & Ürge-Vorsatz, 2014;Wang et al., 2018a). Growing urbanization puts pressure on cities in order to absorb increasing populations, requiring decisions on land-use (IEA, 2021;Kennedy, Ibrahim, & Hoornweg, 48 2014). While it is generally acknowledged that urban infill development is beneficial compared to outward expansion in terms of economics and carbon emissions (Asfour & Alshawaf, 2015;Conticelli, Proli, & Tondelli, 2017;Lima, Scalco, & Lamberts, 2019;McConnell & Wiley, 2012), quantifying these 51 benefits under various external factors, e.g., climate change, is challenging (Teller, 2021). Integration of urban strategies for mitigation and adaptation to climate change is needed to avoid carbon lock-in effects (Seto et al., 2016;Ürge-Vorsatz et al., 2018) and to identify potential synergies and reduce suboptimal 54 trade-offs between mitigation responses. As such, if policies put in place to drive these improvements are to be effective, they should be designed by anticipating the integrated landscape of infrastructure, climate, and behavioral conditions and responses. 57 End-use electrification in combination with electric grid decarbonization and higher energy efficiency is considered to be the major pathway toward decarbonization of the built environment (Leibowicz et al., 2018). Since energy demand in buildings is mostly dominated by HVAC equipment, one promising 60 policy lever is the provision of financial incentives for higher-efficiency system upgrades or solar photovoltaic (PV) installations (Khanna et al., 2021). Mandates are used in building codes to require that certain minimum efficiency standards or technologies (e.g., solar PV) are met in buildings at the time of 63 building or after major renovations. It is debated whether individual (bottom-up) action or system-level (top-down) action is more important and should receive greater focus in decarbonization efforts (Goldstein, Gounaridis, & Newell, 2020;66 Hultman et al., 2020;Khanna et al., 2021). According to the United Nations Environment Programme, however, this is a false dichotomy as both perspectives must be used in conjunction to effect necessary change(United Nations Environment Programme, 2020). The challenges with developing a federal-level 69 coordinated climate policy in the US has no doubt increased focus on state, local, and individual action, but it is unclear how those lower-level actions aggregate to measurable differences in energy use in the urban built environment. Modeling and integrating individual decision-making within the context of 72 changing land-use has become critical to understanding what outcomes we can expect based on undirected individual choice versus those that will require incentives or even mandates to generate the aggregated benefits needed for rapid decarbonization. 75 Often policies and their impact are evaluated top down, on a national scale, or post-hoc on developments vis-à-vis different policies in the past (Berrill & Hertwich, 2021;Creutzig et al., 2016;Goldstein et al., 2020;Kennedy et al., 2014). Global-scale emission pathway studies typically focus on target warming 78 temperatures and backcast how they can be achieved (Rogelj et al., 2016). Forward projection of emissions and mitigation efforts have been only been explored recently in a few studies, considering carbon pricing as a policy mechanism for relatively short target years, e.g., 2030 (Sognnaes et al., 2021) 81 or integration with economic models (Lu et al., 2021). Exploratory forward projections are useful because they can provide realistic estimates of emission reductions under certain given conditions. As a consequence, forward projection can inform what range of emission reductions can be achieved 84 realistically, which in turn could be linked to target warming temperatures. Here we emphasize that despite cities' position at the forefront for implementation of climate impact mitigation strategies (IEA, 2021; Intergovernmental Panel on Climate Change, 2022), there are no tools 87 available for them to project expected emissions for given policies into the future. Put differently, if citylevel forward projections could be done systematically and robustly, would the aggregate of those projections match top-down national/global emissions and warming projections under the same policy 90 scenarios? Unfortunately, we do not know if that will actually be the case and how wide the resulting differences will be. To address this gap, we introduce IMPACT: Integrated bottoM-up greenhouse gas emission PAthways 93 for CiTies, a spatio-temporal model for the evolution and composition of neighborhoods (see Figure 1a). Our model starts at the parcel level. Each parcel can contain one or more buildings with multiple individual residence units whose type for each decade is governed by zoning policy and redevelopment 96 schedule in the specific neighborhood (see Figure 1b, Figure 2 and Methods: Future Land-use and Transformation Scenarios), and whose energy demand is calculated according to its type, decade, and climate change scenario (see Figure 1c and Methods: Architectural and Energetic Modeling of Building 99 Archetypes and Methods: Climate Change Pathways). Each residence unit also contains a "decisionmaker" who decides whether to adopt certain technologies based on the incentives and information available to them (see Methods: Technology Adoption), which in turn are governed by policy and 102 economic scenarios (see Figure 1d and Methods: Policy Instruments for Technology Adoption). In the supportive scenario, financial incentives are available for everyone and mandates require each new building to adopt high efficiency technologies. In the neutral scenario, adoption may happen, but typically 105 at a lower rate due to the economics involved for the decision maker. In buildings whose occupants decide to adopt high-efficiency/green technologies (in our case HVAC, smart thermostats, solar photovoltaics and storage) the annual energy demand is reduced accordingly (see Methods: Efficiency 108 Improvements of Adopted Technologies). Finally, as a simplification, the energy demand is assumed to be met using fully electrified buildings. This simplification allows us to estimate the resulting CO2 equivalent emissions based on grid carbon content (see Figure 1e and Methods: Grid Decarbonization 111 Pathways). Our objective is to create an exploratory model, which for each decade can provide the composition of a neighborhood (types of buildings), the adopted technologies within it, its energy demand under different 114 climate change assumptions, and the resulting annual equivalent CO2 emissions. Comparing different scenarios allows us then to explore how different assumptions play out over longer periods of time, how policies interact and what combinations of strategies provide pathways to reduced operational emissions 117 of neighborhoods. Other metrics and inputs can be easily integrated at the individual parcel and residence level, which makes this a very versatile tool to explore potential pathways and mitigation strategies and policies. Notice that here we do not consider emissions linked to transportation and embodied emissions 120 for construction. METHODS 123 Here, we review the inner workings and assumptions of each component of our model. Future Land-use and Transformation Scenarios 126 We apply scenario planning to explore to the range of potential energetic impacts associated with changing urban morphology (Schüler, Cajot, Peter, Page, & Maréchal, 2018). We use Envision Tomorrow (ET), an open-access scenario modeling tool, to generate the scenarios (Gabbe & Fregonese,129 2013). ET utilizes a set of linked MS Excel spreadsheets with an ArcGIS extension to enable parcel-level land development to be mapped over existing neighborhood geographies, generating demographic, economic, transportation, and energy outputs. ET allows the user to control a range of building and urban 132 design variables, yielding highly differentiated development types necessary for neighborhood scenario development. We use a parcel-level dataset of the City of Austin, Texas including address, current zoning and land-use 135 class, year of structure construction, and assessed property value. The dataset includes an improvementto-land ratio (ILR), which, as a measure of the economic potential of a property, is the appraised value of the structure divided by the value of its land (City of Austin, 2009). We use the ILR to create a parcel 138 rank of re-development likelihood used to schedule parcel redevelopment through 2100, where we assume that a parcel is more likely to redevelop the smaller its ILR is. We selected study neighborhoods within Austin, Texas, USA, guided by the likelihood of a neighborhood 141 experiencing major changes to building morphology due to (re)development. Given Austin's high rates of population growth, housing demand, and resulting increasing residential property values, neighborhoods currently composed largely of older single-family homes were seen as the most likely candidates to 144 experience major redevelopment. Further narrowing criteria for identifying neighborhoods included homes constructed before 1970 (as an indicator of opportunity for upgrades or replacement), the relationship between lot size and existing building footprint (as an indicator of under-utilization), and the 147 existence of households below the median income of Austin (as an indicator of gentrification pressure). Finally, we included geographic variation as a factor to account for property value differentials that might impact redevelopment. The three selected neighborhoods are Brentwood, South Menchaca, and 150 Montopolis, and provide a diverse geographic, income, construction age, infill and redevelopment potential based on the above criteria. Specifically, Brentwood, South Menchaca, and Montopolis represent a progression from most-to-least utilized and, conversely, least-to-most vulnerable to 153 gentrification. Table 1 shows the characteristics of the three neighborhoods at the beginning of our modeling period in 2020. We envision two development pathways: a) a low-density, sprawling, future with redevelopment indicative of auto dependent urban patterns, consisting primarily of larger single-family homes, and higher floor area per capita (Pincetl et al., 2014) and b) a high-density future supported by greater 159 pedestrian activity and transit (Appleyard, Ferrell, & Taecker, 2017;Cervero & Landis, 1997) with high intensity, multi-story residential and commercial buildings along major streets, and greater reliance on intermediate density multi-family ("missing middle"). The future land-use scenarios for each of the three 162 neighborhoods were developed starting in 2020 for the target year 2100 in steps of 10 years with the following assumptions: First, we assume that all buildings will be redeveloped by 2100 and, second, that each parcel will only go through a single redevelopment. These assumptions serve to simplify the 165 scenario process for the purposes of assessing the impacts of morphology on future energy use, in our exploratory scenarios. We also create a reference scenario that reflects the current land-use, i.e., no redevelopment. 168 Nr of Lots To account for the uneven nature of land redevelopment pressure, the future land-use scenarios contain internal differentiations by land-use class and location. Specifically, we initially classified the parcels based on their current land-use and location. We combine the current land-use into three classes, 171 representing similar building morphologies: small residential, large residential, commercial/mixed-use. Similarly, we identify three categories to account for location: along a major traffic corridor, within an identified transit-oriented development (TOD) area, or within the interior of the neighborhood. Major 174 corridors and TOD areas were determined by the Image Austin Comprehensive Plan, which specially identified the locations as preferred "activity corridors" and "centers" for future growth. (Wallace, Roberts, & Todd, 2012) 177 We build a redevelopment schedule into the dataset to explore the process of land-use changes by decade. The redevelopment schedule is the percentage of parcels in the neighborhood considered to redevelop over the course of each decade from 2020 to the target year of 2100 (see Table 2). Montopolis has large, 180 undeveloped portions, and therefore a great percentage of parcel redevelopment occurs quickly. The redevelopment schedule is implemented through a redevelopment rank determined by the ILR and broken out by the three locations (interior, corridor, TOD). The lowest ILR in each location is assigned the 183 highest rank for each use class. Redevelopment is implemented using the percentage of all parcel land-use ordered by max rank by decade. The specific type of redevelopment was assigned using parcel size and location as the factors limiting potential land-use intensity. The major differences in the development of 186 the different neighborhoods can be summarized as • Montopolis (Mont) -the only neighborhood with significant greenfield potential. We chose to subdivide the larger lots inside the neighborhood since these are likely to become small 189 residential in the near term. But there remain many large lots suitable for mid-rise development. Existing single-family lots are the biggest of the three. So: greatest potential variability neighborhood. 192 • Brentwood (Brent) -the smallest lot sizes, both for larger and smaller parcels. But has significant acreage of larger parcels suitable for mid-rise development (especially compared to SM). So: scenario leaning toward concentrated (and therefore greater) density 195 • South Menchaca (SM) -larger lots than Brent, but a greater share of small residential parcels. The least potential for mid-rise development. So: more decentralized density ( Architectural and Energetic Modeling of Building Archetypes 201 Envision Tomorrow (ET) has precomputed constant annual energy demand for each of its various building archetypes, which is not suitable for our purposes because it does not reflect impact of climate change or efficiency upgrades. Thus, we develop building energy models for the 25 different residential 204 and commercial building archetypes from ET ( Figure 3), which are then subsequently used in the land-use and transformation scenarios described above. Detached homes are assumed to have rectangular floor plans 7.6m width and the length adjusted to the area assumed in Envision Tomorrow. Ceiling heights are 207 3m. For multi-family and multi-use building types, we assume double loaded 2.4m corridor down the middle, and the different units are studio, one-, two-, three-and four-bedroom apartments with a standard depth of 7.6m and the length again adjusted according to the overall area. Mixed-use buildings have 210 storefronts at the bottom floor. All buildings assume a wood frame construction, and double pane windows. We assume 2.5 people per residential dwelling unit. The buildings are designed in Rhinoceros 3D (McNeel, 2010) and simulated with EnergyPlus (Crawley et al., 2001) using the DIVA plugin (Jakubiec 213 & Reinhart, 2011) and the weather files corresponding to the three studied climate change pathways. Policy Instruments for Technology Adoption Currently in Austin, TX the following policy incentives are available for the technologies being 231 considered in this model. For Solar PV, homeowners can avail a Federal Investment Tax Credit (FITC) of 26%, which was stepped down from 30% in 2020. Since 2019, a flat rebate of $2,500 is also available for systems over 2.5kW. For upgrading to efficient HVAC, a rebate of up to $2550 is available since 2020, 234 whereas installing a smart thermostat can earn a $110 rebate. From these existing baselines, we model two bounded policy scenarios for technology adoption. In the best-case scenario: 1) the FITC for solar PV steps down to 22 percent in 2023 and expires in 2024 as defined by the current federal policies; and 2) the 237 rebates for all the three technologies continue to exist until 2100, with the rebate for solar PV available for systems above 1.2kW from 2022 onwards. In the worst-case scenario, the FITC, as well as all the local rebates, expire by 2020 and no economic incentives are available for any of the three technologies 240 under consideration. Modeling these two scenarios provides upper and lower bounds for adoptions, which allows the integrated model to explore the full range of impact from individual adoption decisions. Agent-based model of technology adoption in households 243 We model the diffusion of energy technologies at the household level using an agent-based model (ABM) as demonstrated previously (Rai & Robinson, 2013;Robinson & Rai, 2015). The ABM approach allows us to simulate realistic social drivers of home energy technology adoption decision-making. At the core of 246 the model is a dual-threshold model of gateway technology adoption mated to a novel sequential model of technology co-adoption. The gateway model identifies the first technology adopted by a household as a function of their access to financial and informational resources and the conditions at the time of their 249 financial and informational activation. The sequential model specifies the order and timing of subsequent co-adoptions conditioned on prior adoptions -including gateway technology -and dwelling type. Note that single family homes can adopt all possible technologies (high efficiency HVAC, solar, storage and 252 smart thermostats), while multi-family homes can only adopt smart thermostats. The available roof space for PV is estimated from building footprint, tree cover and elevation; orientation of the roof is not explicitly estimated. 255 The ABM initializes with more than 181,000 buildings, including single-family homes in Austin, Texas, as well as single-and multi-family homes within focal neighborhoods, dependent on the development scenario. Agent state data at initialization includes indices for access to financial and informational 258 resources, geospatial location, and type of dwelling. Agents' social networks are estimated at initialization in three steps: 1) all alter agents within a geographic radius φ of an ego agent are geographic candidates for connection, 2) a homophily constraint -the top ρ percent of similar agents according to financial 261 resource access -is applied to the geographic candidates and the remaining agents are connected, and 3) an additional λ proportion of the total connected neighbors are randomly selected from the entire agent pool and connected. The resulting social network is empirically informed and has small-world 264 characteristics. The economic and policy context are also established at initialization. The economic context consists of future sale prices of home energy technologies estimated by combining historical data with simple trend 267 assumptions, e.g., stable decreases in prices over time with constant variability. The policy context comprises the primary set of decision variables in the model and includes many aspects that shape agent decision-making. For example, the rebate available for any home energy technology at any point in time 270 reflects a policy interest in offsetting a portion of the financial burden (captured in the economic context) associated with technology acquisition. Similarly, a mandate requiring that all new units have a particular technology -regardless of rebate availability -reflects policy interest in that technology. 273 The informational context captures the social drivers of technology adoption: during the simulation, agents exchange information with their social neighbors altering the level and distribution of information in the system. As the simulation progresses, agents make adoption decisions that diffuse the target 276 technologies. Agents are sparked to adopt a gateway technology when they acquire sufficient informational resources: i.e., when they are convinced that adopting the technology is a good idea through the dynamic and emergent informational context. The gateway technology and subsequent technologies 279 that compose the agents' home energy plans are randomly selected from the empirical distribution of gateway technologies and subject to constraints imposed by agent status as renter or owner. Once activated with a gateway technology, agents solicit bids to install each technology in the home energy 282 plan. Successful adoption occurs when agents solicit bids that they can afford: i.e., the agent has access to sufficient financial resources as indicated through their financial index. When weighing the prospective benefits of a bid, the benefit of each technology is calculated with respect to the suite of previously 285 installed technologies. For example, the benefit of installing a smart thermostat differs for agents who do versus do not already have solar PV installed; in the first case, it would reduce their overall energy use, which is valued at the rate of the feed-in-tariff, while in the second, its reduction in energy use would be 288 valued at the retail electric rate. Also, as the simulation progresses, development scenarios determine agent exit from, and entry to, the population. When a scenario includes changes in a parcel's use (e.g., density changes such as shifting 291 from a lone single-family home to two single-family homes on the same parcel), the ABM creates and removes agents as appropriate. New agent states are initialized following the procedure described above. Efficiency improvements of adopted technologies 294 We estimate the effect of energy efficiency measures as follows. If a building is adopting High-efficiency HVAC, it's annual energy demand is reduced by the highest efficiencly available for that year based on the technology adoption model; if a building is not adopting high-efficiency technologies, it follows a 297 regular lifetime update, i.e., every 20 years, the HVAC system is updated with one that is slightly more efficient, with the general efficiency improvements assumed to be 2% per year for 20 years until a theroretical limit is reached (Wang et al., 2018b). 300 The effect of solar PV and storage on the energy demand is estimated in two steps. First, we determine the annual energy generated ! in (kWh) based on the panel size that has been selected by the technology adoption module using on the solar sun hours method as 303 ! = 356 × !"# × Where !"# (in hr) is the average daily sun hours in a location, and in (kW) is the nominal power output of the solar array. For Austin, !"# ≈ 5 hr. The impact of the added battery is modeled by 306 assuming an average annual self-sufficiency of 40%. Using these numbers for energy improvements, each building's pre-simulated energy demand is updated and reduced to reflect technology adoption. Grid Decarbonization Pathways 309 We include three grid mix evolution pathways in our study. The first maintains the 2020 level of carbon content at ~430 gCO2eq/kWh (no grid decarbonization) and serves as a reference. This number is the 312 average for the grid mix from 2010-2019 (City of Austin, 2022). As an indication, the 2019 grid mix was approximately 47% natural gas, 20% coal, 20% wind, 11% nuclear, and 1% wind (ERCOT, 2019) . A rapid grid decarbonization scenario is used for the TX grid (Rhodes & Deetjen, 2021), at a rate of about -315 100 gCO2eq/kWh/decade reaching a constant value of ~50 gCO2eq/kWh by 2060. This is a "net-zero by 2050" scenario as the final value of 48 gCO2eq/kWh by 2100 represents the embodied emissions of the renewable generation in the grid(Intergovernmental Panel on Climate Change, 2014). The third, 318 moderate, pathway is defined as the arithmetic average between the previous two, resulting in a decarbonization rate of -50 gCO2eq/kWh/decade until its plateau at about 240 gCO2eq in 2060, after which grid decarbonization efforts stall at a non-zero operational emission grid mix. These three 321 pathways cover a large variety of overall carbon content in the TX grid, regardless of the generation composition, which is sufficient for our case. The grid carbon content factor is used to convert annual operational electricity demand to annual greenhouse gas emissions. 324 Comparing high and low-density development: Premium for Sprawl We are generally interested to assess the emissions in the buildings belonging to the study neighborhood, i.e., limited by their geographical area. However, keeping the area fix, means that densification allows 327 more people to be accommodated, who otherwise would move to another area and whose emissions in absolute terms would not be counted. Thus, to allow a fair comparison in absolute emission values between different urban developments, we extrapolate the results for the low-density developments to 330 match the number of units of the high-density development. We then define as the Premium for Sprawl as the difference in emissions (in tCO2eq/yr) of low-density developments compared to the high-density development. In other words, the Premium for Sprawl describes the surplus in emissions due to sprawling 333 for a fixed number of residences (or persons). The Premium for Sprawl is inspired by the Premium for Height for tall buildings, resulting from the increase of cost for the required material to withstand wind loading (Ali & Moon, 2007). 336 Model Limitations To convert energy demand to emissions in the buildings, we assume that all energy used is electric, i.e., all buildings are electrified. For our case study in Texas, where cooling is the dominant energy use and 339 typically met with electric air conditioning systems, this is a reasonable assumption, especially to compare pathways amongst each other. For other climates, where heating is dominant, one must include fuel switching scenarios that also consider transitioning from fossil fuel heating systems to electric 342 heating systems, e.g., heat pumps. Urban energy systems, such as district heating and cooling are not investigated. Also, our models are not capturing extreme weather situations like heat waves or cold snaps. As indicated above, our model also 345 does not include emissions from transporations or embodied construction emissions. However, the parcel, level formulation of the model allows the integration of these with reasonable assumptions in the future. Similarly, if a realistic initial condition of the neighborhood in terms of construction material can be 348 created, then building retrofitting, e.g. envelope and window improvement would be another scenario dimension that could be explored (Felkner & Brown, 2020). As with any long-term forecasting models, we assume that general behaviors, e.g., on technology 351 adoption or urban transformation drivers do not change significantly over time. While these are strong assumptions, they also let us investigate their relative importance, such that one can decide which of the models should be further improved to better assess their overall impact. 354 We are not explicitly including population numbers in the neighborhoods. Instead, we couple population numbers to the building units by assuming 2.5 occupants per residence, which is consistent with the US average household size according to the 2018 census. As a consequence, per unit indicators are 357 equivalent, in our case, to per capita indicators. RESULTS: IMPACT PATHWAYS 360 We explore the IMPACT pathways for the three neighborhoods in Austin, TX with the scenarios shown in Figures 1 and 2 not refer to the same scenario in both figures, but is rather used to support our narrative starting at A. Figure 4 and Figure 5 and show the relative (per residence unit) and absolute IMPACT pathways, 369 respectively, for the A1B climate scenario and all other considered scenarios, aggregated for all three studied neighborhoods (shown in Figure 2). Policy Interactions: Synergies, Trade-offs and Rebounds The relative pathways offer an apples-to-apples comparison between the urban development scenarios 372 (Figure 4). Clearly, fast grid decarbonization has the largest overall effect on emission reductions (Figure 4 (A)). In addition, both low-and high-density development further amplify the emissions reductions in the beginning (Figure 4 (B)). However, after 2070 the emissions of the low-density development begin to 375 slightly increase again, while they remain flat for the high-density development. In the moderate grid decarbonization scenario, the low-density development rebounds its emissions after 2050 (Figure 4 (C)), while for densification the annual emissions remain flat after 2050 (Figure 4 (D)). In 378 fact, densification without grid decarbonization (Figure 4 (E)), reduces the relative emissions of the neighborhoods by about 25% between 2020 and 2100. By contrast, low-density development without grid decarbonization first reduces the annual emissions by 20% in 2050, but ultimately rebounds by 2100 to 381 about the same levels as 2020 (Figure 4 (F)). While this is about 20% lower than the reference case that only considers climate change and no urban development or grid decarbonization (Figure 4 (G)), it is also 30% higher than the corresponding high-density development (Figure 4 (E)). 384 Comparing Figure 4 (E) and (H), we observe that several scenario combinations can lead temporarily to similar outcomes: no grid decarbonization with high density development (Figure 4 (E)) and moderate grid decarbonization alone (Figure 4 (H)) have about the same annual emission until about 2050, after 387 which they diverge. Thus, the same relative emission pathways can be achieved with different policy combinations. Our results clearly demonstrate that in the absence of a zoning policy that is favorable for densification, 390 the major driver for the decarbonization of the neighborhoods is grid decarbonization. This is a rather important realization as the drivers behind the two are not necessarily related or combined and subject to different socio-techno-economic and political boundary conditions. We demonstrate here that their 393 interaction has substantial effect on emissions outcomes and pathways. Our results show that technology adoption has a comparatively small impact, e.g., the three curves for Figure 4 (C) representing the neutral, no tech adoption and supportive policies, and have almost identical 396 pathways. Therefore, all technology adoption scenarios are implicitly assumed in the corresponding grid decarbonization and urban development scenarios. We discuss the implications of this further below when comparing individual action vs systemic change. 399 402 In terms of absolute emissions (Figure 5), again rapid grid decarbonization of the grid leads to the fastest emission reductions by far, regardless of other policies. Because there are fewer buildings in the lowdensity neighborhood, its annual emissions in this case (Figure 5 (A)) are somewhat lower than the 405 corresponding high-density neighborhood (Figure 5 (B)). At the other grid decarbonization extremewhen the grid carbon content remains unchanged-densification and climate change substantially increase the overall emissions (Figure 5 (C)) due to the increased number of units in the neighborhoods. 408 This somewhat counter intuitive result stems of course from the fact that the high-dentisty neighborhood absorbs many more people, which are not considered in the low-density scenario. We further discuss and compare high and low density developments below in Premium for Sprawl. 411 For moderate grid decarbonization and low-density urban development (Figure 5 (D)), grid decarbonization mainly drives the initial emission decrease. After 2050, however, emissions begin to rebound and by 2100 the annual emissions return to their level of about 2040. The high-density 414 development even rebounds to annual emissions higher than their 2020 level (Figure 5 (E)). If only climate change is considered (no grid decarbonization, and no urban redevelopment), the annual emissions increase slightly (Figure 5 (F)). Adding low-density urban development (Figure 5 (G)) shows 417 that it can reduce emissions until about 2050, due to efficiency increases in newly built buildings. However, here also the emissions eventually rebound, due to energy demand increase driven by climate change, and by 2100, the annual emissions return to their values at about 2020. 420 Comparing Figure 5 (E) and (G), we again see that different scenario combinations can temporarily achieve the same emission outcomes: Both set of curves (E: moderate grid decarbonization and highdensity development) and (G: no grid decarbonization and low-density development) follow a similar 423 reduction until about 2050, and a similar rebound until about 2070. After 2070 their pathways separate. Notice that this is contrary as for the relative pathways, where the two scenario combinations are clearly separated (Figure 4 (F) and (D), respectively). 426 High density development can rebound to annual emission higher than 2020. F. Without any decarbonization measures, annual emissions increase due to climate change. G. Low-density development without grid decarbonization can initially reduce emissions but increase in energy demand due to climate change leads to a rebound after 2050. E and G show similar decrease until 2050 and rebound until 2070, after which their pathways separate. Individual action (technology adoption) vs Systemic change (zoning policy) 429 Figure 4 also demonstrates that urban redevelopment has a substantially larger effect on emission reductions compared to technology adoption. Since the fast grid decarbonization dominates both, we highlight this on the moderate grid decarbonization scenario (Figure 4 (C) and (D)). Clearly, technology 432 adoption reduces emissions in all cases, the falling price scenario being the most favorable for adoption. The effect is larger for the low-density development, where sustained reductions can be achieved during the rebound phase (Figure 4 (C)). Under high-density development, single-family dwellings give way to 435 multi-family dwellings -for which the full menu of technology adoption adoptions is typically not available -effectively eliminating the impact of technology adoption over time (Figure 4 (D)). Of course, because overall accumulated emissions matter more for slowing climate change, every bit helps. 438 This has clear implication in the ongoing policy discourse of individual/market-driven solution vs systemic solutions. Clearly, technology adoption incentivization alone cannot be the central cornerstone of any serious climate policy. We conjecture that the same conclusion could be drawn for other types of 441 technology adoptions. For example, we do not explicitly model fuel-switching adoption, i.e., a home switching from a gas-furnace for heating to an electric heat pump. However, given that that is also typically a high price upgrade, the adoption rate would be similar to what is presented here. 444 Climate change and Premium for sprawl For the moderate grid decarbonization scenario, Figure 6a shows the impact of climate change on the 447 relative emissions (tCO2eq/unit) for each urban redevelopment scenario. As the first part (until 2050) is driven by grid decarbonization and the different climate scenarios are still relatively similar, there is virtually no difference within the land-use scenarios, low-density redevelopment having higher relative 450 emissions than high-density, and both being higher than their emissions without climate change. After 2050, grid decarbonization stalls, urban redevelopment increases and the effects of climate change intensify, resulting in different pathways. 453 As one would expect, the A2 climate scenario has the highest emissions, while B1 the lowest. We can see that an amplifying high emission combination pathway (A2 & low-density development) can be up to 65% higher than an amplifying low emissions combination pathway (B1 & high-density development) in 456 2100. Further, a favorable climate scenario (B1) coupled with low-density development is still about 30% higher in 2100 than the worst-case climate scenario (A2) with high-density development. In other words, an unfavorable zoning policy, will be amplified by climate change. 459 Figure 6b) and c) shows the premium for sprawl for two neighborhoods for grid decarbonization scenarios and A1B climate scenario (without technology adoption). For Brentwood (Figure 6b)) we show the values in 2100 as an example. Note there is no scenario in which the premium is negative, i.e., high-densitity 465 development is always more favorable in terms of reducing emissions (for a given population size). Even for rapid grid decarbonization and without considering climate change (Figure 6b) bottom), in 2100 the low-density development still emits on the order of 2,500 tCO2eq more annually than the high-density 468 equivalent. For moderate grid decarbonization, the premium for sprawl is about five times higher, ~12,800 tCO2eq, and it is about nine-fold if the grid is not decarbonized (23,000 tCO2eq). These ratios are relatively consistent across the decades and neighborhoods. The A1B climate scenario amplifies the 471 premium for sprawl by about +10%, for example, for the moderate case 14,300 tCO2eq (A1B) compared to 12,800 tCO2eq (no climate change). For B1 and A2 climate scenarios, we find this amplification to be +5% and +15%, respectively. 474 Comparing ( Figure 6b) and (Figure 6c), we can also identify the interaction between urban redevelopment and grid decarbonization. The Brentwood neighborhood (Figure 6b) develops more slowly in the first part of the century, while Montopolis (Figure 6c) develops more quickly. Consequently, there are relatively 477 fewer new buildings in Brentwood compared to Montopolis, and the difference between the low-and high-density developments is small, reflected in the similar evolution of the premium for sprawl until about 2050. As Montopolis develops more quickly earlier, the premium for sprawl increases in the 480 beginning until about 2040. Eventually, the decarbonization of the grid progresses sufficiently to reduce the premium again. From 2050 onwards both neighborhoods undergo significant redevelopment, highlighting the premium for sprawl for moderate and no decarbonization scenarios, while maintaining 483 comparatively low constant values for the rapidly decarbonizing grid. Importance of Baseline 486 One important aspect of policy development and interpretation is the choice of the appropriate baseline against which potential decarbonization interventions are compared. Recently, it has been argued that policies to address climate change should be analyzed by considering only the outcome when climate 489 change is accounted for (Hausfather & Peters, 2020;Jafino, Hallegatte, & Rozenberg, 2021). This helps capture potential interactions and avoids overestimating the impacts of the policy. We illustrate this in Figure 7a), where we show the annual energy demand of the neighborhoods for the climate change 492 forecasts compared to their current state (2010) and excluding urban redevelopment and technology adoption (grid carbon content is irrelevant for energy demand). Energy demand is increasing by +10% by 2050 in any climate scenario and increases to above 20% by 495 2100 for A1B and A2, while plateauing at about +15% for B1 after 2080. Therefore, any energy efficiency policy that fails to include climate change, will overestimate its expected impact by at least 10% by 2050. IMPACT pathways reduce this bias by incorporating climate change scenarios. While this 498 may seem rather obvious, surprisingly few, if any, building energy and decarbonization scenarios are presented with climate changed modified weather scenarios. Absolute vs relative emission pathways For comparison between scenarios, relative values are convenient by normalizing, e.g., for the built area (tCO2eq/m 2 ), which, in analogy to the energy use intensity index, could also be referred to as emission 504 intensity of a building or neighborhood. Since we are also considering urban development, we put forward that the comparison of emissions per built residence unit (tCO2eq/unit) is more use-and insightful than per built area, since the same built area could potentially serve multiple units. By residence 507 units, we understand the subdivisions of a building, i.e., a multi-family house is one building with several housing units. Relative emission values must be used and interpreted with care as they can obfuscate real pathways. This 510 is shown in Figure 7b- However, comparisons between different urban redevelopment scenarios should use (tCO2eq/unit) to account for the fact that there exists a cap on the total number of people that a neighborhood can 519 accommodate. This cap is smaller for lower density developments, and so in a generally growing city, additional people must move elsewhere, and their emissions are not captured in absolute pathways comparisons. The premium for sprawl indicator resolves the issue of the correct but harder to interpret 522 relative emission pathways using (tCO2eq/unit) and offers a true comparison between different pathways for a neighborhood or municipality. DISCUSSION 525 It is tempting to consider our results of different decarbonization measures independently and rank them based on their ability to reduce emissions. However, this would disregard several long term temporal effects and potential interactions between the measures, which can be discovered in bottom-up 528 exploratory models. Our results clearly show that researcher must include climate change forecasts in energy modeling to ensure that potential shifts in heating and cooling loads are adequately captured. Policy makers must plan with long term scenarios to avoid rebound effects as short term gains can be 531 cancelled out by long term developments. The IMPACT pathways demonstrate that comparatively short-term emission reductions driven by one mechanism, e.g., grid decarbonization, can be effectively overturned in the longer term by a potentially 534 adverse set of events, e.g., unguided urban development. This highlights the necessity to decarbonize the electric grid as fast as possible to avoid adverse effects: if the initially dominant mechanism stalls at some point, e.g., for the moderate grid decarbonization scenario, urban development can eventually counteract 537 all the gains. Furthermore, the IMPACT pathways have shown that in the short-term several combinations of scenarios can potentially produce the same emission reductions, while their impact differs in the longer term. Of course, given the obvious uncertainties associated with making long-term predictions of coupled 540 systems, rigorous monitoring and accounting of emissions is necessary to keep track of model predictions, and develop better models and forecasts as more data is collected. IMPACT pathways are exploratory and allow us to compare both top-down (policy) and bottom-up 543 (individual) processes to understand the degree and type of interventions necessary to rapidly curb residential emissions. What's more, they also clearly show where the impactful decision-makers are located. For example, in our case study, the individual decision makers, i.e., the technology adopters in 546 the residences, do not emerge sufficiently powerful to have an impact on emissions. Consequently, policy incentivizing or mandating certain technology adoptions, typically at the national level, has equally little impact. Whether this is due to the low number of adopters or low impact of the adopted technoly is not 549 clear. By contrast, grid decarbonization and zoning policy have the largest individual impact. The two must be coordinated to effectively deliver an effective net-zero emissions agenda, doing which will likely heavily involve the municipality level (IEA, 2021). 552 Densification has long been theorized as central to decarbonization (Teller, 2021), and it has been well established that per capita transportation emissions decline as density rises (Gately, Hutyra, & Wing, 2015). However, there had remained a gap in understanding "the magnitude of the emissions reduction 555 from altering urban form, and the emissions savings from integrated infrastructure and land-use planning" (Intergovernmental Panel on Climate Change, 2015). The IMPACT pathways presented here contribute to uniting "measurement and meaning" in integrated land-use and infrastructure studies (Richter, 2021). We 558 clearly demonstrate that zoning policy and housing can have a substantial impact and must be considered as a viable decarbonization measure. We have introduced the Premium for Sprawl to quantify the fact that low density developments accrue emissions outside of their geographical limits due to people who cannot 561 be accommodated in the neighborhoods. When evaluating our results, one must be aware of the limitations built into the assumptions. It is not clear how our results would be impacted if transportation emissions would be directly included. We can 564 hypothesize that lower density development will be more favorable for transportation emissions but quantifying them requires additional research. An interesting avenue for future work is to integrate the transition to electric vehicles as it would couple transportation emissions directly to the grid. Again, a 567 sprawling development will likely require more frequent EV charging, and therefore result in higher emissions compared to the denser development. Given that our model is at the building unit level, it is relatively straightforward to implement assumptions on EV charging (load and frequency). Similarly, to 570 obtain an even more integrated picture of the impact of the built environment on emissions, embodied emissions should be integrated in future research. This would help compare the impact of efficiency upgrades to new construction. 573 IMPACT pathways are complimentary to life-cycle assessment (LCA) research on net-zero energy neighborhoods, e.g., (Wiik et al., 2022) in that they provide a temporal exploration of possible scenarios and policy impacts ("what-if" questions), rather than holistic design guidelines, or normative pathways to 576 achieve a certain emission target. Since we are working with annual average energy demand and grid carbon content, more research is needed to determine the potential of more fine grained temporal resolution for the operation of the 579 electrical grid. It is also not clear what the impact of other potential building efficiency upgrades, e.g. insulation, would be. However, we can hypothesize that since the impact of high efficiency is modeled by reduced annual energy demand, any equivalently impactful technology will have a similar effect, 582 especially considering the mandate scenario. In that case, the impact is limited by the fraction of buildings redeveloping, which in our model is already relatively large (>6%/yr) compared to the typical 2-3% retrofit rate. 585 CONCLUSION IMPACT pathways generate results consistent with recent studies on the emission reduction potential of 588 buildings (Goldstein et al., 2020) and on the relatively low impact of technology adoption . They integrate decisions and processes at the individual residence level and can be easily further integrated with other policies and impacts of interest, e.g., fuel switching in heating systems, building 591 retrofit (Felkner & Brown, 2020), transportation emissions, adoption of electric vehicles, or embodied carbon in building construction (Berrill & Hertwich, 2021). Further, hourly energy simulation results not presented here, could be used for studies on demand response programs and on grid-interactive buildings 594 (Department of Energy, 2021; Vazquez-Canteli & Nagy, 2019). To unlock the tremendous potential that the built environment offers to address climate change, integrated multi-domain models spanning several spatiotemporal scales can inform decision makers on the effectiveness of policies. IMPACT pathways are 597 key in defining and analyzing policies, as well as in tracking their implementation progress. DATA PROCESSING AND AVAILABILITY The output of each model is organized into sets of spreadsheets in which a given parcel is associated with its own 600 unique ParcelID, allowing for linkage of the models. Data are joined and further processed in a set of Tableau workbooks. An interactive dashboard with all the data is available at https://public.tableau.com/app/profile/intelligent.environments.laboratory/viz/IMPACTPathways/IMPACTPathways 603 Figure 1 : 1a) Overview of the IMPACT model used to generate multi-domain emission pathways (ILR: Improvement-to-land ratio; Individual D-M: Decision Maker). b) Number of building types for high-and lowdensity urban development scenarios for the Brentwood neighborhood in Austin, TX c) Average annual temperature in Austin, TX, for different climate change scenarios, d) Policy and economic inputs for technology adoption scenarios e) Grid decarbonization scenarios. Figure 2 : 2Residential zoning policy scenarios in each of the three studied neighborhoods . Each individual pathway is a combination of the urban development scenarios (no 363 change, high density, low density), grid decarbonization (no, moderate or rapid decarbonization), and technology adoption (no adoption, neutral, and supportive policy). The combinations are labeled with uppercase letters (A-I/J) in Figures 4/5 and shown in the Figure legend. Notice that the same letter does 366 Figure 4 : 4IMPACT Pathways for relative annual emissions aggregated for all three neighborhoods. A. Rapid grid decarbonization results in the fastest emission reductions. B. Emission reductions are amplified by densification. C. For moderate grid decarbonization, low-density development shows rebound of emissions after 2060, while D. the high-density development does not show rebound. E. Densification without grid decarbonization can reduce emissions without rebound and is similar in reduction potential until 2050 than moderate grid decarbonization alone (H). F. Low-density development without grid decarbonization reduce emissions until 2050, but rebounds by 2100 to higher emissions than 2020. G.Without any decarbonization measures, annual emissions increase due to climate change. Figure 5 : 5IMPACT Pathways for total annual emissions aggregated for all three neighborhoods. A. Rapid grid decarbonization results in greatest emission reductions. B. Densification can offset emission reductions. C. Densification without grid decarbonization leads to highest annual emissions. D. Moderate grid decarbonization drives emission reductions until 2050 when low-density development rebounds. E. Figure 6 : 6a) Impact of climate change and urban redevelopment on relative emissions under moderate grid decarbonization aggregated for all three neighborhoods b) Premium for Sprawl in Brentwood and c) Montopolis 462 Figure 7 a 7) Energy demand under climate change. Energy efficiency policy that fails to include climate change, will overestimate its expected impact. b) Emission Pathways for Brentwood for climate change scenario A1B in absolute values (tCO2eq), c) per housing unit (tCO2eq/unit), and d) per built area (tCO2eq/m 2 ). Characteristics of the studied neighborhoods 156Total Lot Area (m 2 ) Housing Units Total Housing Area (m 2 ) Average 2020 population Brentwood 2,580 3,340,000 4,790 606,240 14,350 South Menchaca 2,378 2,831,000 3,099 441,520 9,100 Montopolis 2,143 4,744,000 3,619 494,530 11,600 Table 1 Redevelopment schedule (% of lots redeveloped) in each neighborhood8-plexes inside the neighborhood) 198 2020 2030 2040 2050 2060 2070 2080 2090 2100 Montopolis 15% 15% 6% 6% 9% 9% 10% 15% 15% Brentwood 6% 6% 6% 9% 9% 12% 12% 20% 20% South Menchaca 6% 6% 6% 9% 9% 12% 12% 20% 20% Table 2: Figure 3Building archetypes. Detached homes are assumed to have rectangular floor plans 7.6m width and the length adjusted to the area assumed in Envision Tomorrow. Ceiling heights are 3m. For multi-family and multiuse building types, we assume double loaded 2.4m corridor down the middle, and the different units are studio, one-, two-, three-and four-bedroom apartments with a standard depth of 7.6m and the length again adjusted according to the overall area. Mixed-use buildings have storefronts at the bottom floor. All buildings assume a wood frame construction, and double pane windows. We assume 2.5 people per residential dwelling unit.For the energy simulation we use weather files for Austin, TX based on the IPCC 2000 Special Report on Emission Scenarios (SRES) A1B, A2 and B1 provided by Meteonorm (Meteonorm, 2019) for each 219 decade between 2020 and 2100, in addition to the typical mean year (TMY) weather data for current weather reference. For our purposes, these SRES scenarios are similar to the Representative Concentration Pathways (RCP), e.g., SRES A1B is similar to RCP 6.0 and SRES B1 is similar to RCP 4.5(Riahi et al., 2017). Similarly, the most recent Shared Socioeconomic Pathways scenarios (SSPs) have close matches in the SRES scenarios, e.g., SSP1 and B1 scenarios are close, both assuming a better case scenario for global sustainability, and SSP3 and A2 scenarios are similar in their outlook on 225 global cooperation(van Vuuren & Carter, 2014). As a point of reference, the three climate scenarios (B1, A1B and A2) result in an average annual temperature increase in 2100 in Austin of +1.5C, +2.5C and +3C, respectively. 228216 2.3. Climate Change Pathways 222 d for Brentwood's low-density redevelopment for the moderate grid decarbonization scenarios. All pathways show decreasing emissions until about 2050. After 2050, the annual emissions increase for both (tCO2eq) and (tCO2eq/unit), while the continue to decline for 513 (tCO2eq/m 2 ). Any indicator can be useful and appropriate depending on the purpose. For example, the absolute emissions indicate the carbon footprint of the neighborhood, while comparisons of interventions for the same urban development scenario can be compared using the built area (tCO2eq/m 2 ) because the 516 same buildings and residence units are compared to each other. M M Ali, K S Moon, Structural Developments in Tall Buildings: Current Trends and Future Prospects. 606Ali, M. M., & Moon, K. S. (2007). Structural Developments in Tall Buildings: Current Trends and Future Prospects. 606 . 10.3763/asre.2007.5027Architectural Science Review. 503Architectural Science Review, 50(3), 205-223. https://doi.org/10.3763/asre.2007.5027 Transit corridor livability: Realizing the potential of transportation and land use integration. B Appleyard, C E Ferrell, M Taecker, Transportation Research Record. 2671Appleyard, B., Ferrell, C. E., & Taecker, M. (2017). Transit corridor livability: Realizing the potential of transportation and land use integration. Transportation Research Record, 2671, 20-30. . 10.3141/2671-03https://doi.org/10.3141/2671-03 Effect of housing density on energy efficiency of buildings located in hot climates. O S Asfour, E S Alshawaf, 10.1016/j.enbuild.2015.01.030Energy and Buildings. 91Asfour, O. S., & Alshawaf, E. S. (2015). Effect of housing density on energy efficiency of buildings located in hot climates. Energy and Buildings, 91, 131-138. https://doi.org/10.1016/j.enbuild.2015.01.030 Material flows and GHG emissions from housing stock evolution in US counties. P Berrill, E G Hertwich, 10.5334/bc.126Buildings and Cities. 21Berrill, P., & Hertwich, E. G. (2021). Material flows and GHG emissions from housing stock evolution in US counties, 2020-60. Buildings and Cities, 2(1), 599-617. https://doi.org/10.5334/bc.126 Twenty years of the bay area rapid transit system: Land use and development 615 impacts. R Cervero, J Landis, 10.1016/s0965-8564(96)00027-4Transportation Research Part A: Policy and Practice. 314 PART ACervero, R., & Landis, J. (1997). Twenty years of the bay area rapid transit system: Land use and development 615 impacts. Transportation Research Part A: Policy and Practice, 31(4 PART A), 309-333. https://doi.org/10.1016/s0965-8564(96)00027-4 10.26000/040.000019Imagine Austin Comprehensive Plan: Community Inventory Report. CO2 per kWhCity of Austin. (2009). Imagine Austin Comprehensive Plan: Community Inventory Report. Retrieved from 618 ftp://ftp.ci.austin.tx.us/GIS-Data/planning/compplan/4-community_inventory_LandUseandZoning_v4.pdf City of Austin. (2022). CO2 per kWh. https://doi.org/10.26000/040.000019 Integrating energy efficiency and urban densification policies: Two 621. E Conticelli, S Proli, S Tondelli, Conticelli, E., Proli, S., & Tondelli, S. (2017). Integrating energy efficiency and urban densification policies: Two 621 . 10.1016/j.enbuild.2017.09.036Italian case studies. Energy and Buildings. 155Italian case studies. Energy and Buildings, 155, 308-323. https://doi.org/10.1016/j.enbuild.2017.09.036 EnergyPlus: Creating a new-generation building energy simulation program. D B Crawley, L K Lawrie, F C Winkelmann, W F Buhl, Y J Huang, C O Pedersen, J Glazer, 10.1016/S0378-7788(00Energy and Buildings. 334Crawley, D. B., Lawrie, L. K., Winkelmann, F. C., Buhl, W. F., Huang, Y. J., Pedersen, C. O., … Glazer, J. (2001). EnergyPlus: Creating a new-generation building energy simulation program. Energy and Buildings, 33(4), 624 319-331. https://doi.org/10.1016/S0378-7788(00)00114-6 Urban infrastructure choices structure climate solutions. F Creutzig, P Agoston, J C Minx, J G Canadell, R M Andrew, C Quéré, Le, S Dhakal, Nature Climate Change. 612Creutzig, F., Agoston, P., Minx, J. C., Canadell, J. G., Andrew, R. M., Quéré, C. Le, … Dhakal, S. (2016). Urban infrastructure choices structure climate solutions. Nature Climate Change, 6(12), 1054-1056. . 10.1038/nclimate3169https://doi.org/10.1038/nclimate3169 Demand-side solutions to climate change mitigation consistent with high levels of wellbeing. F Creutzig, L Niamir, J Cullen, J Díaz-José, W Lamb, P Perkins, Research Square. PreprintCreutzig, F., Niamir, L., Cullen, J., Díaz-josé, J., Lamb, W., & Perkins, P. (2021). Demand-side solutions to climate change mitigation consistent with high levels of wellbeing. Research Square (Preprint). A National Roadmap for Grid-Interactive Efficient Buildings. 10.1038/s41558-021-01219-yDepartmentofEnergyhttps://doi.org/10.1038/s41558-021-01219-y Department of Energy. (2021). A National Roadmap for Grid-Interactive Efficient Buildings. Generation by Fuel Type. Ercot, ERCOT. (2019). Generation by Fuel Type. Retrieved from https://www.ercot.com/gridinfo/generation 633 The Impact of Climate Change and Envelope Retrofit on Urban Energy Consumption. J Felkner, J D Brown, 35th PLEA Conference on Passive and Low Energy Architecture. Comfort , and Overheating in Austin, TexasFelkner, J., & Brown, J. D. (2020). The Impact of Climate Change and Envelope Retrofit on Urban Energy Consumption , Comfort , and Overheating in Austin, Texas. In 35th PLEA Conference on Passive and Low Energy Architecture (pp. 1257-1262). C J Gabbe, J Fregonese, Best Practices in Scenario Planning: Using Envision Tomorrow Plus Model. American Planning Association: Regional and Intergovernmental Planning. Gabbe, C. J., & Fregonese, J. (2013). Best Practices in Scenario Planning: Using Envision Tomorrow Plus Model. American Planning Association: Regional and Intergovernmental Planning, 41-46. Cities, traffic, and CO2: A multidecadal assessment of trends, 639 drivers, and scaling relationships. C K Gately, L R Hutyra, I S Wing, 10.1073/pnas.1421723112Proceedings of the National Academy of Sciences of the United States of America. the National Academy of Sciences of the United States of America112Gately, C. K., Hutyra, L. R., & Wing, I. S. (2015). Cities, traffic, and CO2: A multidecadal assessment of trends, 639 drivers, and scaling relationships. Proceedings of the National Academy of Sciences of the United States of America, 112(16), 4999-5004. https://doi.org/10.1073/pnas.1421723112 The carbon footprint of household energy use in the United 642. B Goldstein, D Gounaridis, J P Newell, Goldstein, B., Gounaridis, D., & Newell, J. P. (2020). The carbon footprint of household energy use in the United 642 . 10.1073/pnas.1922205117117States. Proceedings of the National Academy of Sciences of the United States of AmericaStates. Proceedings of the National Academy of Sciences of the United States of America, 117(32), 19122- 19130. https://doi.org/10.1073/pnas.1922205117 Emissions -the 'business as usual' story is misleading. Z Hausfather, G P Peters, 10.1038/d41586-020-00177-3Nature. 5777792Hausfather, Z., & Peters, G. P. (2020). Emissions -the 'business as usual' story is misleading. Nature, 577(7792), 645 618-620. https://doi.org/10.1038/d41586-020-00177-3 Fusing subnational with national climate action is central to decarbonization: the case of the United States. N E Hultman, L Clarke, C Frisch, K Kennedy, H Mcjeon, T Cyrs, J Neill, 10.1038/s41467-020-18903-wNature Communications. 648111Hultman, N. E., Clarke, L., Frisch, C., Kennedy, K., McJeon, H., Cyrs, T., … O'Neill, J. (2020). Fusing subnational with national climate action is central to decarbonization: the case of the United States. Nature Communications, 648 11(1). https://doi.org/10.1038/s41467-020-18903-w Empowering Cities for a Net Zero Future. Empowering Cities for a Net Zero Future. Iea, 10.1787/7a222c8b-enIEA. (2021). Empowering Cities for a Net Zero Future. Empowering Cities for a Net Zero Future. OECD. https://doi.org/10.1787/7a222c8b-en Technology-specific Cost and Performance Parameters. 10.1017/CBO9781107415416.025Climate Change 2014 Mitigation of Climate Change. CambridgeCambridge University PressIntergovernmental Panel on Climate Change. (2014). Technology-specific Cost and Performance Parameters. In Climate Change 2014 Mitigation of Climate Change (pp. 1329-1356). Cambridge: Cambridge University Press. https://doi.org/10.1017/CBO9781107415416.025 Human Settlements, Infrastructure, and Spatial Planning. 10.1017/CBO9781107415416.018Climate Change 2014 Mitigation of Climate Change. CambridgeCambridge University PressIntergovernmental Panel on Climate Change. (2015). Human Settlements, Infrastructure, and Spatial Planning. In Climate Change 2014 Mitigation of Climate Change (pp. 923-1000). Cambridge: Cambridge University Press. https://doi.org/10.1017/CBO9781107415416.018 Climate Change 2022 Mitigation of Climate Change -Working Group III Contribution to the Fifth Assessment of the Intergovernmental Panel on Climate Change. Intergovernmental Panel on Climate Change. (2022). Climate Change 2022 Mitigation of Climate Change -Working Group III Contribution to the Fifth Assessment of the Intergovernmental Panel on Climate Change. Retrieved from https://www.ipcc.ch/report/ar6/wg2/ Focusing on differences across scenarios could lead to bad adaptation policy advice. B A Jafino, S Hallegatte, J Rozenberg, 10.1038/s41558-021-01030-9Nature Climate Change. 115Jafino, B. A., Hallegatte, S., & Rozenberg, J. (2021). Focusing on differences across scenarios could lead to bad adaptation policy advice. Nature Climate Change, 11(5), 394-396. https://doi.org/10.1038/s41558-021- 01030-9 DIVA 2.0: Integrating daylight and thermal simulations using rhinoceros 3D, DAYSIM and EnergyPlus. J A Jakubiec, C F Reinhart, Proceedings of Building Simulation 2011: 12th Conference of International Building Performance Simulation Association. Building Simulation 2011: 12th Conference of International Building Performance Simulation AssociationJakubiec, J. A., & Reinhart, C. F. (2011). DIVA 2.0: Integrating daylight and thermal simulations using rhinoceros 3D, DAYSIM and EnergyPlus. Proceedings of Building Simulation 2011: 12th Conference of International Building Performance Simulation Association, 2202-2209. Low-carbon infrastructure strategies for cities. C A Kennedy, N Ibrahim, D Hoornweg, 10.1038/nclimate2160Nature Climate Change. 45Kennedy, C. A., Ibrahim, N., & Hoornweg, D. (2014). Low-carbon infrastructure strategies for cities. Nature Climate Change, 4(5), 343-346. https://doi.org/10.1038/nclimate2160 A multi-669 country meta-analysis on the role of behavioural change in reducing energy consumption and CO2 emissions in residential buildings. T M Khanna, G Baiocchi, M Callaghan, F Creutzig, H Guias, N R Haddaway, J C Minx, 10.1038/s41560-021-00866-xNature Energy. Khanna, T. M., Baiocchi, G., Callaghan, M., Creutzig, F., Guias, H., Haddaway, N. R., … Minx, J. C. (2021). A multi- 669 country meta-analysis on the role of behavioural change in reducing energy consumption and CO2 emissions in residential buildings. Nature Energy. https://doi.org/10.1038/s41560-021-00866-x Optimal 672 decarbonization pathways for urban residential building energy services. B D Leibowicz, C M Lanham, M T Brozynski, J R Vazquez-Canteli, N C Castejon, Nagy, 10.1016/j.apenergy.2018.09.046Applied Energy. 230Z.Leibowicz, B. D., Lanham, C. M., Brozynski, M. T., Vazquez-Canteli, J. R., Castejon, N. C., & Nagy, Z. (2018). Optimal 672 decarbonization pathways for urban residential building energy services. Applied Energy, 230(May), 1311- 1325. https://doi.org/10.1016/j.apenergy.2018.09.046 Estimating the impact of urban densification on high-rise office building 675 cooling loads in a hot and humid climate. I Lima, V Scalco, R Lamberts, 10.1016/j.enbuild.2018.10.019Energy and Buildings. 182Lima, I., Scalco, V., & Lamberts, R. (2019). Estimating the impact of urban densification on high-rise office building 675 cooling loads in a hot and humid climate. Energy and Buildings, 182, 30-44. https://doi.org/10.1016/j.enbuild.2018.10.019 Integration of an energy-economy 678 model with an urban energy model. Y Lu, A Scott, J Kim, C B Curi, J Mccarty, A Pardy, C Girling, 10.5334/bc.71Buildings and Cities. 21114Lu, Y., Scott, A., Kim, J., Curi, C. B., McCarty, J., Pardy, A., … Girling, C. (2021). Integration of an energy-economy 678 model with an urban energy model. Buildings and Cities, 2(1), 114. https://doi.org/10.5334/bc.71 Fifth Assessment Report, Mitigation of Climate Change. Intergovernmental Panel on Climate Change. O Lucon, D Ürge-Vorsatz, Lucon, O., & Ürge-Vorsatz, D. (2014). Fifth Assessment Report, Mitigation of Climate Change. Intergovernmental Panel on Climate Change, 674-738. Infill Development: Perspectives and Evidence from Economics and Planning. V Mcconnell, K Wiley, 10.1093/oxfordhb/9780195380620.013.0022The Oxford Handbook of Urban Economics and Planning. Oxford University PressMcConnell, V., & Wiley, K. (2012). Infill Development: Perspectives and Evidence from Economics and Planning. In The Oxford Handbook of Urban Economics and Planning. Oxford University Press. https://doi.org/10.1093/oxfordhb/9780195380620.013.0022 Rhinoceros 3D, Version 6.0. Robert McNeel \& Associates. R Mcneel, Seattle, WAMcNeel, R. and others. (2010). Rhinoceros 3D, Version 6.0. Robert McNeel \& Associates, Seattle, WA. Meteonorm. (2019). Meteonorm. Retrieved from http://www.meteonorm.com Enabling Future 687 Sustainability Transitions: An Urban Metabolism Approach to Los Angeles Pincetl et al. Enabling Future Sustainability Transitions. S Pincetl, M Chester, G Circella, A Fraser, C Mini, S Murphy, D Sivaraman, 10.1111/jiec.12144Journal of Industrial Ecology. 186Pincetl, S., Chester, M., Circella, G., Fraser, A., Mini, C., Murphy, S., … Sivaraman, D. (2014). Enabling Future 687 Sustainability Transitions: An Urban Metabolism Approach to Los Angeles Pincetl et al. Enabling Future Sustainability Transitions. Journal of Industrial Ecology, 18(6), 871-882. https://doi.org/10.1111/jiec.12144 Effective information channels for reducing costs of environmentally-friendly 690 technologies: Evidence from residential PV markets. V Rai, S A Robinson, 10.1088/1748-9326/8/1/014044Environmental Research Letters. 81Rai, V., & Robinson, S. A. (2013). Effective information channels for reducing costs of environmentally-friendly 690 technologies: Evidence from residential PV markets. Environmental Research Letters, 8(1). https://doi.org/10.1088/1748-9326/8/1/014044 Least-cost optimal expansion of the ERCOT grid. B J D Rhodes, T Deetjen, Rhodes, B. J. D., & Deetjen, T. (2021). Least-cost optimal expansion of the ERCOT grid. Retrieved from 693 https://www.ideasmiths.net/wp-content/uploads/2021/07/APA_IS_ERCOT_grid_FINAL.pdf The Shared Socioeconomic Pathways and their energy, land use, and greenhouse gas emissions implications: An 696 overview. K Riahi, D P Van Vuuren, E Kriegler, J Edmonds, B C O&apos;neill, S Fujimori, M Tavoni, 10.1016/j.gloenvcha.2016.05.009Global Environmental Change. 42Riahi, K., van Vuuren, D. P., Kriegler, E., Edmonds, J., O'Neill, B. C., Fujimori, S., … Tavoni, M. (2017). The Shared Socioeconomic Pathways and their energy, land use, and greenhouse gas emissions implications: An 696 overview. Global Environmental Change, 42, 153-168. https://doi.org/10.1016/j.gloenvcha.2016.05.009 Measurement and Meaning: Critical Reflection on the Maturation and Potential of National Urban Land Studies in the United States. S M Richter, Journal of Planning Literature. 088541222110516Richter, S. M. (2021). Measurement and Meaning: Critical Reflection on the Maturation and Potential of National Urban Land Studies in the United States. Journal of Planning Literature, 088541222110516. . 10.1177/08854122211051626https://doi.org/10.1177/08854122211051626 Determinants of spatio-temporal patterns of energy technology adoption: An agent-based modeling approach. S A Robinson, V Rai, Applied Energy. 151Robinson, S. A., & Rai, V. (2015). Determinants of spatio-temporal patterns of energy technology adoption: An agent-based modeling approach. Applied Energy, 151, 273-284. . 10.1016/j.apenergy.2015.04.071https://doi.org/10.1016/j.apenergy.2015.04.071 Paris Agreement climate proposals need a boost to keep warming well below 2 °c. J Rogelj, M Den Elzen, N Höhne, T Fransen, H Fekete, H Winkler, M Meinshausen, Nature. 5347609Rogelj, J., Den Elzen, M., Höhne, N., Fransen, T., Fekete, H., Winkler, H., … Meinshausen, M. (2016). Paris Agreement climate proposals need a boost to keep warming well below 2 °c. Nature, 534(7609), 631-639. . 10.1038/nature18307https://doi.org/10.1038/nature18307 The Optimum Is Not the Goal: Capturing the Decision Space for the Planning of New Neighborhoods. N Schüler, S Cajot, M Peter, J Page, F Maréchal, Frontiers in Built Environment. 3Schüler, N., Cajot, S., Peter, M., Page, J., & Maréchal, F. (2018). The Optimum Is Not the Goal: Capturing the Decision Space for the Planning of New Neighborhoods. Frontiers in Built Environment, 3(February), 1-22. . 10.3389/fbuil.2017.00076https://doi.org/10.3389/fbuil.2017.00076 K C Seto, S J Davis, R B Mitchell, E C Stokes, G Unruh, D Ürge-Vorsatz, Carbon Lock-In: Types, Causes, and Policy Implications. 41Seto, K. C., Davis, S. J., Mitchell, R. B., Stokes, E. C., Unruh, G., & Ürge-Vorsatz, D. (2016). Carbon Lock-In: Types, Causes, and Policy Implications. Annual Review of Environment and Resources, 41(1), 425-452. . 10.1146/annurev-environ-110615-085934https://doi.org/10.1146/annurev-environ-110615-085934 A multimodel analysis of long-term emissions and warming implications of current mitigation efforts. I Sognnaes, A Gambhir, D.-J Van De Ven, A Nikas, A Anger-Kraavi, H Bui, G P Peters, 10.1038/s41558-021-01206-3Climate Change. 714NatureSognnaes, I., Gambhir, A., van de Ven, D.-J., Nikas, A., Anger-Kraavi, A., Bui, H., … Peters, G. P. (2021). A multi- model analysis of long-term emissions and warming implications of current mitigation efforts. Nature 714 Climate Change, (Cmcc). https://doi.org/10.1038/s41558-021-01206-3 Regulating urban densification: what factors should be used?. J Teller, 10.5334/bc.123Buildings and Cities. 21Teller, J. (2021). Regulating urban densification: what factors should be used? Buildings and Cities, 2(1), 302-317. https://doi.org/10.5334/bc.123 United Nations Environment Programme. 2020Emissions Gap Emissions Gap ReportUnited Nations Environment Programme. (2020). Emissions Gap Emissions Gap Report 2020. Retrieved from https://www.unenvironment.org/interactive/emissions-gap-report/2019/ . D Ürge-Vorsatz, C Rosenzweig, R J Dawson, R Sanchez Rodriguez, X Bai, A S Barau, S Dhakal, Ürge-Vorsatz, D., Rosenzweig, C., Dawson, R. J., Sanchez Rodriguez, R., Bai, X., Barau, A. S., … Dhakal, S. (2018). Locking in positive climate responses in cities. 10.1038/s41558-018-0100-6Nature Climate Change. 83Locking in positive climate responses in cities. Nature Climate Change, 8(3), 174-177. https://doi.org/10.1038/s41558-018-0100-6 Climate and socio-economic scenarios for climate change research and 723 assessment: Reconciling the new with the ol. D P Van Vuuren, T R Carter, 10.1007/s10584-013-0974-2Climatic Change. 1223van Vuuren, D. P., & Carter, T. R. (2014). Climate and socio-economic scenarios for climate change research and 723 assessment: Reconciling the new with the ol. Climatic Change, 122(3), 415-429. https://doi.org/10.1007/s10584-013-0974-2 Reinforcement learning for demand response: A review of algorithms and 726 modeling techniques. J R Vazquez-Canteli, Z Nagy, 10.1016/j.apenergy.2018.11.002Applied Energy. 235Vazquez-Canteli, J. R., & Nagy, Z. (2019). Reinforcement learning for demand response: A review of algorithms and 726 modeling techniques. Applied Energy, 235, 1072-1089. https://doi.org/10.1016/j.apenergy.2018.11.002 Imagine Austin Comprehensive Plan: Vibrant. Roberts Wallace, Todd, Livable, ConnectedWallace, Roberts, & Todd. (2012). Imagine Austin Comprehensive Plan: Vibrant, Livable, Connected. Past visions, current trends, and 729 future context: A review of building energy, carbon, and sustainability. N Wang, P E Phelan, C Harris, J Langevin, B Nelson, K Sawyer, 10.1016/j.rser.2017.04.114Renewable and Sustainable Energy Reviews. 82Wang, N., Phelan, P. E., Harris, C., Langevin, J., Nelson, B., & Sawyer, K. (2018a). Past visions, current trends, and 729 future context: A review of building energy, carbon, and sustainability. Renewable and Sustainable Energy Reviews, 82(April 2017), 976-993. https://doi.org/10.1016/j.rser.2017.04.114 Past visions, current trends, and 732 future context: A review of building energy, carbon, and sustainability. N Wang, P E Phelan, C Harris, J Langevin, B Nelson, K Sawyer, 10.1016/j.rser.2017.04.114Renewable and Sustainable Energy Reviews. 82Wang, N., Phelan, P. E., Harris, C., Langevin, J., Nelson, B., & Sawyer, K. (2018b). Past visions, current trends, and 732 future context: A review of building energy, carbon, and sustainability. Renewable and Sustainable Energy Reviews, 82(January 2016), 976-993. https://doi.org/10.1016/j.rser.2017.04.114 . M R K Wiik, K Fjellheim, C Vandervaeren, S K Lien, S Meland, T Nordström, A Gustavsen, 735Wiik, M. R. K., Fjellheim, K., Vandervaeren, C., Lien, S. K., Meland, S., Nordström, T., … Gustavsen, A. (2022). Zero 735 Emission Neighbourhoods in Smart Cities. Definition, key performance indicators and assessment criteria: Version 3.0. Emission Neighbourhoods in Smart Cities. Definition, key performance indicators and assessment criteria: Version 3.0.
sample_10797
0.9998
arxiv
Twisting Carbon Nanotubes: A Molecular Dynamics Study Zhao Wang FEMTO-ST, ENSMM EMPA -Swiss Federal Laboratories for Materials Testing and Research Feuerwerkerstrasse 39, 26 Chemin de l'épitapheCH-3602, F-25030Thun, BesançonSwitzerland., France Michel Devel FEMTO-ST, ENSMM EMPA -Swiss Federal Laboratories for Materials Testing and Research Feuerwerkerstrasse 39, 26 Chemin de l'épitapheCH-3602, F-25030Thun, BesançonSwitzerland., France Bernard Dulmet FEMTO-ST, ENSMM EMPA -Swiss Federal Laboratories for Materials Testing and Research Feuerwerkerstrasse 39, 26 Chemin de l'épitapheCH-3602, F-25030Thun, BesançonSwitzerland., France Twisting Carbon Nanotubes: A Molecular Dynamics Study carbon nanotubesmolecular dynamicstwistNEMS PACS: 6146Fg8140Jj6220Dc3115Qg We simulate the twist of carbon nanotubes using atomic molecular dynamic simulations. The ultimate twist angle per unit length and the deformation energy are calculated for nanotubes of different geometries. It is found that the big tube is harder to be twisted while the small tube exhibits higher ultimate twisting ratio. For multi-walled nanotubes, the zigzag tube is found to be able to stand more deformation than the armchair one. We observed the surface transformation during twisting. Formation of structural defects is observed prior to fracture. The quantum conductance of CNTs depends strongly on their atomic struc-23 ture, which can be changed by twisting [6]. The change of tube's electronic 24 properties due to twist has been predicted in several theoretical studies [13,14]. 25 Recently, metal-semiconducting periodic transitions were reported in exper- The outline of this paper is as follows. The details about our computational 35 model will be presented in Section II. The results will be shown and discussed 36 in Section III. Then, we draw conclusions in Section IV. Analytical formulas 37 useful for the interatomic force calculation using the AIREBO potential are 38 given in Appendix. 2 Methods 40 To simulate the twisting of CNTs, we start with tubes fixed at one end by a 41 hypothetical substrate and relaxed in vacuum using a Nosé-Hoover thermostat 42 to reach equilibrium at 298 K. An imposed twist angle is then applied at the 43 other end by successive steps of 0.1 degree every 1000 fs. The positions of atoms 44 are updated at each iteration step (1fs) by using the leap-frog algorithm. In 45 the AIREBO potential [18,19,20], the total potential energy U p of the system 46 is the collection of that of individual atoms: 47 U p = 1 2 i j =i V R (r ij ) − b ij V A (r ij ) + V L−J ij (r ij ) + k =i,j =i,j,k V tor kij(1) where V R and V A are the interatomic repulsion and attraction terms between . b ij can be written as follows. 58 b ij = 1 2 b σ−π ij + b σ−π ji + b RC ji + b DH ji (2) where b σ−π ij depends on the local coordination of i and j, and the bond angles, for C-C double bonds. Note that the value of b ij is larger for a stronger bond. 62 b σ−π ij = 1 + k( =i,j) f c ik (r ik ) × G(cos θ ijk ) exp(λ ijk ) + P ij −1/2(3) where θ ijk is defined as the angle between the vectors r ij and r ik . P ij and 63 G(cos θ ijk ) are a cubic and a fifth-order polynomial splines, respectively. The 64 inter-atomic force is then calculated as the negative gradient of the total po-65 tential energy of the system. The formulation are presented in Appendix. In order to present general results from the here-studied short tubes, we define 96 the twist ratio as the twisting angle θ per unit length of CNTs. We plot in 97 Fig. 5 the ultimate value of the twist ratio (UTR) for 9 SWCNTs of a same 98 length but with different radii and chiralities. It can be seen that the UTR of 99 the small tubes is clearly higher than that of the big ones. We can also see 100 that the UTR of the zigzag tubes decreases faster than that of the armchair 101 tubes with increasing tube radius. We can conclude that a big tube can resist 102 better to twist than a small one. 103 To show further effect of the tube geometry, we define the deformation energy 104 of the tube as the change of the total potential energy of the CNT. It is an 105 important factor coupled to the tube's elastic constant. We plot in Fig. 6 the 106 torsion energy as a function of the twist ratio. We can see from Fig. 6 (a) 107 that the deformation energy of a big tube increases faster than that of a small 108 one, while the ultimate value of the deformation energy for a big tube is lower 109 than that for a small one. In Fig. 6 (b). we use the tubes of similar radii and 110 lengths to show that the deformation energy is almost independent of the tube 111 chirality. The increase ratio of deformation energy of the zigzag tube is slightly 112 higher than that of the chiral and the armchair ones. This corresponds to the 113 fact that the average axial bond strength of a zigzag SWCNT is slightly higher 114 than that of other tubes with similar sizes but differing chiralities [22,23]. 115 We study also the twist of multi-walled CNTs (MWCNTs), as demonstratiod first at the outer layer after the appearance of defects on its surface. 120 We show the ultimate twist ratio of MWCNTs in Table 1. It can be seen that 121 the UTR decreases with the number of carbon layers. The deformation energy 122 of a zigzag MWCNT is plotted in Fig. 8 (a). We can see that the energy per 123 atom of the outer layer during the deformation is much higher than that of 124 the inner layer. This can explain why the tubes are always broken from the 125 outer layer when they are largely twisted. We can also see that the the van der 126 Waals interaction does not play a very important role in the total deformation 127 energy. In Fig. 8 (b). we can see the corresponding image of the failure of the 128 twisted tube. Table 1 Ultimate twist ratio of MWCNTs with the same length about 200Å. Table 147 26 iments [6]. Moreover, Ertekin et al. [15] studied the ideal torsional strength 27 and stiffness of zigzag CNTs using first-principle calculations and found that 28 the strength of a MWCNT is about 20 times larger than that of an iron rod 29 of the same size. Wang et al. [16] calculated the shear modulus of CNTs using 30 molecular dynamics (MD). The mechanical integrity of SWCNTs was evalu-31 ated by Shibutani et al. [17] with MD simulations. In this paper, we report 32 on the MD simulations computing the ultimate twist angle of CNTs at room 33 temperature. Related change in the deformation energy is also investigated. valence electrons, for bound atoms i and j at a distance r ij . The bond order 49 function b ij provides the many body effect depending on the local atomic en-50 vironment of atoms i and j. It is the key quantity which allows including the 51 influence of the atomic environment of the bond (Huckel electronic structure 52 theory). The long-range interactions are included by adding a parameterized 53 Lennard-Jones 12-6 potential term V L−J . V tor presents the torsional inter-54 actions and depends on atomic dihedral angles. Note that the long-range van 55 der Waals interactions between atoms in the same tube must be considered in 56 the case of large deformation, to avoid an artificial cut-off energy barrier, as 57 discussed in Ref. [2] 59 b 59RC ji represents the influence of possible radical character of atom j and of the 60 π bond conjugations on the bond energy. b DH ji depends on the dihedral angle61 this paper we studied the twist of various SWCNTs and of MWCNTs made 68 of monochiral carbon layers, in which the interlayer distance is taken to be 69 about 0.34 nm. The twisting angle θ is the angle between the initial position 70 of the outer wall and its deformed position, after an imposed rotation angle at the free end, as shown inFig. 1.72 We next consider the surface change during the twisting. We observed that 73 periodic buckling waves appear on the tube surface when a tube is largely 74 twisted. The change of the helical shape of the CNT surface depends on the 75 tube radius.Fig. 2. shows the different shapes of three twisted chiral CNTs 76 prior to fracture. We can see that the buckling period is longer for big tubes 77 than for the small one. Furthermore, we find that the length of each buckling 78 period depends on the twisting angle and the tube radius. In our simulation,79 the time step between each imposed deformation is taken to be long enough 80 (10000 step/degree) for letting the tubes have enough time to adapt to the 81 new deformation at one end. We note that, if we apply the deformation with 82 a higher rate (e.g. some degrees per ps), the fracture would occur earlier and 83 the buckling shape of the surface could be different. 84 Considering that the surface twisting can significantly change the electronic 85 properties of the tube [21], we present in Fig. 3 different shapes of the cross 86 section of a tube twisted to several twist angles. It can be seen that the section 87 remains circular when the deformation is relatively small. However, it deforms 88 to an ellipse when the deformation becomes important. Then, with increasing 89 twisting angle, this ellipse section rotates around the tube axis with an angular 90 momentum following the direction of deformation applied to the tube end.91 How much twist deformation can a CNT sustain? To answer this question, 92InFig. 4, we show the fracture of a twisted SWCNT. We can see that when 93 θ = 596 • , the honeycomb lattice of the tube is strongly deformed. The fracture 94 of the tube occurs very soon (some ps) after the appearance of the first defect. 116 inFig. 7 . 1167It shows from two positions of observation how an armchair MWCNT 117 breaks under twist. We can see the appearance of buckling waves in both the 118 inner and outer layers when the tube is deformed, while the fracture occurs119 145 Figures 146 Fig. 1 . 1451461summary, the twist of CNTs has been simulated by using the MD method 131 based on the AIREBO potential. Surface transition from zigzag or armchair to 132 chiral type and periodic buckling waves were observed in our simulations. We 133 also observed the creation of defects and the fracture on the tube surface. The 134 cross section of SWCNTs is found to become an elliptic and rotates around 135 the tube center axis when the deformation is large enough. We calculated the 136 ultimate value of the twist ratio and the deformation energy for several types 137 of CNTs with different geometries. We find that the small tubes can be twisted 138 more than the big ones. The ultimate twist ratio of zigzag MWCNTs is higher 139 than armchair ones. Moreover, analytical formulas useful for the interatomic 140 force calculation using the AIREBO potential are given in Appendix.141 We gratefully thank S. J. Stuart for the numerics. This work was done as parts 143 of the CNRS GDR-E Nb 2756. Z. W. acknowledges the support received from 144 the region of Franche-Comté (grant 060914-10). (Color online) Schematic of the definition of the twisting angle θ. Imposed deformations are applied to one of the tube ends while another one is assumed to be fixed on a support. Fig. 2 . 2(Color online) Shape of three twisted chiral CNTs with a same length L = 9.6nm and a same chiral angle = 19.1 • , prior to fracture at θ = 630 • , 497 • and 427 • , respectively. Left:(6, 3), R = 0.31nm; middle: (14, 7), R = 0.72nm; right: (20, 10), R = 1.03nm. Fig. 3 . 3(Color online) Cross section in the middle of a (5, 5) tube (L = 9.5nm) being twisted. The green arrows denote the direction of rotation. Fig. 4 .Fig. 5 . 45(Color online) Fracture of a (5, 5) tube (L = 9.5nm) being twisted to fracture. Ultimate twist ratio versus the tube radius for 3 groups of tubes with different chiralities. Each group has 3 tubes with different radii. The length of all these tubes is fixed to 95Å. Fig. 6 . 6Deformation energy versus the twist ratio for: (a) 3 zigzag tubes with the same length but with different radii, and (b) 3 tubes with almost the same length and radius but with different chiral angles. The deformation energy presented here is the value averages on all the atoms. Fig. 7 . 7(Color online) Fracture of an MWCNT (5,5)@(10,10) (L = 194.3Å, R = (3.39Å@6.78Å)) Fig. 8. (Color online) (a) Average deformation energy (per atom) vs. twist ratio for each layer in a MWCNT (0,9)@(0,18)@ (0,27)@(0,36) L = 84.0Å. The deformation energy is the average value per atom. (b) Failure of this MWCNT being twisted. Top. side view. Bottom. cross- Mechanical properties of carbon 149 nanotubes: Theoretical predictions and experimental measurements. C. R S Ruoff, D Qian, W K Liu, R.S. Ruoff, D. Qian, and W.K. Liu. Mechanical properties of carbon 149 nanotubes: Theoretical predictions and experimental measurements. C. . R Physique, 4993R. Physique, 4:993, 2003. Computational modelling of thermo-mechanical and 152 transport properties of carbon nanotubes. H Rafii-Tabar, Phys. Rep. 390153H. Rafii-Tabar. Computational modelling of thermo-mechanical and 152 transport properties of carbon nanotubes. Phys. Rep., 390:235, 2004. 153 Thermal conductivity of 154 single-walled carbon nanotubes. J Hone, M Whitney, C Piskoti, A Zettl, Phys. Rev. B. 592514J. Hone, M. Whitney, C. Piskoti, and A. Zettl. Thermal conductivity of 154 single-walled carbon nanotubes. Phys. Rev. B, 59:2514, 1999. Unusually high thermal con-156 ductivity of carbon nanotubes. S Berber, Y.-K Kwon, D Tomanek, Phys. Rev. Lett. 84157S. Berber, Y.-K. Kwon, and D. Tomanek. Unusually high thermal con- 156 ductivity of carbon nanotubes. Phys. Rev. Lett., 84:4613, 2000. 157 Rotational actuators based on carbon nanotubes. A M Fennimore, T D Yuzvinsky, W.-Q Han, M S Fuhrer, J Cumings, A Zetti, Nature. 159408A.M. Fennimore, T.D. Yuzvinsky, W.-Q. Han, M.S. Fuhrer, J. Cumings, 158 and A. Zetti. Rotational actuators based on carbon nanotubes. Nature, 159 424:408, 2003. . T Cohen-Karni, L Segev, O Srur-Lavi, S R Cohen, E Joselevich, T. Cohen-Karni, L. Segev, O. Srur-Lavi, S.R. Cohen, and E. Joselevich. Torsional electromechanical quantum oscillations in carbon nanotubes. Torsional electromechanical quantum oscillations in carbon nanotubes. . Nat. Nano. 136Nat. Nano., 1:36, 2006. . C.-H Ke, H D Espinosa, Handbook of Theoretical and Computational. 164C.-H. Ke and H.D. Espinosa. Handbook of Theoretical and Computational 164 . Nanotechnology. Nanotechnology, chapter 121. American Scientific, CA, 2006. Spinning continuous carbon nanotube yarns. K Jiang, Q Li, S Fan, K. Jiang, Q. Li, and S. Fan. Spinning continuous carbon nanotube yarns. . Nature. 419801Nature, 419:801, 2002. Multifunctional carbon 168 nanotube yarns by downsizing an ancient technology. M Zhang, K R Atkinson, R H Baughman, Science. 306170M. Zhang, K.R. Atkinson, and R.H. Baughman. Multifunctional carbon 168 nanotube yarns by downsizing an ancient technology. Science, 306:1358, 169 2004. 170 . P A Williams, S J Papadakis, A M Patel, M R Falvo, S Washburn, 171P.A. Williams, S.J. Papadakis, A.M. Patel, M.R. Falvo, S. Washburn, and 171 Torsional response and stiffening of individual multiwalled 172 carbon nanotubes. R Superfine, Phys. Rev. Lett. 89255502R. Superfine. Torsional response and stiffening of individual multiwalled 172 carbon nanotubes. Phys. Rev. Lett., 89:255502, 2002. Atomic resolution 174 STM imaging of a twisted single-wall carbon nanotube. W Clauss, D J Bergeron, A T Johnson, Phys. Rev. B. 1754266W. Clauss, D. J. Bergeron, and A. T. Johnson. Atomic resolution 174 STM imaging of a twisted single-wall carbon nanotube. Phys. Rev. B, 175 58:R4266, 1998. Resonant oscillators with carbon-nanotube 178 torsion springs. S J Papadakis, A R Hall, P A Williams, L Vicci, M R Falvo, R Su-177 Perfine, S Washburn, Phys. Rev. Lett. 93146101S.J. Papadakis, A.R. Hall, P.A. Williams, L. Vicci, M.R. Falvo, R. Su- 177 perfine, and S. Washburn. Resonant oscillators with carbon-nanotube 178 torsion springs. Phys. Rev. Lett., 93:146101, 2004. Electrical and 180 mechanical properties of distorted carbon nanotubes. A Rochefort, P Avouris, F Lesage, D R Salahub, Phys. Rev. B. 18113824A. Rochefort, P. Avouris, F. Lesage, and D.R. Salahub. Electrical and 180 mechanical properties of distorted carbon nanotubes. Phys. Rev. B, 181 60:13824, 1999. The influence of me-183 chanical deformation on the electrical properties of single wall carbon 184 nanotubes. B Liu, H Jiang, H T Johnson, Y Huang, J. Mech. Phys. Solids. 521B. Liu, H. Jiang, H.T. Johnson, and Y. Huang. The influence of me- 183 chanical deformation on the electrical properties of single wall carbon 184 nanotubes. J. Mech. Phys. Solids, 52:1, 2004. Ideal torsional strengths and stiffnesses 186 of carbon nanotubes. Elif Ertekin, D C Chrzan, Phys. Rev. B. 7245425Elif Ertekin and D. C. Chrzan. Ideal torsional strengths and stiffnesses 186 of carbon nanotubes. Phys. Rev. B, 72:045425, 2005. Atomistic simulation of the torsion de-188 formation of carbon nanotubes. Y Wang, X X Wang, X Ni, Modell. Simul. Mater. Sci. Eng. 121099Y. Wang, X.X. Wang, and X. Ni. Atomistic simulation of the torsion de- 188 formation of carbon nanotubes. Modell. Simul. Mater. Sci. Eng., 12:1099, 189 2004. Mechanical integrity of carbon nanotubes for 191 bending and torsion. Y Shibutani, S Ogata, Modell. Simul. Mater. Sci. Eng. 12192Y. Shibutani and S. Ogata. Mechanical integrity of carbon nanotubes for 191 bending and torsion. Modell. Simul. Mater. Sci. Eng., 12:599, 2004. 192 A reactive potential for 193 hydrocarbons with intermolecular interactions. S J Stuart, A B Tutein, J A Harrison, J. Chem. Phys. 1126472S.J. Stuart, A.B. Tutein, and J.A. Harrison. A reactive potential for 193 hydrocarbons with intermolecular interactions. J. Chem. Phys., 112:6472, 194 2000. Elec-196 trostatic deflections of cantilevered semiconducting single-walled carbon 197 nanotubes. Zhao Wang, Michel Devel, Rachel Langlet, Bernard Dulmet, Phys. Rev. B. 75205414Zhao Wang, Michel Devel, Rachel Langlet, and Bernard Dulmet. Elec- 196 trostatic deflections of cantilevered semiconducting single-walled carbon 197 nanotubes. Phys. Rev. B, 75:205414, 2007. Electrostatic deflections of cantilevered metallic 199 carbon nanotubes via charge-dipole model. Z Wang, M Devel, Phys. Rev. B. 76195434Z. Wang and M. Devel. Electrostatic deflections of cantilevered metallic 199 carbon nanotubes via charge-dipole model. Phys. Rev. B, 76:195434, 200 2007. Effect of type, size and deformation on the polarizability 202 of carbon nanotubes from atomic increments. F Torrens, Nanotechnology. 15259F. Torrens. Effect of type, size and deformation on the polarizability 202 of carbon nanotubes from atomic increments. Nanotechnology, 15:S259, 203 2004. Ab ini-205 tio study of the elastic properties of single-walled carbon nanotubes and 206 graphene. G Van Lier, C Van Alsenoy, V Van Doren, P Geerlings, Chem. Phys. Lett. 326181G. van Lier, C. van Alsenoy, V. van Doren, and P. Geerlings. Ab ini- 205 tio study of the elastic properties of single-walled carbon nanotubes and 206 graphene. Chem. Phys. Lett., 326:181, 2000. Geometry-dependent non-208 linear decrease of the effective young's modulus of single-walled carbon 209 nanotubes submitted to large tensile loadings. Z Wang, M Devel, B Dulmet, S Stuart, Fullerenes Nanotubes. Z. Wang, M. Devel, B. Dulmet, and S. Stuart. Geometry-dependent non- 208 linear decrease of the effective young's modulus of single-walled carbon 209 nanotubes submitted to large tensile loadings. Fullerenes Nanotubes and
sample_11153
0.6958
arxiv
Modèles de jeux sérieux collaboratifs et mobiles Iza Marfisi-Schottman LUNAM Université Université du Maine LIUM 4023, 72085Le MansEAFrance Sébastien George sebastien.george@univ-lemans.fr LUNAM Université Université du Maine LIUM 4023, 72085Le MansEAFrance Modèles de jeux sérieux collaboratifs et mobiles Serious Gamescollaborative learningsituated learning Les jeux sérieux collaboratifs sur dispositifs mobiles intègrent tous les ingrédients nécessaires à motiver la nouvelle génération d'apprenants. Cependant, la conception d'un scénario de jeu cohérent, qui combine ressorts ludiques, mobilité, collaboration et activités pédagogiques, est très complexe. Dans cet article, nous proposons trois modèles de jeux, qui intègrent naturellement ces caractéristiques, de façon à favoriser l'atteinte des objectifs pédagogiques.Mots-clés. Jeux sérieux, apprentissage collaboratif, apprentissage situéAbstract. Mobile Collaborative Learning Games combine all the ingredients necessary to attract students' attention and engage them in learning activities. However, designing a coherent game scenario that combines mobility, game mechanics and collaborative learning is quite a challenge. In this article, we propose three game patterns that naturally integrate these mechanics in order to support educational goals. Collaborer, jouer et bouger pour mieux apprendre Les enseignants sont contraints de faire évoluer leurs pratiques afin de motiver la nouvelle génération d'élèves [1]. Dans cette première partie de l'article, nous allons décrire trois types d'activités pédagogiques qui sembles tous particulièrement prometteuses et qui se combinent avantageusement. Tout d'abord, les activités collaboratives sont souvent utilisées par les enseignants [2]. Ceci parait tout à fait naturel étant donné que le travail en groupe facilite l'apprentissage par les interactions sociales et augmente l'engagement personnel des apprenants [3] Récemment, le concept de jeux éducatifs s'est également développé pour motiver la nouvelle génération d'élèves. L'idée principale est d'utiliser des activités ludiques, et plus précisément les ressorts du jeu, tel que la compétition ou les récompenses de façon à captiver l'attention des apprenants et leur faire adopter une place active dans leur processus d'apprentissage [4]. Quand elles sont utilisées correctement, les activités ludiques déclenchent également des émotions, qui ont un effet positif sur l'engagement et la mémoire [5]. De plus, la dernière génération de jeux éducatifs jouit des aspects attractifs et immersifs des technologies du jeu vidéo. Enfin, l'utilisation d'activités mobiles pour l'enseignement s'est également accrue maintenant que la majorité des jeunes possède un smartphone ou une tablette (75% des 18-24 ans en 2013 [6]). La mobilité permet tout d'abord l'apprentissage situé, pendant des visites de sites archéologiques [7] par exemple ou pendant que l'étudiant répare de vrais moteurs de voiture [8]. De plus, la mobilité peut aussi être très utile pour expliquer des concepts avec une simulation participative. Par exemple, dans le jeu Disease Simulation [9], qui enseigne le phénomène de propagation de virus, les enfants portent des voyants lumineux qui indiquent s'ils sont infectés et propagent le virus quand ils s'approchent d'autres enfants. Synergies entre types d'activités pédagogiques Bien que les activités collaboratives, ludiques et mobiles puissent améliorer l'apprentissage séparément, nous pensons que leur combinaison pourrait être encore plus efficace grâce aux synergies qui les lient. Comme nous l'avons vu, certains chercheurs ont déjà combiné ces types d'activités avec succès [7][9], mais il n'existe pas encore d'études qui identifient clairement en quoi ce trio est particulièrement efficace. Nous proposons donc, dans le prochain paragraphe, d'analyser les synergies entre la collaboration, les mécaniques de jeu et la mobilité, représentées par les flèches en pointillés de la Fig. 1. Les flèches pleines représentent les effets de ces mécaniques sur l'apprentissage, décrites précédemment. Collaboration et Jeu La mise en place d'activités collaboratives pour l'apprentissage, dans lesquels tous les participants contribuent, est très complexe. Afin d'inciter les membres d'une équipe à accomplir leurs tâches, Gomez et al. [10] ont développé un jeu pour trois participants, dans lequel chaque coéquipier manipule une souris, connectée au même écran. Pour gagner le jeu, l'équipe doit accomplir un ensemble de tâches qui ne peuvent être effectuées en utilisant qu'une seule des souris. En d'autres termes, les équipiers disposent de différents outils (dans ce cas, une souris), qui leur permettent d'accomplir des tâches complémentaires et ainsi atteindre des objectifs de façon collaborative. Nous sommes convaincus que les mécaniques de jeu offrent un moyen naturel de mettre en place de telles situations. En effet, comme dans le jeu Environmental Detective [11], le scénario peut être conçu de telle façon que les joueurs se voient affectés des rôles avec des objectifs complémentaires (ex. employé d'une entreprise de construction, militant écologiste), forçant ainsi les apprenants à défendre leurs points de vue pour gagner le jeu. Le jeu peut également pousser ce principe encore plus loin en donnant des pouvoirs ou des outils spécifiques à chaque rôle (ex. troll, sorcier, alchimiste) de façon à ce que certains apprenants soient les seuls à pouvoir accomplir des tâches. Inversement, l'utilisation de la collaboration est reconnue comme une mécanique ludique [12] grâce aux interactions sociales et aux défis supplémentaires engendrés par la prise de décision collaborative. Jeu et Mobilité La mobilité ouvre de nouvelles possibilités pour enrichir l'expérience des joueurs en utilisant des objets réels (ex. plantes, bâtiments, animaux) dans leur contexte naturel Modèles de jeux sérieux collaboratifs et mobiles (ex. site archéologique ou géologique, entreprise, forêt). De plus, plusieurs études ont montré que l'excitation physiologique engendrée quand un joueur bouge pendant le jeu, augmente son taux d'engagement [13]. Enfin, les fonctionnalités telles que le GPS ou l'accéléromètre collectent des feedbacks utiles pour adapter le jeu. Par exemple, si le joueur est coincé dans la même zone, le jeu peut lui donner un indice. Inversement, les récompenses dans le jeu, telles que des points supplémentaires ou un déblocage de l'histoire, peuvent motiver l'apprenant à accomplir une activité dans le monde réel. Ceci est par exemple le cas dans Rewild 1 , un jeu d'aventure qui motive les randonneurs débutants à gravir des montagnes. Mobilité et Collaboration Si les activités collaboratives sont conçues de façon à ce que les joueurs doivent synchroniser leurs déplacements pour couvrir toute la grille de jeu par exemple, elles apportent une dimension plus amusante à la mobilité. Inversement, la mobilité peut aboutir à des situations dans lesquelles les membres de l'équipe sont physiquement dispersés et n'ont pas les moyens de communiquer. Ce type de situations rend les activités collaboratives beaucoup plus stimulantes. De plus, lors d'un travail collaboratif, il peut arriver que les coéquipiers ne progressent pas à la même vitesse. Avec l'utilisation d'une interface mobile individuelle, chaque apprenant peut naviguer librement dans ses ressources et soumettre ses contributions quand il se sent prêt. Une variante consiste à réduire les rôles au minimum pour se concentrer sur les règles d'interaction entre joueurs. Ce type de jeu peut être utilisé pour créer des simulations participatives pour enseigner des mécanismes, tels que la propagation d'une maladie, comme dans le jeu Disease Simulation [9]. Dans la suite, nous décrivons chaque patron de JSCM avec un exemple et une structure spécifique, tel que les patrons de jeu proposés par [12]. Ces exemples sont inspirés de vrais jeux conçus et utilisés par des enseignants 2 . Exemple 1. Exemple du patron « jeux de rôle grandeur nature » -Construction de voie rapide Objectif pédagogique. Le jeu permet d'enseigner les mécanismes de la démocratie et d'entrainer les élèves à défendre leurs points de vue en collectant des données et en les présentant à l'oral. Jeu. Le maire a pour projet de construire une voie rapide à travers une portion de la ville, mais il veut d'abord en débattre avec les habitants. Mobilité. Avec un plan de la zone de construction, les joueurs doivent aller sur le terrain pour trouver des éléments qui sont en faveur ou contre la construction de la route. Régulièrement, les joueurs sont conviés à une assemblée générale pour défendre leurs points de vue sur le projet. Collaboration. Les joueurs ont des rôles complémentaires de façon à représenter la population de la ville : -le maire qui voudrait que sa ville prospère, mais ne veut pas aller à l'encontre de l'avis de la population -les citoyens qui réduiront leur temps de trajet quotidien grâce à cette nouvelle route -les commerçants et entrepreneurs du BTP qui accroitraient leur chiffre d'affaires -les militants qui veulent protéger le parc naturel à travers lequel la route doit passer -deux journalistes, un pour et l'autre contre la construction de la route, qui doivent mener des sondages et tenir la population informée des derniers rebondissements liés au projet Les mécaniques de score sont différentes pour chaque rôle et sont conçues de façon à ce que les joueurs doivent négocier pour arriver à une solution qui les satisfait tous. Patron « Jeu d'investigation » Le scénario de jeu d'investigation est construit autour d'une énigme centrale que les joueurs doivent résoudre en collectant et analysant des. Ce modèle est très similaire à la méthode d'apprentissage à base de cas. En effet, celle-ci consiste à poser un problème aux apprenants, inspirés d'une situation réelle, en les plaçant dans la position du preneur de décision. Nous pensons que ce modèle de jeu est donc parfaitement adapté pour entrainer les apprenants à utiliser leurs connaissances théoriques sur des cas concrets. Ces cas peuvent couvrir une très grande variété de compétences telle que trouver la pathologie dont souffre un patient, identifier la cause d'une panne, ou encore trouver la meilleure solution pour un divorce. Exemple 2. Exemple du patron « jeu d'investigation » -Trois heures pour sauver Kogatana Objectif pédagogique. Le jeu permet d'entrainer les apprenants à utiliser des outils de prise de décision (ex. brainstorming, grille de critères) sur un vrai cas complexe. Jeu. Les étudiants sont embauchés par une entreprise (Kogatana) pour déterminer ce qui cause la récente perte d'argent. Ils ont un temps limité pour identifier le problème et proposer une solution. Mobilité. Les joueurs doivent se rendre dans différentes salles du bâtiment pour mener leur investigation. En scannant les QR code dans les salles, ils obtiennent des documents et des vidéos des employés qui sont interviewés. L'enseignant rassemble régulièrement les élèves pour des sessions de débriefing pendant lesquelles ils discutent des informations recueillies et des outils qu'ils doivent utiliser pour les aider. Collaboration. Pour finir le jeu à temps, les joueurs, qui sont par groupe de trois, doivent impérativement s'organiser et se partager les tâches (ex. partage des salles à visiter). Patron « Chasse aux trésors » Un jeu de chasse aux trésors est un jeu dans lequel les joueurs cherchent un ou plusieurs objets cachés, à l'aide d'une suite d'indices. Parce que ce type de jeu incite les joueurs à explorer et s'approprier l'environnement physique, nous pensons qu'il est tout particulièrement adapté pour enseigner les caractéristiques d'objets réels dans leurs contextes naturels. Exemple 3. Exemple du patron « chasse aux trésors » -La soirée de Bacchus Objectif pédagogique. Le jeu permet d'enseigner les us et coutumes de la Rome antique et les évènements qui ont conduit à la fin tragique de Pompéi. Jeu. Les joueurs sont embauchés par Bacchus pour organiser une grande soirée en son honneur. On leur fournit une liste d'objets qu'ils doivent trouver (boissons, pitances, invités et animation) et une bourse de pièces d'or. Cependant, la quantité d'argent est loin d'être suffisante et les joueurs devront donc faire un choix : acheter ce qu'ils peuvent et avoir un score très bas sur la jauge de satisfaction de Bacchus ou voler ! S'ils décident de voler, le volcan commencera à montrer des signes d'éruption et les habitants virtuels de Pompéi leur diront que les dieux désapprouvent les agissements immoraux de la population. À la fin du jeu, quelle que soit la décision prise par les joueurs, le volcan rentre en éruption : si les joueurs ont volé, les dieux qui déclenchent l'éruption et s'ils n'ont pas volé, c'est la rage de Bacchus qui déclenche l'éruption ! Mobilité. Les apprenants ont quelques heures pour physiquement explorer les ruines de Pompéi et trouver les objets sur la liste au vrai endroit où les magasins se trouvés. Pour trouver les invités et l'animation, ils ont le choix entre la maison des poètes et danseurs, la baraque des gladiateurs et des villas de nobles. Collaboration. Les joueurs doivent se distribuer les taches pour collecter les objets à temps. Ils devront également se contacter, quand ils sont à court d'argent, pour décider de la stratégie à adopter. Environnement Informatique pour l'Apprentissage Humain, Agadir, 2015 Conclusion Dans cet article, nous analysons comment les activités collaboratives, ludiques et mobiles peuvent motiver la nouvelle génération d'élèves et améliorer leurs processus d'apprentissage. Nous montrons également que, quand ces trois types d'activités sont combinés dans un JSCM (Jeu Sérieux Collaboratif et Mobile), ils créent des synergies et sont donc encore plus efficaces. Cependant, il n'y a pour l'heure, aucune méthode pour faciliter la conception de tels jeux. Afin de répondre à cette problématique, nous proposons trois patrons de JSCM : les jeux de rôle grandeur nature, les jeux de mystères et les chasses aux trésors. Ces modèles créent naturellement des synergies entre les activités collaboratives, ludiques et mobiles et peuvent s'adapter à une grande diversité d'objectifs pédagogiques. Nous travaillons actuellement sur des outils auteurs qui intègrent des coquilles de scénario, correspondant à ces trois patrons, afin que les enseignants puissent, eux-mêmes concevoir des jeux adaptés à leurs besoins et les exécuter sur les plateformes à leurs dispositions. Fig. 1 . 1Synergies entre la collaboration, le jeu et la mobilité 2 Conception de Jeux Sérieux Collaboratifs et Mobiles Comme nous l'avons vu, plusieurs applications éducatives tirent déjà avantage des synergies entre les activités collaboratives, ludiques et mobiles. Cependant, leur conception demeure expérimentale, sans méthode pour garantir une synergie maximale. Afin de faciliter leur conception, nous proposons, dans la suite, trois patrons de jeu qui intègrent la collaboration, le jeu et la mobilité de façon à obtenir ces synergies et qui supportent une grande variété d'objectifs pédagogiques. 2.1 Patron « Jeu de Rôle Grandeur Nature » Les jeux de rôle Grandeur Nature (GN) sont construits autour d'activités de jeu de rôles, guidés par des règles. Les joueurs choisissent les actions du personnage qu'ils incarnent en fonction des objectifs à atteindre et des alliances avec les autres personnages, créant ainsi une infinité d'histoires possible pour le jeu. Les GN sont habituellement orchestrés par un maître du jeu, qui facilite le déroulement du jeu et tient note des scores. D'un point de vue éducatif, les GN semblent parfaitement adaptés pour améliorer les aptitudes sociales (ex. communication, négociation) et comprendre des sujets complexes qui impliquent plusieurs acteurs. De plus, le rôle du maitre de jeu est parfait pour les enseignants parce qu'il leur permet d'observer les apprenants et d'adapter le jeu. Draft : Iza Marfisi-Schottman, Sébastien George « Modèles de jeux sérieux collaboratifs et mobiles », Actes de la Conférence Environnements Informatiques pour l'Apprentissage Humain, Agadir, Maroc, 2-5 Juin 2015, pp. 306-311. http://www.rewild.fr Environnement Informatique pour l'Apprentissage Humain, Agadir, 2015 Caroline Juneau-Sion, Patrick Prévôt et Carmelo Ardito Dix nouvelles compétences pour enseigner: Invitation au voyage. P Perrenoud, ESF Editeur. Perrenoud, P.: Dix nouvelles compétences pour enseigner: Invitation au voyage. ESF Editeur, Paris (2006) Education Through Work: A Model for Child-centered Learning. C Freinet, Edwin Mellen PressFreinet, C.: Education Through Work: A Model for Child-centered Learning. Edwin Mellen Press (1993) Cooperative Learning Returns To College What Evidence Is There That It Works? Change: The Magazine of Higher Learning. D W Johnson, R T Johnson, K A Smith, 30Johnson, D.W., Johnson, R.T., Smith, K.A.: Cooperative Learning Returns To College What Evidence Is There That It Works? Change: The Magazine of Higher Learning. Vol. 30, (1998) 26-35 Educational video game design: A review of the literature. M J Dondlinger, Journal of Applied Educational Technology. 4Dondlinger, M.J.: Educational video game design: A review of the literature. Journal of Applied Educational Technology. Vols. 4, (2007) 21-31 Descartes' Error: Emotion, Reason, and the Human Brain. A R Damasio, Harper PerennialDamasio, A.R.: Descartes' Error: Emotion, Reason, and the Human Brain. Harper Perennial (1995) La diffusion des technologies de l'information et de la communication dans la société française. Rapport n°297. R Bigot, P Croutte, E Daudey, CGEIET et ARCEP. Bigot, R., Croutte, P., Daudey, E.: La diffusion des technologies de l'information et de la communication dans la société française. Rapport n°297, CGEIET et ARCEP (2013) Enriching Archaeological Parks with Contextual Sounds and Mobile Technology. Computer-Human Interactions. C Ardito, M F Costabile, A De Angeli, R Lanzilotti, Vols. 19Ardito, C., Costabile, M.F., De Angeli, A., Lanzilotti, R.: Enriching Archaeological Parks with Contextual Sounds and Mobile Technology. Computer-Human Interactions. Vols. 19, (2012) 1-30 Extending the Serious Game Boundary: Virtual Instructors in Mobile Mixed Reality Learning Games. D Jayfus, H Kathleen, Proceedings of the Digital Game research Association International Conference. the Digital Game research Association International ConferenceDIGRA. Tokyo, JapanJayfus, D., Kathleen, H.: Extending the Serious Game Boundary: Virtual Instructors in Mobile Mixed Reality Learning Games. Proceedings of the Digital Game research Association International Conference, DIGRA. Tokyo, Japan (2007) 524-529 Participatory simulations : building collaborative understanding through immersive dynamic modeling. V S Colella, Journal of the Learning Sciences. 9Colella, V.S.: Participatory simulations : building collaborative understanding through immersive dynamic modeling. Journal of the Learning Sciences. 9 (2000) 471-500 Co-located single display collaborative learning for early childhood education. F Gómez, M Nussbaum, J F Weitz, X Lopez, J Mena, A Torres, Computer Supported Learning. 8Gómez, F., Nussbaum, M., Weitz, J.F., Lopez, X., Mena, J., Torres, A.: Co-located single display collaborative learning for early childhood education. Computer Supported Learning. Vol. 8 (2013) 225-244 Environmental Detectives-the development of an augmented reality platform for environmental simulations. E Klopfer, K Squire, Educational Technology Research and Development. 56Klopfer, E., Squire, K.: Environmental Detectives-the development of an augmented reality platform for environmental simulations. Educational Technology Research and Development. Vol. 56 (2008) 203-228 S Björk, J Holopainen, Patterns In Game Design. Cengage Learning. Björk, S., Holopainen, J.: Patterns In Game Design. Cengage Learning (2004) Understanding the Role of Body Movement in Player Engagement. N Bianchi-Berthouze, Human Computer Interaction. 28Bianchi-Berthouze, N.: Understanding the Role of Body Movement in Player Engagement. Human Computer Interaction. 28, (2013) 40-75
sample_11317
0.9842
arxiv
Um Sistema Multiagente no Combate ao Branqueamento de Capitais A Multi-Agent System in the Combat Against Money Laundering Claudio Alexandre calexandre@di.fc.ul.pt Faculdade de Ciências da Universidade de Lisboa BioISI-MAS Campo Grande1749-016LisboaPortugal João Balsa jbalsa@ciencias.ulisboa.pt. Faculdade de Ciências da Universidade de Lisboa BioISI-MAS Campo Grande1749-016LisboaPortugal Um Sistema Multiagente no Combate ao Branqueamento de Capitais A Multi-Agent System in the Combat Against Money Laundering 2510.17013/risti.25.1-171multi-agent systemsintelligent agentsdata mininganti-money laundering Resumo:Branqueamento de capitais é um crime que possibilita o financiamento de outros crimes, por isso ele é importante para as organizações criminosas e seu combate é motivo de mobilização das nações do mundo inteiro. O processo de antibranqueamento de capitais não evoluiu como esperado pois tem priorizado a sinalização de transações suspeitas. O crescente aumento no volume de transações tem sobrecarregado o indispensável trabalho humano de avaliação final das sinalizações. Este artigo apresenta um sistema multiagente que objetiva ir além da captura de transações suspeitas, buscando auxiliar o especialista humano na análise das suspeições. Os agentes criados utilizam técnicas de data mining para criação de perfis de comportamento transacional; aplicam as regras obtidas no aprendizado em conjunto com regras especificas baseadas em aspectos legais e nos perfis criados para captura de transações suspeitas; e analisam estas transações sinalizadas indicando ao especialista humano aquelas que necessitam de análise mais detalhada.Palavras-chave: Sistemas multiagente; agentes inteligentes; data mining; antibranqueamento de capitais.Abstract: Money laundering is a crime that makes it possible to finance other crimes, for this reason, it is important for criminal organizations and their combat is prioritized by nations around the world. The anti-money laundering process has not evolved as expected because it has prioritized only the signaling of suspicious transactions. The constant increasing in the volume of transactions has overloaded the indispensable human work of final evaluation of the suspicions.This article presents a multiagent system that aims to go beyond the capture of suspicious transactions, seeking to assist the human expert in the analysis of suspicions. The agents created use data mining techniques to create transactional behavioral profiles; apply rules generated in learning process in conjunction with specific rules based on legal aspects and profiles created to capture suspicious transactions; and analyze these suspicious transactions indicating to the human expert those that require more detailed analysis. Introdução Ações de prevenção e combate ao crime de branqueamento de capitais (BC) são priorizadas por quase todos os governos do mundo, no mínimo, no mesmo nível das grandes questões globais (Madinger, 2012). BC é tipicamente um crime que consiste em tornar lícita a origem ilícita de um determinado ganho financeiro. A estimativa global anual de BC é em torno de 2% a 5% do Produto Interno Bruto Global (UNODC, 2014). Sobre fraude financeira, somente a América do Norte estima que sua perda passe de $3,1 mil milhões em 2017 para $4,8 mil milhões em 2018 (Cser, 2017). Este volume financeiro perdido anualmente já é motivo suficiente para o assunto ser tratado com prioridade, no entanto, outro fator leva os governos a priorizarem o combate a este crime: a sua comprovada ligação com outras práticas criminosas como narcotráfico, fraude, corrupção, sequestro, terrorismo, contrabando de armas, entre outros (Schott, 2006). As instituições financeiras, em sua maioria, já utilizam processos semi-automatizados para sinalização de transações suspeitas de BC, baseados em informações de cadastro, médias, desvios padrões e regras fixas pré-estabelecidas, geralmente oriundas de observações empíricas ou da experiência humana dos Analistas de anti-branqueamento de capitais (ABC). Porém, o crescente aumento no volume das transações realizadas, aliado à frequente publicação de novas regulamentações, nacionais e internacionais, acabam por provocar ineficiência neste processo de sinalização. Visando tornar o processo de ABC mais ágil e eficiente, este artigo apresenta a estrutura de um sistema multiagente para suporte à tomada de decisão neste contexto. Os agentes inteligentes utilizam técnicas de data mining para a criação de perfis de comportamento transacionais históricos, analisam e sinalizam transações suspeitas e auxiliam o Analista de ABC na tomada de decisão sobre as sinalizações. O modelo BDI (Belief, Desire, Intention) incorporado pela metodologia de desenvolvimento adotada (Prometheus), permite utilizar os perfis comportamentais encontrados, bem como possibilita a implementação de regras especificas em função do risco envolvido. Estas características, dentre outros benefícios, aumentam a eficiência do processo, enfrentando o aumento no volume de transações com a redução gradativa da intervenção humana. Este artigo segue a seguinte organização: indicação dos trabalhos relacionados com propostas de mineração de dados e arquiteturas de sistemas que buscam o ABC; apresentação da estratégia baseada no comportamento transacional dos atores para combate a este tipo de fraude; descrição da abordagem conservadora adotada no tratamento do risco envolvido; detalhamento do sistema e dos agentes definidos; apresentação dos resultados obtidos e as conclusões. Trabalhos Relacionados A capacidade de adaptação do modus operandi dos fraudadores e a falta de informação sistematizada que associe as transações suspeitas com a comprovação do crime, são obstáculos para um avanço mais rápido da automatização do processo de prevenção e combate ao crime de branqueamento de capitais (BC). O primeiro sistema amplamente divulgado na área do anti-branqueamento de capitais (ABC) foi o FinCEN Artificial Intelligence System (FAIS) (Senator et al., 1995), desenvolvido e utilizado pelo Financial Crimes Enforcement Network (FinCEN), órgão do Departamento do Tesouro dos Estados Unidos. Em seguida, a Subcomissão Permanente de Investigações do Comitê do Senado Americano para Assuntos Governamentais solicitou ao Office of Technology Assessement (OTA) 1 avaliação sobre a utilização de técnicas de pesquisa baseadas em inteligência artificial (IA), visando monitorizar o tráfego e transferências bancárias com o propósito de reconhecer transações suspeitas. Em seu relatório de 1995, o OTA concluiu que "o conceito original na sua formulação mais simples -o monitoramento do tráfego de transferência bancária, de forma contínua e em tempo real, usando técnicas de inteligência artificial -não é viável". Contudo, ponderou que existiam alternativas na tecnologia da informação a serem utilizadas para apoiar e reforçar a aplicação da lei contra o BC. Sugeriu, então, a utilização de técnicas tais como: knowledge acquisition, machine learning, clustering, knowledge sharing e data transformation (OTA, 1995). Em 1998, por orientação do relatório do United States General Accounting Office (GAO), a gestão decidiu pela não implementação de novos produtos utilizando técnicas de IA. Curiosamente, desde então, os estudos têm direcionado propostas para utilização das técnicas recomendadas buscando a identificação de anomalias ou situações suspeitas, conforme bem demonstrado em Chandola et al. (2009) e Sabau (2012. Contudo, conforme será comentado na seção 2.2, são poucas as propostas de sistemas baseados em agentes inteligentes para suportar todo o processo de ABC. Mineração de Dados As técnicas de data-mining, machine learning e clustering têm sido fortemente utilizadas na tentativa de identificar casos suspeitos de BC. Em Zhang et al. (2003) um conjunto de dados são discretizados, mapeados para espaço dimensional Euclidiano, projetados numa linha de tempo discretizada, formando um histograma. Os clusters são criados, utilizando o algoritmo K-means, com base nos segmentos do histograma. Análises de correlação locais e globais são então aplicadas para detectar padrões suspeitos. É uma boa abordagem para a análise de comportamentos individuais e/ou de grupo baseado em picos anormais no histograma. No entanto, na análise de grande quantidade de clientes e transações durante longo período de tempo, a detecção de casos suspeitos pode ser dificultada, pois podem existir poucos ou nenhum pico no histograma. Em Kingdon (2004), é proposta a utilização de técnicas de IA e de uma máquina de vetores de suporte (Support Vector Machine-SVM) numa perspectiva diferente daquela até então utilizada, ou seja, montar o perfil histórico dos clientes e buscar utilizações fora do padrão ao invés de focar em comportamento suspeito baseado apenas em perfil cadastral. Independente da tecnologia utilizada, esta proposta fortalece o conceito da política Know Your Customer (KYC) e torna-se ainda mais útil se aplicada de forma incremental e constante. Em Tang & Yin (2005) os autores propõem outra extensão da SVM para analisar as transações dos clientes e detectar comportamento fora do padrão. É apresentada uma combinação de um kernel com melhoramentos do Radial Basis Function (RBF) Scholkopf et al. (2001) com definição de distâncias distintas e algoritmos SVM supervisionados e nãosupervisionados. Uma vantagem desta abordagem é ela conseguir lidar com conjuntos de dados heterogêneos, porém, a avaliação de desempenho foi feita apenas com dados de simulação. Combinar a técnica de clustering com Multilayer Perceptron (MLP) foi a proposta de Le-Khac et al. (2009). O algoritmo K-means, é utilizado para formação dos clusters e esta técnica baseia-se em duas características principais (fundo de investimento e investidor) que, em seguida, são usados como entrada do processo de formação de um MLP. Os resultados apresentados mostram que a sua abordagem é eficiente. No entanto, o número de características, o número de padrões de treinamento utilizados foi pequeno e isso pode afetar a precisão. Outros métodos estatísticos foram propostos, como em Liu & Zhang (2010) que utiliza scan statistics, onde as transações realizadas num período de tempo são selecionadas aleatoriamente e agrupamentos incomuns são buscados. Adequado para trabalhos de auditoria em função da aleatoriedade adotada, no entanto, para um processo cotidiano de ABC nenhuma transação pode ser desprezada. Em Le-Khac & Kechadi (2010) os autores apresentam um estudo de caso em que aplicam uma solução para geração de uma base de conhecimento, combinando técnicas de mineração de dados, clustering utilizando K-means, redes neurais e algoritmos genéticos para detectar padrões de BC. Analisando somente por este documento, a solução pode apresentar um baixo custo benefício, considerando a alta complexidade da implementação proposta. Larik & Haider (2011) focam seu trabalho nas informações de débito e crédito realizadas pelos clientes de numa instituição financeira, visando identificar transações suspeitas. Propõem um novo algoritmo e um índice para avaliar e classificar as transações. Uma boa ideia, porém, limitada pela utilização somente das informações de débito e crédito. Arquiteturas de Sistemas Em Gao et al. (2006), uma arquitetura de sistema é definida utilizando um conjunto de agentes especializados, tais como: agentes de coleta de dados (sistemas internos e informações externas); agentes de monitoramento para acompanhamento do perfil cadastral do cliente e das transações realizadas; e um agente que emite relatórios e alertas sobre possíveis operações de BC. Apesar da boa proposta de arquitetura, o problema crucial do volume de análises submetidas ao analista humano não é enfrentando, aliás, pode até ser agravado com a automatização da fase de sinalização de transações suspeitas. Outra abordagem baseada em agentes foi apresentada em Xuan & Pengzhu (2007). A arquitetura proposta é semelhante à descrita em Gao et al. (2006), porém, com evolução dos agentes incluindo as características de negociação, diagnóstico e autoaprendizagem. As características dos agentes é o ponto forte desta proposta, contudo, também encerra sua contribuição nas sinalizações para o analista humano. Em Xu & Gao (2010) os autores propõem uma alteração na arquitetura apresentada anteriormente, incorporando as fases e técnicas de um modelo de tomada de decisão, aplicado em tempo real. A arquitetura do sistema proposto anteriormente foi melhorada, mas em termos de processo não houve avanços, persistindo a falta de apoio aos analistas humanos. Rajput et al. (2014) utilizam ontologias e regras na criação de um sistema especialista para detecção de transações suspeitas de BC. Uma boa abordagem para a criação das regras a serem aplicadas, testada com um volume significativo de dados, contudo, a quantidade de 2% de transações suspeitas detectadas numa base real torna-se inviável num processo rotineiro que necessita da validação do especialista humano. Estratégia de Combate a Fraudes A política Know Your Customer (KYC) definida pelo Comitê de Basiléia 2 é um guia de melhores práticas no combate a fraudes, pois detalha os procedimentos a serem seguidos. Baseado nestes documentos e no benchmark realizado pela Hewlett-Packard (Laxman, 2014) foi criado um fluxo genérico de combate a fraudes ou burla no setor financeiro (Figura 1), quando realizadas em processos total ou parcialmente automatizados. Um típico fluxo de ABC praticado pelas instituições financeiras foi mostrado e detalhado em Alexandre & Balsa (2015). Porém, mesmo sem a utilização de técnicas como mineração de processo (Norambuena & Zepeda, 2017), é fácil observar que o fluxo de ABC sendo tratado como uma instância do fluxo genérico de combate a fraudes é ineficiente, pois ele falha na identificação e sinalização das situações suspeitas. Casos não identificados impedem análise detalhada e a consequente geração de novas normas e recomendações, surgindo, dessa forma, o risco de uma falha sistêmica no processo geral de ABC. A Figura 2 mostra uma nova versão do fluxo geral de combate a fraudes, cujo objetivo é mitigar o risco identificado. A criação de perfis dos atores participantes da atividade, baseados no histórico completo das operações realizadas; a substituição dos atuais parâmetros fixos por regras de produção, embasadas nestes perfis e nas normas e recomendações existentes; a eliminação da utilização de somente operações mais recentes; e o uso de inteligência em alguns pontos do processo eleva qualitativamente o nível na captura de operações suspeitas e, principalmente, da tomada de decisão pelo especialista (Pinto et al., 2014). Figura 2 -Novo Fluxo Genérico de Combate a Fraudes Abordagem baseada no comportamento transacional Uma base com dados reais refletindo o comportamento transacional de clientes, possui uma significativa quantidade de atributos necessários para o controle e gestão do negócio envolvido, sendo que nem todos são relevantes para uma busca de transações suspeitas. A seleção dos atributos relevantes e a possível geração de novos atributos, reflete a importância da fase de pré-processamento, que será descrita na seção seguinte. Os atributos selecionados ou gerados, precisam refletir as principais características do universo de dados onde a anomalia é buscada, no caso, devem refletir a base de transações e permitir identificar comportamentos suspeitos (Paula et al., 2016). Neste trabalho é proposta a criação de vários atributos, que agregam quantidades e segmentam características, com o objetivo de estabelecer um perfil do comportamento transacional, dentro de um ciclo temporal, para cada ator do processo. O ciclo temporal tem relação direta com a natureza do negócio envolvido, apresentando a duração máxima possível (trimestral, semestral, anual, etc.). Pré-processamento dos dados e formação dos perfis Neste trabalho são utilizados dados reais de um banco brasileiro, referente a dois anos de transações do produto contas correntes. As contas dos 5,2 milhões de correntistas deste banco recebem, em média, 85 milhões de transações anuais. A análise da base de dados mostrou que menos de 10% dos clientes são constituídos por pessoas jurídicas (empresas comerciais, industrias, governos, etc.), no entanto, são responsáveis por mais de 90% dos valores totais envolvidos. Desta forma, visando uma melhor caracterização dos clientes, foi realizada a divisão da base de dados: uma somente com clientes singulares e outra com clientes tipo pessoa jurídica. Aprendizagem e geração de regras A tabela de perfis dos clientes ativos no ano analisado ficou com 2,4 milhões de linhas, cada linha representando univocamente a tripla cliente, agência e conta. Esta tabela foi utilizada num processo de aprendizado indutivo não-supervisionado com clustering, para formação de grupos de clientes com características semelhantes e mutuamente exclusivos. O algoritmo K-means (algc) foi utilizado para classificação e os algoritmos PART e J48 (algr1 e algr2) para geração das regras de produção, executados 11 vezes (número de atributos menos 1) (Figura 3 -Passo 3). Abordagem Conservadora com Relação a Risco A análise dos clusters gerados, para os dois segmentos de clientes, permitiu a identificação de características tais como: grande movimentação de valores elevados, com transferência integral para outras instituições financeiras (risco 3); ou movimentação de valores próximos do limite de comunicação aos órgãos reguladores (risco 2). Desta análise resultou a classificação mostrada na Tabela 1. Com esta classificação é possível definir uma melhor estratégia, oferecendo tratamento diferenciado aos grupos de clientes, conforme seu nível de risco. Apesar do ótimo nível de acerto obtido na avaliação das regras geradas, em torno de 99% para ambos os segmentos de clientes, um por cento de erro representa mais de 26 mil transações e não podem ser desprezadas. A matriz de confusão gerada pelos algoritmos identificou as regras que por serem aplicáveis a dois ou mais grupos de clientes compõem o 1% de erro mencionado. Ou seja, regras classificam clientes como pertencentes a mais de um perfil. A decisão foi então reclassificar os perfis que não representam risco ou têm baixo risco (perfis 1, 2 e 3), conforme mostra a Tabela 1. Dessa forma, a transação que pertencer a um desses 3 grupos será reclassificada, somente para efeito de análise, para uma regra nos perfis de risco mais elevado que satisfaça a condição. Por exemplo, na base de dados utilizada para data mining, 33 regras classificam os clientes pessoas singulares como pertencentes aos perfis de risco 2 e 3, correspondendo a 1,85% do total. Contudo, estas regras também classificam 0,06% de clientes originalmente pertencentes ao perfil padrão. A reclassificação consiste em, durante o processo de busca por transação suspeita, considerar esses clientes padrão como pertencentes aos grupos de risco, sem modificar a classificação original. Criação de regras normativas e baseadas no comportamento A classificação dos perfis também permite a criação de regras especificas, quer sejam baseadas nos normativos vigentes, quer sejam inspiradas no comportamento transacional. Conforme já mencionado, este trabalho utilizou um ano de informações para geração dos perfis, obtendo totais mensais e permitindo selecionar valores máximos dentro do ano para cada atributo relevante. Foi estabelecido que a busca por transações suspeitas retroagirá sempre um mês a partir da data solicitada para análise, desta forma será sempre utilizado o comportamento de 1 mês de transações para efeito de comparação com os perfis. Para os perfis de risco, as regras utilizarão sempre cálculos em torno do maior valor mensal encontrado para cada atributo e, para os demais perfis, será utilizado como limite o valor total anual, conforme consta da Tabela 1. Modelo dos Agentes A maioria dos sistemas existentes atualmente para suportar o processo de antibranqueamento de capitais (ABC), concentra-se na fase do processo referente a captura de transações suspeitas, transferindo para o Analista de ABC a tarefa de comprovação da suspeição. Além disso, boa parte dessas soluções são fortemente baseadas em parametrizações que, basicamente, aplicam os normativos vigentes. O desempenho desses sistemas está refletido no resultado da pesquisa realizada em 2014 com 317 profissionais especialistas em ABC e técnicos de conformidade, de instituições financeiras de 48 países, mostrando que apenas 58% acreditam que os sistemas existentes em suas organizações são capazes de monitorar adequadamente as transações ocorridas nas diversas linhas de negócios 3 . Esta situação motiva este trabalho na proposição de uma solução que integra técnicas de data mining a um sistema multiagente com o propósito de capturar transações suspeitas de branqueamento de capitais e auxiliar o Analista de ABC na tomada de decisão. Na modelagem do sistema foi utilizada a metodologia Prometheus (Padgham & Winikoff, 2004). A implementação está sendo realizada no framework JaCaMo (Boissier et al., 2013) que utiliza a linguagem Jason (Bordini, Hübner & Wooldridge, 2007 Na análise das transações os CTS utilizam as regras de produção vigentes, geradas com base nos perfis dos clientes, nos normativos sobre ABC e nas normas internas da instituição financeira. Atuam em duas modalidades: busca por transação ou busca por cliente. Na busca por transação a base histórica de transações é analisada integralmente, dentro do período informado, enquanto na busca por cliente, somente as transações relacionadas ao cliente informado são analisadas. Um agente é responsável pela gerencia da captura de transações (GCT), ele pode receber uma solicitação externa de análise e comandar para execução pelo CTS especialista ou comandá-la autonomamente. Ao receber a informação de um CTS de que uma transação suspeita foi identificada, comanda uma análise na modalidade busca por cliente para os demais CTSs responsáveis por produtos que constem do perfil do referido cliente. Somente o GCT tem conhecimento de quantos e quais são os CTSs existentes. Após todos os CTSs acionados terem enviado mensagens de resposta ao comando de análise, o GCT comunica ao agente auxilia processo decisório (APD) a existência de transações suspeitas. O agente APD é responsável por aprofundar a análise e decidir sobre a suspeição da transação, confirmando-a ou não. A utilização de conhecimento específico sobre o produto e de uma matriz de decisão baseada no histórico de decisões tomadas, permitem ao agente decidir sobre a suspeição ou, quando não é possível chegar a uma decisão, sinalizar para o 3https://home.kpmg.com/xx/en/home/insights/2014/01/global-anti-money-launderingsurvey.html Analista de ABC sobre a existência de um caso complexo. As decisões tomadas pelo agente, bem como aquelas informadas pelo Analista, são guardadas no histórico de decisões e são utilizadas no aprendizado para evolução da matriz de decisão. Este agente também sugere alterações na matriz de decisão e pela atualização desta base de conhecimento, após as sugestões serem validadas. Figura 5 -Arquitetura do Sistema Proposto O agente evolui base de perfis (EBP) atua na análise do histórico de transações para geração de perfis de clientes e posterior comparação com a base de perfis existente. Este processo pode ser acionado por uma solicitação do usuário ou de forma autônoma pelo agente. Os possíveis novos perfis surgidos são sugeridos para o Analista de ABC, para análise. O agente EBP atualiza a base de perfis com os perfis que forem validados. As evoluções das bases de conhecimento e o aprendizado previstos no sistema visam, primordialmente, mitigar o risco da ocorrência de falso positivo e/ou falso negativo, existente em sistema baseados unicamente em um conjunto de regras e padrões de comportamento (Gao et al., 2006) e (Le-Khac & Kechadi, 2010). Em função do sigilo legal envolvido nas informações, a Figura 7 mostra apenas dois perfis com parte dos detalhes envolvidos, devidamente descaracterizados. No entanto, é possível observar o texto de algumas regras que ressaltam a relevância das suspeitas, como por exemplo a regra legal BCXX2016003, originada no normativo do Banco Central Brasileiro que sinaliza uma queda acentuada na movimentação de um perfil que, normalmente, tem alta movimentação. Os normativos dos bancos centrais dos países, geralmente, recomendam investigar esta mudança de comportamento pois pode representar a parada de um período no qual ocorreu o branqueamento de capital. O percentual de 0,0409% de suspeitos, para um mês de transações, mostra-se exequível para a análise humana. Análise dos Resultados O sistema atualmente em utilização na instituição financeira fornecedora dos dados é fortemente baseado em valores limites pré-fixados e informações cadastrais, tipo renda/faturamento e atividade econômica. Assim sendo, as transações suspeitas agora indicadas incluem apenas algumas das suspeitas efetivamente identificadas e comunicadas aos órgãos de controle. As suspeitas baseadas no comportamento transacional dos clientes estão em análise visando atestar seu grau de precisão. Conclusões É crescente a preocupação da indústria financeira e dos governos com o crime de branqueamento de capitais, quer seja pelos recursos perdidos, quer seja pelas consequências deste crime que, normalmente, financiam outros crimes. Os sistemas atualmente em utilização pelas instituições financeiras são fortemente baseados em informações cadastrais, a proposta aqui apresentada analisa o comportamento transacional dos clientes, estabelece um perfil e utiliza-o como balizador para comportamento futuro. Os resultados obtidos mostram a viabilidade de utilização sistemática e estabelece nova frente de combate a este crime. A verificação real das suspeitas sinalizadas estão em andamento e o próximo passo é fazer com que o agente de auxílio ao processo decisório aprenda com as decisões tomadas pela Analista de Anti-Branqueamento de Capitais e passe a sinalizar somente os casos inéditos. Figura 1 - 1Fluxo Genérico de Combate a Fraudes O branqueamento de capitais (BC) é considerado um crime adjacente. EmCanas (2004) é explicado que "para haver Branqueamento teria de haver um crime anterior que proporcionasse ilicitamente ao seu autor proventos que posteriormente ele, ou outrem, pretendessem camuflar", na sua essência é possível afirmar que ele é uma instância do fluxo genérico de fraude. Dessa forma, a atividade de anti-branqueamento de capitais (ABC) pode ser vista como sendo o fluxo genérico mostrado na Figura 1, aplicado ao setor financeiro. O modelo de cluster utilizado mostrou-se adequado ao permitir a interpretação dos agrupamentos sem a utilização de sofisticados esquemas de visualização (Castillo-Rojas et al., 2017). Dois conjuntos de regras, um de cada algoritmo utilizado, com a menor quantidade de instâncias incorretamente classificadas foram selecionados (Figura 3 -Passo 4) e conjuntamente com os clusters que originaram essas regras representam o resultado final do processo (Figura 3 -Passo 5). Todo o procedimento descrito foi executado separadamente para cada base e está representado na Figura 3. Entrada: Base Total de Transações-BTT1 Transações Relevantes-TR  análise da BTT (Passo 1) 2 Perfis de Clientes-PC  seleção/geração de atributos da TR (Passo 2) 3 Número de Clusters-k  Número de Atributos de PC -1 (Passo 3) 4 enquanto k > 1 faça 5 Conjunto de Clusters-Cl  Algoritmo de Classificação ( algc(PC , k) ) 6 Vetor Erro1-E1(k)  Calcula Erro na Classificação ( algr1(Cl) ) 7 Vetor Erro2-E2(k)  Calcula Erro na Classificação ( algr2(Cl) ) 8 k  k -1 9 fim enquanto 10 Índice do Menor Erro-idx  Encontra o Menor (E1) (Passo 4) 11 Classificação Final-CF  algc(PC, idx) 12 Conjunto de Regras1-R1  algr1(CF) 13 Índice do Menor Erro-idx  Encontra o Menor (E2) 14 Conjunto de Regras2-R2  algr2(CF) 15 retorna CF, R1, R2 (Passo 5) Figura 3 -Algoritmo do Processo de Aprendizagem De cada base foram excluídas as transações cujas características impedem a prática de branqueamento de capitais (tarifas, comissões, juros, impostos, etc.) (Figura 3 -Passo 1). A soma final das bases resultou em 35 milhões de transações relevantes. Um ano de transações foi utilizado para a geração do perfil de comportamento transacional, ou seja, para cada cliente presente na base de transações foram agrupadas informações tais como: idade da conta; quantidade de movimentos gerados e de serviços utilizados; percentual de transferência de recursos para outros bancos e para contas do próprio banco; além da quantidade de movimentos agregados em 6 faixas de valores. O 12º atributo, denominado percentual de débito, representa, de forma ponderada no período analisado, o tempo que o recurso permaneceu na conta do cliente (Alexandre & Balsa, 2016) (Figura 3 -Passo 2). Tabela 1 - 1Classificação dos perfis geradosPerfil Pessoa Singular Outro Tipo de Cliente Reclassifica Perfil Valor Limite 1. Baixa Utilização Cluster4 Cluster4 Sim Total anual 2. Cliente Padrão Cluster2 Cluster1 Sim Total anual 3. Risco 1 (baixo) Cluster1 - Sim Máximo mensal 4. Risco 2 (médio) Cluster5 Cluster3 Não Máximo mensal 5. Risco 3 (alto) Cluster3 Cluster2 Não Máximo mensal O banco de regras criado deve ser o mais estável possível, posto que se transformará em crenças a serem utilizadas pelos agentes, possibilitando tomada de decisão consistentes e coerentes. No entanto, é possível que a instituição financeira utilizadora do sistema deseje, numa determinada análise, ser mais rigorosa quanto aos valores limites, o que levaria, inevitavelmente, a modificação nas regras. Para contornar esta situação, foi parametrizado um percentual intitulado Margem Adicional de Risco (MAR), cuja atribuição ficará a critério da instituição utilizadora e que aplicado sobre os valores limites reduzem-no pelo percentual indicado. Nos testes realizados para este artigo, referido percentual foi mantido em zero. A Figura 4 mostra que quando a MAR é maior que zero (o que está indicado em setembro, e no Total) os perfis de risco 2 e 3 têm seu limite reduzido pelo percentual indicado. O mesmo ocorre com os demais perfis, sendo que estes em relação ao valor total anual. O perfil de risco 1, por ser perfil de alerta, não é afetado pela MAR. Quando a MAR é igual a zero os perfis de risco utilizam o mesmo valor limite e os demais perfis utilizam o valor total anual, sem reduções. Figura 4 -Aplicação da Margem Adicional de Risco Os dados reais utilizados neste trabalho referem-se a 2 anos, com 30,5 milhões e 35,2 milhões de transações relevantes, respectivamente. Os perfis de comportamento transacionais dos clientes foram gerados a partir dos dados do primeiro ano, constituindo a base de referência. A busca por transações suspeitas foi realizada em um mês de transações relevantes do segundo ano, resultando em 2,6 milhões de transações. Sobre estas transações foram gerados 516.942 perfis de comportamento transacionais dos clientes no período.O processo de busca por transações suspeitas, implementado até o momento, pode ser dividido em 3 fases: a reclassificação dos perfis ou ajuste da matriz de confusão; a captura das transações suspeitas; e a análise das transações capturadas. A Figura 6 mostra um resumo com informações do ambiente e a quantidade de transações suspeitas.Figura 6 -Resultado Fases 1 e 2 O sistema utiliza como crenças um conjunto de 129 regras, bem como a classificação dos clientes nos perfis indicados. Essas crenças são reavaliadas uma única vez, ocasião em que 418 perfis foram reclassificados, saindo do perfil Padrão para perfis de risco, somente nesta análise. No final 182 perfis são indicados como suspeitos e suas transações precisam ser analisadas.O resultado da fase 3 do processo é mostrado na Figura 7. A distribuição dos suspeitos por perfil, com seu respectivo percentual, alerta para a concentração de 52% dos suspeitos no perfil de risco 3 (Alto Risco). Com o objetivo de auxiliar o especialista na análise das transações, os suspeitos são agrupados pela regra acionada na sua captura (mais de uma regra pode ser acionada para o mesmo perfil).GCT CT S APD EBP Figura 7 -Resultado Fase 3 http://ota.fas.org/ -escritório do Congresso Americano que funcionou de 1972 a 1995. http://www.bis.org/publ/bcbs85.pdf e http://www.bis.org/publ/bcbs04a.htm https://sites.google.com/site/rmitagents/software/prometheusPDT A Multiagent Based Approach to Money Laundering Detection and Prevention. C Alexandre, J Balsa, 10.5220/0005281102300235Proceedings of the ICAAI. the ICAAILisbonSciTePress1Alexandre, C., & Balsa, J. (2015). A Multiagent Based Approach to Money Laundering Detection and Prevention. In Proceedings of the ICAAI. 1, pp. 230-235. Lisbon: SciTePress. doi:10.5220/0005281102300235 Integrating Client Profiling in an Anti-money Laundering Multi-agent Based System. C Alexandre, J Balsa, 10.1007/978-3-319-31232-3_88New Advances in Information Systems and Technologies. Alexandre, C., & Balsa, J. (2016). Integrating Client Profiling in an Anti-money Laundering Multi-agent Based System. In New Advances in Information Systems and Technologies (pp. 931-941). doi:10.1007/978-3-319-31232-3_88 Multi-agent Oriented Programming with. O Boissier, R H Bordini, J F Hübner, A Ricci, A Santi, 10.1016/j.scico.2011.10.004JaCaMo. Sci. Comput. Program. 78Boissier, O., Bordini, R. H., Hübner, J. F., Ricci, A., & Santi, A. (2013, June). Multi-agent Oriented Programming with JaCaMo. Sci. Comput. Program., 78, 747-761. doi:10.1016/j.scico.2011.10.004 Programming Multi-Agent Systems in AgentSpeak Using Jason (Wiley Series in Agent Technology). R H Bordini, J F Hübner, M Wooldridge, John Wiley & SonsBordini, R. H., Hübner, J. F., & Wooldridge, M. (2007). Programming Multi-Agent Systems in AgentSpeak Using Jason (Wiley Series in Agent Technology). John Wiley & Sons. O Crime de Branqueamento: Regime de Prevenção e de Repressão. V Canas, L. AlmedinaCoimbra-PTCanas, V. (2004). O Crime de Branqueamento: Regime de Prevenção e de Repressão. (L. Almedina, Ed.) Coimbra-PT. Esquema de Visualización para Modelos de Clústeres en Minería de Datos. RISTI. Wilson Castillo-Rojas, Medina-Quispe, Fernando, Juan Vega-Damke, 10.17013/risti.21.67-80Castillo-Rojas, Wilson, Medina-Quispe, Fernando, & Vega-Damke, Juan. (2017). Esquema de Visualización para Modelos de Clústeres en Minería de Datos. RISTI, (21), 67-80. https://dx.doi.org/10.17013/risti.21.67-80. Anomaly Detection: A Survey. V Chandola, A Banerjee, V Kumar, 10.1145/1541880.1541882ACM Comput. Surv. 4158Chandola, V., Banerjee, A., & Kumar, V. (2009). Anomaly Detection: A Survey. ACM Comput. Surv., 41, 15:1--15:58. doi:10.1145/1541880.1541882 The Truth About Machine Learming in Fraud Prevention. A Cser, Kount Inc. (ProducerVideo webinarCser, A., Kount Inc. (Producer). (2017). The Truth About Machine Learming in Fraud Prevention [Video webinar]. Intelligent Anti-Money Laundering System. Service Operations and Logistics, and Informatics. S Gao, D Xu, H Wang, Y Wang, 10.1109/SOLI.2006.328967IEEE International Conference on. Gao, S., Xu, D., Wang, H., & Wang, Y. (2006). Intelligent Anti-Money Laundering System. Service Operations and Logistics, and Informatics, 2006. IEEE International Conference on, (pp. 851-856). doi:10.1109/SOLI.2006.328967 AI fights money laundering. J Kingdon, 10.1109/MIS.2004.1Intelligent Systems, IEEE. 19Kingdon, J. (2004). AI fights money laundering. Intelligent Systems, IEEE, 19, 87-89. doi:10.1109/MIS.2004.1 Clustering based anomalous transaction reporting. A S Larik, S Haider, 10.1016/j.procs.2010.12.101Procedia Computer Science. 3Larik, A. S., & Haider, S. (2011). Clustering based anomalous transaction reporting. Procedia Computer Science, 3, 606-610. doi: 10.1016/j.procs.2010.12.101 The Fight Against Fraud. S Laxman, Laxman, S. (2014). The Fight Against Fraud. Retrieved March, 2017, from https://iaonline.theiia.org/the-fight-against-fraud Towards a New Data Mining-Based Approach for Anti-Money Laundering in an International Investment Bank. N Le-Khac, S Markos, M T Kechadi, 10.1007/978-3-642-11534-9_82Le-Khac, N., Markos, S., & Kechadi, M. T. (2009). Towards a New Data Mining-Based Approach for Anti-Money Laundering in an International Investment Bank. ICDF2C (pp. 77-84). doi:10.1007/978-3-642-11534-9_8 Application of Data Mining for Anti-money Laundering Detection: A Case Study. N Le-Khac, M T Kechadi, 10.1109/ICDMW.2010.66Proceedings of the 2010 IEEE ICDMW. the 2010 IEEE ICDMWLe-Khac, N., & Kechadi, M. T. (2010). Application of Data Mining for Anti-money Laundering Detection: A Case Study. In Proceedings of the 2010 IEEE ICDMW (pp. 577-584). doi:10.1109/ICDMW.2010.66 A Scan Statistics Based Suspicious Transactions Detection Model for Anti-money Laundering (AML) in Financial Institutions. X Liu, P Zhang, 10.1109/MEDIACOM.2010.37Liu, X., & Zhang, P. (2010). A Scan Statistics Based Suspicious Transactions Detection Model for Anti-money Laundering (AML) in Financial Institutions. Mediacom 2010 (pp. 210-213). doi:10.1109/MEDIACOM.2010.37 J Madinger, Money Laundering: A Guide for Criminal Investigators. Taylor & Francis GroupThird ed.Madinger, J. (2012). Money Laundering: A Guide for Criminal Investigators (Third ed.). Taylor & Francis Group. Minería de procesos de software: una revisión de experiencias de aplicación. RISTI. Brian Norambuena, Keith, Vianca Zepeda, Vega, 10.17013/risti.21.51-66Norambuena, Brian Keith, & Zepeda, Vianca Vega. (2017). Minería de procesos de software: una revisión de experiencias de aplicación. RISTI, (21), 51-66. https://dx.doi.org/10.17013/risti.21.51-66. Information Technologies for the Control of Money Laundering. Ota, 2Washington, DC: Congress of the U.S.2 ed.OTA. (1995). Information Technologies for the Control of Money Laundering (2 ed., Vol. 2). Washington, DC: Congress of the U.S. Retrieved March, 2017, from https://books.google.pt/books?id=TPdkrX2qkEAC Developing Intelligent Agent Systems: A Practical Guide. L Padgham, M Winikoff, John Wiley & Sons IncNew York, NY, USAPadgham, L., & Winikoff, M. (2004). Developing Intelligent Agent Systems: A Practical Guide. New York, NY, USA: John Wiley & Sons Inc. Deep Learning Anomaly Detection as Support Fraud Investigation in Brazilian Exports and Anti-Money Laundering. E Paula, M Ladeira, R Carvalho, T Marzagão, 10.1109/ICMLA.2016.017215th IEEE ICMLA. Paula, E., Ladeira, M., Carvalho, R., & Marzagão, T. (2016). Deep Learning Anomaly Detection as Support Fraud Investigation in Brazilian Exports and Anti-Money Laundering. 15th IEEE ICMLA (pp. 954-960). doi:10.1109/ICMLA.2016.0172 Adaptive learning in agents behaviour: A framework for electricity markets simulation. T Pinto, Z Vale, T Sousa, I Praça, G Santos, H Morais, 10.3233/ICA-140477Integrated Computer-Aided Engineering. 21Pinto, T., Vale, Z., Sousa, T., Praça, I., Santos, G., & Morais, H. (2014). Adaptive learning in agents behaviour: A framework for electricity markets simulation. Integrated Computer-Aided Engineering, 21, 399-415. doi:10.3233/ICA-140477 Ontology Based Expert-System for Suspicious Transactions Detection. Q Rajput, N S Khan, A S Larik, S Haider, 10.5539/cis.v7n1p103Computer and Information Science. 7Rajput, Q., Khan, N. S., Larik, A. S., & Haider, S. (2014). Ontology Based Expert-System for Suspicious Transactions Detection. Computer and Information Science, 7, 103-114. Retrieved March, 2017, from doi:10.5539/cis.v7n1p103 Survey of Clustering based Financial Fraud Detection Research. A S Sabau, Informatica Economica. I. Economicá16Sabau, A. S. (2012). Survey of Clustering based Financial Fraud Detection Research. (I. Economicá, Ed.) Informatica Economica, 16, 110-122. Estimating the Support of a High-Dimensional Distribution. B Scholkopf, J C Platt, J C Shawe-Taylor, A J Smola, R C Williamson, 10.1162/089976601750264965Neural Computing. 13Scholkopf, B., Platt, J. C., Shawe-Taylor, J. C., Smola, A. J., & Williamson, R. C. (2001). Estimating the Support of a High-Dimensional Distribution. Neural Computing, 13, 1443-1471. doi:10.1162/089976601750264965 Reference Guide to Anti-Money Laundering and Combating the Financing of Terrorism: Second Edition and Supplement on Special Recommendation IX. P A Schott, The World Bank and The IMF. Washington, DCSchott, P. A. (2006). Reference Guide to Anti-Money Laundering and Combating the Financing of Terrorism: Second Edition and Supplement on Special Recommendation IX. Washington, DC: The World Bank and The IMF. . T E Senator, H G Goldberg, J Wooton, Senator, T. E., Goldberg, H. G., Wooton, J., . . . The Financial Crimes Enforcement Network AI System (FAIS) Identifying Potential Money Laundering from Reports of Large Cash Transactions. R W Wong, 10.1609/aimag.v16i4.1169AI Magazine16Wong, R. W. (1995). The Financial Crimes Enforcement Network AI System (FAIS) Identifying Potential Money Laundering from Reports of Large Cash Transactions. AI Magazine, 16, 21-39. Retrieved March, 2017, from doi:10.1609/aimag.v16i4.1169 Developing an intelligent data discriminating system of antimoney laundering based on SVM. J Tang, J Yin, 10.1109/ICMLC.2005.1527539Proceedings of 2005 International Conference on. 2005 International Conference on6Tang, J., & Yin, J. (2005). Developing an intelligent data discriminating system of anti- money laundering based on SVM. Proceedings of 2005 International Conference on, 6, pp. 3453-3457. doi:10.1109/ICMLC.2005.1527539 United Nations Office on Drugs and Crime -Annual Report. Unodc, UNODC. (2014). United Nations Office on Drugs and Crime -Annual Report 2014. Retrieved March, 2017, from https://www.unodc.org/documents/AnnualRepo rt2014/Annual_Report_2014_WEB.pdf Real-Time Exception Management Decision Model (RTEMDM): Applications in Intelligent Agent-Assisted Decision Support in Logistics and Anti-Money Laundering Domains. 43rd HICSS. D Xu, S Gao, 10.1109/HICSS.2010.314Xu, D., & Gao, S. (2010). Real-Time Exception Management Decision Model (RTEMDM): Applications in Intelligent Agent-Assisted Decision Support in Logistics and Anti- Money Laundering Domains. 43rd HICSS, (pp. 1-10). doi:10.1109/HICSS.2010.314 An Agent Based Anti-Money Laundering System Architecture for Financial Supervision. L Xuan, Z Pengzhu, 10.1109/WICOM.2007.1340Xuan, L., & Pengzhu, Z. (2007). An Agent Based Anti-Money Laundering System Architecture for Financial Supervision. WiCom 2007 (pp. 5472-5475). doi:10.1109/WICOM.2007.1340 Applying Data Mining in Investigating Money Laundering Crimes. Z Zhang, J J Salerno, P S Yu, 10.1145/956750.956851Proceedings of the Ninth ACM SIGKDD. the Ninth ACM SIGKDDNew York, NY, USAACMZhang, Z., Salerno, J. J., & Yu, P. S. (2003). Applying Data Mining in Investigating Money Laundering Crimes. In Proceedings of the Ninth ACM SIGKDD (pp. 747-752). New York, NY, USA: ACM. doi:10.1145/956750.956851
sample_11402
0.5548
arxiv
La inserción de la Astronomía Cultural en la educación formal: fundamentos y propósitos Argentina Asociación R D De Astronomía C E Rohrmann M A Boeris M N Sgró eds. Boletín deGómez J I Bastero juanibastero@hotmail.com Universidad Nacional del Centro de la Provincia de Buenos Aires Argentina Instituto de Formación e Investigación en Enseñanza de las Ciencias Facultad de Ciencias Exactas y Naturales UBA Argentina F A Karaseur Universidad Nacional del Centro de la Provincia de Buenos Aires Argentina Instituto de Formación e Investigación en Enseñanza de las Ciencias Facultad de Ciencias Exactas y Naturales UBA Argentina S J Garófalo Instituto de Formación e Investigación en Enseñanza de las Ciencias Facultad de Ciencias Exactas y Naturales UBA Argentina &amp; A Gangui Instituto de Formación e Investigación en Enseñanza de las Ciencias Facultad de Ciencias Exactas y Naturales UBA Argentina Instituto de Astronomía y Física del Espacio CONICET-UBA Argentina La inserción de la Astronomía Cultural en la educación formal: fundamentos y propósitos BAAA 632021 Resumen / Son vastos los trabajos de investigación educativa que destacan las serias dificultades que presentan los estudiantes en el aprendizaje de temas astronómicos, así como también en la prevalencia de una enseñanza tradicional distanciada de lo observacional y vivencial, acentuando así las dificultades detectadas. Sostenemos que una enseñanza progresiva con enfoque topocéntrico y contextualizado favorecería la motivación del alumnado, la construcción de una mirada más real de la ciencia actual y un rol más activo en el proceso de aprendizaje. La Astronomía Cultural (AC) es una disciplina académica que busca entender las múltiples formas en las que las sociedades se relacionan con los objetos y fenómenos celestes. Por tal motivo, consideramos que sería un recurso potente para la enseñanza, puesto que brinda herramientas para la contextualización y permite trabajar con experiencias del cielo ligadas a la "astronomía a ojo desnudo", que requiere de poco o ningún instrumental. Cabe destacar que la AC involucra aspectos de arqueoastronomía, etnoastronomía e historia de la astronomía ofreciendo así múltiples aristas a tener en cuenta. El presente trabajo busca fundamentar la incorporación de estudios en AC para la enseñanza de la astronomía en la educación secundaria y terciaria. Abstract / There are vast educational research works that highlight the serious difficulties that students present in learning astronomical subjects, as well as the prevalence of a traditional education distanced from the observational and experiential, thus accentuating the difficulties detected. We argue that progressive teaching with a topocentric and contextualized approach would favor the motivation of the students, the construction of a more real view of current science and a more active role in the learning process. Cultural Astronomy (CA) is an academic discipline that seeks to understand the multiple ways in which societies relate to celestial objects and phenomena. For this reason, we consider that it would be a powerful resource for teaching, since it provides tools for contextualization and allows working with sky experiences linked to "naked eye astronomy", which requires little or no instruments. It should be noted that CA involves aspects of archaeoastronomy, ethnoastronomy and the history of astronomy, thus offering multiple dimensions to take into account. The present work seeks to base the incorporation of CA studies for astronomy teaching in secondary and tertiary education. Keywords / education -history and philosophy of astronomy -methods: observational Introducción Diversos trabajos de investigación en didáctica de las ciencias señalan varias dificultades al momento de aprender temas astronómicos en la escuela y en la formación de docentes (Camino, 1995;Gangui et al., 2010;De Biasi et al., 2015;Varela-Lozada et al., 2015). A su vez, estos trabajos también señalan cómo, frecuentemente, tanto alumnos como docentes presentan concepciones alternativas de los fenómenos astronómicos cotidianos como lo pueden ser las estaciones del año, el paso cenital del Sol o las fases lunares, entre otros. En astronomía los alumnos suelen contar con mucha información sobre las estrellas y sus movimientos (Lopes de Almeida Pacca La inserción de la Astonomía Cultural en la educación evolucionado con el tiempo las mismas. En ella, se busca entender las distintas formas en las que los objetos y fenómenos del cielo se registran, influyen, impactan y guían las creencias, los sistemas de conocimiento y las tradiciones culturales. La Astronomía Cultural es uń area interdisciplinaria, desde la base de las ciencias naturales y las sociales, que presenta diversas aplicaciones enáreas como la educación, las artes, la política, etc. Dentro del gran espacio que conforma, tres de las subdisciplinas principales son (Lopez & Hamacher, 2017): • La arqueoastronomía, que, mediante el uso de las técnicas de la arqueología y de la astronomía, reconstruye las formas con que, en el pasado, distintos grupos humanos vieron el cielo. • La etnoastronomía, que mediante una aproximación etnográfica, intenta entender las concepciones sobre lo celeste que tienen los diversos gruposétnicos y culturales. • La historia de la astronomía, que se dedica al estudio de la astronomía del pasado mediante el uso de las técnicas históricas y el soporte de los documentos escritos. La Astronomía Cultural como recurso didáctico Distintas investigaciones en enseñanza de las Ciencias Naturales respaldan que en las clases se enfaticen las relaciones entre contenidos científicos, aspectos socioculturales, de naturaleza de la ciencia y de la vida cotidiana de los estudiantes con el fin de lograr aprendizajes significativos y competenciales (Caamaño, 2018;Habig et al., 2018). Estos aspectos convergen cuando se aborda la enseñanza mediante un enfoque que permita la modelización y contextualización al generar un entorno motivador que mejora los procesos de comprensión (Pérgola & Galagovsky, 2020). En esta línea teórica, la ciencia puede ser pensada como una actividad humana y el conocimiento construido, como una familia de modelos científicos que dan cuenta de distintos fenómenos del mundo (Meinardi et al., 2002). La importancia de incorporar a la enseñanza la Astronomía Cultural radica en que abre un espacio a la reflexión acerca de las formas en que ese conocimiento se construye socio-culturalmente. Este marco permite retomar las ingeniosas preguntas que se hacían y aún se hacen distintas culturas como puertas de entrada estratégicas para la enseñanza. Este enfoque histórico-epistemológico acerca a los estudiantes a conocer no sólo cómo la humanidad fue construyendo los modelos científicos actuales, sino también cómo dicho conocimiento es siempre un conocimiento "situado", ligado a quienes somos (Lopez & Hamacher, 2017). Teniendo en mente el potencial didáctico que tiene la incorporación de la Astronomía Cultural para la educación formal se diseñaron dos propuestas de enseñanza. Si bien ambas fueron pensadas para ser implementadas en Ciencias Naturales de secundaria, las dos pueden ser & Scarinci, 2006), pero no logran conectar dicha teoría con lo que experimentan en su vida cotidiana con el fin de crear un modelo mental coherente para explicar los fenómenos diarios. Parte de estas dificultades se hallan estrechamente relacionadas a la forma en la que se imparten los conocimientos en las aulas. En la enseñanza de estos temas generalmente persiste la transmisión de contenido desde un observador externo y sin relacionarlo con el mundo vivencial, lo que conduce a construir conocimientos fragmentados(Faria & Voelzke, 2008). Este enfoque de enseñanza, que dista de la experiencia cotidiana del alumnado, contribuye a acentuar varias de las concepciones alternativas. En contraparte, una mirada topocéntrica de estos fenómenos permitiría al docente contextualizar los conocimientos generando así modelos de ciencia escolar (AdurizBravo & Izquierdo Aymerich, 2009;Gangui & Iglesias, 2015).2. La Astronomía CulturalLa Astronomía Cultural, término acuñado por Iwaniszewski y Ruggles en la década del 1990, intenta establecer las concepciones sobre el cielo que han ido forjando las personas de diversas culturas, las preguntas que se hicieron, las respuestas que han dado y cómo han Presentación mural adaptadas también para ser llevadas al aula en institutos de formación docente.En una de ellas, se aborda la enseñanza de conceptos de espacio y tiempo utilizando el caso de la navegación oceánica histórica sin instrumentos avanzados, apelando a estudios etnoastronómicos. En la otra propuesta, mediante una aproximación arqueoastronómica, con el ejemplo del calendario de horizonte monumental del sitio arqueológico Chanquillo, se aborda la identificación local de marcadores de horizonte que permitiría a los estudiantes la construcción de sus propios calendarios. Ambas se describen con mayor profundidad en una segunda parte que da continuidad a este trabajo (Karaseur et al., trabajo aceptado en BAAA 63, 2021).4. Reflexiones finalesEn el presente trabajo se describe el potencial de la Astronomía Cultural como recurso didáctico con el propósito de orientar al docente hacia la posibilidad de abordar el cambio de enfoque necesario que permita promover la modelización, la asociación entre los contenidos disciplinares y los aspectos socioculturales, y cuestiones de la vida cotidiana de los estudiantes. Así mismo, esta forma de intervención en el aula estimula, desde la enseñanza, el abordaje hacia nuevos procedimientos observacionales y formas vivenciales de concebir la exploración de los cielos(Lopez & Gimenez Benitez, 2010). Aduriz Bravo, A Izquierdo Aymerich, M , Revista electrónica de Enseñanza de las Ciencias. 440Aduriz Bravo A., Izquierdo Aymerich M., 2009, Revista electrónica de Enseñanza de las Ciencias, 4, 40 Educación química. A Caamaño, 2921Caamaño A., 2018, Educación química, 29, 21 . N Camino, 1381Enseñanza de las cienciasCamino N., 1995, Enseñanza de las ciencias, 13, 81 De Biasi, M S , IV Jornadas de Enseñanza e Investigación Educativa en el campo de las Ciencias Exactas y Naturales. De Biasi M.S., et al., 2015, IV Jornadas de Enseñanza e In- vestigación Educativa en el campo de las Ciencias Exactas y Naturales Revista Brasileira de Ensino de Física. R Z Faria, M R Voelzke, 301Faria R.Z., Voelzke M.R., 2008, Revista Brasileira de Ensino de Física, 30, 1 Didáctica de la astronomía: actualización disciplinar en ciencias naturales. Propuestas para el aula. A Gangui, M C Iglesias, Paidós, Ciudad Autónoma de Buenos AiresGangui A., Iglesias M.C., 2015, Didáctica de la astronomía: actualización disciplinar en ciencias naturales. Propues- tas para el aula, Editorial Paidós, Ciudad Autónoma de Buenos Aires A Gangui, M C Iglesias, C P Quinteros, Revista electrónica de Enseñanza de las Ciencias. 9467Gangui A., Iglesias M.C., Quinteros C.P., 2010, Revista electrónica de Enseñanza de las Ciencias, 9, 467 . S Habig, International Journal of Science Education. 401154Habig S., et al., 2018, International Journal of Science Edu- cation, 40, 1154 Revista Brasileira de Ensino de Física. J Lopes De Almeida Pacca, A L Scarinci, 2889Lopes de Almeida Pacca J., Scarinci A.L., 2006, Revista Bra- sileira de Ensino de Física, 28, 89 . A M Lopez, Gimenez Benitez, S , Ciencia Hoy. 2019Lopez A.M., Gimenez Benitez S., 2010, Ciencia Hoy, 20, 19 . A M Lopez, D Hamacher, Revista Ciencia Y Tecnología. 1911Lopez A.M., Hamacher D., 2017, Revista Ciencia Y Tecno- logía, 19, 11 . E Meinardi, 1513Revista de Enseñanza de la FísicaMeinardi E., et al., 2002, Revista de Enseñanza de la Física, 15, 13 M S Pérgola, L Galagovsky, Enseñanza de las Ciencias. 3845Pérgola M.S., Galagovsky L., 2020, Enseñanza de las Cien- cias, 38, 45 . M Varela-Lozada, Ciência & Educação. 21799Varela-Lozada M., et al., 2015, Ciência & Educação, 21, 799
sample_12012
0.9369
arxiv
¿Es Posible Aplicar las Redes Neuronales Artificiales en el Pronóstico Sísmico? Análisis Preliminar Aplicando la Topología Radial. Caso: México Can Artificial Neural Networks be Applied in Seismic Predicition? Preliminary Analysis Applying Radial Topology. Case: Mexico Cinthya Mota-Hernández Universidad Autónoma del Estado de México México Luis Esquivel-Rodríguez Universidad Autónoma del Estado de México México Rafael Alvarado-Corona SEP, SARACS Research Group, www.saracs.com.mx Ciudad de MéxicoMéxico ¿Es Posible Aplicar las Redes Neuronales Artificiales en el Pronóstico Sísmico? Análisis Preliminar Aplicando la Topología Radial. Caso: México Can Artificial Neural Networks be Applied in Seismic Predicition? Preliminary Analysis Applying Radial Topology. Case: Mexico AnalysisMexicoNeural Artificial NetworksSeismicity Resumen---Sismos tectónicos de elevada magnitud pueden causar pérdidas considerables en términos de vidas humanas, económicos y de infraestructura, entre otros. De acuerdo con una evaluación publicada por el Servicio Geológico de los Estados Unidos, 30 es el número de sismos que han impactado en gran medida a México desde finales del siglo XIX al actual.. En base a datos del Servicio Sismológico Nacional, en el periodo comprendido entre el 1 de Enero del 2006 y el 1 de Mayo del 2013 se han presentado 5,826 sismos mayores a 4.0 grados de magnitud en la escala de Richter (28.54% del total de sismos registrados en el territorio nacional), siendo la placa del Pacífico y la placa de Cocos las de mayor importancia. La investigación describe el desarrollo de una Red Neuronal Artificial (RNA) basada en la topología radial que busca generar una predicción con un margen de error menor al 20% que informe sobre la probabilidad de un sismo futuro, una de las preguntas principales del enfoque propuesto es: ¿Es posible aplicar las redes neuronales artificiales en el pronóstico sísmico? Se puede argumentar que la investigación tiene el potencial de aportar en el pronóstico sísmico, más investigación es necesaria para consolidar datos y contribuir a mitigar el impacto causado por tales eventos al vincularse con la sociedad.Palabras clave---Análisis, México, Pronóstico, Redes neuronales artificiales, Sismicidad.Abstract---Tectonic earthquakes of high magnitude can cause considerable losses in terms of human lives, economic and infrastructure, among others. According to an evaluation published by the U.S. Geological Survey, 30 is the number of earthquakes which have greatly impacted Mexico from the end of the XIX century to this one. Based upon data from the National Seismological Service, on the period between January 1, 2006 and May 1, 2013 there have occurred 5,826 earthquakes which magnitude has been greater than 4.0 degrees on the Richter magnitude scale (25.54% of the total of earthquakes registered on the national territory), being the Pacific Plate and the Cocos Plate the most important ones. This document describes the development of an Artificial Neural Network (ANN) based on the radial topology which seeks to generate a prediction with an error margin lower than 20% which can inform about the probability of a future earthquake one of the main questions is: can artificial neural networks be applied in seismic forecasting? It can be argued that research has the potential to bring in the forecast seismic, more research is needed to consolidate data and help mitigate the impact caused by such events linked with society. I. INTRODUCCION Los desastres naturales pueden causar alto impacto en sociedades vulnerables, existe investigación que se ha realizado en varias facetas [9], por otro lado, para el monitoreo y alerta de actividad sísmica en México se cuenta a partir de 1991 con el Sistema de Alerta Sísmica (SAS) [1], que cubre las zonas aledañas a Guerrero y cuenta con un total de 12 estaciones sensoras, además del Sistema de Alerta Sísmica de la Ciudad de Oaxaca (SASO), desarrollado en el 2003 y con un total de 36 estaciones sensoras. Estos sistemas han emitido 78 alertas tempranas de más de 2350 sismos [2], hecho que ha permitido contemplar la posibilidad de extender la cobertura de los mismos a los estados comprendidos entre Jalisco y Chiapas (la mayor parte del territorio se ubica sobre la placa de Cocos). De cualquier manera, ambos sistemas reaccionan en cuanto la actividad sísmica es detectada, sin embargo, se evaluó la posibilidad de emplear una RNA capaz de buscar un patrón en los registros de sismos desde los 4.0 grados de magnitud a partir del año 1998 hasta el 1 de Mayo del 2013, la RNA se basó en una topología radial. Haciendo uso de una muestra de poco más de 5,000 sismos, misma que fue dividida para integrar los conjuntos de validación y producción, se llevó a cabo el entrenamiento de la RNA mediante el aprendizaje supervisado con el objetivo de obtener a sus salidas la magnitud y otros datos de un posible sismo futuro. El presente artículo explica el desarrollo de dicha red con base en una metodología de análisis para sistemas suaves [3], además de los resultados obtenidos del entrenamiento. Existen diversas investigaciones en el área sísmica con enfoques que enriquecen y aportan de manera integral al análisis del fenómeno [10]. II. RECOPILACIÓN Y TRATAMIENTO DE DATOS El primer proceso llevado a cabo fue la adquisición y procesamiento de los datos de tal manera que el entrenamiento contara con un número aceptable de muestras, cada una de ellas completa y en una escala coherente general. Los datos fueron extraídos del Servicio Sismológico Nacional [4] El proceso de conversión de datos tanto en tipo como en escala se llevó a cabo en todos los campos que representarían las variables de entrada para la red, y en todos los conjuntos obtenidos en el paso anterior. III. DESARROLLO DE LA RED NEURONAL ARTIFICIAL Partiendo del análisis del problema y con base en el planteamiento de las variables analizadas, se procedió a realizar el modelado de las medidas de desempeño de la red a entrenar, así como el análisis funcional de la misma. Para el entrenamiento se planteó el uso de aprendizaje supervisado, con una terminación basada en el error, para propósitos de exactitud se establece que el error fuera causa de terminación del entrenamiento cuando se alcanzara la condición de sobreentrenamiento; el error máximo planteado para las salidas de la red fue del 20%, cualquier salida por encima de ese rango se consideraría como razón para clasificar la red como no óptima para su uso. El diseño elegido para estructura de la red, considerando el tratamiento de datos para la investigación, se ilustra en la Fig.1. Fig. 1 Estructura de la red Fuente: Elaboración propia A priori, era deseable establecer el modelo de red que fuera más óptimo para la solución del problema planteado, tanto en el tiempo requerido como en el error mínimo obtenido a la salida de la red. Este proceso se basó en los aspectos siguientes: A. Modelos de Redes elegidos. 1. Perceptrón multicapa, modelo conocido por ser apropiado para una gran cantidad de problemas [5]. 2. Recurrente en series de tiempo [6]. 3. Recurrente generalizada, similar a la anterior y comúnmente usada en predicción [7]. 4. Red de base radial con perceptrón multicapa [8]. 5. Radial, de propósito general. B. Número de elementos de procesamiento (EP). Las redes preliminares entrenadas poseían 7 capas ocultas, cuyas cantidades de EP son descritos en la Tabla III. C. Total de Muestras a usar. En todas las redes preliminares se hizo uso de una población de 200 muestras para el entrenamiento. D. Reglas de Propagación y Funciones de Activación. Se hizo uso de las reglas de propagación momentum para el perceptrón multicapa entrenado (ésta regla es propia de los perceptrones multicapa) y Quickprop (que intenta hacer uso de un modelo cuadrático de la superficie de error para acelerar la convergencia). E. Criterio de convergencia. Se estableció como criterio de terminación el mismo a utilizar en la red final, es decir, terminación basada en el error mínimo antes de alcanzar el sobreentrenamiento. Se estableció como error mínimo el 10%. Al finalizar el entrenamiento de las redes antes mencionadas, se obtuvieron los siguientes resultados a fin de seleccionar el modelo de red más óptimo para su aplicación se llevaron a cabo las comparativas siguientes: La comparación entre los conjuntos de entrenamiento y validación demostró que la red 4 (red de base radial con perceptrón multicapa) era la más adecuada para resolver el problema. La red final se basó por consiguiente, en una topología radial con perceptrón multicapa con los siguientes datos: La comparación generada entre los valores actuales y los generados por la red neuronal, se muestran en la En el proceso que conlleva a la elección del modelo de RNA más adecuado para la resolución de un problema, es necesario evaluar aspectos como el tipo de problema a resolver, el error mínimo esperado a la salida, el número de muestras y el tratamiento-conversión de los datos contenidos. Pese a que la elección del número de neuronas además del número y composición de las capas ocultas es un factor limitante para ciertos equipos informáticos en cuanto a los recursos con que se cuenta, su elección correcta es clave para alcanzar el criterio de convergencia establecido. El proceso de elección del mejor modelo de RNA implica prueba y error utilizando distintos modelos y/o variaciones en su aplicación. Las redes neuronales artificiales tienen potencial aplicación en el ámbito sísmico. V. CONCLUSIÓNES Un análisis de la aplicación de Redes Neuronales artificiales aplicadas al ámbito sísmico fue presentado. En conclusión, se obtuvo un error mínimo ubicado por debajo del 10% en las tres variables de salida, pese a que una de las salidas planteadas fue descartada, siendo el modelo de topología radial con perceptrón multicapa el de mayor eficiencia para la resolución del problema. La variable que en todos los casos presentó el menor error fue la magnitud sísmica; no obstante haber excluido variables de salida referentes a tiempo, se plantea llevar a cabo mayor investigación sólida que invite a la reflexión y pueda brindar resultados concluyentes. AGRADECIMIENTOS.-Los autores desean agradecer a todas y cada una de las instituciones, organizaciones y personas que han brindado apoyo en la realización del presente proyecto de investigación. Fig. 2 2Comparación de conjuntos de validación Fuente: Elaboración propia Fig. 3 Comparación de conjuntos de entrenamiento Fuente: Elaboración propia Fig. 4 Comparación de conjuntos de producción Fuente: Elaboración propia Fig. 5 5 Fig. 5 5Gráfica comparativa de los valores de las entradas y salidas de la red Fuente: Elaboración propia IV. DISCUSIÓN Tras la formación de los grupos se llevó a cabo un análisis sobre la importancia para el caso de los campos que conformaban las muestras extraídas, optando por el empleo de las siguientes variables:y se sitúan entre el 2 de Marzo del año 2006 y el 1 de Mayo del año 2013, integrando una muestra de un total de 5,798 registros sísmicos, población que fue segmentada de la siguiente forma: TABLA I Segmentación de datos Conjunto de entrenamiento Conjunto de validación Conjunto de producción No. de muestras 3001 1551 1246 % Total 51.76% 26.75% 21.49% TABLA II Variables de entrada y salida Entradas Salidas Fecha Latitud Hora Longitud Minuto Profundidad Zona Magnitud Evolution of the Mexican Seismic Alert System (SASMEX) (in Earthquake early warning ). J M Espinosa-Aranda, A Cuéllar, A García, G Ibarrola, R Islas, S Maldonado, F H Rodríguez, Seismological Research Letters. 805J. M. Espinosa-Aranda, A. Cuéllar, A. García, G. Ibarrola, R. Islas, S. Maldonado and F. H. Rodríguez, "Evolution of the Mexican Seismic Alert System (SASMEX) (in Earthquake early warning )", Seismological Research Letters, 80(5):694- 706, Sep. 1999. The seismic alert system of Mexico (SASMEX): Progress and its current applications. J M Espinosa-Aranda, A Cuéllar, F H Rodríguez, B Frontana, G Ibarrola, R Islas, A García, Soil Dynamics and Earthquake Engineering. 312J.M. Espinosa-Aranda, A. Cuéllar, F.H. Rodríguez, B. Frontana, G. Ibarrola, R. Islas, A. García, "The seismic alert system of Mexico (SASMEX): Progress and its current applications", Soil Dynamics and Earthquake Engineering, Vol. 31(2): 154-62, Feb. 2011. . P Checkland, J Scholes, La Metodología De Sistemas Suaves En Acción, MéxicoCheckland, P., and Scholes, J, La metodología de sistemas suaves en acción, México: Ed. Noriega Editores, 1994. . Nacional Servicio Sismológico, México, Recuperado deServicio Sismológico Nacional (2013), México, Recuperado de http://www.ssn.unam.mx/. Application of the recurrent multiplayer perception in modeling complex process dynamics. A G Parlos, K T Chong, A F Atiya, IEEE Trans. on Neural Networks: Special issue on Recurrent Dynamic Neural Networks. 51A.G. Parlos, K.T. Chong, and A.F. Atiya, "Application of the recurrent multiplayer perception in modeling complex process dynamics", IEEE Trans. on Neural Networks: Special issue on Recurrent Dynamic Neural Networks, Vol. 5(1): 255-66, Jan. 1994. Structure identification of uncertain general complex dynamical networks with time delay. Hui Liu, Jun-An Lu, Jinhu Lü, David J Hill, Automatica. 458Hui Liu, Jun-An Lu, Jinhu Lü, David J. Hill, "Structure identification of uncertain general complex dynamical networks with time delay", Automatica, Vol. 45(8):1799- 1807, Aug. 2009. Recurrent Neural Network for Approximate Earthquake Time and Location Prediction Using Multiple Seismicity Indicators. A Panakkat, H Adeli, Computer-Aided Civil and Infrastructure Engineering. 244Panakkat, A. and Adeli, H., "Recurrent Neural Network for Approximate Earthquake Time and Location Prediction Using Multiple Seismicity Indicators", Computer-Aided Civil and Infrastructure Engineering, Vol. 24(4): 280-92, May 2009. Comparison of Multilayer Perceptron and Radial Basis Function networks as tools for flood forecasting". in Destructive Water: Water-Caused Natural Disasters, Their Abatement and Control , Leavesley GH. A W Jayawardena, IAHS Publication Number239Anaheim, CAet al. editors.Jayawardena A.W., et al., "Comparison of Multilayer Perceptron and Radial Basis Function networks as tools for flood forecasting". in Destructive Water: Water-Caused Natural Disasters, Their Abatement and Control , Leavesley GH, et al. editors. Anaheim, CA: IAHS Publication Number 239, pp. 107-13.
sample_12251
0.8289
arxiv
Un algorithme de test pour la connexité temporelle des graphes dynamiques de faible densité † 1 May 2014 Matthieu Barjon LaBRI Université de Bordeaux Arnaud Casteigts LaBRI Université de Bordeaux Serge Chaumette LaBRI Université de Bordeaux Colette Johnen LaBRI Université de Bordeaux Yessin M Neggaz LaBRI Université de Bordeaux Un algorithme de test pour la connexité temporelle des graphes dynamiques de faible densité † 1 May 2014* st et G * disponibles pour de futures requêtes d'accessibilité temporelle de type source-destination. Nous considérons le problème de tester si un graphe dynamique donné est temporellement connexe, i.e. s'il existe un chemin temporel (aussi appelé trajet) entre toute paire de sommets. Nous considérons une version simplifiée du problème où la dynamique est représentée par un graphe évolutif non-temporisé G = {G 1 , G 2 , ..., G δ } dont l'ensemble des sommets est invariant et les arêtes sont orientées (arcs). Deux variantes du problème sont étudiées, selon que l'on autorise la traversée consécutive d'un seul ou d'un nombre illimité d'arcs à chaque étape (trajets stricts vs non-stricts). Dans le cas des trajets stricts, deux algorithmes pré-existants pour d'autres problèmes peuvent être adaptés. Cependant, nous montrons qu'une approche dédiée permet d'obtenir une meilleure complexité en temps que le premier algorithme dans tous les cas, et que le second dans certaines familles de graphes, notamment les graphes dont la densité est faible à tout instant (bien que potentiellement élevée à travers le temps). La complexité de notre algorithme est en O(δµn), où δ est le nombre d'étapes |G| et µ = max(|E i |) est le nombre maximal d'arcs pouvant exister à un instant donné. Ce paramètre est à contraster avec m = | ∪ E i |, l'union de tous les arcs apparaissant au cours du temps. En effet, il n'est pas rare qu'un scénario de mobilité exhibe à la fois un µ petit et un m grand. Nous caractérisons les principales valeurs charnières de δ, µ et m permettant de décider quel algorithme utiliser. Dans le cas des trajets non-stricts, pour lesquels nous ne connaissons pas d'algorithme existant, nous montrons que notre algorithme peut être adapté pour répondre à la question, et ce, toujours en O(δµn).Nos deux algorithmes construisent graduellement la fermeture transitive des trajets stricts (notée G * st ) ou non-stricts (notée G * ) à mesure que les arcs sont examinés. Ce sont des algorithmes de type streaming qui sont aussi capables d'arrêter leur exécution sitôt la connexité temporelle atteinte. Un sous-produit intéressant est de rendre G * st et G * disponibles pour de futures requêtes d'accessibilité temporelle de type source-destination. Introduction Les appareils connectés et mobiles tels que les téléphones portables, satellites, voitures ou robots forment des réseaux très dynamiques où la connexité entre noeuds évolue rapidement et continuellement. De plus, la topologie du réseau à un instant donné n'est généralement pas connexe, voire même très peu dense dans certains scenarios. Cependant, même dans ces cas extrèmes, une autre forme de connexité s'établit à travers le temps et l'espace, par le biais de communications tolérantes aux délais (mécanismes de type « store-carry-forward »). On parle alors de connexité temporelle. Nous nous intéressons au problème de tester automatiquement si un graphe dynamique donné est temporellement connexe. Autrement dit, déterminer s'il existe un chemin temporel (journey en anglais, trajet en français) entre toute paire de noeuds dans le réseau. Une notion clé est celle de fermeture transitive des trajets, introduite dans [2]. Il s'agit d'un graphe statique orienté (même si le graphe dynamique est non-orienté) dont les arcs représentent les possibilités de trajets. De cette structure peut être déduite l'appartenance d'un graphe dynamique à plusieurs familles de graphes [4], en particulier la famille des graphes temporellement connexes (i.e., celle dont la fermeture transitive est un graphe complet). Nous nous intéressons à deux variantes : fermeture transitive stricte (G * st ) ou non-stricte (G * ), selon que l'on autorise la traversée consécutive d'un seul arc ou d'un nombre d'arcs illimité à chaque étape (i.e. trajets stricts vs. non-stricts). Dans le cas des trajets stricts, plusieurs algorithmes peuvent être adaptés pour calculer G * st . Trois de ces algorithmes sont proposés dans [3], chacun permettant de calculer les trajets optimaux d'un sommet vers tous les autres selon un critère donné (au plus tôt, au plus court, au plus rapide). N'importe lequel peut être adapté au calcul de G * st . Le plus rapide des trois (trajets au plus tôt) a un temps d'exécution en O(m log δ + n log n), d'où un temps total de O(n(m log δ + n log n)) pour tester les trajets depuis chaque sommet. Un autre algorithme, calculant une généralisation de la fermeture transitive des trajets, a été proposé dans [6]. Cette généralisation, appelée graphe d'accessibilité dynamique, correspond à une fermeture transitive des trajets paramétrée par une date de départ et une durée maximale pour les trajets, ainsi qu'un délai de traversée d'arête. Il s'applique à des graphes dynamiques donnés sous la forme de TVG [5] Modèle et notations Soit G un graphe évolutif non-temporisé orienté {G i = (V, E i )}. Il existe un trajet non-strict de u vers v dans G si et seulement si il existe une suite d'arcs e 1 , e 2 , ..., e p reliant u à v telle que pour tout j ∈ 1..p−1, e j ∈ E i =⇒ ∃E i ′ ≥i , e j+1 ∈ E i ′ . Si l'inégalité i ′ > i est stricte, on parle de trajet strict. L'existence d'un trajet non-strict (resp. strict) de u vers v, lorsque le contexte est implicite, est notée u ❀ v (resp. u st ❀ v) sans préciser le graphe G. Ainsi, dans un trajet strict, au plus un arc peut être traversé durant une même étape i, tandis que dans un trajet non-strict, le nombre d'arêtes pouvant être traversées lors d'une étape est illimité. La fermeture transitive (non-stricte) d'un graphe dynamique G est le graphe statique orienté G * = (V, E * ) tel que (u, v) ∈ E * ⇔ u ❀ v. La fermeture transitive stricte de G est le graphe statique orienté G * st = (V, E * st ) tel que (u, v) ∈ E * st ⇔ u st ❀ v. Notez que G * est orienté quelle que soit la nature (orientée ou non) des arêtes de G, car la dimension temporelle induit sa propre orientation. Étant donné G, on note δ = |G| le nombre d'étapes dans G. On Calcul de la fermeture transitive des trajets non-stricts Dans cette section, nous nous intéressons au calcul de G * , i.e. la fermeture transitive des trajets où un nombre illimité d'arêtes peut être traversé à chaque étape (trajets non-stricts). Une simple observation nous permet de réutiliser l'Algorithme 1 de manière quasiment directe. En effet, la relaxation de la contrainte que les trajets sont stricts implique qu'à chaque étape i, si un chemin (au sens classique) existe de u vers v, alors u peut joindre v à cette même étape. L'algorithme consiste donc à pré-calculer, à chaque étape, la fermeture transitive (au sens classique, statique du terme) des arcs présents dans G i , résultant en un graphe G * i dont les arcs correspondent aux chemins dans G i . L'Algorithme 1, appliqué ensuite au graphe dynamique {G * i }, produit ainsi la fermeture transitive G * des trajets non-stricts de G. La complexité en temps de cet algorithme dépend essentiellement du coût requis pour calculer la fermeture transitive statique G * i des graphes G i . Cela peut être fait par une recherche en profondeur (DFS) ou en largeur (BFS), exécutée depuis chaque sommet dans G i , chacune de ces exécution ayant un coût en O(|E i |) = O(µ). Ainsi, le surcoût engendré par ce traitement reste confiné dans le même ordre de grandeur que nous avons identifié précédemment, à savoir O(δµn). Comparaison Cette section compare la complexité de notre algorithme à celle de la stratégie utilisant le calcul des trajets au plus tôt de [3]. Cette stratégie, qui revient à exécuter l'algorithme depuis chaque sommet, a une complexité totale en O(n(m log δ + n logn)), où m est le nombre total d'arêtes pouvant exister au cours du temps, i.e. | ∪ E i |, et non µ. (Table 1) contient 60 résultats, dont une dizaine mettent en évidence là ou a lieu le basculement entre les deux algorithmes. Pour simplifier la vérification de ces résultats, nous fournissons dans la colonne de droite une expression intermédiaire, obtenue après simple substitution de µ et m dans les deux expressions à comparer. µ = Θ(.) m = Θ(.) δ = Θ(log n) δ = Θ( √ n) δ = Θ(n) δ = Θ(n 2 ) δ = Θ(e n ) Calcul intermédiaire Θ(.) ± Θ(.) log n n 2 − − − ≈ + δ log n ± n 2 log δ √ n n 2 − − − + + δ √ n ± n 2 log δ n n 2 − − − + + δn ± n 2 log δ n log n n 2 − − ≈ + + δ(n log n) ± n 2 log δ n 2 n 2 + + + + + δn 2 ± n 2 log δ log n n log n − − − + + δ log n ± (n logn) log δ √ n n log n − − + + + δ √ n ± (n logn) log δ n n log n − + + + + δn ± (n logn) log δ n log n n log n En résumé, le tableau confirme que notre solution se comporte d'autant mieux que l'écart entre densité « instantanée » et densité « cumulée » est élevé, ce qui n'est pas surprenant. Il n'est pas surprenant non plus, au vu de la présence des facteurs δ versus log δ, que notre solution soit plus efficace lorsque le nombre d'étapes est relativement faible. En outre, le tableau révèle plusieurs éventails de valeurs naturelles où notre solution se comporte mieux, comme par exemple pour les trios (µ, m, δ) vallant (O(n), Θ(n 2 ), O(n)), ou (O(log n), Ω(n log n), O(n)), ou bien (O(log n), Ω(n), o(n)), ou encore (O( √ n)), Ω(n), O( √ n)). Enfin, nous pensons que l'impact coûteux du paramètre δ dans la complexité théorique de notre algorithme doit être relativisé, eu égard au fait que l'algorithme termine dès que la connexité temporelle est atteinte. En effet, si l'on considère des modèles de graphes dynamiques aléatoires tels que les graphes à évolution arête-markovienne (Edge-Markovian Evolving Graphs), la connexité temporelle s'établit avec forte probabilité après un nombre sous-logarithmique d'étapes. La performance de notre algorithme dans les scénarios représentés par ce type de modèle correspondrait donc, en réalité, à la colonne la plus à gauche du tableau. + + + + + δ ± logδ log n n − − ≈ + + δ log n ± n logδ + n logn √ n n − − + + + δ √ n ± n logδ + n logn n n ≈ + + + + δn ± n logδ + n logn (time-varying graphs), à savoir un quintuplet G = (V, E, T , ρ, ζ) où T est le domaine temporel (en l'occurrence R + ) et ρ et ζ sont des fonctions qui renseignent sur la présence et la latence d'une arête donnée à un instant donné. L'algorithme proposé peut également être utilisé pour calculer G * st . La complexité de cet algorithme est en O(δ log δ mn log n). Nous proposons une approche dédiée au calcul de la fermeture transitive (d'abord stricte) d'un graphe évolutif non-temporisé orienté G = {(V, E i )} qui permet d'obtenir une meilleure complexité en temps que l'adaptation de [6] dans tous les cas, et que l'adaptation de [3] pour une large famille de graphes dynamiques, en particulier ceux dont la densité est faible à tout instant, bien qu'arbitrairement dense à travers le temps. La complexité de notre algorithme est en O(δµn), où δ = |G| est le nombre d'étapes dans G et µ = max(|E i |) est le nombre maximal d'arcs pouvant exister simultanément. Comme évoqué dans le résumé, ce dernier paramètre est à contraster avec m = | ∪ E i |, le nombre total d'arcs pouvant exister au cours du temps, l'écart entre les deux pouvant être très grand. Dans le cas des trajets non-stricts, pour lequel nous ne connaissons pas d'algorithme existant, nous montrons que l'algorithme que nous proposons peut être adapté directement pour répondre à la question, et ce, toujours en O(δµn). Cette variation repose sur une double fermeture transitive, l'une relative aux étapes de G (comme dans le cas des trajets stricts), l'autre relative aux arcs dans un G i donné. Autrement dit, l'une est de nature temporelle, l'autre de nature statique, les deux étant combinées pour aboutir au résultat. Nos deux algorithmes sont de type streaming et sont capables d'arrêter leur exécution sitôt la connexité temporelle atteinte. Un sous-produit de l'exécution est de rendre G * st et G * disponibles pour d'éventuelles requêtes ultérieures de type st-connexité (temporelle), qui se réduisent alors à de simples requêtes d'incidence dans un graphe statique. Il s'agit donc de comparer cet ordre de grandeur à O(δµn), ou après simplification par n, de comparer O(δµ) à O(m log δ + n logn). Ces grandeurs appartiennent à un espace à quatre dimensions : µ, m, δ et n ; il n'est donc pas aisé de les comparer. Nous proposons de les étudier asymptotiquement en n, en faisant varier les rapports entre µ, m et δ. Précisément, nous faisons varier les ordres de grandeur de µ et m (densité « instantanée » vs. densité « cumulée ») pour plusieurs ratios de valeurs possibles entre δ et n (i.e. nombre d'étapes dans G en fonction de n). Le tableau proposé distingue deux paramètres pour rendre compte du nombre d'arcs dans le graphe : le nombre maximal d'arcs existant à une même étape, i.e. µ = max(|E i |), et le nombre total d'arcs pouvant exister au cours du temps, i.e. m = | ∪ E i |. Bien sûr, quelque soit le graphe considéré, on a m ≥ µ, et même souvent m ≫ µ. autant de fois qu'il y a d'étapes dans G, i.e. δ fois. Elle comporte trois sous-boucles, chacune étant dominée par O(|E i |·n) = O(µn). Enfin, la construction de la fermeture transitive, si cette dernière n'est pas complète prématurément, consiste en une boucle qui, pour chaque noeud, itère sur ses prédécesseurs. Or, on sait que le nombre de prédecesseur d'un noeud donné ne peut excéder δµ (Lemme 1). Cette dernière boucle est donc elle aussi contenue dans O(δµn).Nous proposons ci-dessous un algorithme de calcul de la fermeture transitive stricte G * st dans le cas général où G est orienté. Le principe de l'algorithme est de construire, étape après étape, la liste de tous les prédécesseurs de chaque sommet, i.e., pour un sommet v, l'ensemble {u : u st ❀ v}. Soit P (v,t) l'ensemble des prédecesseurs de v à l'issue des t premières étapes (i.e. en tenant compte des ensembles d'arêtes E 1 , ..., E t ). A l'étape i, le coeur du traitement consiste à ajouter P (u, i − 1) à P (v, i) pour chaque arête (u, v) ∈ E i . En pratique, seules deux variables P (v) et P + (v) sont maintenues pour chaque noeud v, où P + (v) contient les nouveaux prédécesseurs de v (ajoutés durant l'étape courante). Le détail des traitements est donné par l'Algorithme 1 dans la version longue du papier [1]. Lemma 1. Pour tout v ∈ V , |P (v)| ≤ δµ, i.e., un noeud ne peut avoir plus de δµ prédécesseurs. Démonstration (par l'absurde). S'il existe un noeud v tel que |P (v) \ v| > δµ, alors, par définition, il existe plus de δµ sommets u différents de v tels que u ❀ v. Chacun de ces sommets est donc l'origine d'au moins un arc, ce qui implique que plus de δµ arcs distincts ont existé. Theorem 1. L'Algorithme 1 calculant la fermeture transitive stricte d'un graphe G a une complexité en temps en O(δµn). Démonstration. La boucle d'initialisation est linéaire en n. Vient ensuite la boucle principale, qui itère TABLE 1 : 1Comparaison de la complexité en temps de notre algorithme à l'adaptation de l'algorithme de[3]. Les cases − (resp +, ≈) indiquent les plages de paramètres pour lesquelles notre solution a une complexité asymptotique plus faible (resp plus forte, du même ordre de grandeur). † Une version longue en anglais est disponible sur arXiv[1]. Ce travail est partiellement subventionné par la DGA via une bourse the thèse (n • 2013 60 0074). Testing temporal connectivity in sparse dynamic graphs. Matthieu Barjon, Arnaud Casteigts, Serge Chaumette, Colette Johnen, Yessin M Neggaz, abs/1404.7634CoRRMatthieu Barjon, Arnaud Casteigts, Serge Chaumette, Colette Johnen, and Yessin M. Neggaz. Testing temporal connectivity in sparse dynamic graphs. CoRR, abs/1404.7634, 2014. Complexity of connected components in evolving graphs and the computation of multicast trees in dynamic networks. Sandeep Bhadra, Afonso Ferreira, Proc. of ADHOCNOW'03. of ADHOCNOW'03SpringerSandeep Bhadra and Afonso Ferreira. Complexity of connected components in evolving graphs and the computation of multicast trees in dynamic networks. In Proc. of ADHOCNOW'03. Springer, 2003. Computing shortest, fastest, and foremost journeys in dynamic networks. Binh-Minh Bui-Xuan, Afonso Ferreira, Aubin Jarry, Int. J. of Foundations of Computer Science. 1402Binh-Minh Bui-Xuan, Afonso Ferreira, and Aubin Jarry. Computing shortest, fastest, and foremost journeys in dynamic networks. Int. J. of Foundations of Computer Science, 14(02) :267-285, 2003. Characterizing topological assumptions of distributed algorithms in dynamic networks. Arnaud Casteigts, Serge Chaumette, Afonso Ferreira, Proc. of SIROCCO'09. of SIROCCO'09SpringerArnaud Casteigts, Serge Chaumette, and Afonso Ferreira. Characterizing topological assumptions of distributed algorithms in dynamic networks. In Proc. of SIROCCO'09, pages 126-140. Springer, 2009. Time-varying graphs and dynamic networks. Arnaud Casteigts, Paola Flocchini, Walter Quattrociocchi, Nicola Santoro, Int. J. of Parallel, Emergent and Distributed Systems. 275Arnaud Casteigts, Paola Flocchini, Walter Quattrociocchi, and Nicola Santoro. Time-varying graphs and dynamic networks. Int. J. of Parallel, Emergent and Distributed Systems, 27(5) :387-408, 2012. Temporal reachability graphs. John Whitbeck, Marcelo Dias De Amorim, Vania Conan, Jean-Loup Guillaume, Proc. of MOBICOM'12. of MOBICOM'12ACMJohn Whitbeck, Marcelo Dias de Amorim, Vania Conan, and Jean-Loup Guillaume. Temporal reacha- bility graphs. In Proc. of MOBICOM'12, pages 377-388. ACM, 2012.
sample_12367
0.5983
arxiv
File Fragment Classification using Light-Weight Convolutional Neural Networks Mustafa Ghaleb Kunwar Saaim Member, IEEEMuhamad Felemban Saleh Al-Saleh Ahmad Al-Mulhem File Fragment Classification using Light-Weight Convolutional Neural Networks 1Index Terms-IEEEIEEEtranjournalL A T E Xpapertem- plate In digital forensics, file fragment classification is an important step toward completing file carving process. There exist several techniques to identify the type of file fragments without relying on meta-data, such as using features like header/footer and N-gram to identify the fragment type. Recently, convolutional neural network (CNN) models have been used to build classification models to achieve this task. However, the number of parameters in CNNs tends to grow exponentially as the number of layers increases. This results in a dramatic increase in training and inference time. In this paper, we propose lightweight file fragment classification models based on depthwise separable CNNs. The evaluation results show that our proposed models provide faster inference time with comparable accuracy as compared to the state-of-art CNN based models. In particular, our models were able to achieve an accuracy of 79% on the FFT-75 dataset with nearly 100K parameters and 164M FLOPs, which is 4x smaller and 6x faster than the state-of-the-art classifier in the literature. I. INTRODUCTION Digital forensics is the science of collecting digital evidence to investigate cybercrimes and cyberattacks. The process of digital forensics includes preservation, identification, and extraction of files and data from damaged or compromised machines. There are several digital forensics techniques and tools that facilitate this process [38,31]. Often, attackers attempt to wipe out any evidence that incriminates them, for example, by formatting the hard disk [6]. In such scenarios, traditional recovery methods based on the file system metadata are deemed ineffective. To overcome this challenge, digital investigators use file carving to reconstruct files based on their contents [16,28,30]. File carving process recovers damaged data files from blocks of raw binary data without using any meta-data in the file system. There are several file carving techniques to reconstruct files fully or partially using a variety of techniques including header/footer matching [39], probabilistic measures [3], and n-gram analysis [49]. Without meta-data, it is challenging to identify the type of a carved file. The problem is even more challenging when file carving is carried out on fragmented files. File fragmentation usually occurs when there is not enough contiguous space to write a large file on the hard disk. Two tasks can be recognized in fragmented file carving: selecting a candidate sequence of M. Ghaleb, M. Felemban, S. Al-Saleh, and A. Al-Mulehm are in the Department of Computer Engineering and the Interdisciplainry Research Center for Intelligent Secure Systems at KFUPM, Dhahran, Saudi Arabia K. Saaim is with the Department of Computing Science, University of Alberta file blocks and classifying the type of the fragment [30]. The latter is called file fragment classification. There exist several approaches for file fragment classification in the literature [50,33,5,49,39,9,29,13,1,4,53,48,18]. For example, Sceadan tool determines the type of bulk data based file content [5]. Recently, deep learning has been used to identify the type of file fragment. For example, Gray-scale [9] and FiFTy [33] tools illustrate how CNNs can be efficiently used for file fragment classification. Although CNN is the most used deep learning model for classification, we argue that existing models can be further improved in terms of performance and accuracy by modifying the architecture of the neural network. We particularly focus on light-weight CNNs to be able to carry out file fragment classification on resource-limited devices. A major drawback of CNNs is the exponential increase in the number of parameters as the number of layers increases, i.e., the model depth increases. Such an increase in the number of parameters increases the complexity of the model and, accordingly, increases the training and inference time. On the other hand, deep CNN models provide better accuracy. Therefore, it is important to find a balance between inference speed and accuracy by optimizing the CNN structure, i.e., number of layers, CNN filters size, and number of channels. To overcome this challenge, researchers proposed a computationally cheaper model called depthwise separable convolution [23,45,46], in which the number of parameters in the model is reduced dramatically. In our previous paper [40], we proposed a light-weight file fragment classification based on convolutional neural network, called Depthwise Separable Convolutional (DSC). In this paper, we propose two additional models: Depthwise Separable Convolutional with Squeeze-and-Excitation (DSC-SE) and Modified Depthwise Separable Convolutional (M-DSC). We show that the proposed models reduce the number of parameters as compared to CNN. Therefore, the process of file fragment classification can be carried out without the need of specialized hardware, e.g., GPUs and TPUs. To evaluate the performance of our models, we compared the results of the proposed models with FiFTy [33] and a baseline Recurrent Neural Networks (RNN) [21]. We have trained the models using FFT-75 dataset [32], which includes six scenarios. The results of Scenario 1 show that our model achieves an accuracy that is comparable to FiFTy using 6.3x less floating-point operations (FLOPs) on 4096 bytes fragment and 87x less FLOPs on 512 bytes fragments. Furthermore, our models achieve 79.27% accuracy with around 100K parameters and 164M FLOPs, while FiFTy achieves 77.04% accuracy with more than 400K parameters and 1 GFLOPs. Finally, we show that our models outperform FiFty in terms of inference time (milliseconds per block) by being 15x faster on GPU than FiFTy and 105x faster than baseline RNN. The rest of this paper is organized as follows. In Section 2, we provide the necessary background for this work. In Section 3, we present our proposed models. In Section 4, we discuss the experiments and evaluation results. In Section 5, we discuss the state-of-the-art of file fragment classification. Finally, we draw conclusions from our findings and suggest potential directions for future research in Section 6. II. PRELIMINARIES A. File carving File carving is the process of extracting files from storage media (such as hard drives) based on their content instead of using the API or meta-data of a file system [30]. Such process is often used when the underlying file system is damaged or unknown. File carving can be complicated when files are fragmented by the operating system. Therefore, file carving process includes carving file fragments, identifying each fragment's type, ordering the fragments, and assembling the file. There are several file carving tools and techniques that are used in practice, including header/footer matching and file structure-based carving [35,36]. However, there are few challenges that need to be addressed: 1) improving the performance of file carving, as the average digital forensics case size nowadays is in terabytes, and 2) improving the overall accuracy of file carving. B. Convolution Neural Network CNN is a type of artificial neural network that is widely used for object detection and image classification. CNN contains one or more convolution layers that can extract features from the inputs and predict an output based on the extracted features [14]. A convolution filter, also known as a kernel, is a 2D matrix that is used to perform the convolution operation on images. Mathematically, the convolution operation is the dot product between the kernel and the layer's input. Various kernels can be used to extract various features from the input data points. In general, kernel filters are designed to be smaller than the input to allow for the sharing of kernel weights across input dimensions. In file fragment classification, the input to the CNN is either a vector of 4096 or 512 dimensions, equivalent to fragments of 4KB or 512 bytes, respectively. The input is then transmitted to an embedding layer that converts the input vector into a continuous (4096,32) or (512,32) dimensional vector, dependent on the fragment size. The embedding layer is a preliminary step to prepare the input vectors for subseque CNN layers. The output of the embedding layer is fed into a convolution layer with kernels of any size. Several convolution layers can be stacked [33]. As a result of stacking standard convolution layers when developing a Deep Neural Network (DNN), in which the model can have a large number of parameters. C. Depthwise Separable Convolution The separable convolution model was first introduced by Sifre and Mallat [42]. Since then, several models have been proposed based on separable convolution, including Xceptionnet [10], Mobilenets [23], Effecienet [44], and Shufflenet [52]. The automatic feature extraction behaviour of standard convolution is achieved by smaller and faster depthwise separable convolution. Depthwise separable convolution is a form of factorized convolutions in which the normal convolution kernel is split into two parts: one depthwise convolution and a 1 × 1 convolution, called pointwise convolution. The splitting of convolution into two layers drastically reduce the number of parameters, and hence the computation time required for training and inference. The depthwise convolution applies a single filter to each input channel. The pointwise convolution then applies a 1 × 1 convolution to combine the outputs of the depthwise convolution [23]. Figure 1a depicts a standard one-dimensional convolution operation that takes D F × 1 × M feature maps as input and produces D F × 1 × N feature maps, where D F is length of the input feature, M is the number of input channels, and N is the number of output channels. In convolutional network, the number of parameters with kernel size K is D K ×1×N ×M . Subsequently, the total computation cost is D F · N · M · D K(1) Unlike CNNs, depthwise separable convolution factorizes the convolution layer into two layers: depthwise convolution depicted in figure 1b and pointwise convolution shown in figure 1c. The depthwise convolution layer with one filter per input channel has D K × 1 × M parameters with K sized kernel and M number of channels. Therefore, depthwise convolution has a computation cost of: D F · M · D K(2) On the other hand, pointwise convolution uses a linear combination of filtered feature maps with the help of 1 × 1 convolution. The cost of 1 × 1 convolution is the same as standard convolution having a kernel size of 1, i.e., D F × N × M . Consequently, the total computation cost of depthwise separable convolution is: D F · M · D K + D F · N · M(3) As a result, the total reduction in the computation cost when using depthwise separable convolution is: D F ·M ·D K +D F ·N ·M D F ·N ·M ·D K (4) = 1 N + 1 D K(5) The value of N ranges from 32 to 1024 and D K for onedimensional convolution can be between 9 and 27. Therefore, the reduction in computation cost is between 85% and 95%. In this regard, several models have been created using depthwise separable convolution for the purpose of image classification. Such models achieve high accuracy while still enabling speedy inference time. [23,41,10]. III. LIGHT-WEIGHT CNNS FOR FILE FRAGMENT CLASSIFICATION In this section, we describe the proposed architectures of the proposed light-weight CNNs models for file fragment classification. Previous file carving techniques mostly rely on statistical feature extraction [26], SVMs [5], CNN [33], RNN [18], and Fully Connected Neural Networks (FCNN) [48]. RNNs are exponentially slow, while FCNNs and CNNs require a deep model to achieve good performance. Our objective is to reduce the inference time of file fragment classification while maintaining high accuracy. In this regard, several models have been developed based on depthwise separable convolution for image classification tasks. These models can achieve fast inference time while maintaining high accuracy [23,41,10]. Compared to FCNNs, CNNs, and RNNs, it was shown that depthwise separable convolution typically requires less computation time and fewer parameters [23]. Figure 2 illustrates the overall architectures of the proposed models. All models consist of an embedding layer and a standard 1D convolution block. The embedding layer transforms a file fragment byte ranging from 0 to 255 into a dense continuous vector of 32 dimensions. The embedding layers is used to compress the input feature dimension into a smaller space. Without embedding layer, each byte value would be represented by a 256-dimensional sparse vector. With multiple layers of standard and depthwise separable convolutions, features are automatically derived by non-linearly transforming inputs. In order to extract essential features automatically for classification, the dense vector representation is then passed to a standard 1D convolution block and multiple depthwise separable inception blocks or squeeze-and-excitation blocks. To get the final features for classification, the output of the last depthwise separable convolution block is averaged along the spatial dimension. In the following sections, we provide more details about each model. A. Depthwise Separable Convolution (DSC) In DSC, the output of the 1D convolutional layer is passed to a hardswish activation function, which adds non-linearity to the model. The Hardswish function [22] is as the following. Hardswish(x) =      0 if x ≤ −3, x if x ≥ +3, x·(x+3) 6 otherwise(6) The output is then processed by three inception blocks, which are composed of multiple parallel convolutional and pooling layers, designed to capture both local and global information from the input. After the inception blocks, the output is passed to an average pooling layer to reduce the spatial dimension, followed by a final 1D convolutional layer that performs feature map reduction and generates the final prediction. The class probabilities are determined from feature vectors using 1×1 convolution followed by softmax activation function [12]. Inception Block. Figure 3 depicts the architecture of a typical inception block. The previous layer's output is passed to three parallel depthwise separable convolutions and one 1 × 1 convolution. In our model, the kernel size of the depthwise separable convolution layer is 11, 19, and 27, respectively, with strides of 1, 1, 1, and 4, respectively. Kernel sizes were chosen empirically based on previous state-of-theart network [33]. A batch normalization layer follows each of the convolution layer. All the depthwise separable convolution layer output are summed and then sub-sampled using a maxpooling layer with size 4. The output of the 1 × 1 convolution branch is directly added to the output of the max-pooling layer. If the number of the input and output channels is the same, then the 1 × 1 convolution layer is replaced with the direct addition of the output of max-pooling layer. DSC-SE is based on DSC but with the addition of Squeezeand-Excitation (SE) [24] blocks after each inception block. SE block is a type of attention mechanism to improve CNNs performance. SE block allows the network to focus on the most important features in each channel of the feature maps, which is useful in tasks such as image classification, segmentation, and object detection. SE block works by first squeezing the spatial information from the feature maps into a single channel-wise global descriptor, and then using a fully connected layer to calculate a set of channel-wise weights. These weights are then multiplied element-wise with the feature maps. This, in turn, assigns higher weights to the channels that contain the most important information for the task. Recently, SE blocks have been integrated into the inception architecture resulting in an improved performance in various tasks [24]. The core principle behind SE blocks is to give greater importance to the features that contribute more to the final prediction. Moreover, SE blocks are computationally efficient and easy to implement. Figure 5 shows the structure of the SE block in detail. C. Modified Depthwise Separable Convolution (M-DSC) M-DSC architecture is also based on DSC but with several modifications. Instead of the first 1D convolutional layer, M-DSC uses a depthwise convolutional layer that performs convolutions independently on each channel of the input. The hardswish activation is replaced with the rectified linear unit (ReLU). Instead of batch normalization, group normalization was used to normalize the activation of multiple channels at once [25,51]. The modified inception block used in our proposed models is shown in Figure 4. This results in reducing the memory and computation overhead of batch normalization. Finally, after the average pooling and before the final 1D convolutional layer, a dropout layer is added to prevent overfitting by randomly setting a fraction of the activations to zero during training. In summary, the three architectures differ in the way of handling activation functions, normalization, and feature recalibration, with the aim to improve the performance and efficiency of the model. DSC-SE adds SE blocks to the inception blocks to improve feature recalibration, while M-DSC replaces the 1D convolutional layer with a depthwise convolutional layer, replaces hardswish with ReLU, and introduces group normalization and dropout to improve performance and efficiency. IV. PERFORMANCE EVALUATION In this section, we present the results of evaluating the performance of our proposed model against baseline models based on RNN and FiFTy [33]. A. Dataset To evaluate the performance of our models, we used the dataset provided by Mittal et al. in [32], which contains a balanced number of files per class. Other datasets, e.g., [15], are highly imbalanced with 20 files-types comprising 99.3% of the dataset and remaining 0.7% belonging to 43 file types. The dataset used is composed of 75 types of files that are organized into 6 different scenarios. The Scenarios are described as follows in [33]: 1) (All; 75 classes): All file types are separate classes; this is the most generic case and can be aggregated into more specialized use-cases. 2) (Use-specific; 11 classes): File types are grouped into 11 classes according to their use; this information may be useful for elaborate, hierarchical classification, or for determining the primary use of an unknown device. 3) (Media Carver -Photos & Videos; 25 classes): Every file type tagged as a bitmap (6), RAW photo (11), or video (7) B. Baseline Model We implemented a variation of RNN, i.e., Long Short Term Memory (LSTM) based model, as a baseline model for performance comparison based on the work in [18]. It was observed that the low number of learnable parameters hindered their effectiveness in classifying 75 types of files. The model specifications are as follows. File fragment byte sequences are fed into a 32-dimensional embedding layer followed by bidirectional and unidirectional LSTM layers. The LSTM layer has 128 neurons in each of its two layers for 512byte fragments and 128 and 256 neurons in its bidirectional and unidirectional layers for 4 KB fragments, respectively. A softmax dense layer was used to produce the output labels. C. Experimental setup All of our experiments were conducted on a dual Intel Xeon CPU E5-2620 CPUs @ 2.40 GHz (12 physical cores, 24 logical cores), 192 GB RAM, and a single Nvidia Titan X GPU, running on Ubuntu 20.04 Operating System. Pytorch 1.5.0 was used for neural network design. We used automated hyper-parameter tuning for learning rate, optimizer choice, and activation function using TPE [7] implemented through Optuna [2]. We found out that Adam optimizer [27] and Hardswish [22] are the best optimizer and activation function, respectively. We did not perform tuning of convolution kernel size; we used the kernel sizes from previous work [33] that proved to be effective. The kernel sizes for different branches of the inception block were taken as 11,19, and 27. The accuracy for different networks was calculated as follows: Accuracy = T P + T N T P + T N + F P + F N(7) where TP is True Positive, TN is True Negative, FP is False Positive, and FN is False Negative. To achieve higher accuracy from smaller models, we pretrained our network on corresponding fragment size dataset. We tried to leverage the performance of transfer learning in gaining higher accuracy [37]. In particular, to develop a 4096byte fragment, the model was pretrained on 512-byte fragment dataset and vice-versa. We found that 6-8% accuracy was increased when pretraining was done using 512-byte fragment data for developing the 4096-byte fragment model. However, similar performance was not achieved when pretraining was done 4096-byte fragment data for the 512-byte fragment model. D. Results In general, our models perform better than FiFTy in inference time with no significant loss of accuracy. The results are summarised in Table II. In particular, we observe that our models outperform both FiFTy and RNN (Baseline) in terms of accuracy and inference time for scenario 1 (75 file types). In particular, FiFTy and RNN models are 25x and 660x, respectively, slower than our proposed models when running on 1 GB data of 4096-byte fragments. Using 512byte fragments, FiFTy is 8x slower, and RNNs is 87x slower than our model when running on 1 GB of data. It was observed that RNN model performs well with 512-byte fragments due to their ability to handle short sequences. In contrast, when the fragment size increases to 4096-bytes, the performance deteriorates due to the vanishing gradient problem of RNNs [20]. While RNN model has higher accuracy on the 512-byte fragments, RNN is not practical because it takes relatively longer inference time. Number of parameters and inference time. Table III summarizes the number of neural network parameters in the proposed models compared to FiFTy. For all six scenarios and both fragment sizes, our models have far fewer parameters than FiFTy. In addition, Table III compares the inference times for each of the six scenarios on both the GPU and CPU. Our models outperform FiFTy by a large margin on GPU and CPU in term of inference time for all six scenarios. We observed a 5x reduction in inference time for 4096-byte file fragments and a 9x reduction for 512-byte file fragments compared to FiFTy on CPU. For GPU, the time reduction is more than 9x for both fragment types. Number of FLOPS. To provide hardware-independent metrics, we calculated the floating-point operations in our models and FiFTy. In Table IV, we provide the results of the comparison. Compared to FiFTy, our models have 6.3x fewer FLOPS for 4096-byte fragments and 87x fewer for 512byte fragments. In Scenario 1, for example, with a fragment size of 4096-bytes, DSC has 164.88, DSC-SE has 164.96, and M-DSC has 89.07 MFLOPs, while FiFTy has 1047.59 MFLOPs. These results demonstrate the effectiveness of our proposed models, as they require fewer computations to make predictions while still maintaining high accuracy. This makes our models more suitable for real-world applications where computational resources are limited. Accuracy. The confusion matrix of file types grouped by use-cases for Scenario 1 is plotted in Figure 6 (The grouping is listed in Table I). Most of the misclassification occurred in archived file group due to other file types embedded in them. The accuracy of the proposed models and FiFTy is listed in Table V. In general, it can be observed that the accuracy of our models is comparable to FiFTy. However, our models have faster inference time. E. Discussion In summary, the results show that all three models have similar inference times, with minimal variance between runs. This is in contrast to the results reported in FiFTy [33], where the inference time of FiFTy can be significantly larger. Our models are optimized for efficient inference by utilizing cutting-edge techniques to minimize computational overhead and reduce latency. As a result, we were able to achieve inference times that are comparable to state-of-the-art models while still maintaining high accuracy. This demonstrates the effectiveness of our proposed models in real-world applications where fast and efficient inference is crucial. Similar to previous work [33,9], we observe that files with high entropy are difficult to classify because there is no statistical trace that the convolutional kernel can extract. Moreover, many files are container types that contain other files as embedded objects, e.g., pdf files that can contain embedded jpg images. As a result, classifiers behave erratically. Finally, similar file types with different format, e.g., ppt, pptx, and key, are misclassified amongst themselves. However, doc and docx are not affected by this as docx uses XML whereas doc is stored as binary. � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � (a) DSC (78.45%) � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � (b) DSC-SE (79.27%) � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � �( V. RELATED WORK Several techniques have been proposed for identifying and classifying file fragments. The techniques range from fundamental methods utilizing magic numbers and file headers [11] to more advanced methods using machine learning and deep learning [33,5]. Generally, file carving methods can be broadly grouped into three categories: 1) statistical methods, 2) machine learning methods, and 3) deep learning methods. Statistical methods. Karresand et al. proposed Oscar for determining the probable file type of binary data fragment [26]. Oscar creates vector models based on the Byte Frequency Distribution (BFD) of 4096-byte-sized fragments from different file types. A vector distance between the mean and standard deviation of the segment to be classified and the centroids is calculated. If the distance is lower than a threshold value, the segment is classified as a modeling file. Sceadan is a prominent open-source tool for file carving that utilizes a wide range of statistical features including uni-grams, bigrams, entropy, mean byte value, and longest streak, among others [5]. Ten separate input vectors are generated from these statistical features, which are then divided into four sets: uni-grams, bi-grams, all global features aside from n-grams, and a subset of global features. These sets are provided as inputs to the classification models. Ahmed et al. [1] proposed an approach to identify file type based on its content. To reduce the computation time for identification, two techniques are applied. First, a subset of features based on occurrence frequency is selected. Second, file blocks of a 100-byte size are sampled. It was observed that this classifier performed well n low entropy file fragments (such as plain-text files, uncompressed images, etc.) and failed on high entropy file fragments(such as compressed files, binary executables, etc.). Machine learning methods In [29], Li et al. proposed a Support Vector Machine (SVM) model that is trained using a feature vector which is based on the histogram of the data bytes. The SVM is utilized for binary classification, where one class is fixed as JPEG and the other class varies, including DLL, EXE, PDF, and MP3. Similarly, Fitzgerald et al. [13] presented an SVM model for fragment classification, where file fragments were treated as a bag of bytes represented by a feature vector that included uni-gram and bi-gram counts, as well as statistical measures such as entropy. Zheng et al. [53] proposed an SVM-based approach that used BFD or histogram and entropy as feature vectors. Amirani et al. [4] proposed a hierarchical combination of Principal Component Analysis (PCA) and Multi-layer Perceptron (MLP) for feature extraction. The extracted features were fed to the classifier. PCA selected N 1 number of features from BFD of the raw features. These N 1 features were used to train an auto-associative neural network that extracts N 2 features (N 2 <N 1 ). Bhatt et al. [8] proposed a hierarchical classification approach for file fragment classification utilizing SVM as base classifiers. It was observed that the features used in the study are not adequate for complex file types, as they do not characterize the membership relationship between the file fragment and its parent class. The authors suggest refining the hierarchy branch for complex files and engineering features that better capture the membership relationship of a file fragment with its parent file type. Haque and Tozal [17] proposed Byte2Vec, a novel feature generation model that extends the word2vec concept to map file fragments to dense vector representations. Byte2Vec generates vector representations utilizing the Skipgram model, and a k-Nearest Neighbors (kNN) classifier is trained on these representations to identify fragment types. Byte2Vec corpus model works for various block sizes and file types. Using a publicly available dataset, the authors combine Byte2Vec with the kNN algorithm (Byte2Vec+kNN) for feature extraction and classification. Deep learning methods Wang et al. [50] proposed a one layer convolution with multiple kernel sizes. The raw byte values were converted to their corresponding binary representation and fed to the embedding layer to convert the binary value to a continuous dense vector. The authors studied 20 file types from the GovDocs1 dataset. Chen et al. [9] took a different approach and converted the 4096-byte file fragment to a 64x63 gray-scale image. The intuition was that data fragments from different files would have different texture features, reflected in the gray-scale image. The gray-scale images were fed to a deep CNN network like VGG [43] with many convolutions and max-pool layers followed by dense classification. Hiester [18] compared feed-forward, recurrent and convolutional neural networks with input fragments in the form of binary representation (fragment bits). The investigated file types were JPEG, GIF, XML and CSV. On these easily distinguishable file types, only recurrent networks gave satisfactory results. They emphasized lossless representation for achieving high accuracy, but this binary representation increases the input's dimensionality. Mittal et al. [33] proposed FiFTy, an open-source convolutional neural network for file fragment type identification. An open-source dataset was also developed by them, which is reported to be the largest open source dataset for file fragment classification. A compact neural network was developed that used trainable embedding space and convolutional neural networks. When compared with neural network-based classifier [33,50,9] our model achieves better accuracy on largest number of file types. We have only compared our models with deep learning based methods as they can be accelerated using GPUs. Our models far exceed recurrent neural network based classifier [18] by being 660x faster. Compared to machine learning based classifier [5], which takes 9 min/GB, our model takes 0.05 min/GB. VI. CONCLUSION In this paper, we proposed light-weight file fragment classification models based on depthwise separable CNNs. The objective is to develop a model with better inference time as compared to the best-of-the-art model, without compromising on accuracy. In particular, we were able to design classification models with around 100K parameters. The models were evaluated using FFT-75 dataset that includes different scenarios. The evaluation results show the proposed models perform faster than the state-of-the-art file fragment classification model for all scenarios without dramatically degrading the accuracy. Several improvements can be made to increase the classification accuracy for classes with high misclassification rate. Without hardware constraints, neural architecture search [54,34] is the best method to design an architecture for data-specific models. Moreover, for simple scenarios like classifying JPEGs against other file types, redundant connections in the neural network can be removed using in-network distillation [19,47]. VII. ACKNOWLEDGEMENT Fig. 1 : 1Standard convolution in (a) is factorized into two layers: Depthwise Convolution in (b) and pointwise in (c). Fig. 2 : 2Network Architectures. a) DSC, b) DSC-SE, and c) M-DSC Fig. 3: Inception Block B. Depthwise Separable Convolution with Squeeze and Excitation (DSC-SE) Fig. 4 : 4Modified Inception Block Fig. 5 : 5Squeeze-and-Excitation Block Fig. 6 : 6e au dio bit m ap ex ec ut ab le hu m an -re ad ab le m Confusion matrices for Our models, FiFTy[33] and Baseline RNN model on 4 KB fragments in (a)-(e) and 512 bytes in (f)-(j). Due to large number of classes(75), classes belonging to same super class were clustered into one. TABLE I : IGrouping of different file typesGrouping Files Archive apk, jar, msi, dmg, 7z, bz2, deb, gz, pkg, rar, rpm, xz, zip Audio aiff, flac, m4a, mp3, ogg, wav, wma Bitmap jpg, tiff, heic, bmp, gif, png Executable exe, mach-o, elf, dll Human-readable md, rtf, txt, tex, json, html, xml, log, csv Office doc, docx, key, ppt, pptx, xls, xlsx Published djvu, epub, mobi, pdf Raw arw, cr2, dng, gpr, nef, nrw, orf, pef, raf, rw2, 3fr Vector ai, eps, psd Video mov, mp4, 3gp, avi, mkv, ogv, webm Miscellaneous pcap, ttf, dwg, sqlite is considered as a separate class; all remaining types are grouped into one other class. 4) (Coarse Photo Carver; 5 classes): Separate classes for different photographic types: JPEG, 11 RAW images, 7 videos, 5 remaining bitmaps are grouped into one separate class per category; all remaining types are grouped into one other class. 5) (Specialized JPEG Carver; 2 classes): JPEG is a separate class and the remaining 74 file types are grouped into one other class; this scenario is designed for analyzing disk images from generic devices. 6) (Camera-Specialized JPEG Carver; 2 classes): JPEG is a separate class, and the remaining photographic/video types (11 RAW images, 3GP, MOV, MKV, TIFF and HEIC) are grouped into one other class; this scenario is designed for analyzing SD cards from digital cameras. TABLE II : IIComparison of results of five models on all 75 file types Model Neural Network Block Size # Params Accuracy Speed[ms/block] † Speed [min/GB] † DSC Depthwise Separable CNN 4096 103,083 78.45 2.567 0.055 512 103,083 65.89 3.531 0.382 DSC-SE Depthwise Separable CNN with SE 4096 105,515 79.27 3.908 0.064 512 105,515 66.33 3.473 0.471 M-DSC Modified Depthwise Separable CNN 4096 85,291 78.68 2.606 0.057 512 85,291 64.03 2.776 0.378 FiFTy 1-D CNN 4096 449,867 77.04 38.189 1.366 512 289,995 65.66 38.67 3.052 Baseline RNN LSTM 4096 717,643 70.51 268.58 36.375 512 379,851 67.5 126.54 33.431 † Computed on Nvidia Titan X TABLE III : IIIComparison between FiFTy and our models in terms of inference time and model ParametersScenario Fragment #param Inf. Time (CPU)[ms/block] Inf. Time (GPU)[ms/block] Size DSC DSC-SE M-DSC FiFTy DSC DSC-SE M-DSC FiFTy DSC DSC-SE M-DSC FiFTy 1 4096 103,083 105,515 85,291 449,867 18.595 23.291 17.338 121.476 2.567 3.908 2.606 38.189 512 103,083 105,515 85,291 289,995 6.958 8.216 6.279 75.551 3.531 3.473 2.776 38.673 2 4096 94,827 97,259 77,035 597,259 22.587 18.023 17.214 92.324 2.763 3.300 2.610 29.826 512 94,827 97,259 77,035 269,323 7.827 6.657 6.346 89.344 3.239 3.504 2.910 29.809 3 4096 96,633 99,065 78,841 453,529 17.068 18.860 17.361 102.808 3.284 3.182 2.632 37.286 512 96,633 99,065 78,841 690,073 6.066 6.613 6.300 99.710 3.078 3.499 2.708 35.361 4 4096 94,053 96,485 76,261 684,485 17.149 20.477 17.537 100.117 2.524 3.197 2.608 40.176 512 94,053 96,485 76,261 474,885 6.029 6.533 6.285 79.346 2.620 3.258 2.677 35.965 5 4096 93,666 96,098 75,847 138,386 22.427 16.362 17.474 99.855 2.524 3.362 2.769 39.262 512 93,666 96,098 75,847 336,770 5.967 6.327 6.275 79.831 2.581 3.259 2.873 42.413 6 4096 93,666 96,098 75,847 666,242 18.418 23.000 17.279 98.536 2.530 3.389 2.641 34.931 512 93,666 96,098 75,847 242,114 6.133 8.373 6.398 89.104 2.612 3.274 2.702 38.982 TABLE IV : IVComparison between FiFTy and our models for floating point operations (Mega FLOPs)Scenario Fragment FLOPs size DSC DSC-SE M-DSC FiFTy 1 4096 164.88 164.96 89.07 1047.59 512 20.63 20.64 11.15 1801.71 2 4096 164.86 164.95 89.05 1327.90 512 20.61 20.63 11.13 918.06 3 4096 164.86 164.95 89.05 647.78 512 20.61 20.63 11.14 3579.57 4 4096 164.86 164.95 89.05 2378.51 512 20.61 20.63 11.13 1576.71 5 4096 164.86 164.95 89.05 488.37 512 20.61 20.63 11.13 2330.48 6 4096 164.86 164.95 89.05 1126.00 512 20.61 20.63 11.13 611.30 TABLE V : VComparison between FiFTy and our models in terms of accuracy Scenario #of Fragment Accuracy files Size DSC DSC-SE M-DSC FiFTy 1 75 4096 78.45 79.27 78.68 77.04 512 65.89 66.33 64.04 65.66 2 11 4096 85.7 87.10 85.33 89.91 512 75.84 74.99 72.18 78.97 3 25 4096 93.06 93.32 91.87 94.64 512 80.79 80.79 78.53 87.97 4 5 4096 94.17 94.61 92.66 94.03 512 87.14 87.32 83.41 90.30 5 2 4096 99.28 99.37 99.24 99.12 512 98.94 98.96 98.94 99.07 6 2 4096 99.59 99.69 99.62 99.59 512 98.76 98.65 98.87 99.23 The authors would like to acknowledge the Interdisciplinary Research Center for Intelligent Secure Systems at KFUPM. Fast content-based file type identification. I Ahmed, K S Lhee, H J Shin, M P Hong, Advances in Digital Forensics VII IFIP Advances in Information and Communication Technology p. Ahmed, I., Lhee, K.S., Shin, H.J., Hong, M.P.: Fast content-based file type identification. Advances in Digital Forensics VII IFIP Advances in Informa- tion and Communication Technology p. 65-75 (2011). Optuna: A next-generation hyperparameter optimization framework. T Akiba, S Sano, T Yanase, T Ohta, M Koyama, Proceedings of the 25rd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. the 25rd ACM SIGKDD International Conference on Knowledge Discovery and Data MiningAkiba, T., Sano, S., Yanase, T., Ohta, T., Koyama, M.: Optuna: A next-generation hyperparameter optimization framework. In: Proceedings of the 25rd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining (2019) Techniques for measuring the probability of adjacency between carved video fragments: The vidcarve approach. K Alghafli, C Y Yeun, E Damiani, IEEE Transactions on Sustainable Computing. Alghafli, K., Yeun, C.Y., Damiani, E.: Techniques for measuring the probability of adjacency between carved video fragments: The vidcarve approach. IEEE Transac- tions on Sustainable Computing (2019) Featurebased type identification of file fragments. M C Amirani, M Toorani, S Mihandoost, Security and Communication Networks. 6Amirani, M.C., Toorani, M., Mihandoost, S.: Feature- based type identification of file fragments. Security and Communication Networks 6, 115-128 (2013) Sceadan: using concatenated n-gram vectors for improved file and data type classification. N L Beebe, L A Maddox, L Liu, M Sun, IEEE Transactions on Information Forensics and Security. 89Beebe, N.L., Maddox, L.A., Liu, L., Sun, M.: Sceadan: using concatenated n-gram vectors for improved file and data type classification. IEEE Transactions on Informa- tion Forensics and Security 8(9), 1519-1530 (2013) The challenges facing computer forensics investigators in obtaining information from mobile devices for use in criminal investigations. D Bennett, Information Security Journal: A Global Perspective. 213Bennett, D.: The challenges facing computer forensics in- vestigators in obtaining information from mobile devices for use in criminal investigations. Information Security Journal: A Global Perspective 21(3), 159-168 (2012) Algorithms for hyper-parameter optimization. J S Bergstra, R Bardenet, Y Bengio, B Kégl, J Shawe-Taylor, R S Zemel, P L Bartlett, F Pereira, Advances in Neural Information Processing Systems. Weinberger, K.Q.Curran Associates, Inc24Bergstra, J.S., Bardenet, R., Bengio, Y., Kégl, B.: Al- gorithms for hyper-parameter optimization. In: Shawe- Taylor, J., Zemel, R.S., Bartlett, P.L., Pereira, F., Wein- berger, K.Q. (eds.) Advances in Neural Information Pro- cessing Systems 24, pp. 2546-2554. Curran Associates, Inc. (2011) Hierarchybased file fragment classification. M Bhatt, A Mishra, M W U Kabir, S Blake-Gatto, R Rajendra, M T Hoque, I Ahmed, Machine Learning and Knowledge Extraction. 23Bhatt, M., Mishra, A., Kabir, M.W.U., Blake-Gatto, S., Rajendra, R., Hoque, M.T., Ahmed, I.: Hierarchy- based file fragment classification. Machine Learning and Knowledge Extraction 2(3), 216-232 (2020) File fragment classification using grayscale image conversion and deep learning in digital forensics. Q Chen, L C Hui, D Liu, E Zhang, Q Liao, Z L Jiang, J Fang, S Yiu, G Xi, R E Li, IEEE Security and Privacy Workshops (SPW). Chen, Q., Hui, L.C., Liu, D., Zhang, E., Liao, Q., Jiang, Z.L., Fang, J., Yiu, S., Xi, G., Li, R.e.a.: File fragment classification using grayscale image con- version and deep learning in digital forensics. 2018 IEEE Security and Privacy Workshops (SPW) (2018). . 10.1109/spw.2018.00029https://doi.org/10.1109/spw.2018.00029 Xception: Deep learning with depthwise separable convolutions. F Chollet, Chollet, F.: Xception: Deep learning with depthwise separable convolutions. pp. 1800-1807 (07 2017). . 10.1109/CVPR.2017.195https://doi.org/10.1109/CVPR.2017.195 Libmagic. I F Darwin, Darwin, I.F.: Libmagic (2008), ftp://ftp.astron.com/pub/ file On the pairing of the softmax activation and cross-entropy penalty functions and the derivation of the softmax activation function. R A Dunne, N A Campbell, Proc. 8th Aust. Conf. on the Neural Networks. 8th Aust. Conf. on the Neural NetworksMelbourneCiteseer181185Dunne, R.A., Campbell, N.A.: On the pairing of the softmax activation and cross-entropy penalty functions and the derivation of the softmax activation function. In: Proc. 8th Aust. Conf. on the Neural Networks, Melbourne. vol. 181, p. 185. Citeseer (1997) Using nlp techniques for file fragment classification. S Fitzgerald, G Mathews, C Morris, O Zhulyn, Digital Investigation. 9Fitzgerald, S., Mathews, G., Morris, C., Zhulyn, O.: Using nlp techniques for file fragment classification. Digital Investigation 9 (2012). . 10.1016/j.diin.2012.05.008https://doi.org/10.1016/j.diin.2012.05.008 A self-organizing neural network model for a mechanism of pattern recognition unaffected by shift in position. K Fukushima, Biol. Cybern. 36Fukushima, K.: A self-organizing neural network model for a mechanism of pattern recognition unaffected by shift in position. Biol. Cybern. 36, 193-202 (1980) Bringing science to digital forensics with standardized forensic corpora. S Garfinkel, P Farrell, V Roussev, G Dinolt, 10.1016/j.diin.2009.06.016Digital Investigation. 6Garfinkel, S., Farrell, P., Roussev, V., Dinolt, G.: Bringing science to digital forensics with standard- ized forensic corpora. Digital Investigation 6 (2009). https://doi.org/10.1016/j.diin.2009.06.016 Carving contiguous and fragmented files with fast object validation. S L Garfinkel, digital investigation. 4Garfinkel, S.L.: Carving contiguous and fragmented files with fast object validation. digital investigation 4, 2-12 (2007) Byte embeddings for file fragment classification. M E Haque, M E Tozal, Future Generation Computer Systems. 127Haque, M.E., Tozal, M.E.: Byte embeddings for file frag- ment classification. Future Generation Computer Systems 127, 448-461 (2022) L Hiester, File fragment classification using neural networks with lossless representations. Hiester, L.: File fragment classification using neural networks with lossless representations (2018) G Hinton, O Vinyals, J Dean, arXiv:1503.02531Distilling the knowledge in a neural network. arXiv preprintHinton, G., Vinyals, O., Dean, J.: Distilling the knowledge in a neural network. arXiv preprint arXiv:1503.02531 (2015) The vanishing gradient problem during learning recurrent neural nets and problem solutions. S Hochreiter, International Journal of Uncertainty, Fuzziness and Knowledge-Based Systems. 602Hochreiter, S.: The vanishing gradient problem dur- ing learning recurrent neural nets and problem solu- tions. International Journal of Uncertainty, Fuzziness and Knowledge-Based Systems 6(02), 107-116 (1998) Long short-term memory. S Hochreiter, J Schmidhuber, Neural computation. 98Hochreiter, S., Schmidhuber, J.: Long short-term mem- ory. Neural computation 9(8), 1735-1780 (1997) Searching for mobilenetv3. A Howard, M Sandler, G Chu, L C Chen, B Chen, M Tan, W Wang, Y Zhu, R Pang, V Vasudevan, Proceedings of the IEEE International Conference on Computer Vision. the IEEE International Conference on Computer VisionHoward, A., Sandler, M., Chu, G., Chen, L.C., Chen, B., Tan, M., Wang, W., Zhu, Y., Pang, R., Vasudevan, V., et al.: Searching for mobilenetv3. In: Proceedings of the IEEE International Conference on Computer Vision. pp. 1314-1324 (2019) A Howard, M Zhu, B Chen, D Kalenichenko, W Wang, T Weyand, M Andreetto, H Adam, Mobilenets: Efficient convolutional neural networks for mobile vision applications. Howard, A., Zhu, M., Chen, B., Kalenichenko, D., Wang, W., Weyand, T., Andreetto, M., Adam, H.: Mobilenets: Efficient convolutional neural networks for mobile vision applications (04 2017) Squeeze-and-excitation networks. J Hu, L Shen, G Sun, Proceedings of the IEEE conference on computer vision and pattern recognition. the IEEE conference on computer vision and pattern recognitionHu, J., Shen, L., Sun, G.: Squeeze-and-excitation net- works. In: Proceedings of the IEEE conference on com- puter vision and pattern recognition. pp. 7132-7141 (2018) Batch normalization: Accelerating deep network training by reducing internal covariate shift. S Ioffe, C Szegedy, International conference on machine learning. pmlrIoffe, S., Szegedy, C.: Batch normalization: Accelerating deep network training by reducing internal covariate shift. In: International conference on machine learning. pp. 448-456. pmlr (2015) Oscar -file type identification of binary data in disk clusters and ram pages. M Karresand, N Shahmehri, SECKarresand, M., Shahmehri, N.: Oscar -file type identifi- cation of binary data in disk clusters and ram pages. In: SEC (2006) Adam: A method for stochastic optimization. D P Kingma, J Ba, arXiv:1412.6980arXiv preprintKingma, D.P., Ba, J.: Adam: A method for stochastic optimization. arXiv preprint arXiv:1412.6980 (2014) Forensic analysis of unallocated space. Z Lei, UOITPh.D. thesisLei, Z.: Forensic analysis of unallocated space. Ph.D. thesis, UOIT (2011) A novel support vector machine approach to high entropy data fragment classification. Q Li, A Ong, P Suganthan, V Thing, Li, Q., Ong, A., Suganthan, P., Thing, V.: A novel support vector machine approach to high entropy data fragment classification (01 2010) X Lin, File carving. In: Introductory Computer Forensics. SpringerLin, X.: File carving. In: Introductory Computer Foren- sics, pp. 211-233. Springer (2018) Massive threading: Using gpus to increase the performance of digital forensics tools. L Marziale, Iii Richard, G G Roussev, V , digital investigation 4Marziale, L., Richard III, G.G., Roussev, V.: Massive threading: Using gpus to increase the performance of digital forensics tools. digital investigation 4, 73-81 (2007) G M P K N Memon, 10.21227/kfxw-8084File fragment type (fft) -75 dataset. Memon, G.M.P.K.N.: File fragment type (fft) -75 dataset (2019). https://doi.org/10.21227/kfxw-8084, http: //dx.doi.org/10.21227/kfxw-8084 Fifty: large-scale file fragment type identification using convolutional neural networks. G Mittal, P Korus, N Memon, IEEE Transactions on Information Forensics and Security. 16Mittal, G., Korus, P., Memon, N.: Fifty: large-scale file fragment type identification using convolutional neural networks. IEEE Transactions on Information Forensics and Security 16, 28-41 (2020) H Pham, M Y Guan, B Zoph, Q V Le, J Dean, arXiv:1802.03268Efficient neural architecture search via parameter sharing. arXiv preprintPham, H., Guan, M.Y., Zoph, B., Le, Q.V., Dean, J.: Efficient neural architecture search via parameter sharing. arXiv preprint arXiv:1802.03268 (2018) A comprehensive literature review of file carving. R Poisel, S Tjoa, 2013 International conference on availability, reliability and security. IEEEPoisel, R., Tjoa, S.: A comprehensive literature review of file carving. In: 2013 International conference on availability, reliability and security. pp. 475-484. IEEE (2013) Forensic data carving. D Povar, V Bhadran, International Conference on Digital Forensics and Cyber Crime. SpringerPovar, D., Bhadran, V.: Forensic data carving. In: Interna- tional Conference on Digital Forensics and Cyber Crime. pp. 137-148. Springer (2010) Discriminability-based transfer between neural networks. L Y Pratt, Advances in neural information processing systems. Pratt, L.Y.: Discriminability-based transfer between neu- ral networks. In: Advances in neural information process- ing systems. pp. 204-211 (1993) Exploring static and live digital forensics: Methods, practices and tools. M Rafique, M Khan, International Journal of Scientific & Engineering Research. 410Rafique, M., Khan, M.: Exploring static and live digital forensics: Methods, practices and tools. International Journal of Scientific & Engineering Research 4(10), 1048-1056 (2013) Scalpel: A frugal, high performance file carver. Iii Richard, G G Roussev, V , DFRWS. CiteseerRichard III, G.G., Roussev, V.: Scalpel: A frugal, high performance file carver. In: DFRWS. Citeseer (2005) Light-weight file fragments classification using depthwise separable convolutions. K M Saaim, M Felemban, S Alsaleh, A Almulhem, ICT Systems Security and Privacy Protection: 37th IFIP TC 11 International Conference. SEC 2022, Copenhagen, DenmarkSpringerSaaim, K.M., Felemban, M., Alsaleh, S., Almulhem, A.: Light-weight file fragments classification using depth- wise separable convolutions. In: ICT Systems Security and Privacy Protection: 37th IFIP TC 11 International Conference, SEC 2022, Copenhagen, Denmark, June 13- 15, 2022, Proceedings. pp. 196-211. Springer (2022) M Sandler, A Howard, M Zhu, A Zhmoginov, L C Chen, Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR. the IEEE Conference on Computer Vision and Pattern Recognition (CVPRMobilenetv2: Inverted residuals and linear bottlenecksSandler, M., Howard, A., Zhu, M., Zhmoginov, A., Chen, L.C.: Mobilenetv2: Inverted residuals and linear bottlenecks. In: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR) (6 2018) Rigid-motion scattering for texture classification. L Sifre, S Mallat, SIfre, L., Mallat, S.: Rigid-motion scattering for texture classification (03 2014) Very deep convolutional networks for large-scale image recognition. K Simonyan, A Zisserman, CoRR abs/1409.1556Simonyan, K., Zisserman, A.: Very deep convolu- tional networks for large-scale image recognition. CoRR abs/1409.1556 (2014), http://arxiv.org/abs/1409.1556 Efficient processing of deep neural networks: A tutorial and survey. V Sze, Y H Chen, T J Yang, J S Emer, Proceedings of the IEEE. 10512Sze, V., Chen, Y.H., Yang, T.J., Emer, J.S.: Efficient pro- cessing of deep neural networks: A tutorial and survey. Proceedings of the IEEE 105(12), 2295-2329 (2017) Going deeper with convolutions. C Szegedy, W Liu, Y Jia, P Sermanet, S Reed, D Anguelov, D Erhan, V Vanhoucke, A Rabinovich, Computer Vision and Pattern Recognition (CVPR). Szegedy, C., Liu, W., Jia, Y., Sermanet, P., Reed, S., Anguelov, D., Erhan, D., Vanhoucke, V., Rabinovich, A.: Going deeper with convolutions. In: Computer Vision and Pattern Recognition (CVPR) (2015), http://arxiv.org/ abs/1409.4842 M Tan, Q V Le, arXiv:1905.11946Efficientnet: Rethinking model scaling for convolutional neural networks. arXiv preprintTan, M., Le, Q.V.: Efficientnet: Rethinking model scal- ing for convolutional neural networks. arXiv preprint arXiv:1905.11946 (2019) Y Tian, D Krishnan, P Isola, arXiv:1910.10699Contrastive representation distillation. arXiv preprintTian, Y., Krishnan, D., Isola, P.: Contrastive representa- tion distillation. arXiv preprint arXiv:1910.10699 (2019) Neural networks for file fragment classification. K Vulinović, L Ivković, J Petrović, K Skračić, P Pale, 2019 42nd International Convention on Information and Communication Technology, Electronics and Microelectronics (MIPRO). IEEEVulinović, K., Ivković, L., Petrović, J., Skračić, K., Pale, P.: Neural networks for file fragment classification. In: 2019 42nd International Convention on Information and Communication Technology, Electronics and Microelec- tronics (MIPRO). pp. 1194-1198. IEEE (2019) Sparse coding for n-gram feature extraction and training for file fragment classification. F Wang, T T Quach, J Wheeler, J B Aimone, C D James, IEEE Transactions on Information Forensics and Security. 1310Wang, F., Quach, T.T., Wheeler, J., Aimone, J.B., James, C.D.: Sparse coding for n-gram feature extraction and training for file fragment classification. IEEE Trans- actions on Information Forensics and Security 13(10), 2553-2562 (2018) File fragment type identification with convolutional neural networks. Y Wang, Z Su, D Song, Proceedings of the 2018 International Conference on Machine Learning Technologies -ICMLT 18. the 2018 International Conference on Machine Learning Technologies -ICMLT 18Wang, Y., Su, Z., Song, D.: File fragment type iden- tification with convolutional neural networks. Proceed- ings of the 2018 International Conference on Ma- chine Learning Technologies -ICMLT 18 (2018). . 10.1145/3231884.3231889https://doi.org/10.1145/3231884.3231889 Group normalization. Y Wu, K He, Proceedings of the European conference on computer vision (ECCV). the European conference on computer vision (ECCV)Wu, Y., He, K.: Group normalization. In: Proceedings of the European conference on computer vision (ECCV). pp. 3-19 (2018) Shufflenet: An extremely efficient convolutional neural network for mobile devices. X Zhang, X Zhou, M Lin, J Sun, Proceedings of the IEEE conference on computer vision and pattern recognition. the IEEE conference on computer vision and pattern recognitionZhang, X., Zhou, X., Lin, M., Sun, J.: Shufflenet: An extremely efficient convolutional neural network for mo- bile devices. In: Proceedings of the IEEE conference on computer vision and pattern recognition. pp. 6848-6856 (2018) A fragment classification method depending on data type. N Zheng, J Wang, T Wu, M Xu, IEEE International Conference on Computer and Information Technology; Ubiquitous Computing and Communications; Dependable, Autonomic and Secure Computing. Zheng, N., Wang, J., Wu, T., Xu, M.: A fragment classification method depending on data type. 2015 IEEE International Conference on Computer and Information Technology; Ubiquitous Computing and Communica- tions; Dependable, Autonomic and Secure Computing; . Pervasive Intelligence and Computing. Pervasive Intelligence and Computing pp. 1948-1953 (2015) Learning transferable architectures for scalable image recognition. B Zoph, V Vasudevan, J Shlens, Q V Le, Proceedings of the IEEE conference on computer vision and pattern recognition. the IEEE conference on computer vision and pattern recognitionZoph, B., Vasudevan, V., Shlens, J., Le, Q.V.: Learning transferable architectures for scalable image recognition. In: Proceedings of the IEEE conference on computer vision and pattern recognition. pp. 8697-8710 (2018)
sample_13407
0.8826
arxiv
A framework for model-assisted T × E × M exploration in maize June 9, 2022 Jennifer Hsiao Department of Biology University of Washington SeattleWAUnited States Soo-Hyung Kim School of Environmental and Forest Sciences University of Washington SeattleWAUnited States Dennis J Timlin USDA-ARS Adaptive Cropping Systems Laboratory BeltsvilleMDUnited States Nathaniel D Mueller Department of Ecosystem Science and Sustainability and Department of Soil and Crop Sciences Colorado State University Fort CollinsCOUnited States Abigail L S Swann Department of Biology University of Washington SeattleWAUnited States Department of Biology Department of Atmospheric Sciences University of Washington SeattleWAUnited States A framework for model-assisted T × E × M exploration in maize June 9, 2022 Breeding for new crop characteristics and adjusting management practices are critical avenues to mitigate yield loss and maintain yield stability under a changing climate. However, identifying high-performing plant traits and management options for different growing regions through traditional breeding practices and agronomic field trials is often time and resource-intensive. Mechanistic crop simulation models can serve as powerful tools to help synthesize cropping information, set breeding targets, and develop adaptation strategies to sustain food production. In this study, we develop a modeling framework for a mechanistic crop model (MAIZSIM) to run many simulations within a trait × environment × management landscape and demonstrate how such a modeling framework could be used to identify ideal trait-management combinations that maximize yield and yield stability for different agro-climate regions in the US. Introduction Food demand is increasing but our ability to sustain crop productivity will be impacted by a warming climate. Breeding has consistently played a critical role in the progress of continuous yield gain and was estimated to account for up to 50-60% of the total on-farm yield gain in the past several decades (Duvick, 2005). These gains through genetic improvements are complemented by changes in management practices, such as an increase in fertilizer use, chemical weed control, higher planting densities, and earlier planting dates (Cardwell, 1982;Kucharik, 2008). Recently, however, practices such as nitrogen application and weed control are nearly fully exploited in the US corn belt; simple adjustments in management strategies alone are likely insufficient to sustain an increasing yield trend. Additional yield gains would need to rely further on genetic improvements in new cultivars, as well as management changes that accompany climate-resilient characteristics to fully leverage the interactions among genetics, environment, and management (the G × E × M paradigm, Hatfield and Walthall, 2015). Continued development of new cultivars better-suited for future climate is critical for sustaining current yield trends or to prevent yield loss (Burke et al., 2009;Challinor et al., 2017). Progress in breeding for climate adaptation has been demonstrated in several areas, including changes in morphological traits (e.g. improved root system architecture that improves soil water access; G. L. Hammer et al., 2009), increases in drought and salinity tolerance (Fita et al., 2015;, improvements in physiological traits (e.g. greater nitrogen use efficiency; Fischer and Edmeades, 2010), and shifts in copping duration (Zhu et al., 2018), to name a few. Our ability to utilize the genetic diversity preserved in wild relatives, landrace species, and undomesticated wild species to develop new climate-ready cultivars is increasingly important to achieve sustainable and intensified food production (Godfray et al., 2010;McCouch et al., 2013). Maize trait changes in the past few decades have also been accompanied by shifts in crop management practices, such as more erect plant forms that facilitated notable increases in planting densities (Duvick, 2005), shifts towards earlier planting dates by about 3 days per decade (Butler et al., 2018;Zhu et al., 2018), increases in nutrient supply (Duvick, 2005), and increases in area irrigated (Mueller et al., 2016). In addition, the suitability of a cultivar often varies considerably across environmental gradients (e.g. Messina et al., 2015), thus optimal plant traits and management options are usually identified within defined target environments . This breeding strategy allows for designing different cultivars to perform favorably and withstand stresses in their target environments, and what is considered "ideal" may differ between locations and climate. We expect optimal management to shift under future climate conditions and in combination with different phenotypic traits, providing important means of adaptation in many systems (Deryng et al., 2011). Mechanistic modeling tools that integrate physiological, morphological, and phenological properties of a crop (G), their performance under different management options (M ), and their interactions with the surrounding environment (E ) on a whole-plant level can serve as useful tools for breeding practices through the quantification of a yield-trait-performance landscape (Messina et al., 2011). The structure of such models allow for testing effects of traits (e.g. leaf elongation rate, total leaf number) on integrated outcomes such as yield. While mechanistic crop models may not specifically describe genetic-level properties, higher-level traits are often used as proxies to describe the underlying genotype. This makes models ideal tools to test and screen for potentially promising traits and management (T × M ) combinations under different climate and environmental conditions (E ) as a first step before carrying out actual breeding practices (Andrivon et al., 2012;Messina et al., 2011), and on large scales that are often not feasible under actual experimental settings B. Peng et al., 2020). Such information can further be used to synthesize cropping knowledge, set breeding targets, and develop climate-targeted adaptation strategies to sustain food production. Despite broad recognition that mechanistic, process-based crop simulation models can be a powerful tool to synthesize cropping information, set breeding targets for developing climate-ready crops, and develop adaptation strategies for sustaining food production Muller & Martre, 2019), few comprehensive studies have been performed to produce climate-specific trait and management combinations for staple crops including maize in the US, a necessity given rapidly changing environmental conditions facing the US cropping systems. In this study, we construct a modeling framework to identify targeted plant traits and effective crop management to achieve maximum crop performance in both the current and future climates. Specifically, we addressed how an ensemble of plant traits (i.e. physiology, morphology, phenology) combined with realistic adjustments to management choices (i.e. shifting planting dates, planting density, and row spacing) can be used to build resilience and improve productivity under the stresses induced from a changing climate. Material and methods We set up a data-model framework to quantitatively identify high performing regions within a T × E × M landscape. The framework consists of three main components ( Fig. 1): 1) a process-based crop simulation model (section 2.1), 2) model inputs to drive the model, including present-day climate information (section 2.2), idealized future climate information (section 2.3), simulation site soil information (section 2.4), and sampled trait and management options (section 2.5), and 3) processed model outputs that identify performance within the T × E × M landscape (section 2.6 -2.7), and summarized in-season growth outputs (section 2.8). Process-based crop simulation model -MAIZSIM MAIZSIM is a deterministic and dynamic model developed and calibrated for maize plants to represent key physiological and physical processes such as gas exchange, canopy radiative transfer, carbon partitioning, water relations, nitrogen dynamics and phenology (Kim et al., 2012). MAIZSIM interfaces with a 2-dimensional finite element model (2DSOIL) that simulates a dynamic soil water and nutrient vertical 2D profile (Timlin et al., 1996). The coupled model responds to daily or hourly meteorological information throughout the growing season that includes temperature, relative humidity, solar radiation, and CO 2 concentrations. At the leaf-level, MAIZSIM captures gas exchange processes through a C4 photosynthesis model (von Caemmerer, 2000) coupled with a stomatal conductance model (Ball et al., 1987) and an energy balance equation (Collatz et al., 1992); leaf-level gas exchange processes are scaled to canopy-levels using a sunlit/shaded leaf framework (de Pury & Farquhar, 1997). The model simulates crop development throughout the growing season following a nonlinear temperature response (Yin et al., 1995), and adopts a leaf area model developed by Lizaso et al., 2003 to describe the expansion and senescence of individual leaves. MAIZSIM dynamically simulates leaf water potential and uses it to trigger water stress responses such as reduced growth rate and hastened senescence when values drop below designated thresholds . The model has been validated at different scales -including physiological aspects such as gas exchange , leaf development and biomass gain (Kim et al., 2012), leaf growth water stress responses , as well as field-level validations in AgMIP projects (Bassu et al., 2014;Kimball et al., 2019) and FACE site studies (Durand et al., 2018) that tested for yield responses to different temperature and CO 2 conditions. The model has also recently been used to test the independent impacts of temperature versus VPD on growth and yield in maize growing regions in the US (Hsiao et al., 2019). Present-day climate data We assembled hourly data of temperature, relative humidity, precipitation, and solar radiation over years 1961-2005 for our simulation sites as weather data input for our model simulations. Specifically, we accessed hourly air temperature (T air ), dew point temperature (T dew ), and precipitation data from the NOAA National Center for Environmental Information Integrated Surface Hourly database (https: //www.ncdc.noaa.gov/isd), and hourly solar radiation data from the National Solar Radiation Data Base (https://nsrdb.nrel.gov/data-sets/archives.html). We followed the Clausius-Clapeyron equation (Eqn. 1-2) to back out atmospheric humidity information in the form of relative humidity (RH) from T air and T dew : E s = E sref · e Lv Rv ·( 1 T ref − 1 T air ) (1) E = E sref · e Lv Rv ·( 1 T ref − 1 T dew )(2) The equation uses the saturation vapor pressure (E sref , 6.11 mb) at a reference temperature (T ref , 273.15 K), the vaporization latent heat (L v , 2.5·10 6 J kg -1 ), and the gas constant (R v , 461 J K -1 kg -1 ) to calculate the saturated water vapor pressure (E s , mb) and the actual water vapor pressure (E, mb) at air temperature (T air , K). We then use E and E s to calculate RH (%) (Eqn. 3): RH = E E s(3) We selected overlapping sites and years that had data available from both the Integrated Surface Hourly Data Base and the National Solar Radiation Data Base over years 1961-2005 and filtered for site-years that had less than two consecutive hours of missing data throughout the growing season (broadly defined to be between February 1 st -November 30 th ) and retained at least two-thirds of the weather data (Fig. S1). We then gap-filled any missing data by linearly interpolating the missing information with weather data of the hours prior and post the missing data point. Next, we linked valid weather stations with maize planting area and irrigation level data accessed through the United States Department of Agriculture -National Agriculture Statistics Service (USDA-NASS, https://www.nass.usda.gov/Data and Statistics/index.php). Specifically, we calculated the average maize planting area across our simulation period in the continental US and accessed average irrigation level (%) for the same sites through four available census years (1997,2002,2007,2012) (Fig. S2). We used the planting area and irrigation level averaged across five USDA-NASS sites closest to each weather station (via Euclidean distance) to represent their cropping information, and to exclude sites that either had less than 10,000 acres of corn planted or had greater than 25 % of crop land irrigated. We excluded sites with less than 15 years of data to insure sufficient sampling to assess inter-annual climate variability (Soltani & Hoogenboom, 2003;Van Wart et al., 2013). Following this method, we were able to compile 1160 site-years of meteorology data for our simulations, which included a total of 60 sites, each site with available weather data ranging from 15-27 years (Fig. 2). Idealized projected climate We assembled idealized projected climate information at two future time points, 2050 and 2100, to analyze crop performance shifts under future climate (Table 1). Specifically, we created monthly temperature and relative humidity anomaly maps under a substantial but not extreme greenhouse gas emissions scenario (SSP3-7.0, Riahi et al., 2017) from the latest Coupled Model Intercomparison Project version 6 (CMIP6) outputs; we used these anomaly maps to calculate location-specific warming and associated changes in relative humidity levels throughout the growing season for each simulation site (Fig. 3). This method preserves correlations between climate variables (i.e., between temperature, relative humidity, and solar radiation) on short timescales and limits known biases in modeled variability (Donat et al., 2017;Vargas Zeppetello et al., 2019). Since both magnitude and pattern of future precipitation projections are highly uncertain, we applied a general trend of precipitation reduction in accordance to the SSP3-7.0 scenario, and increased atmospheric concentrations of CO 2 to 550 ppm and 850 ppm for years 2050 and 2100, respectively (O'Neill et al., 2016). Soil data We used soil information from USDA-NASS locations nearby our simulation sites to curate site-specific soil files for each location. Soil properties are highly Figure 3: Monthly pattern of warming derived from CMIP6 multimodel means for our simulation sites. Numbers in color bar indicate temperature scaling values to multiply with global average climate sensitivity to calculate projected warming for each simulation site. For example, under our assumption of 3.1°C global average warming by 2100, a scaling value of 2 for a specific simulation site will equal a total warming of 6.2°C for that location. Table 1: Description of idealized climate treatments with projected changes in temperature (T), relative humidity (RH), precipitation (precip.), and projected CO 2 concentrations by years 2050 and 2100 under the SSP3-7.0 emission scenario. Year Climate Scenario 2050 + 1.4°C mean T, -RH, -15% precip, 550 ppm 2100 + 3.1°C mean T, -RH, -30% precip, 850 ppm heterogeneous, and since our simulation sites are based on weather station locations that do not directly come from agricultural land, we use this method to broadly represent soil makeup of agricultural sites within the region without skewing towards any particular site. We queried soil information from the National Resources of Conservation Services (NRCS) SSURGO soil database (Soil Survey Staff, n.d.) to identify soil properties for each NASS location with maize planting area greater than 10000 acres and irrigation levels less than 25%. For each site, we accessed soil information at five depth categories (surface, 50, 100, 150, and 200 cm), which included sand-silt-clay-organic matter composition, soil bulk density (the oven dry weight of less than 2 mm soil material per unit volume of soil at a water tension of 1/3 bar), and the volumetric content of soil water retained at a tension of 1/3 bar (33 kPa, field capacity) and 15 bar (1500 kPa, wilting point) expressed as a percentage of the whole soil. With the sand-silt-clay composition, we categorized the queried soil data into 12 texture groups following the USDA Textural Soil Classification (Staff, 1999) and excluded sites classified as Sandy or Clay due to their lack of representation in agricultural fields. Next, we determined the soil class within each depth category for all our simulation sites by assigning it the most prevalent soil class from it's 11 nearest NASS sites calculated through Euclidean distance, and assigned it the mean soil conditions of that texture-depth class averaged across all NASS sites within that category. Finally, we estimated soil hydraulic properties of each soil type through a water release curve predicted by the van Genuchten equation (van Genuchten, 1980). Sampling within the trait and management space We selected several key model parameters that represent a range of maize traits and management options to investigate combinations that lead to high performance under present and future climate conditions. Since we do not have robust observation-based data on the natural distribution and boundaries of most parameters, we assumed a uniform distribution and set biologically reasonable boundaries around literature-based default values (Table 2). We assumed all parameters to be non-correlated and used a Latin hypercube sampling method (McKay et al., 1979) to create 100 different trait-management (T × M) combinations within the parameter space. Performance within the T × E × M landscape We defined high crop performance as crops that achieve high yield (i.e. yield mean across years) and high yield stability (i.e. yield dispersion across years). We developed a cost function (Eqn. 4) to quantify the performance of any T × M combination by calculating its distance to a theoretical best-performing combination within the yield and yield stability space (Eqn. 4): D score = w yield * (y mean − y max ) 2 + w disp * (y disp − d min ) 2(4) y mean and y disp represent mean yield and yield dispersion (variance/mean) across years for the target T × M combination at a specific simulation site, respectively. We standardized yield and dispersion to values between 0 and 1 to avoid skewed contribution due to difference in scale. y max and d min denote the standardized maximum mean yield (1) and minimum yield dispersion (i.e., maximum yield stability, 0) achieved within all T × M combinations at a specific simulation site. w yield and w disp are empirical coefficients between 0 and 1 that assign weighted importance to yield mean and yield dispersion, respectively. We used the calculated D score to rank the top 20 performing T × M combinations for each simulation site. We determined an overall ranking for each T × M combination based on their rankings across all simulation sites (Fig. 5a). With this method, T × M combinations with high rankings across a few sites versus combinations with medium ranking across several sites can all result in overall high performance. T × M combinations that do not rank within the top 20 performers at any site will not receive a ranking. Regional difference in performance We used a climate space approach to identify how the performance of T × M combinations differed with baseline climate conditions. We used a k-means clustering algorithm to cluster our sites based on mean growing season temperature and VPD, and total growing season precipitation, roughly dividing our simulation sites into four groups of climate spaces -cool and medium precip, mild, warm and wet, and warm and mild to dry (Fig. 6). We analyzed the performance of T × M combinations within each cluster of sites by calculating a standardized performance score (Eqn. 5): P score = n i=1 R i R max * n(5) R i denotes the performance ranking of a T × M combination at site i among a total of n sites within each climate space, and R max indicates the maximum performance ranking a T × M combination can achieve at a single site. In our workflow, we only considered the top 20 performing T × M combinations when ranking high performing combinations (see section 2.6), so R max equals 20. The resulting standardized performance score ranges between 0 and 1, in which a T × M combination that ranks with highest in performance across all locations within the climate space would receive a P score of 1. In-season model outputs MAIZSIM generates outputs of a number of plant growth outputs throughout the growing season on an hourly time step. We describe in Table 3 a select few outputs in more detail. We summarized these high time frequency outputs across four phenological stages (emerged, tassel initiation, tasseled and silked, and grain-filling) to facilitate analysis and interpretation. Specifically, we queried net photosynthetic rate (A n ), net carbon gain (P n ), and stomatal conductance (g s ) values from daylight hours, and averaged them within the designated phenological stages. We represented ear biomass, total biomass, and total leaf area (ear biomass, total biomass, LA) within each developmental stage with maximum values within each stage. Finally, we queried water supply, demand, and deficit (ET supply, ET demand, water def icit) values at noon and averaged all values within each phenological stage, and represented predawn leaf water potential (Ψ) with values queried at 5 am, and averaged the all values within each phenological stage. Experiment setup and model simulation We prescribed the sampled planting density (Table 2, pop) for each ensemble member and adjusted the planting date for each ensemble member and simulation site based on climate and growing degree days (GDD) requirements. We calculated GDD for each simulation site through accumulated heat units starting from February 1st with a base temperature of 8°C (Kim et al., 2012) and determined the planting date once GDD surpassed the sampled for each ensemble member (Table 2, gdd ). This led to earlier planting dates in warmer regions and vice versa (Fig. 7), and created diversity in cropping cycle start time among T × M combinations, mimicking early versus late-planting cultivars (Fig. 13). To simulate well-fertilized conditions, we prescribed a total of 200 kg ha -1 of nitrogen throughout the growing season, applying half as base fertilizer prior to planting and the rest top-dressed one month post planting. For each simulation site, we ran the MAIZSIM model with default parameters that represented a generic crop cultivar across all locations (see default values in Table 2). Next, we carried out a site-level ensemble of simulations in which we used past meteorology data (see section 2.2) to each of the 100 trait-management parameter combinations (see section 2.5) for each of our 1160 site-years (see section 2.6) and identified top performing (high yield and yield stability) traitmanagement combinations. Finally, we repeated the site-specific trait and management ensemble of simulations with idealized future climate (see section 2.3) to understand how high performing trait and management combinations under current climate conditions fared under future climate. Model validation We validated simulated yields with default parameter values (control T × M combination, see Table 2) with historic yield data from the United States Department of Agriculture -National Agriculture Statistics Service (USDA-NASS, https://www.nass.usda.gov/Data and Statistics/index.php). We compared yield data from observation sites closest to our simulation sites calculated through a Euclidean distance (Fig. 8). We scaled our whole-plant level simulation outputs to field level by applying a planting density of 10 plants per m 2 and compared our simulated yield with averaged yield observations in between years 2005-2012, since our default parameter and management options resemble modern-day plant traits, planting density, and planting dates. 3 Results and discussion Model validation In general, simulated yields showed less spatial difference compared to observations (Fig. 8). The model captured historic yield observations well in the higher latitude Corn Belt regions but overestimated yield in various warmer sites in southern locations (Fig. 9). Southern locations experience much warmer temperatures, especially during later parts of the growing season (Fig. S3, grain-fill). While MAIZSIM dynamically describes temperature and water stress throughout the growing season through impacts on gas exchange and leaf developmental processes, the model lacks direct depiction of climate stress responses on reproduction processes such as flowering, pollination, and grain-filling, which are likely reasons for the yield over-estimation in warmer regions. Cultivar differences between crops planted in southern versus northern locations could also contribute to these discrepancies. Farmers in warmer southern locations choose cultivars that are both planted and harvested earlier in the growing season, leading to an overall shorter crop cycle duration compared to those planted in the north (USDA-NASS, Crop Progress and Conditions). While our simulation set up captures earlier planting in warmer regions (Fig. 7), it does not capture potential differences in cultivar and management choices that growers in the south have likely been opting for in order to avoid late season heat and water stress. Finally, we note that by applying a universal soil depth (200 cm), we may be overestimating soil water availability. This could disproportionately affect warmer locations in south, in which late-season water availability could partially alleviate water stress later in the growing season and contribute to yield overestimation in those locations (Fig. 9). Performance difference across climate spaces In Hsiao et al. (2022, submitted), we followed the framework described in this paper and identified several top-performing strategies among all T × M combinations under present-day and future climate conditions, categorized based on different combinations of phenological (grain-filling start time and duration) and morphological (total leaf area) features. Top-performing strategies under present-day climate conditions included T × M combinations that either reached reproductive stage early (Early Starting), were slow in aging (Slow Aging), stress averting (Stress Averting), or had large canopies and were high in yielding (High Yielding). More details are described in Hsiao et al. (2022) and briefly summarized below. Early Starting, Slow Aging, and Stress Averting strategies all have a smaller canopy size and relatively earlier transition times from vegetative to reproductive stages, but differ in grain-filling duration. Slow Aging strategies have long grain-filling durations that prolong cropping duration, while Stress Averting strategies display the shortest longevity, allowing plants with this strategy to complete their cropping cycle early and avoid late season stressors such as dry and hot conditions. On the other hand, High Yielding strategies have larger canopy sizes accompanied by delayed transition from vegetative to reproductive stages. While all categorized as top-performing under present-day climate, these strategies showcase a range of trade-offs between yield and yield stability, with performance differing across simulation sites (Fig. 5, 10) and climate spaces (Fig. 11a). Under current climate conditions, T × M combinations with Slow Aging strategies tend to be generalists, showing high performance across all climate spaces. On the other hand, strategies such as Early Starting fared best in cool and wet regions, while High Yielding strategies perform best under warm and wet conditions (Fig. 11a). Under future climate conditions, we observed an overall yield loss for all T × M combinations in most simulation sites (Fig. 12), including strategies that improved in performance ranking with climate change (Fig. 12a), such as High Yielding and Large Canopy (Fig. 11c). In general, warmer regions with low precipitation levels exhibited the greatest yield sensitivity (% yield loss per degree C of warming, Fig. 12); high-performing strategies under future climate partially buffered, but did not prevent yield loss. High-performing strategies under present-day climate conditions shifted with climate change (Fig. 11b, c). T × M combinations with early starting strategies experienced the greatest drop in performance ranking overall, showing declines in most climate spaces (Fig. 11c, Early Starting). Slow aging strategies still remained one of the higher performers by the end of the century (Fig. 11b, Slow Aging), but showed clear performance ranking declines in warm climate spaces (Fig. 11c, Slow Aging), allowing several other strategies to compete for top performance in those climate spaces (Fig. 11c); T × M combinations with high yielding and compensating strategies progressed further in performance ranking (Fig. 11c, High Yielding), and new high-performing strategies with larger canopies and delayed transition timings into reproductive stages emerged (Fig. 11c, Large Canopy, Compensating, Middle Ground ). Mechanisms for high performance We analyzed detailed in-season outputs of various phenological, physiological, and morphological outputs of the model (Table 3) and describe here some general trends observed in top-performing T × M combinations. Phenology Climatological differences between simulation sites and parameter differences among T × M combinations both lead to the range of phenology output we see in our simulation outputs (Fig. 7, 13). Phenology differs across simulation sites due to imposed planting date adjustments based on growing degree day requirements, allowing for an earlier planting date in warmer regions (Fig. 7). Climatological differences throughout the growing season further shape the difference, especially during the grain-filling stage in which simulation sites in the south become substantially warmer than those in the north (Fig. S3), leading to hastened development (Fig. S5). On the other hand, phenology differs among T × M combinations due to differences in perturbed traits linked to phenology (e.g. planting time, developmental rate, leaf number, Fig. 13). High performing T × M combinations under present-day climate conditions tend to show earlier starts in reproductive stages with a longer duration (Fig. 13). Higher ranking T × M combinations tend to show a greater fraction of grain-filling length over total growing season length (Fig. S4b) despite no clear trends in total growing season length (Fig. S4a). Physiology Net photosynthetic rates are generally higher in top-performing T × M combinations during transition from vegetative into reproductive stages (Fig. S6), but the differences in photosynthetic rates become dominated by climatological differences between simulation sites during the final grain-filling stage, with greater photosynthetic rates in warmer southern regions (Fig. S6). In general, we see a linear relationship between temperature and photosynthetic rate during vegetative stages (Fig. 14). This relationship eventually plateaus around 28-30°C later in the growing season, and starts to decline in a few warmest site-years (Fig. 14b). While warmer temperatures generally led to higher photosynthetic rates, hastened development and greater water deficit under warmer conditions also led to overall shorter grain-filing durations (Fig. S7, S5a), compensating one another, dampening the overall difference between northern versus southern sites in terms of net carbon gained throughout grain-filling (Fig. S8) and final yield (Fig. S9). Morphology Differences in simulated total leaf area was largely dominated by parameter make up within T × M combinations, showing much less difference in simulated yield across sites (Fig. S10). Simulated plants approached full canopy sizes around tassel initiation, and top-performing combinations showed mid to lower total leaf area under present-day climate conditions. This was consistent with most top-performers under present-day climate exhibiting early transitions into reproductive stage (e.g., Slow Aging, Early Starting, Stress Averting). These strategies partly achieved early reproductive start through short vegetative stages through fewer total number of leaves and hence smaller canopy size (i.e., lower Discussion Crop production is expected to suffer under future climate conditions as the climate warms. Adaptation of crop management practices, location of planting, as well as adaptation of the crops themselves all have the potential to limit expected yield loss and help to sustain agricultural productivity. However, we lack a systematic understanding of which adaptations are likely to have the biggest impact and why, both critical pieces of knowledge for agricultural planning. Mechanistic, process-based crop simulation models can be a powerful tool to synthesize cropping information, set breeding targets, and develop adaptation strategies for sustaining food production, yet have been underutilized for developing specific climate-adaptation options. Breeding for and adopting new cultivars involve exploring and navigating the hills and valleys of the G × E × M landscape, in which optimal plant traits and management options are identified within defined target environments Messina et al., 2011). Requirements from breeding, delivering, and adopting a desirable cultivar depends on many factors, and the whole process can take from years to decades (Challinor et al., 2017). Recent developments in breeding practices have greatly expanded the efficiency in genotyping and phenotyping methods (Voss-Fels et al., 2019), yet the breeding pipeline is still time and resource intensive, limiting its ability to explore the full range of G × E × M combinations and interactions. A typical breeding cycle starts out by exposing a large germplasm pool under extremely high selection pressure, filtering genotypes from the order of 10 6 individuals down to a few dozen promising candidates (Cooper et al., 2014;. In the early stages of a breeding program, trait selection is often limited to those that can easily be identified through automated processes, and commonly based on plants in early developmental stages. It is not until later in the breeding cycle that selection criteria shift from genotype to phenotype-based, and promising hybrids are evaluated on-farm at various locations with a range of background climate conditions (Gaffney et al., 2015). Management optimization also occurs around this time, in which field trials are set up to identify the best management practices for the final candidates prior to commercial release. Further, common breeding methods that either select for higher yield or eliminate defect traits do not allow for a clear understanding of the mechanisms in which favorable traits contribute to greater performance and yield, and effective combinations of plant traits, if not actively sought for based on a mechanistic understanding of crop growth and yield, could only occur by chance (Donald, 1968). There is growing recognition that mechanistic crop simulation models can be a powerful tool to synthesize cropping information, set breeding targets, and develop adaptation strategies for sustaining food production. Such applications can complement current breeding efforts of developing new climate-resilient cultivars by facilitating broad exploration of the G × E × M landscape within a modeled setting as a first step Messina, Cooper, Reynolds, et al., 2020;Muller & Martre, 2019;Rötter et al., 2015). The process-based nature of such models allow for mechanistic insight through which these adaptations influence yield and their sensitivity to different climate factors, providing a more complete assessment of the uncertainty associated with different possible climate conditions, including those that do not currently exist yet. Ramirez-Villegas et al. (2015) provided a few successful examples of modelaided breeding projects, such as the New Plant Type program developed by IRRI for rice crops, in which process-based models were used to help make informed decisions to target breeding directions and resulted in new plant types that out-yielded conventional cultivars within two breeding cycles (S. Peng et al., 2008). This success further inspired the super rice program in China that led to newly developed rice varieties with 15-25% higher yield than common hybrid cultivars planted in other regions in China (S. Peng et al., 2008). While model-aided breeding practices are less commonly targeted towards a changing climate (Ramirez-Villegas et al., 2015), demonstrated success under current climate suggest it as a promising pathway to guide breeding direction for climate adaptation moving forward, and expanded experiments evaluating a range of G × E × M conditions can enable production system responses to changing environmental conditions . Regardless, thorough evaluation and application of crop models for developing specific climate-adaptation options (e.g., designing adaptive phenotypes for specific soil-climate combinations) for US agriculture remains scarce. We bridge this gap by constructing an integrated data-model framework set up to explore crop performance across a defined G × E × M landscape. With this framework, we identified high-performing plant trait and management combinations (G × M) best suited for current climate conditions, as well as targets and priorities to adapt to impending climate stressors (E). Heterogeneity in performance exists within the sampled climate space, which stemmed from underlying physiological, morphological, and phenological processes within the simulated crop. Model outputs on hourly time steps allowed us to compile detailed in-season outputs of various plant processes and summarize them according to associated phenological stages. This form of model output allows for more in-depth analysis that go beyond final yield and yield stability, and investigation of mechanisms that contribute to high crop performance and the differences across climate spaces and under future climate projections. We demonstrate how such a framework can be used to identify adaptation options with an emphasis on climate-resilient plant traits and effective management that will mitigate yield loss and optimize productivity both across space and through time in US corn growing regions under future climate conditions. Our modeling results demonstrate that application of mechanistic modeling holds substantial promise to inform breeding within the US maize production system. Figure S1: Available weather data based on different gap-filling intervals. For example, if consecutive missing hours equals 0, then only site-years with complete hourly weather data records will be included for weather data. If consecutive missing hour equals 1, site-years with gaps no greater than one hour consecutively will be included and gap-filled linearly. Figure S2: Maize planting area (top) and irrigation levels (bottom) across continental U.S. Figure S3: Mean air temperature (°C) across phenological stages for top phenotypes across all sites, ranked by performance of T × M combinations, and averaged within phenological stages. Figure S4: a) Total growing season length (gray, days) and grain-filling length (pink, days) for all phenotypes, ranked by performance, starting with the highest performers towards the left, and b) the fraction of grain-filling over total growing season. Figure S5: Start time and duration of each phenological stage across T × M combinations, averaged across all simulation sites for a) southern sites versus b) northern sites, ranked by overall performance, with the highest performers listed towards the top. Figure S6: Net photosynthetic rate (µmol CO 2 m -2 sec -1 ) across phenotypes and sites, ranked by the performance of T × M combinations, and averaged within each developmental stage. Figure S7: Mean water deficit (g H 2 O) across phenotypes and sites, ranked by the performance of T × M combinations, and averaged within each developmental stage. Figure S8: Net carbon gain throughout phenological stage (g C) across phenotypes and sites, ranked by the performance of T × M combinations, and averaged within each developmental stage. Figure S9: Ear biomass (g/plant) across phenotypes and sites, ranked by the performance of T × M combinations, and averaged within each developmental stage. Figure S10: Total leaf area (cm 2 ) across phenotypes and sites, ranked by the performance of T × M combinations, and averaged within phenological stages.. Figure 1 : 1Diagram of the data-model framework. Figure 2 : 2Simulation sites and number of years simulated (purple triangles), along with historic maize yield and planting area data (green circles). Colors indicate yield and circle size indicate planting area. Figure 4 : 4Soil texture across simulation sites. Soil texture categories include clay loam (ClLo), loam (Lo), loamy sand (LoSa), sandy clay loam (SaLoLo), sandy loam (SaLo), silty clay (SiCl), silty clay loam (SiClLo), and silty loam (SiLo). Figure 5 : 5Simulated a) yield, b) yield dispersion, and c) performance ranking of across T × M combinations and locations. T × M combinations are ordered from top to bottom starting from the highest performance ranking. Sites are order from left to right from sites located in the south to the north. Figure 6 : 6a) Map of simulation sites clustered based on mean growing season temperature (°C), mean growing season VPD (kPa), and total growing season precipitation (mm). Mean growing season temperature (°C), mean growing season VPD (kPa), and total growing season precipitation (mm) levels for all simulated site-years (b, c). Figure 7 : 7Start time and duration of each phenological stage across simulation sites, indicated by state abbreviations. Sites are roughly ranked by latitude, starting from southernmost sites towards the top. Figure 8 : 8Observed (top) and simulated (bottom) yield (tons/ha) across simulated sites. Numbers indicate site numbers that correspond inFig. 9. Figure 9 : 9Observed versus simulated yield (tons/ha) across simulated sites. Colors indicate latitude of simulation site. Numbers correspond to site numbers shown inFig. 8. Figure 10 : 10Performance ranking across simulation sites for T × M combinations of different top-performing strategies under present-day climate conditions. Figure 11 : 11Standardized performance rankings of different strategies across climate spaces (see section 2.7) under a) current, b) future climate conditions, and c) the difference between the two. Figure 12 : 12Percent yield loss within mean growing season temperatureprecipitation climate space among T × M combinations that a) improved versus, b) declined in performance ranking under future climate conditions. Figure 13 : 13Start time and duration of each phenological stage across T × M combinations, averaged across all simulation sites, ranked by overall performance, with the highest performers listed towards the top. Figure 14 : 14Relationship between mean temperature (°C) and mean photosynthetic rate (µmol CO 2 m -2 sec -1 ) for all simulated site-years during a) vegetative versus b) reproductive stages for four representative T × M combinations within top-performing strategies. total leaf area). Table 2 : 2MAIZSIM parameters tested for yield optimizationProcesses Params Description Default (Range) Citation Physiology g 1 Ball-Berry g s model slope 4 (2∼6) Miner et al., 2017; Shekoofa et al., 2016 V cmax Max RUBISCO capacity 65 (65∼80) Kim et al., 2006; Wu et al., 2019 J max Max electron transport rate 350 (350∼420) Kim et al., 2006; Wu et al., 2019 phyf Reference leaf water potential (MPa) used to describe stomata sensitivity to leaf water potential -1.9 (-3∼-1) Shekoofa et al., 2016; Tuzet et al., 2003; Yang, Kim, et al., 2009 Phenology SG Duration that leaves maintain ac- tive function (stay-green) after reaching maturity 3 (2∼6) Gregersen et al., 2013; Timlin et al., 2019; Zhang et al., 2019 gleaf Total leaf number 19 (11∼25) Padilla and Otegui, 2005; Parent et al., 2018 LTAR Max leaf tip appearance rate (leaves/day) 0.5 (0.4∼0.8) Kim et al., 2012; Padilla and Otegui, 2005 Morphology LM Leaf length of the longest leaf (cm) 115 (80∼120) LAF Leaf angle factor 1.37 (0.9∼1.4) Campbell, 1986; Dzievit et al., 2019 Management gdd Growing degree days accumu- lated by sowing 100 (80∼160) Sacks and Kucharik, 2011; Timlin et al., 2019 pop Density (plants/m 2 Table 3 : 3Key model outputsOutput Description Unit A n Net photosynthetic rate µmol CO 2 m -2 sec -1 P n Net carbon gain g /plant hour g s Stomatal conductance g H 2 O m -2 sec -1 ear biomass Total ear biomass g/plant total biomass Total plant biomass g/plant LA Total leaf area cm 2 phenostage Phenological stage - ET supply Evapotranspiration (ET) supply g H 2 O ET demand Evapotranspiration demand g H 2 O water def icit ET demand -ET supply g H 2 O Ψ Leaf water potential MPa AcknowledgementsWe thank Lucas Vargas Zeppetello for providing CMIP6 temperature and relative humidity projection scaling patterns. JH acknowledges support from the AFRI NIFA Fellowships Grant Program: Predoctoral Fellowships [grant no. 2020-67034-31736] from the USDA National Institute of Food and Agriculture. ALSS acknowledges support from NSF AGS-1553715. Defining and designing plant architectural ideotypes to control epidemics ?. D Andrivon, C Giorgetti, A Baranger, A Calonnec, P Cartolaro, R Faivre, S Guyader, P E Lauri, F Lescourret, L Parisi, B Ney, B Tivoli, I Sache, 10.1007/s10658-012-0126-yEur J Plant Patol. Andrivon, D., Giorgetti, C., Baranger, A., Calonnec, A., Cartolaro, P., Faivre, R., Guyader, S., Lauri, P. E., Lescourret, F., Parisi, L., Ney, B., Tivoli, B., & Sache, I. (2012). Defining and designing plant architectural ideotypes to control epidemics ? Eur J Plant Patol. https://doi.org/10.1007/s10658- 012-0126-y A model predicting stomatal conductance and its contribution to the control of photosynthesis under different environmental conditions. J T Ball, I E Woodrow, J A Berry, 10.1007/978-94-017-0519-6_48Progress in photosynthesis research. 4Ball, J. T., Woodrow, I. E., & Berry, J. A. (1987). A model predicting stomatal conductance and its contribution to the control of photosynthesis under different environmental conditions. Progress in photosynthesis research, 4 (5), 221-224. https://doi.org/10.1007/978-94-017-0519-6 48 How do various maize crop models vary in their responses to climate change factors?. S Bassu, N Brisson, J.-L Durand, K Boote, J Lizaso, J W Jones, C Rosenzweig, A C Ruane, M Adam, C Baron, B Basso, C Biernath, H Boogaard, S Conijn, M Corbeels, D Deryng, G D Sanctis, S Gayler, P Grassini, . . Waha, K , Global Change Biology. 207Bassu, S., Brisson, N., Durand, J.-L., Boote, K., Lizaso, J., Jones, J. W., Rosen- zweig, C., Ruane, A. C., Adam, M., Baron, C., Basso, B., Biernath, C., Boogaard, H., Conijn, S., Corbeels, M., Deryng, D., Sanctis, G. D., Gayler, S., Grassini, P., . . . Waha, K. (2014). How do various maize crop models vary in their responses to climate change factors? Global Change Biology, 20 (7), 2301-2320. Shifts in African crop climates by 2050 , and the implications for crop improvement and genetic resources conservation. M B Burke, D B Lobell, L Guarino, 10.1016/j.gloenvcha.2009.04.003Global Environmetnal Change. 19Burke, M. B., Lobell, D. B., & Guarino, L. (2009). Shifts in African crop climates by 2050 , and the implications for crop improvement and genetic resources conservation. Global Environmetnal Change, 19, 317- 325. https://doi.org/10.1016/j.gloenvcha.2009.04.003 Peculiarly pleasant weather for US maize. E E Butler, N D Mueller, P Huybers, 10.1073/pnas.1808035115Proceedings of the National Academy of Sciences of the United States of America. the National Academy of Sciences of the United States of America115Butler, E. E., Mueller, N. D., & Huybers, P. (2018). Peculiarly pleasant weather for US maize. Proceedings of the National Academy of Sciences of the United States of America, 115 (47), 11935-11940. https://doi.org/10. 1073/pnas.1808035115 Extinction coefficients for radiation in plant canopies calculated using an ellipsoidal inclination angle distribution (tech. rep. G S Campbell, Campbell, G. S. (1986). Extinction coefficients for radiation in plant canopies calculated using an ellipsoidal inclination angle distribution (tech. rep.). Fifty Years of Minnesota Corn Production: Sources of Yield Increase1. V B Cardwell, 10.2134/agronj1982.00021962007400060013xAgronomy Journal. 746984Cardwell, V. B. (1982). Fifty Years of Minnesota Corn Production: Sources of Yield Increase1. Agronomy Journal, 74 (6), 984. https://doi.org/10.2134/ agronj1982.00021962007400060013x Improving the use of crop models for risk assessment and climate change adaptation. A J Challinor, C Müller, S Asseng, C Deva, K J Nicklin, D Wallach, E Vanuytrecht, S Whitfield, J Ramirez-Villegas, A K Koehler, 10.1016/j.agsy.2017.07.010Agricultural Systems. 159Challinor, A. J., Müller, C., Asseng, S., Deva, C., Nicklin, K. J., Wallach, D., Vanuytrecht, E., Whitfield, S., Ramirez-Villegas, J., & Koehler, A. K. (2017). Improving the use of crop models for risk assessment and climate change adaptation. Agricultural Systems, 159, 296-306. https://doi.org/10.1016/j.agsy.2017.07.010 Coupled Photosynthesis-Stomatal Conductance Model for Leaves of C4 Plants. G J Collatz, M Ribas-Carbo, J A Berry, 10.1071/PP9920519Australian Journal of Plant Physiology. 195Collatz, G. J., Ribas-Carbo, M., & Berry, J. A. (1992). Coupled Photosynthesis- Stomatal Conductance Model for Leaves of C4 Plants. Australian Journal of Plant Physiology, 19 (5), 519-538. https://doi.org/10.1071/PP9920519 Predicting the future of plant breeding: Complementing empirical evaluation with genetic prediction. M Cooper, C D Messina, D Podlich, L R Totir, A Baumgarten, N J Hausmann, D Wright, G Graham, 10.1071/CP14007Crop and Pasture Science. 654Cooper, M., Messina, C. D., Podlich, D., Totir, L. R., Baumgarten, A., Hausmann, N. J., Wright, D., & Graham, G. (2014). Predicting the future of plant breeding: Complementing empirical evaluation with genetic prediction. Crop and Pasture Science, 65 (4), 311-336. https://doi.org/10.1071/ CP14007 Integrating genetic gain and gap analysis to predict improvements in crop productivity. M Cooper, T Tang, C Gho, T Hart, G Hammer, C Messina, 10.1002/csc2.20109Crop Science. 602Cooper, M., Tang, T., Gho, C., Hart, T., Hammer, G., & Messina, C. (2020). Integrating genetic gain and gap analysis to predict improvements in crop productivity. Crop Science, 60 (2), 582-604. https://doi.org/10. 1002/csc2.20109 Use of crop growth models with whole-genome prediction: Application to a maize multienvironment trial. M Cooper, F Technow, C Messina, C Gho, L Totir, 10.2135/cropsci2015.08.0512Crop Science. 565Cooper, M., Technow, F., Messina, C., Gho, C., & Radu Totir, L. (2016). Use of crop growth models with whole-genome prediction: Application to a maize multienvironment trial. Crop Science, 56 (5), 2141-2156. https: //doi.org/10.2135/cropsci2015.08.0512 Simple scaling of photosynthesis from leaves to canopies without the errors of big-leaf models. D G G De Pury, G D Farquhar, Plant, Cell & Environment. 20de Pury, D. G. G., & Farquhar, G. D. (1997). Simple scaling of photosynthesis from leaves to canopies without the errors of big-leaf models. Plant, Cell & Environment, 20, 537-557. Simulating the effects of climate and agricultural management practices on global crop yield. D Deryng, W J Sacks, C C Barford, N Ramankutty, 10.1029/2009gb003765Global Biogeochemical Cycles. 225Deryng, D., Sacks, W. J., Barford, C. C., & Ramankutty, N. (2011). Simulating the effects of climate and agricultural management practices on global crop yield. Global Biogeochemical Cycles, 25 (2). https://doi.org/10. 1029/2009gb003765 The breeding of crop ideotypes. C M Donald, Euphytica. 17Donald, C. M. (1968). The breeding of crop ideotypes. Euphytica, 17, 385-403. Regional warming of hot extremes accelerated by surface energy fluxes. M G Donat, A J Pitman, S I Seneviratne, 10.1002/2017GL073733Geophysical Research Letters. 4413Donat, M. G., Pitman, A. J., & Seneviratne, S. I. (2017). Regional warming of hot extremes accelerated by surface energy fluxes. Geophysical Research Letters, 44 (13), 7011-7019. https://doi.org/10.1002/2017GL073733 How accurately do maize crop models simulate the interactions of atmospheric CO2 concentration levels with limited water supply on water use and yield. J.-L Durand, K Delusca, K Boote, J Lizaso, R Manderscheid, H J Weigel, A C Ruane, C Rosenzweig, J Jones, L Ahuja, S Anapalli, B Basso, C Baron, P Bertuzzi, C Biernath, D Deryng, F Ewert, T Gaiser, S Gayler, . . Zhao, Eur J Agron. 100Z.Durand, J.-L., Delusca, K., Boote, K., Lizaso, J., Manderscheid, R., Weigel, H. J., Ruane, A. C., Rosenzweig, C., Jones, J., Ahuja, L., Anapalli, S., Basso, B., Baron, C., Bertuzzi, P., Biernath, C., Deryng, D., Ewert, F., Gaiser, T., Gayler, S., . . . Zhao, Z. (2018). How accurately do maize crop models simulate the interactions of atmospheric CO2 concentration levels with limited water supply on water use and yield? Eur J Agron, 100, 67-75. The Contribution of Breeding to Yield Advances in maize (Zea mays L. D N Duvick, 10.1016/S0065-2113(05)86002-XDuvick, D. N. (2005). The Contribution of Breeding to Yield Advances in maize (Zea mays L.) https://doi.org/10.1016/S0065-2113(05)86002-X Dissection of Leaf Angle Variation in Maize through Genetic Mapping and Meta-Analysis. M J Dzievit, X Li, J Yu, 10.3835/plantgenome2018.05.0024The Plant Genome. 121180024Dzievit, M. J., Li, X., & Yu, J. (2019). Dissection of Leaf Angle Variation in Maize through Genetic Mapping and Meta-Analysis. The Plant Genome, 12 (1), 180024. https://doi.org/10.3835/plantgenome2018.05.0024 Breeding and cereal yield progress. R A Fischer, G O Edmeades, 10.2135/cropsci2009.10.0564Crop Science. 50S-85-S-98Fischer, R. A., & Edmeades, G. O. (2010). Breeding and cereal yield progress. Crop Science, 50, S-85-S-98. https://doi.org/10.2135/cropsci2009.10. 0564 Breeding and domesticating crops adapted to drought and salinity: A new paradigm for increasing food production. A Fita, A Rodríguez-Burruezo, M Boscaiu, J Prohens, O Vicente, 10.3389/fpls.2015.00978Frontiers in Plant Science. 6Fita, A., Rodríguez-Burruezo, A., Boscaiu, M., Prohens, J., & Vicente, O. (2015). Breeding and domesticating crops adapted to drought and salinity: A new paradigm for increasing food production. Frontiers in Plant Science, 6, 1-14. https://doi.org/10.3389/fpls.2015.00978 Industry-scale evaluation of maize hybrids selected for increased yield in drought-stress conditions of the US corn belt. J Gaffney, J Schussler, C Löffler, W Cai, S Paszkiewicz, C Messina, J Groeteke, J Keaschall, M Cooper, 10.2135/cropsci2014.09.0654Crop Science. 554Gaffney, J., Schussler, J., Löffler, C., Cai, W., Paszkiewicz, S., Messina, C., Groeteke, J., Keaschall, J., & Cooper, M. (2015). Industry-scale eval- uation of maize hybrids selected for increased yield in drought-stress conditions of the US corn belt. Crop Science, 55 (4), 1608-1618. https: //doi.org/10.2135/cropsci2014.09.0654 Food Security: The Challenge of Feeding 9 Billion People. H C J Godfray, J R Beddington, I R Crute, L Haddad, D Lawrence, J F Muir, J Pretty, S Robinson, S M Thomas, C Toulmin, 10.1126/science.1185383Science. 3275967Godfray, H. C. J., Beddington, J. R., Crute, I. R., Haddad, L., Lawrence, D., Muir, J. F., Pretty, J., Robinson, S., Thomas, S. M., & Toulmin, C. (2010). Food Security: The Challenge of Feeding 9 Billion People. Science, 327 (5967), 812-818. https://doi.org/10.1126/science.1185383 Plant senescence and crop productivity. P L Gregersen, A Culetic, L Boschian, K Krupinska, 10.1007/s11103-013-0013-8Plant Molecular Biology. 826Gregersen, P. L., Culetic, A., Boschian, L., & Krupinska, K. (2013). Plant senescence and crop productivity. Plant Molecular Biology, 82 (6), 603- 622. https://doi.org/10.1007/s11103-013-0013-8 Designing crops for adaptation to the drought and high temperature risks anticipated in future climates. G Hammer, G Mclean, E Oosterom, S Chapman, B Zheng, A Wu, A Doherty, D Jordan, 10.1002/csc2.20110Crop Science. Hammer, G., McLean, G., Oosterom, E., Chapman, S., Zheng, B., Wu, A., Doherty, A., & Jordan, D. (2020). Designing crops for adaptation to the drought and high temperature risks anticipated in future climates. Crop Science, 1-17. https://doi.org/10.1002/csc2.20110 Can changes in canopy and/or root system architecture explain historical maize yield trends in the. G L Hammer, Z Dong, G Mclean, A Doherty, C Messina, J Schussler, C Zinselmeier, S Paszkiewicz, M Cooper, 10.2135/cropsci2008.03.0152Crop Science. 491Hammer, G. L., Dong, Z., McLean, G., Doherty, A., Messina, C., Schussler, J., Zinselmeier, C., Paszkiewicz, S., & Cooper, M. (2009). Can changes in canopy and/or root system architecture explain historical maize yield trends in the U.S. corn belt? Crop Science, 49 (1), 299-312. https: //doi.org/10.2135/cropsci2008.03.0152 Meeting Global Food Needs : Realizing the Potential via Genetics × Environment × Management Interactions. J L Hatfield, C L Walthall, 10.2134/agronj15.0076Hatfield, J. L., & Walthall, C. L. (2015). Meeting Global Food Needs : Realizing the Potential via Genetics × Environment × Management Interactions, 1215-1226. https://doi.org/10.2134/agronj15.0076 Model-aided climate adaptation for future maize. J Hsiao, S.-H Kim, D J Timlin, N D Mueller, A L S Swann, in the u.s. submittedHsiao, J., Kim, S.-H., Timlin, D. J., Mueller, N. D., & Swann, A. L. S. (2022). Model-aided climate adaptation for future maize in the u.s. submitted. Maize yield under a changing climate: The hidden role of vapor pressure deficit. J Hsiao, A L S Swann, S.-H Kim, 10.1016/j.agrformet.2019.107692Agricultural and Forest Meteorology. 279107692Hsiao, J., Swann, A. L. S., & Kim, S.-H. (2019). Maize yield under a changing climate: The hidden role of vapor pressure deficit. Agricultural and Forest Meteorology, 279, 107692. https://doi.org/10.1016/j.agrformet.2019. 107692 Canopy photosynthesis, evapotranspiration, leaf nitrogen, and transcription profiles of maize in response to CO2 enrichment. S.-H Kim, R C Sicher, H Bae, D C Gitz, J T Baker, D J Timlin, V R Reddy, 10.1111/j.1365-2486.2006.01110.xGlobal Change Biology. 123Kim, S.-H., Sicher, R. C., Bae, H., Gitz, D. C., Baker, J. T., Timlin, D. J., & Reddy, V. R. (2006). Canopy photosynthesis, evapotranspiration, leaf nitrogen, and transcription profiles of maize in response to CO2 enrichment. Global Change Biology, 12 (3), 588-600. https://doi.org/10. 1111/j.1365-2486.2006.01110.x Modeling temperature responses of leaf growth, development, and biomass in maize with MAIZSIM. S.-H Kim, Y Yang, D J Timlin, D H Fleisher, A Dathe, V R Reddy, K Staver, 10.2134/agronj2011.0321Agronomy Journal. 1046Kim, S.-H., Yang, Y., Timlin, D. J., Fleisher, D. H., Dathe, A., Reddy, V. R., & Staver, K. (2012). Modeling temperature responses of leaf growth, development, and biomass in maize with MAIZSIM. Agronomy Journal, 104 (6), 1523-1537. https://doi.org/10.2134/agronj2011.0321 Simulation of maize evapotranspiration: An inter-comparison among 29 maize models. B A Kimball, K J Boote, J L Hatfield, L R Ahuja, C Stockle, S Archontoulis, C Baron, B Basso, P Bertuzzi, J Constantin, D Deryng, B Dumont, J L Durand, F Ewert, T Gaiser, S Gayler, M P Hoffmann, Q Jiang, S H Kim, . . Williams, K , 10.1016/j.agrformet.2019.02.037Agricultural and Forest Meteorology. 271Kimball, B. A., Boote, K. J., Hatfield, J. L., Ahuja, L. R., Stockle, C., Archon- toulis, S., Baron, C., Basso, B., Bertuzzi, P., Constantin, J., Deryng, D., Dumont, B., Durand, J. L., Ewert, F., Gaiser, T., Gayler, S., Hoff- mann, M. P., Jiang, Q., Kim, S. H., . . . Williams, K. (2019). Sim- ulation of maize evapotranspiration: An inter-comparison among 29 maize models. Agricultural and Forest Meteorology, 271, 264-284. https: //doi.org/10.1016/j.agrformet.2019.02.037 Contribution of planting date trends to increased maize yields in the central United States. C J Kucharik, 10.2134/agronj2007.0145Agronomy Journal. 1002Kucharik, C. J. (2008). Contribution of planting date trends to increased maize yields in the central United States. Agronomy Journal, 100 (2), 328-336. https://doi.org/10.2134/agronj2007.0145 A leaf area model to simulate cultivar-specific expansion and senescence of maize leaves. J I Lizaso, W D Batchelor, M E Westgate, 10.1016/S0378-4290(02)00151-XField Crops Research. 801151Lizaso, J. I., Batchelor, W. D., & Westgate, M. E. (2003). A leaf area model to simulate cultivar-specific expansion and senescence of maize leaves. Field Crops Research, 80 (1), 1-17. https://doi.org/10.1016/S0378- 4290(02)00151-X Feeding the future. S Mccouch, G J Baute, J Bradeen, P Bramel, P K Bretting, E Buckler, J M Burke, D Charest, S Cloutier, G Cole, H Dempewolf, M Dingkuhn, C Feuillet, P Gepts, D Grattapaglia, L Guarino, S Jackson, S Knapp, P Langridge, . . Zamir, D , 10.1038/499023aNature. 7456McCouch, S., Baute, G. J., Bradeen, J., Bramel, P., Bretting, P. K., Buckler, E., Burke, J. M., Charest, D., Cloutier, S., Cole, G., Dempewolf, H., Dingkuhn, M., Feuillet, C., Gepts, P., Grattapaglia, D., Guarino, L., Jackson, S., Knapp, S., Langridge, P., . . . Zamir, D. (2013). Feeding the future. Nature, 499 (7456), 23-24. https://doi.org/10.1038/499023a A comparison of three methods for selecting values of input variables in the analysis of output from a computer code. M D Mckay, R J Beckman, W J Conover, 10.1080/00401706.2000.10485979Technometrics. 212McKay, M. D., Beckman, R. J., & Conover, W. J. (1979). A comparison of three methods for selecting values of input variables in the analysis of output from a computer code. Technometrics, 21 (2), 239-245. https: //doi.org/10.1080/00401706.2000.10485979 Two decades of creating drought tolerant maize and underpinning prediction technologies in the US corn-belt: Review and perspectives on the future of crop design. C D Messina, M Cooper, G L Hammer, D Berning, I Ciampitti, R Clark, C Diepenbrock, C Gho, M Jines, T Lee, R Mccormick, E Mihura, D Podlich, J Rotundo, M Smalley, T Tang, S Truong, F Van Eeuwijk, 10.1101/2020.10.29.361337Messina, C. D., Cooper, M., Hammer, G. L., Berning, D., Ciampitti, I., Clark, R., Diepenbrock, C., Gho, C., Jines, M., Lee, T., McCormick, R., Mihura, E., Podlich, D., Rotundo, J., Smalley, M., Tang, T., Truong, S., & van Eeuwijk, F. (2020). Two decades of creating drought tolerant maize and underpinning prediction technologies in the US corn-belt: Review and perspectives on the future of crop design. bioRxiv. https://doi.org/ 10.1101/2020.10.29.361337 Crop science: A foundation for advancing predictive agriculture. C D Messina, M Cooper, M Reynolds, G L Hammer, 10.1002/csc2.20116Crop Science. 602Messina, C. D., Cooper, M., Reynolds, M., & Hammer, G. L. (2020). Crop science: A foundation for advancing predictive agriculture. Crop Science, 60 (2), 544-546. https://doi.org/10.1002/csc2.20116 Yieldtrait performance landscapes: From theory to application in breeding maize for drought tolerance. C D Messina, D Podlich, Z Dong, M Samples, M Cooper, 10.1093/jxb/erq329Journal of Experimental Botany. 623Messina, C. D., Podlich, D., Dong, Z., Samples, M., & Cooper, M. (2011). Yield- trait performance landscapes: From theory to application in breeding maize for drought tolerance. Journal of Experimental Botany, 62 (3), 855-868. https://doi.org/10.1093/jxb/erq329 Limited-transpiration trait may increase maize drought tolerance in the US corn belt. C D Messina, T R Sinclair, G L Hammer, D Curan, J Thompson, Z Oler, C Gho, M Cooper, 10.2134/agronj15.0016Agronomy Journal. 1076Messina, C. D., Sinclair, T. R., Hammer, G. L., Curan, D., Thompson, J., Oler, Z., Gho, C., & Cooper, M. (2015). Limited-transpiration trait may increase maize drought tolerance in the US corn belt. Agronomy Journal, 107 (6), 1978-1986. https://doi.org/10.2134/agronj15.0016 Estimating the sensitivity of stomatal conductance to photosynthesis: a review. G L Miner, W L Bauerle, D D Baldocchi, 10.1111/pce.12871Plant Cell and Environment. 407Miner, G. L., Bauerle, W. L., & Baldocchi, D. D. (2017). Estimating the sensitivity of stomatal conductance to photosynthesis: a review. Plant Cell and Environment, 40 (7), 1214-1238. https://doi.org/10.1111/pce.12871 Cooling of US Midwest summer temperature extremes from cropland intensification. N D Mueller, E E Butler, K A Mckinnon, A Rhines, 10.1038/nclimate2825Nature Climate Change. 63Mueller, N. D., Butler, E. E., McKinnon, K. A., & Rhines, A. (2016). Cooling of US Midwest summer temperature extremes from cropland intensification. Nature Climate Change, 6 (3). https://doi.org/10.1038/nclimate2825 Plant and crop simulation models: Powerful tools to link physiology, genetics, and phenomics. B Muller, P Martre, 10.1093/jxb/erz175Journal of Experimental Botany. 709Muller, B., & Martre, P. (2019). Plant and crop simulation models: Powerful tools to link physiology, genetics, and phenomics. Journal of Experimental Botany, 70 (9), 2339-2344. https://doi.org/10.1093/jxb/erz175 B C O&apos;neill, C Tebaldi, D P Van Vuuren, V Eyring, P Friedlingstein, G Hurtt, R Knutti, E Kriegler, J F Lamarque, J Lowe, G A Meehl, R Moss, K Riahi, B M Sanderson, 10.5194/gmd-9-3461-2016The Scenario Model Intercomparison Project (ScenarioMIP) for CMIP6. Geoscientific Model Development. 9O'Neill, B. C., Tebaldi, C., Van Vuuren, D. P., Eyring, V., Friedlingstein, P., Hurtt, G., Knutti, R., Kriegler, E., Lamarque, J. F., Lowe, J., Meehl, G. A., Moss, R., Riahi, K., & Sanderson, B. M. (2016). The Scenario Model Intercomparison Project (ScenarioMIP) for CMIP6. Geoscientific Model Development, 9 (9), 3461-3482. https://doi.org/10.5194/gmd-9- 3461-2016 Co-ordination between leaf initiation and leaf appearance in field-grown maize (Zea mays): Genotypic differences in response of rates to temperature. J M Padilla, M E Otegui, 10.1093/aob/mci251Annals of Botany. 966Padilla, J. M., & Otegui, M. E. (2005). Co-ordination between leaf initiation and leaf appearance in field-grown maize (Zea mays): Genotypic differences in response of rates to temperature. Annals of Botany, 96 (6), 997-1007. https://doi.org/10.1093/aob/mci251 Maize yields over Europe may increase in spite of climate change, with an appropriate use of the genetic variability of flowering time. B Parent, M Leclere, S Lacube, M A Semenov, C Welcker, P Martre, F Tardieu, 10.1073/pnas.1720716115Proceedings of the National Academy of Sciences of the United States of America. the National Academy of Sciences of the United States of America115Parent, B., Leclere, M., Lacube, S., Semenov, M. A., Welcker, C., Martre, P., & Tardieu, F. (2018). Maize yields over Europe may increase in spite of climate change, with an appropriate use of the genetic variability of flowering time. Proceedings of the National Academy of Sciences of the United States of America, 115 (42), 10642-10647. https://doi.org/10. 1073/pnas.1720716115 Towards a multiscale crop modeling framework for climate change adaptation assessment. B Peng, K Guan, J Tang, E A Ainsworth, S Asseng, C J Bernacchi, M Cooper, E H Delucia, J W Elliott, F Ewert, R F Grant, D I Gustafson, G L Hammer, Z Jin, J W Jones, H Kimm, D M Lawrence, Y Li, D L Lombardozzi, . . Zhou, W , 10.1038/s41477-020-0625-3Nature Plants. 6Peng, B., Guan, K., Tang, J., Ainsworth, E. A., Asseng, S., Bernacchi, C. J., Cooper, M., Delucia, E. H., Elliott, J. W., Ewert, F., Grant, R. F., Gustafson, D. I., Hammer, G. L., Jin, Z., Jones, J. W., Kimm, H., Lawrence, D. M., Li, Y., Lombardozzi, D. L., . . . Zhou, W. (2020). Towards a multiscale crop modeling framework for climate change adap- tation assessment. Nature Plants, 6 (April). https://doi.org/10.1038/ s41477-020-0625-3 Progress in ideotype breeding to increase rice yield potential. S Peng, G S Khush, P Virk, Q Tang, Y Zou, 10.1016/j.fcr.2008.04.001Field Crops Research. 1081Peng, S., Khush, G. S., Virk, P., Tang, Q., & Zou, Y. (2008). Progress in ideotype breeding to increase rice yield potential. Field Crops Research, 108 (1), 32-38. https://doi.org/10.1016/j.fcr.2008.04.001 Identifying traits for genotypic adaptation using crop models. J Ramirez-Villegas, J Watson, A J Challinor, 10.1093/jxb/erv014Journal of Experimental Botany. 6612Ramirez-Villegas, J., Watson, J., & Challinor, A. J. (2015). Identifying traits for genotypic adaptation using crop models. Journal of Experimental Botany, 66 (12), 3451-3462. https://doi.org/10.1093/jxb/erv014 The Shared Socioeconomic Pathways and their energy, land use, and greenhouse gas emissions implications: An overview. K Riahi, D P Van Vuuren, E Kriegler, J Edmonds, B C O&apos;neill, S Fujimori, N Bauer, K Calvin, R Dellink, O Fricko, W Lutz, A Popp, J C Cuaresma, S Kc, M Leimbach, L Jiang, T Kram, S Rao, J Emmerling, . . Tavoni, 10.1016/j.gloenvcha.2016.05.009Global Environmental Change. 42Riahi, K., van Vuuren, D. P., Kriegler, E., Edmonds, J., O'Neill, B. C., Fujimori, S., Bauer, N., Calvin, K., Dellink, R., Fricko, O., Lutz, W., Popp, A., Cuaresma, J. C., KC, S., Leimbach, M., Jiang, L., Kram, T., Rao, S., Emmerling, J., . . . Tavoni, M. (2017). The Shared Socioeconomic Pathways and their energy, land use, and greenhouse gas emissions implications: An overview. Global Environmental Change, 42, 153-168. https://doi.org/10.1016/j.gloenvcha.2016.05.009 Use of crop simulation modelling to aid ideotype design of future cereal cultivars. R P Rötter, F Tao, J G Höhn, T Palosuo, 10.1093/jxb/erv098Journal of Experimental Botany. 6612Rötter, R. P., Tao, F., Höhn, J. G., & Palosuo, T. (2015). Use of crop simulation modelling to aid ideotype design of future cereal cultivars. Journal of Experimental Botany, 66 (12), 3463-3476. https://doi.org/10.1093/jxb/ erv098 Crop management and phenology trends in the U.S. Corn Belt: Impacts on yields, evapotranspiration and energy balance. W J Sacks, C J Kucharik, 10.1016/j.agrformet.2011.02.010Agric. For. Meteorol. 7Sacks, W. J., & Kucharik, C. J. (2011). Crop management and phenology trends in the U.S. Corn Belt: Impacts on yields, evapotranspiration and energy balance. Agric. For. Meteorol, 151 (7), 882-894. https://doi.org/10.1016/ j.agrformet.2011.02.010 Variation among maize hybrids in response to high vapor pressure deficit at high temperatures. A Shekoofa, T R Sinclair, C D Messina, M Cooper, 10.2135/cropsci2015.02.0134Crop Science. 561Shekoofa, A., Sinclair, T. R., Messina, C. D., & Cooper, M. (2016). Variation among maize hybrids in response to high vapor pressure deficit at high temperatures. Crop Science, 56 (1), 392-396. https://doi.org/10.2135/ cropsci2015.02.0134 Natural Resources Conservation Service. (n.d.). Soil Survey Geographic (SSURGO) Database. U S D A Soil Survey Staff, 09/15/2019Soil Survey Staff, U. S. D. A., Natural Resources Conservation Service. (n.d.). Soil Survey Geographic (SSURGO) Database. [Available online. Accessed [09/15/2019].]. Minimum data requirements for parameter estimation of stochastic weather generators. A Soltani, G Hoogenboom, 10.3354/cr025109Climate Research. 252Soltani, A., & Hoogenboom, G. (2003). Minimum data requirements for parameter estimation of stochastic weather generators. Climate Research, 25 (2), 109-119. https://doi.org/10.3354/cr025109 Soil taxonomy: A basic system of soil classification for making and interpreting soil surveys. S S Staff, 2nd edition. natural resources conservation service. u.s. department of agriculture handbook 436Staff, S. S. (1999). Soil taxonomy: A basic system of soil classification for making and interpreting soil surveys. 2nd edition. natural resources conservation service. u.s. department of agriculture handbook 436. Effect of row spacing and plant population on maize yield and quality. P J Stone, A J Pearson, I B Sorensen, B T Rogers, Agronomy New Zealand. 30Stone, P. J., Pearson, A. J., Sorensen, I. B., & Rogers, B. T. (2000). Effect of row spacing and plant population on maize yield and quality. Agronomy New Zealand, 30, 67-75. Chapter 3 -Maize water use and yield in the solar corridor system: a simulation study. D Timlin, S.-H Kim, D Fleisher, Z Wang, V R Reddy, 10.1016/B978-0-12-814792-4.00003-6C. L. Deichman & R. J. KremerAcademic PressThe solar corridor crop systemTimlin, D., Kim, S.-H., Fleisher, D., Wang, Z., & Reddy, V. R. (2019). Chapter 3 -Maize water use and yield in the solar corridor system: a simulation study. In C. L. Deichman & R. J. Kremer (Eds.), The solar corridor crop system (pp. 57-78). Academic Press. https : / / doi . org / https : //doi.org/10.1016/B978-0-12-814792-4.00003-6 A design for a modular, generic soil simulator to interface with plant models. D Timlin, Y A Pachepsky, B Acock, 10.2134/agronj1996.00021962008800020008xAgronomy Journal. 882Timlin, D., Pachepsky, Y. A., & Acock, B. (1996). A design for a modular, generic soil simulator to interface with plant models. Agronomy Journal, 88 (2), 162-169. https://doi.org/10.2134/agronj1996.00021962008800020008x A coupled model of stomatal conductance, photosynthesis and transpiration. A Tuzet, A Perrier, R Leuning, Plant, Cell & Environment. 267Tuzet, A., Perrier, A., & Leuning, R. (2003). A coupled model of stomatal con- ductance, photosynthesis and transpiration. Plant, Cell & Environment, 26 (7), 1097-1116. A Closed-form Equation for Predicting the Hydraulic Conductivity of Unsaturated Soils. M T Van Genuchten, 10.2136/sssaj1980.03615995004400050002xSoil Science Society of America Journal. 445van Genuchten, M. T. (1980). A Closed-form Equation for Predicting the Hy- draulic Conductivity of Unsaturated Soils. Soil Science Society of Amer- ica Journal, 44 (5), 892-898. https://doi.org/https://doi.org/10.2136/ sssaj1980.03615995004400050002x Impact of derived global weather data on simulated crop yields. J Van Wart, P Grassini, K G Cassman, 10.1111/gcb.12302Global Change Biology. 1912Van Wart, J., Grassini, P., & Cassman, K. G. (2013). Impact of derived global weather data on simulated crop yields. Global Change Biology, 19 (12), 3822-3834. https://doi.org/10.1111/gcb.12302 The origin of soil moisture evaporation "regimes. L R Vargas Zeppetello, D S Battisti, M B Baker, 10.1175/JCLI-D-19-0209.1Journal of Climate. 3220Vargas Zeppetello, L. R., Battisti, D. S., & Baker, M. B. (2019). The origin of soil moisture evaporation "regimes". Journal of Climate, 32 (20), 6939-6960. https://doi.org/10.1175/JCLI-D-19-0209.1 Biochemical Models of Leaf Photosynthesis. S Von Caemmerer, CSIRO Publishingvon Caemmerer, S. (2000). Biochemical Models of Leaf Photosynthesis. CSIRO Publishing. Q&A: Modern crop breeding for future food security 07 Agricultural and Veterinary Sciences 0703 Crop and Pasture Production 06 Biological Sciences 0607 Plant Biology 06 Biological Sciences 0604 Genetics. K P Voss-Fels, A Stahl, L T Hickey, BMC Biology. 171Voss-Fels, K. P., Stahl, A., & Hickey, L. T. (2019). Q&A: Modern crop breeding for future food security 07 Agricultural and Veterinary Sciences 0703 Crop and Pasture Production 06 Biological Sciences 0607 Plant Biology 06 Biological Sciences 0604 Genetics. BMC Biology, 17 (1), 1-7. Quantifying impacts of enhancing photosynthesis on crop yield. A Wu, G L Hammer, A Doherty, S Von Caemmerer, G D Farquhar, 10.1038/s41477-019-0398-8Nature plants. 54Wu, A., Hammer, G. L., Doherty, A., von Caemmerer, S., & Farquhar, G. D. (2019). Quantifying impacts of enhancing photosynthesis on crop yield. Nature plants, 5 (4), 380-388. https://doi.org/10.1038/s41477-019-0398- 8 Simulating canopy transpiration and photosynthesis of corn plants under contrasting water regimes using a coupled model. Y Yang, S.-H Kim, D J Timlin, D H Fleisher, B Quebedeaux, V R Reddy, 10.13031/2013.27370Transactions of the ASABE. 523Yang, Y., Kim, S.-H., Timlin, D. J., Fleisher, D. H., Quebedeaux, B., & Reddy, V. R. (2009). Simulating canopy transpiration and photosynthesis of corn plants under contrasting water regimes using a coupled model. Transactions of the ASABE, 52 (3), 1011-1024. https://doi.org/10. 13031/2013.27370 Simulating leaf area of corn plants at contrasting water status. Y Yang, D J Timlin, D H Fleisher, S . - Kim, B Quebedeaux, V R Reddy, 10.1016/j.agrformet.2009.02.005Agricultural and Forest Meteorology. 1496-7Yang, Y., Timlin, D. J., Fleisher, D. H., Kim, S. .-., Quebedeaux, B., & Reddy, V. R. (2009). Simulating leaf area of corn plants at contrasting water status. Agricultural and Forest Meteorology, 149 (6-7), 1161-1167. https: //doi.org/10.1016/j.agrformet.2009.02.005 A nonlinear model for crop development as a function of temperature. X Yin, M J Kropff, G Mclaren, R M Visperas, 10.1016/0168-1923(95)02236-QAgricultural and Forest Meteorology. 771-22236Yin, X., Kropff, M. J., McLaren, G., & Visperas, R. M. (1995). A nonlinear model for crop development as a function of temperature. Agricultural and Forest Meteorology, 77 (1-2), 1-16. https://doi.org/10.1016/0168- 1923(95)02236-Q Identification and characterization of a novel stay-green QTL that increases yield in maize. J Zhang, K A Fengler, J L Van Hemert, R Gupta, N Mongar, J Sun, W B Allen, Y Wang, B Weers, H Mo, R Lafitte, Z Hou, A Bryant, F Ibraheem, J Arp, K Swaminathan, S P Moose, B Li, B Shen, 10.1111/pbi.13139Plant Biotechnology Journal. 1712Zhang, J., Fengler, K. A., Van Hemert, J. L., Gupta, R., Mongar, N., Sun, J., Allen, W. B., Wang, Y., Weers, B., Mo, H., Lafitte, R., Hou, Z., Bryant, A., Ibraheem, F., Arp, J., Swaminathan, K., Moose, S. P., Li, B., & Shen, B. (2019). Identification and characterization of a novel stay-green QTL that increases yield in maize. Plant Biotechnology Journal, 17 (12), 2272-2285. https://doi.org/10.1111/pbi.13139 The important but weakening maize yield benefit of grain filling prolongation in the US Midwest. P Zhu, Z Jin, Q Zhuang, P Ciais, C Bernacchi, X Wang, D Makowski, D Lobell, 10.1111/gcb.143564718-4730Zhu, P., Jin, Z., Zhuang, Q., Ciais, P., Bernacchi, C., Wang, X., Makowski, D., & Lobell, D. (2018). The important but weakening maize yield benefit of grain filling prolongation in the US Midwest, 4718-4730. https://doi.org/10.1111/gcb.14356
sample_14390
0.9979
arxiv
La genealogía mitocondrial de María Mercedes Cairol Antúnez, huella de la inmigración reciente a Costa Rica Bernal Morera bernal.morera@gmail.comobernal.morera.brenes@una.cr la Asociación de Genealogía e Historia de Costa Rica Miembro de la Asogehi. Dirección para correspondencia: Laboratorio de Genética Evolutiva, Escuela de Ciencias Biológicas Boletín de la Asociación de Genealogía e Historia de Costa Rica (Asogehi) Universidad Nacional HerediaCosta Rica La genealogía mitocondrial de María Mercedes Cairol Antúnez, huella de la inmigración reciente a Costa Rica El vertiginoso avance de las técnicas de la biología molecular, con apoyo de la antropología, permite en la actualidad detectar procesos demográficos de las poblaciones humanas. Fenómenos migratorios, expansiones poblacionales y mezclas de grupos, entre otros, quedan reflejados en la composición genética de las poblaciones actuales. Por ello el estudio de diferentes marcadores moleculares en muchas poblaciones nos ofrece una visión retrospectiva de la historia de estas, que permite contrastar hipótesis sugeridas por otras disciplinas como la arqueología, la lingüística, la paleontología y la genealogía(Bertanpetit et al., 1999).Además, ha venido adquiriendo una progresiva popularidad el uso de esta tecnología para profundizar en el conocimiento sobre los ancestros, y de las relaciones de parentesco entre las personas(Meléndez Obando 2004). Iniciativas como el Proyecto Genográfico (National Geographic Society, 2012), la Fundación Sorenson de Genealogía Molecular (SMGF, 2012) y varias compañías privadas que ofrecen servicios para el análisis del ADN mitocondrial (ADNmt) -de herencia materna estricta-, y del cromosoma Y -de herencia exclusivamente paterna-. Así, muchas personas deciden caracterizar sus marcadores genéticos como una iniciativa personal y hacen públicos voluntariamente sus datos genéticos con los objetivos de buscar parientes biológicos y de adquirir conocimiento respecto a su origen remoto.Nuestro compañero don Emilio Obando Cairol, genealogista costarricense, tenía dichos propósitos cuando contribuyó con sus muestras biológicas a uno de esos proyectos. Además, entre líneas nos manifestó su deseo de compartir pronto tal información con sus parientes. Su abuela, doña María Mercedes Cairol Antúnez, migró de Cuba a Costa Rica, en 1899, donde ha dejado descendencia. De cuyo linaje materno estricto, él es también portador. El objetivo de este estudio de caso es determinar el origen étnico y comparar la información genealógica y genética en torno a este linaje.Materiales y métodosAnálisis genealógico. Se construyó un árbol matrilineal estricto (línea uterina) a partir de los datos relevantes para este estudio, publicados por Obando Cairol (2012) a partir de su propia genealogía.Caracterización del ADNmt y análisis de los datos. Las regiones hipervariables (HVRI y HVR2) del genoma mitocondrial fueron analizadas voluntariamente por el propio probado -como se denomina en genética la persona que es objeto de estudio-y los datos del linaje molecular son públicos en la base de datos de ADNmt de la Fundación Sorenson (SMGF, 2012). Él mismo nos proporcionó las pistas para localizarlos y su consentimiento informado para revelarlos. Denominamos a su linaje mitocondrial "Cairol-Antúnez" por los apellidos de sus abuelos maternos, como aparece referido en dicha base de datos. Los resultados genéticos fueron examinamos mediante un abordaje de minería de datos para confirmar el haplogrupo al cual pertenecen. Para esclarecer el origen geográfico del linaje observado, comparamos los datos con secuencias publicadas según se describió previamente (Morera y Meléndez Obando 2009. Confeccionamos además una red filogenética mediante el algoritmo de Uniones Medias (Median Joint) con el programa NETWORK 4.6. 1.0 (Fluxus Technology, 2012). Con tal propósito comparamos este linaje mitocondrial observado en la región control HVR1, con secuencias europeas del linaje H; indígenas americanas de linajes A, B, C y D; y africanas L2, las cuales también han sido encontradas en costarricenses. Resultados En el Cuadro genealógico N°1 se presenta la genealogía matrilineal de 4 generaciones documentadas desde doña Ángela Antúnez hasta uno de sus descendientes costarricenses. De acuerdo con los registros documentales, ella era de origen étnico catalán español (Obando Cairol 2009). El linaje de ADNmt observado en los descendientes costarricenses de doña Ángela Antúnez corresponde a la Secuencia de Referencia de Cambridge (CRS) descrita por Anderson et al. (1981), y pertenece al haplotipo (o linaje) H que tiene un origen filogenético europeo. Esto se ilustra en la Figura 1, donde la red de relaciones filogenéticas muestra la estrecha correspondencia del linaje mitocondrial "Cairol-Antúnez" con los linajes europeos del grupo H. Por lo tanto, los resultados genéticos y documentales respecto al origen étnico de esta matriarca costarricense concuerdan entre sí, según lo esperado. En la región I este ADNmt reciente presenta solo una base [HVRI = 16519 C] de diferencia respecto a la secuencia de referencia (CRS, círculo marcado en la figura 1). En tanto que en la región II presenta tres bases de diferencia [HVRII = 263 G, 309.1 C y 315.1 C]. Por otra parte, es claramente diferente de las secuencias de los linajes indígenas americanos A, B, C y D, y del linaje africano L2. Todos estos han sido detectados en costarricense contemporáneos (Figura 1). Otra observación interesante, es que este linaje presenta tan solo una diferencia en la región HVRII [309.1 C], con respecto al linaje previamente estudiado, y que fue observado en los costarricenses descendientes en forma directa de doña Andrea Vásquez de Coronado (Morera y Meléndez Obando, 2012). Discusión Dado que los haplotipos de ADNmt pueden ser asignados a grupos de secuencias específicas de un continente, pudimos establecer el origen geográfico del linaje de ADNmt presente en la genealogía estudiada. Este coincide cercanamente con la Secuencia de Referencia de Cambridge (CRS). El haplogrupo H tiene alrededor del 40 por ciento del patrimonio genético de algunas ciudades mediterráneas (National Geographic Society, 2012). En general, presenta sus frecuencias más altas en la población de la Península Ibérica (Simoni et al., 2000), tanto como el 19,3% entre españoles (Bertranpetit et al. 1995, Côrte-Real et al., 1996, Pinto et al., 1996, Salas et al., 1998 y el 25,9% entre portugueses (Côrte-Real et al., 1996). Así, podría parecernos obvio o incluso poco llamativo el encontrar otro haplogrupo H, justo en un linaje documental europeo reciente. Por el contrario, este hecho si tiene gran significancia desde una perspectiva biológica, como veremos. En primer lugar, y en forma semejante a como se ha observado en Quebec, la llegada de mujeres inmigrantes tardías aportó distintos linajes de ADNmit, que junto con la mezcla contribuyeron a enriquecer la diversidad y la regionalización del acervo genético de aquella población francófona de Canadá (Moreau et al., 2009). Un impacto equivalente se esperaría haya ocurrido en la población de Costa Rica. En segundo lugar, nos comenta Obando Cairol (2009): "lo bello para mí es que la migración de mi abuela Mercedes, distinta a las migraciones usuales que se originan mayormente en situaciones políticas, económicas o desastres naturales, emigró a Costa Rica por amor y gracias a ello nacieron sus descendientes. Era, sin duda, una mujer de armas tomar, industriosa y de carácter, pues ella solita crió a sus hijas en una tierra extraña". Y desde una perspectiva humana, esta sin duda es una historia hermosa. No obstante, pareciera que es asimismo un ejemplo de un mecanismo migratorio de enorme trascendencia. De hecho la migración femenina ha desempeñado un papel significativo debido a los matrimonios patrilocales practicados en la mayoría de las sociedades, donde las mujeres se trasladan al lugar de origen del esposo (Bertanpetit et al., 1999). Y en este caso si los papeles matrimoniales fueron o no firmados resulta irrelevante, pues la historia de amor culminó como se esperaría, con creciente descendencia. Estas prácticas sociales quedan reflejadas en los linajes femeninos o masculinos y los avances tecnológicos de la genética molecular nos permiten ponerlas de manifiesto (Perego et al. 2005). Un buen ejemplo de esto fue observado por Comas et al., (1998) al estudiar las poblaciones del Asia Central, a lo largo de la legendaria ruta de la seda. Ellos encontraron que el ADNmit presenta una gran homogeneidad entre las diversas poblaciones de aquella región, no detectándose diferencias entre ellas. Contrariamente, el análisis de marcadores genéticos del cromosoma Y muestra resultados diferentes, con un grado muy elevado de heterogeneidad por el lado masculino. Estas discrepancias entre ambos hallazgos sugiere un patrón de migración diferencial entre hombres y mujeres, con una mayor tasa de migración de las mujeres. Por mucho tiempo consideramos que los procesos migratorios en la historia de las poblaciones humanas se basaban en movimientos predominantemente masculinos debidos a conquistas bélicas, exploraciones, etc. Sin embargo, la migración femenina en pequeña escala ha resultado ser un asunto similar o mayor importancia en la evolución humana (Bertanpetit et al., 1999). Otro aspecto que amerita ser discutido es la enorme semejanza encontrada entre los linajes "Cairol-Antúnez" y "Vásquez de Coronado" (Morera y Meléndez Obando 2012), los cuales presentan solo una base de diferencia [HVRII = 309.1 C]. Dicha similitud no es casual, sino implica que ambos linajes poseen una mujer ancestro en común. La explicación alternativa, que el primer linaje desciende del segundo, queda descartada tajantemente gracias al conocimiento de ambas genealogías. Ya que doña Ángela Antúnez (muerta hacia 1881) no es descendiente de doña Andrea Vásquez de Coronado (h. 1580 -1657). Sin embargo, dicha antecesora en común más reciente de ambas matronas no hay que buscarla en la época de la colonia española en Centroamérica, sino en la lejana última era del hielo, hace unos 10.000 a 15.000 años (Pereira et al., 2005, Álvarez-Iglesias et al., 2009. En aquellos tiempos difíciles, los primitivos europeos se vieron obligados a refugiarse en los sitios con climas más benevolentes. Y fue así como el haplogrupo H sobrevivió en la Península Ibérica. Finalmente, durante los últimos 500 años, los ancestros maternos de portadores del haplogrupo H, se expandieron hacia el oeste, atravesando el océano Atlántico en barcos de velas durante la conquista y colonización europea del Nuevo Mundo. Tal fue el caso del linaje "Vásquez de Coronado". Más tarde, otros portadores de las líneas mitocondriales de los aquí estudiados, como aquellos del linaje "Cairol-Antúnez", los seguirían en barcos de vapor, que también los traerían al continente americano en su busca de una vida mejor. Y como sabiamente concluiría don Emilio, hasta Costa Rica en busca del amor. Figura. 1 . 1Red de relaciones genéticas de uniones medias que compara las semejanzas del linaje mitocondrial "Cairol-Antúnez" con otros portadores de secuencias europeas de haplogrupo H (en amarillo), que incluye la Secuencia de Referencia de Cambridge (CRS) indicada en el nodo central, y el linaje "Vásquez de Coronado" (Morera y Meléndez Obando 2012). Para comparación se incluye las secuencias de origen indígena americana de los haplogrupos: A (en rojo) que incluye al linaje "Jiménez" (Morera et al. 2012) -"de Aguilar" (Morera y Meléndez Obando 2010), B (en violeta), C (en azul) que incluye el linaje "Guevara-Calderón" (Morera y Meléndez Obando 2009), y D (en azul); y la secuencia de origen africano del haplogrupo L2 (en verde), encontrada en el linaje "Record-Bennett-Rojas" (Ovares Ramírez y Morera 2009) . Todos estos observados previamente en individuos costarricenses. Secuencias no encontradas aún aparecen como un punto en negro. New population and phylogenetic features of the internal variation within mitochondrial DNA macro-haplogroup R0. V Alvarez-Iglesias, A Mosquera-Miguel, M Cerezo, PLoS One. 445112Alvarez-Iglesias, V., Mosquera-Miguel, A., Cerezo, M., et al. (2009). New population and phylogenetic features of the internal variation within mitochondrial DNA macro-haplogroup R0. PLoS One, 4 (4), e5112. Sequence and organization of the human mitochondrial genome. S Anderson, A T Bankier, B G Barrell, Nature. 290Anderson, S., Bankier, A.T., Barrell, B.G., et al. (1981). Sequence and organization of the human mitochondrial genome. Nature, 290, 457-465. Human mitochondrial DNA variation and the origin of the Basques. J Bertranpetit, J Sala, F Calafell, Annals of Human Genetics. 59Bertranpetit, J., Sala, J., Calafell, F., et al. (1995). Human mitochondrial DNA variation and the origin of the Basques. Annals of Human Genetics, 59, 63-81. Una nueva aproximación de la demografía desde Antropología Molecular: migración y sexo. J Bertanpetit, D Comas, A Pérez-Lezaun, F Calafell, E Mateu, E Bosch, R Martínez-Arias, J Clarimón, B Morera, Trabajo presentado al XI Congreso de la S.E.A.B.Santiago de Compostela, EspañaPublicada en memoriaBertanpetit, J., Comas, D., Pérez-Lezaun, A., Calafell, F., Mateu, E., Bosch, E., Martínez-Arias, R., Clarimón, J. & Morera, B. (1999). Una nueva aproximación de la demografía desde Antropología Molecular: migración y sexo. Trabajo presentado al XI Congreso de la S.E.A.B., Santiago de Compostela, España. pp. 32-33. Publicada en memoria. Trading Genes along the Silk Road: mtDNA Sequences and the Origin of Central Asian Populations. D Comas, F Calafell, E Mateu, A Perez-Lezaun, E Bosch, R Martınez-Arias, J Clarimon, F Facchini, G Fiori, D Luiselli, D Pettener, J Bertranpetit, American Journal of Human Genetics. 63Comas, D., Calafell, F., Mateu, E., Perez-Lezaun, A., Bosch, E., Martınez-Arias, R., Clarimon, J., Facchini, F., Fiori, G., Luiselli, D., Pettener, D., & Bertranpetit, J. (1998). Trading Genes along the Silk Road: mtDNA Sequences and the Origin of Central Asian Populations. American Journal of Human Genetics, 63,1824-1838. Genetic diversity in the Iberian Peninsula determined from mitochondrial sequence analysis. H B Côrte-Real, V A Macaulay, M B Richards, Annals of Human Genetics. 60Côrte-Real, H.B., Macaulay, V.A., Richards, M.B., et al. (1996). Genetic diversity in the Iberian Peninsula determined from mitochondrial sequence analysis. Annals of Human Genetics, 60, 331- 350. NETWORK 4.6.1.0. Fluxus Technology Ltd. Fluxus Technology, USAConsultado: 10/2/2012, Disponible enFluxus Technology. (2012). NETWORK 4.6.1.0. Fluxus Technology Ltd., USA. 2004-2012. [Consultado: 10/2/2012, Disponible en: http://www.fluxus-technology.com/ ]. Importancia de la genealogía aplicada a estudios genéticos en Costa Rica. M O Meléndez Obando, Revista de Biología Tropical. 523Meléndez Obando, M.O. (2004). Importancia de la genealogía aplicada a estudios genéticos en Costa Rica. Revista de Biología Tropical, 52 (3), 423-450. [Disponible en: http://www.ots.ac.cr/tropiweb/attachments/volumes/vol52-3/08-MELENDEZ-Importanc.pdf]. Genetic heterogeneity in regional populations of Quebec: Parental lineages in the Gaspé Peninsula. C Moreau, H Vézina, V Yotova, American Journal of Physical Anthropology. 1394Moreau, C., Vézina, H., Yotova, V., et al. (2009). Genetic heterogeneity in regional populations of Quebec: Parental lineages in the Gaspé Peninsula. American Journal of Physical Anthropology, 139 (4), 512-522. La genealogía mitocondrial de Ana Violeta Murillo Roldán y la presencia del haplogrupo C en Costa Rica. B Morera, M Meléndez Obando, Boletín ASOGEHInforma, Año. 24Morera, B. & Meléndez Obando, M. (2009). La genealogía mitocondrial de Ana Violeta Murillo Roldán y la presencia del haplogrupo C en Costa Rica. Boletín ASOGEHInforma, Año 2 (No 4, febrero), 2-7. [Consultado: 20-06-2012, Disponible en: https://sites.google.com/site/asogehi/boletines]. La genealogía descendente de María de Aguilar, evidencia del mestizaje colonial temprano en Costa Rica. B Morera, M Meléndez Obando, Cuadernos de Investigación UNED. 21Morera, B. & Meléndez Obando, M. (2010). La genealogía descendente de María de Aguilar, evidencia del mestizaje colonial temprano en Costa Rica. Cuadernos de Investigación UNED, Vol. 2 (1), 33-43. [Disponible en: http://www.uned.ac.cr/investigacion/publicaciones/cuaderno1/documents/03-Morera-Genealogia.pdf]. Análisis genético del linaje mitocondrial de doña Andrea Vásquez de Coronado. B Morera, M Meléndez Obando, Revista Electrónica Academia Costarricense de Ciencias Genealógicas. 23Morera, B. & Meléndez Obando, M. (2012). Análisis genético del linaje mitocondrial de doña Andrea Vásquez de Coronado. Revista Electrónica Academia Costarricense de Ciencias Genealógicas, Nº 23, junio 2012. [Consultado: 20-06-2012, Disponible en: http://www.genealogia.or.cr/]. Aproximación genealógicagenética a la primera fase del mestizaje en Costa Rica. B Morera-Brenes, R Villegas Palma, M Meléndez Obando, Orígenes. Revista de la Asociación de Genealogía e Historia de Costa Rica1Morera-Brenes, B., Villegas Palma, R. & Meléndez Obando, M. (2012). Aproximación genealógica- genética a la primera fase del mestizaje en Costa Rica. Orígenes (Revista de la Asociación de Genealogía e Historia de Costa Rica), Año 1 (No 1), 271-284. The Genographic Project. National Geographic Society, IBM and the Waitt Family Foundation, USA. National Geographic Society. National Geographic Society. (2012). The Genographic Project. National Geographic Society, IBM and the Waitt Family Foundation, USA. 1996-2012. [Consultado: 25-06-2012, Disponible en: https://genographic.nationalgeographic.com/]. Una migración de amor y un reencuentro inesperado. E G Obando Cairol, Boletín ASOGEHInforma, Año. 24Obando Cairol, E.G. (2009). Una migración de amor y un reencuentro inesperado. Boletín ASOGEHInforma, Año 2 (No 4, febrero), 18-21. [Consultado: 20-06-2012, Disponible en: https://sites.google.com/site/asogehi/boletines]. Genealogía ascendente de Emilio Gerardo Obando Cairol. Genearcas. E G Obando Cairol, Obando Cairol, E.G. (2012). Genealogía ascendente de Emilio Gerardo Obando Cairol. Genearcas. [Consultado: 5-07-2012, Disponible en: https://sites.google.com/site/genearcascostarica/publicaciones]. La genealogía mitocondrial de Henriette Record en Costa Rica y Estados Unidos. F E Ovares Ramírez, B Morera, Boletín ASOGEHInforma, Año. 34Ovares Ramírez, F.E. & Morera, B. (2009). La genealogía mitocondrial de Henriette Record en Costa Rica y Estados Unidos. Boletín ASOGEHInforma, Año 3 (No 4, diciembre), 3-17. [Consultado: 20- 06-2012, Disponible en: https://sites.google.com/site/asogehi/boletines]. The Science of Molecular Genealogy. U A Perego, A Turner, J E Ekins, National Genealogical Society Quarterly. 93Perego, U.A., Turner, A., Ekins, J.E., et al. (2005). The Science of Molecular Genealogy. National Genealogical Society Quarterly, 93, 245-259. High-resolution mtDNA evidence for the late-glacial resettlement of Europe from an Iberian refugium. L Pereira, M Richards, A Goios, Genome Research. 15Pereira, L., Richards, M., Goios, A., et al. (2005). High-resolution mtDNA evidence for the late-glacial resettlement of Europe from an Iberian refugium. Genome Research, 15, 19-24. Genetic relationship between the Canary islanders and their African and Spanish ancestors inferred from mitochondrial DNA sequences. F Pinto, A M González, M Hernández, Annals of Human Genetics. 60Pinto, F., González, A.M., Hernández, M., et al. (1996). Genetic relationship between the Canary islanders and their African and Spanish ancestors inferred from mitochondrial DNA sequences. Annals of Human Genetics, 60, 321-330. mtDNA analysis of the Galician population: A genetic edge of European variation. A Salas, D Comas, M V Lareu, European Journal Human Genetics. 6Salas A., Comas, D., Lareu, M.V., et al. (1998). mtDNA analysis of the Galician population: A genetic edge of European variation. European Journal Human Genetics, 6, 365-375. Geographic patterns of mtDNA diversity in Europe. L Simoni, F Calafell, D Pettener, American Journal Human Genetics. 66Simoni, L., Calafell, F., Pettener, D., et al. (2000). Geographic patterns of mtDNA diversity in Europe. American Journal Human Genetics, 66, 262-278. MtDatabase. Sorenson Molecular Genealogy Foundation. Smgf, 16/03/2012Salt Lake City, Utah, USASMGF. (2012). MtDatabase. Sorenson Molecular Genealogy Foundation, Salt Lake City, Utah, USA. [Consultado: 16/03/2012, Disponible en: http://www.smgf.org/]. . Cuadro Genealógico N°1. Cuadro Genealógico N°1 . Genealogía Matrilineal De Emilio Gerardo Obando, Cairol, Genealogía matrilineal de Emilio Gerardo Obando Cairol. . Emilio Gerardo Obando Cairol, Emilio Gerardo Obando Cairol. Iglesia Nuestra Señora de las Mercedes, 1 junio 1946. c. 29 octubre. en Iglesia Medalla Milagrosa en Barrio Cuba, SJ. Con descendencia. c. Abigail Mathieu Araya (h. de Wilfridio Mathieu Agüero y Trinidad Araya AzofeifaSan José 20 marzo 1946. bSan José 20 marzo 1946. b. Iglesia Nuestra Señora de las Mercedes, 1 junio 1946. c. 29 octubre 1967, c. Abigail Mathieu Araya (h. de Wilfridio Mathieu Agüero y Trinidad Araya Azofeifa), en Iglesia Medalla Milagrosa en Barrio Cuba, SJ. Con descendencia. Hortensia Matías de la Cruz Cairol Cairol (recte Odio Cairol). Hortensia Matías de la Cruz Cairol Cairol (recte Odio Cairol). 14 setiembre 1903 en Los Ángeles de Cartago, b. San Rafaél, Oreamuno, Cartago 7-octubre-1903. m. 14 mayo 1979. Su linaje materno continua a través de los descendientes de su hija Julia María Cairol Cairol (n. SJ 28-12n. 14 setiembre 1903 en Los Ángeles de Cartago, b. San Rafaél, Oreamuno, Cartago 7-octubre-1903. m. 14 mayo 1979. [Su linaje materno continua a través de los descendientes de su hija Julia María Cairol Cairol (n. SJ 28-12- Este llega ahora hasta la sexta generación en Costa Rica. cc. Edwin Herrera Altamirano. Este llega ahora hasta la sexta generación en Costa Rica]. Ramón Emigdio de Jesús (Emilio) Obando Bonilla. n. SJ 10-junio-1870, m. 27 setiembre 1951. h. José Tomás Obando Alpízar y Feliciana de la Rosa Bonilla Elizondocc. Ramón Emigdio de Jesús (Emilio) Obando Bonilla. n. SJ 10-junio-1870, m. 27 setiembre 1951. (h. José Tomás Obando Alpízar y Feliciana de la Rosa Bonilla Elizondo). . María Mercedes Cairol Antúnez. n. 241879María Mercedes Cairol Antúnez. n. 24 dic. 1879, Barcelona, Cataluña, España. Emigró a Santiago de Cuba Ángela Antúnez n. Cataluña. m.h. 1881 Barcelona, Cataluña, España. cc. Ramón Cairol n. Cataluña. Emigró a Santiago de Cuba en la década de 1880 con sus hijos y su segunda esposa. Josefa PratÁngela Antúnez n. Cataluña. m.h. 1881 Barcelona, Cataluña, España. cc. Ramón Cairol n. Cataluña. Emigró a Santiago de Cuba en la década de 1880 con sus hijos y su segunda esposa, Josefa Prat. . Fuente: Obando Cairol. Fuente: Obando Cairol (2009, 2012).
sample_14796
0.9033
arxiv
An Evaluation of Link Performance Based on Rainfall Attenuation for a LEO Communication Satellite Constellation Over Africa Osoro O B George Mason University University of Strathclyde Glasgow L Suki D S George Mason University University of Strathclyde Glasgow L An Evaluation of Link Performance Based on Rainfall Attenuation for a LEO Communication Satellite Constellation Over Africa Corresponding Author Address: bosoro@gmu.edu The emergence of Low Earth Orbit (LEO) satellites is seen as a solution to providing affordable broadband internet in unplanned and sparsely populated areas and supporting the 5G rollout. However, little research has been done on viability of communicating with ground stations especially in unplanned and sparsely populated areas such as Africa where they are applicable in narrowing the broadband gap. Coincidently, these regions are in tropical and equatorial climatic zones where rainfall attenuation on microwave frequency links is a major problem. The current ITU-R p.618-8 model which relies on rain intensity values from ITU-R P.837-7 is the standard way of quantifying rain attenuation. Since this model was based on data from temperate climatic regions, they overestimate attenuation leading to system overdesign. Furthermore, rain gauge measurements are sometimes unavailable in potential gateway stations for such regions in Africa, thus calling for experimental setup that might take more than four years to accurately model the attenuation [1] [2]. Nevertheless, precipitation data from various global satellite missions are always available for such regions.In this paper, we apply the ITU-R P.618-8 model with data from the ITU-R P.837-7, Tropical Rain Measuring Mission (TRMM) and Global Precipitation Mission (GPM) satellite to determine the level of attenuation and available link margin for a LEO system such as Telesat. The specific and predicted attenuation for chosen six candidate ground stations (Abuja, Hartbeesthoek, Cairo, Longonot, Port Louis and Praia) is computed and results presented for 0.001%-1% unavailability time in a year. Setting a link margin of 0.36dB, the available link margin and the best candidate ground station for a LEO system such as Telesat is determined. The approach used can be implemented for other potential ground stations and LEO communication systems over Africa.I.Unlike optical fiber, LEO satellites can be employed to provide and narrow the "broadband gap" in sparsely populated areas, regions with extreme topographies such as cliffs, valleys and steep slopes as established by[6]. With majority of sub-Saharan African countries characterized by unplanned and sparse rural settlement, LEO satellites offer a cheaper, scalable and alternative way of providing broadband connectivity as demonstrated in case studies of Malawi, Kenya, Senegal and Uganda [6]. Unfortunately, these regions fall within tropical or equatorial climate characterized by heavy and peculiar rainfall patterns [1]. This has a grave impact on the performance, link availability and general Quality of Service (QoS) of LEO communication satellites due to high frequencies used that are susceptible to rainfall attenuation[7]. The recommended International Telecommunication Union (ITU-R) models for characterizing rainfall attenuation works best in temperate regions as opposed to equatorial and tropics where severe degradation starts as low as 7GHz [8] [9]. Therefore, this paper analyzes the uplink performance of a working LEO communication constellation INTRODUCTION ow Earth Orbit (LEO) satellites have attracted massive attention recently due to their technical advantages in terms of round-trip time (RTT) and large available bandwidth [3]. The location of the satellites in lower altitudes (500km-2000km) allows the use of high frequency bands such as Ka, Ku, Q and V bands without limiting the range of transmission as geosynchronous earth orbit (GEO) satellites [4]. Consequently, they are now seen as an alternative for augmenting terrestrial New Radio (NR) technologies such as 5G/6G and other emerging applications such as Internet of Things (IoT), ultra-reliable low latency communications (URLLC) and enhanced mobile broadband (eMBB) [4] [5]. (Telesat) in regards to six candidate ground stations across Africa (Abuja 9. 0108°N 23.5131°W) by only considering rainfall attenuation and using the ITU-R P.618-8 model. Rain rate measurements from the NASA's Global Precipitation Measurement (GPM) satellites are compared with values based on the ITU-R P.837-7 to accurately quantify the rainfall attenuation in the six candidate ground stations. We then proceed to calculate the Carrier to Noise Ratio (CNR) and link availability to establish QoS of Telesat in the proposed candidate ground stations. I. LITERATURE REVIEW Attempts to accurately characterize rainfall attenuation on earth-space communication over Africa and generally in tropical and equatorial regions is not new. Oje, Ajewole and Sarkar (2008), quantified the rainfall attenuation at Ku and Ka band in Nigeria for its geostationary satellite (NIGCOMSAT-1). The rain rate data developed using Moupfouma tropical model for the GEO satellite, NIGCOMSAT-1 yielded more accurate rain attenuation results compared to ITU. A similar approach has been adopted by Djuma, et al., (2016) to analyze the difference in attenuation level for eight Rwandan cities using the Chebil model. Apart from overestimation by ITU-R model, the results showed that cities located in the western region with high intensity rainfall experienced more attenuation as compared to those in the East [10]. Despite the improvement in quantifying the rainfall attenuation in these two tropical regions, there is need to consider LEO satellites as opposed to GEO as well as integrate satellite data that can be applied over wide regions where station rain gauge data is not available. Yusuf, et al., (2016) empirically quantified the rainfall attenuation level for Ku (15GHz) to determine the overestimation magnitude of ITU-R model for a GEO satellite. The four-year results confirmed that ITU-R model did not accurately represent the rain attenuation for a tropical region such as Malaysia [11]. However, this did not consider an earth-space communication but a terrestrial link. Shrestha and Chois (2017), extended the work of [11] by characterizing the degree of rainfall attenuation in communicating with its two GEO satellites, Koreasat 6 and COMS1. Although the study focused on deriving the power coefficients for computing specific attenuation in Ku (12.25GHz) and Ka (19.8GHz & 20.73GHz) bands, the results demonstrate the importance of accurately quantifying attenuation in tropical regions such as South Korea. A detailed comparison with six prediction models (Unified, Dissanayake Allnutt and Haidara, Simple Attenuation Model, Crane Global, Ramachandran and Kumar Model) further revealed the poor performance of ITU-R model [12]. While the approaches in [8] [1] [2] [9] [13] [11] are based on rain gauge data from experimental setup, Rimven, et al., (2018) used Tropical Rainfall Measuring Mission (TRMM) and UK rain radar measurements from NIMROD to develop a more accurate method for quantifying rainfall attenuation rate in tropical regions such as Africa [14]. This opens an avenue for exploring the approach with other satellite data such as the GPM data to compute the level of attenuation on links for LEO satellites over tropical regions such as Africa. Furthermore, the results from such an approach can be used to calculate the CNR and link availability of new LEO communication constellations such as Telesat, over the same region. A. Research Objectives The objective of this paper is to compute rainfall attenuation using ITU-R P.618-8 with rain rate data from TRMM and GPM for the six candidate ground stations. The uplink performance and availability for each of the candidate ground stations is established for existing LEO communication constellation, Telesat. From the results, the best candidate gateway station for a system such as Telesat is established. Realistic or potential location characterized by some space activities. Telesat System Uplink Parameters The selected ground stations are listed in and shown in Error! Reference source not found.. A. Data The integrated multi-satellite retrievals for TRMM and GPM IMERG rain intensity data for the sixcandidate ground station are downloaded from NASA's website. The TRMM data was from January 1/1/2005 to 1/1/2014 while the GPM covered January 2015 to June 2020. The passive microwave (PMW) sensors hosted in LEO satellites are the principal component of the IMERG dataset [17]. Since the measurement are sometimes sparse, GEO Infrared (IR) satellite estimates and ground precipitation gauge analyses are integrated to improve the accuracy [17]. The GPM data are more accurate than its predecessor, TRMM due to three improvements. 1) an increase in inclination from 35⁰ to 65⁰ thus guaranteeing coverage of high latitude climatic zones and reduction in amount of radiometer sampling [17]. 2) addition of two radar frequencies hence more sensitivity to light precipitation 3) the 165.5GHz and 183.3GHz channels provide key solid and light precipitation sensing information [17]. B. Estimation of Predicted Rain Attenuation The computation of rain attenuation using ITU-R documentation is a 10-step process. The ITU-R P.618-8 is the latest version of the model for quantifying the rainfall attenuation in microwave satellite links [18]. The fourth step of the procedure requires rainfall intensity rate exceeded for 0.01% of an average year data to calculate specific attenuation using Equation 1. Υ ( / ) = 0.01(1) Where and are coefficients that are a function of Telesat's uplink 28.5GHz frequency that were obtained from ITU-R P.838-3 by integration [19]. The polarization is assumed to be vertical since it limits attenuation by rain drops [10]. The predicted attenuation above 0.01% for the year was calculated using. Where is the percentage probability under investigation and z is a magnitude, whose value depends on the station latitude [18]: Where is the ground station's absolute latitude and elevation angle. The resulting rainfall attenuation rate are then used in computation of the CNR to establish the effect of train, available link and the best performing ground station Where EIRP is effective isotopic radiated power of the ground station antenna, is receiver gain, T system temperature, FSPL, free space path loss, , sum of all other losses, k Boltzmann constant, B bandwidth and , the rain attenuation obtained from Equation 3. RESULTS First, the rain intensity data from ITU-R P.837-7 for each of the stations are used to compute the rain attenuation for each of the candidate stations. The results act as the baseline for comparing expected attenuation for the stations. Next, the TRMM data were downloaded and analyzed using NASA's online software, Giovanni to retrieve the rain rates. The plotted results for the TRMM data of all the six candidate stations is shown in Error! Reference source not found.. From the plots, Hartbeesthoek, Longonot and Abuja stations records the highest rain intensity with an average of 0.0657, 0.1105 and 0.1455mm/hr. Generally, Longonot, Abuja and Hartbeesthoek falls within the tropical climatic zones that experience high peculiar rainfall patterns [1]. Cairo being in a desert and temperate region records the least rain intensity. Similarly, Praia records least rain intensity while Port Louis records average but consistent rainfall pattern for the period under study. The GPM data is then analyzed to cover for the period between January 2015 and June 2020. These were then analyzed using NASA' online software, Giovanni to generate the rain rate for each of the six candidate ground stations. The contour for time-averaged rain rate overlay map for each of the stations is shown in Error! Reference source not found.. The contour for time-averaged overlay maps for the six candidate stations conform to the previous results obtained from TRMM. The areas bound by the geographical extent of the ground stations generally record high rain intensity for Hartbeesthoek, Longonot and Abuja. However, for Cairo, only a small portion of the defined geographical boundary experience high rain intensity as indicated by the red and yellow contours. Equally, the contour overlay maps of Port Louis and Praia indicate lower rain intensity levels as indicated previously by the time series data from TRMM in Error! Reference source not found.. The ITU-R P.837-7, TRMM and GPM results are then used in the subsequent calculations. Using the rain intensity values from ITU-R P.837-7, the average rain rate, specific, rainfall attenuation and CNR using equations (1), (3) and (4) Hartbeesthoek and Longonot stations have the highest altitudes (1385m) and (1715m) while equally recording the highest rainfall attenuation rate. Whether the altitude contributes to the high attenuation rate is beyond the scope of this study. The correlation can only be established by simulating or experimenting with regions of different altitude but with all other parameters remaining constant to ascertain it. Literature [21] has already pointed to the relationship between latitude and rainfall attenuation but not altitude. The least attenuation levels are recorded at Port Louis, Praia and Cairo thus leading to lower CNR. However, the results indicate that none of the stations could have their link close for the 0.01% unavailability time. Equally, for the TRMM data, the average rain rate is used to compute the specific, rainfall attenuation and CNR using equations (1), (3) and (4) Comparison of Rainfall Attenuation (dB) due to ITU-R and TRMM Rainfall rate Data ITU-R P.837-7 TRMM Table 5 The magnitude of overestimated values. Generally, the attenuation results from ITU-R P.837-7 for the ground stations is high as depicted by the overestimation percentages. Error! Reference source n ot found. shows the difference graphically. The highest overestimation has been recorded for Cairo, Praia and Port Louis ground stations. Coincidentally, these are the stations that recorded least rain rate as shown in the overlay contour maps. This implies that ITU-R P.837-7 also performs worse for regions with low rain intensity. Since the TRMM data was for the period 2005-2014, we also compared ITU-R P.837-7 results with the updated GPM data of 2015-2020 to establish the degree of overestimation/underestimation. Comparison of Rainfall Attenuation (dB) due to ITU-R, TRMM and GPM Rain rate Data ITU-R P.837-7 TRMM GPM Figure 5 A graphical comparison of the rainfall attenuation rates of the candidate stations based on rain rate values from ITU model, TRMM and GPM satellite data based on the rain rate data provided by the model, TRMM and GPM. Finally, we compared the overestimation/underestimation percentage of the two missions (TRMM and GPM) to determine the best set of results to use for the final link margin computations. The results are shown in Table 5 Estimation comparison of TRMM and GPM results for the six candidate ground stations. . The correlation in estimation percentages is not consistent for all the stations. For instance, at Hartbeesthoek, the GPM results underestimate the attenuation by about 0.3%. The inconsistency can be attributed to the different times of the data used. The TRMM covers 2005-2014 while the TRMM, 2015-2020. Therefore, no meaningful comparison can be done for the two sets of the results. Furthermore, there are improvements in GPM measurements as highlighted in the data section. Due to those reasons, the GPM results are adopted henceforth to calculate the link margin for the stations in this paper. Since the CNR for 0.01% unavailability time for average year is a small and ideal value, calculations were done for 0.5% as per Telesat's filing using GPM results [15]. The results are presented in Error! R eference source not found.. . The Due to the non-closure of Longonot (for 0.01%) and Hartbeesthoek (for 0.01% and 0.5%) links, we then investigated their response to lower frequency C-band (4-8GHz) that is dominantly used in earth-space communication for 0.01% unavailability time. Error! R eference source not found. shows the CNR and Table 7 Results of the rainfall attenuation, CNR and available link margin based on GPM data for all the six candidate ground stations for C band Uplink frequency (6GHz) and 0.01% unavailability time Figure 6 Available link (dB) results for the six candidate stations for unavailability time of 1%, 0.5%, 0.1%, 0.01% and 0.001% and uplink centre frequency of 28.5GHz available link margin for the six stations at 6GHz centre frequency. At C-band, the link for all stations close. IV. DISCUSSION Based on ITU-R P.837-7 rain intensity results, South Africa's, Hartbeesthoek and Kenya's, Longonot have the highest rainfall attenuation of ≈ 49 and ≈ 40 . On the contrary, Mauritius', Port Louis and Cape Verde's recorded the least attenuation of ≈ 28 . Generally, none of the candidate stations could have their links close when the results of ITU-R P.837-7 are used. This implies that all the transmitted power from the ground station would not reach the satellite when the rain attenuation results are assumed. That prompts the optimization of system parameters such as antenna diameter, EIRP, noise power among other factors. However, that increases the mission cost. This partly explains why other global LEO constellation companies such as OneWeb and SpaceX opted for higher elevation angles of 55⁰ and 40⁰ respectively to overcome the atmospheric attenuation in tropical and equatorial area [15]. The link performance results of the ground stations due to rainfall attenuation is also presented based on the rain rate data from TRMM. Unlike the case of ITU-R P.837-7, Port Louis, Praia and Cairo links closes with 0.01% unavailability time. They can be used for high data rate communication applications and will only be unavailable for ≈ 53 in a year. This is a great improvement from the results obtained with ITU-R P.837-7 values as it shows that extra system modifications are unnecessary for the links to close. Setting up a LEO communication ground system in these regions sets a lower engineering threshold that reduces the total mission cost. Abuja station also improved and minimal modifications can be applied to close its link. It is also available for high data rate communication. Using GPM data, Kenya's, Longonot and South Africa's, Hartbeesthoek stations do not surpass the link margin threshold for 0.01% unavailability time. It implies that, with Telesat's system requirement specifications as in Table 1, these two stations are unable to communicate at all with the satellites. This is attributed to high rainfall attenuation results (16.3896dB and 22.7947dB respectively) due to their geographical location. They are in regions with high rain intensity. The other stations surpass the link margin and can be used for high data rate communications as anticipated in the emerging LEO systems such as Telesat, Starlink and OneWeb [15] [22]. Coincidentally, the two stations have the highest altitudes of 1385m and 1715m, respectively. This could have contributed to the non-closure of the links since it determines the slant path length in the ITU-R P.837-7. Additionally, these stations are available for low frequency C-band (6GHz) transmission especially for telemetry, backhaul and voice call applications as confirmed by the results of Error! Reference source n ot found.. The 6GHz centre frequency is resilient to rain attenuation since degradation of radio signals starts at frequencies above 7GHz. Therefore, future LEO communication missions across Africa should avoid regions experiencing high rainfall such as the Congo Basin and greater central African region unless they are used for low data rate transmission and backhaul stations. Cairo records the best CNR due to its least rainfall attenuation, followed by Praia, Port Louis and Abuja. These stations recorded the least rain intensity thus contributing to high CNR values. They are the ideal stations for supporting LEO communication systems with a high QoS of 0.01% unavailability time. However, as per Telesat's filing, the unavailability time is set to 0.5% implying that the company intends to only have disrupted service for a cumulative duration of 44 hours in a year. Therefore, setting the unavailability time at 0.01% (53minutes) for its service is unrealistic. The cost benefit of designing a satellite communication system that is only unavailable for a cumulative time of 53 minutes is high thus prompting the need for setting bigger time of 0.5%. Even so, with this ideal margin, Cairo, Praia and Port Louis surpass the link margin thus reaffirming their ability to be a gateway station for a LEO communication system such as Telesat over Africa. At 0.5% unavailability time, Abuja candidate station surpasses the link and can therefore be used as a gateway hub too. However, Longonot misses the margin with -3.1208dB and can be forced to close through engineering modification such as increasing the antenna aperture and reduction of the noise temperature. The current Telesat antenna size adopted in this study is 3.5m. increasing the size will significantly raise the Effective Isotropic radiated power (EIRP) of the gateway station. However, that prompts for modification of the satellite receiver system to handle the rise in power received. Furthermore, it affects the system noise generated by the satellite's electronics [20]. That calls for optimal balance between increasing the EIRP and reducing the noise generated. Unlike Kenya, Hartbeesthoek do not achieve the link margin prompting the need for calculation for 0.001%, 0.1% and 1% unavailability time. Just like the 0.01%, 0.001% is unrealistic as it equates to a cumulative time of 5minutes service disruption in a year. Nevertheless, Cairo, Praia and Port Louis still meets this high threshold. These stations provide the best terminal site for a system such as Telesat. On the other hand, the 1% unavailability time is a huge number corresponding to a cumulative period of about four days in a year. This is not feasible for broadband internet service provider. However, the 0.1% unavailability time is more desirable. Cairo, Praia and Port Louis stations satisfy the link margin requirements at that threshold. When the performance of the Longonot and Hartbeesthoek stations were tested for low frequency C-band (4-8GHz) at 6GHz centre frequency, the results were different. Even at the ideal 0.01% unavailability time, Hartbeesthoek and Longonot stations close without requiring further modifications. This is expected since rainfall attenuation in the tropics and equatorial region where these stations are located are only severe at frequencies above 7GHz [23] [10]. At that frequency, the two stations can be used for low-data rate communications, backhaul or tracking, telemetry and command (TTC) functions. The link performance results based on rain rate data from GPM shows that Cairo, Praia and Port Louis are the best gateway station for new generation LEO communication satellites such as Telesat. They can achieve high QoS even at ideal link margins of 0.001%, 0.01% and 0.1%. at Telesat's recommended 0.5%, Abuja can also serve as a ground terminal for high link data rate station. However, the Longonot and Hartbeesthoek stations require significant modifications for high QoS at the recommended unavailability time of 0.5% a year. For LEO communication missions, ground stations should be located at upper latitudes (>10⁰N) where rain attenuation is lower as is illustrated by Cairo, Praia and Abuja. Additionally, the location of stations should be in low altitudes as the link margin of Longonot and Hartbeesthoek has been low even though their rain rate level does not vary significantly compared to Abuja that was located in a lower altitude. To guarantee reliable satellite communication with low unavailability time (<0.01%), transmission antenna aperture sizes should be at least above 3.5m to increase the EIRP and subsequent CNR on the space segment. V. CONCLUSIONS The rain attenuation for six candidate ground stations across Africa (Cairo, Praia, Port Louis, Abuja, Longonot and Hartbeesthoek) is computed using the ITU-R P.618-8 model and GPM satellite rain rate data. From the attenuation results, the CNR for each of the stations at 0.001%-1% unavailability time is calculated to determine the best candidate station for a LEO communication system such as Telesat. The results reveal that the candidate stations located in low rain intensity regions (Cairo, Praia and Port Louis) are the most suitable terminals at 0.001%, 0.01% and 0.5% unavailability time. Notably, Port Louis records high CNR although its rain intensity rates are higher. Abuja candidate station performs well when unavailability time is set to Telesat's recommended 0.5% hence also available as a potential gateway hub. However, Longonot and Hartbeesthoek are the worst performing stations to be a gateway unless used for low-data rate transmission in C-band (6GHz centre frequency) transmission. The rain rates results were based on merged GPM satellite data and did not consider the point rain gauge measurement of each of the candidate ground stations. In future, using point rain gauge measurements for each of these stations may yield a higher accurate attenuation results to be used for the link performance analysis of LEO communication satellite ground terminals. Secondly, the CNR calculation did not take care of other system losses such as polarizing, mismatch, depointing, scintillation, cloud and gaseous attenuation. Moreover, the system parameters used are based on literature and those revealed by Telesat to the public. Some crucial system parameters are commercial secret for the company thus limiting the conclusivity of the final results. In future, we anticipate conducting a complete analysis of cloud, gaseous and scintillation attenuation to fully characterize and establish the link margin for these proposed stations in future. Figure 2 2Time series, area-averaged of precipitation rate monthly 0.25degrees (TRMM 3B43 V7 data) in mm/hr between January 2005 to January 2014 for Port Louis, Praia, Cairo, Abuja, Longonot and Hartbeesthoek proposed candidate Stations. Figure 3 3Contour for time-averaged overlay map of merged satellite-gauge precipitation (3IMERGM v06) in mm/hr monthly 0.1 degrees spatial resolution from January 2015 to June 2020 for the six candidate stations respectively for 0.01% unavailability time are computed. The CNR results are shown in Error! Reference source not f ound.. Figure 4 4An illustrative comparison of rainfall attenuation results due to rainfall rate values from ITU model and TRMM satellite data for 0.01% unavailability time. 4969°E, Port Louis 20.1389°S 57.7253°E, Praia 15.1061°N7.2714°E, Hartbeesthoek 25.8889°S 27.6853°E, Cairo 29.9675°N 31.2750°E, Longonot 1.0178°S 36. Table 1 1outlines the system parameters for Telesat from Federal Communications Communication (FCC), literature and press briefing as of 2018[15].Parameter Value Unit Frequency 28.5 GHz Bandwidth 2.1 GHz Transmit Antennae Diameter 3.5 m EIRP 75.9 dBW Elevation Angle 20 deg Free Space Path Loss 189.3 dB Receiver Antenna Gain 31.8 dBi System Temperature 868.4 K Link Margin 0.36 dB Altitude 1200 km Table 1Beam 1Beamlink budget for uplink gateway of Telesat Adopted from Portilo et al (2019) II. METHODOLOGY Six candidate ground stations based on three conditions as suggested by [16] are selected across Africa and their geographical coordinates determined from Google Earth application. The conditions are: i. Global coverage: Ability of the ground station to serve the whole of Africa including the countries in the middle of the oceans such as Mauritius, Madagascar and Cape Verde. ii. A 2000km minimum distance of separation between any two ground stations to ensure that the weather conditions are not spatially correlated. iii. Table 2 2Selected Candidate ground stations in Africa for Telesat uplink performance analysis.Figure 1World Globe showing the distribution of the candidate ground stations labelled GS1 to GS6 respectively according to the order in Table 2 designed using Standard Tool Kit (STK). respectively for 0.01% unavailability time. The CNR results are shown in Error! Reference source not found..Ground Station Location Rain Attenuation (dB) CNR (dB) Margin (dB) Available Margin (dB) Abuja 9.010833°N, 7.271389°E, 348.00 34.1808 -31.1143 0.36 -31.4743 Hartbeesthoek 25.88889°S, 27.68528°E, 1385.0 49.0126 -45.9461 0.36 -46.3061 Cairo 29.96750°N, 31.27500°E, 40.0m 31.6560 -28.5895 0.36 -28.9498 Longonot 1.017778°S,36.4969°E, 1715.0m 40.2605 -37.194 0.36 -37.554 Port Louis 20.13889°S, 57.72528°E, 29.0m 27.5556 -24.4891 0.36 -24.8491 Praia 15.10611°N, 23.51306°W,84.0m 28.0972 -25.0307 0.36 -25.3907 Ground Station Rainfall Attenuation (dB) CNR (dB) Margin (dB) Available Margin (dB) Abuja 10.5587 -7.4922 0.36 -7.8522 Hartbeesthoek 22.7269 -19.6604 0.36 -20.0204 Cairo -7.8440 10.9105 0.36 10.5505 Longonot 15.5252 -12.4587 0.36 -12.8187 Port Louis -0.3620 3.4285 0.36 3.0685 Praia -1.7871 4.8536 0.36 4.4936 Table 3 3Results of the rainfall attenuation, CNR and available link margin based on ITU-R P.837-7 model for all the six Table . .Station Overestimation Percentage Hartbeesthoek 54% Abuja 69% Cairo 125% Longonot 61% Port Louis 101% Praia 106% Abuja with values of 54%, 59% and 70% respectively. Error! Reference source not found. graphically i llustrates the overestimation of rainfall attenuationLike TRMM, GPM results showed that the ITU-R P.837-7 overestimates the rain attenuation for the candidate states. The overestimation percentage for Praia, Cairo and Port Louis is 105%,142% and 97% respectively. This is not the case with regions with high rain rates such as Hartbeesthoek, Longonot and Station Overestimation Percentage Abuja 70% Hartbeesthoek 54% Cairo 142% Longonot 59% Port Louis 97% Praia 105% Table 6 6Overestimation percentage magnitude of ITU-R P.618-8 model compared to GPM data Station Overestimation Percentage Abuja 70% Hartbeesthoek 54% Cairo 142% Longonot 59% Port Louis 97% Praia 105% Table 6 6Overestimation percentage magnitude of ITU-R P.618-8 model compared to GPM data CNR results for 0.5% unavailability time reveals that only Hartbeesthoek and Longonot link do not close. Additionally, we computed the CNR for the stations for link unavailability time of 0.001%, 0.1% and 1%. The complete results for each of these unavailability times are depicted in Error! Reference s ource not found. andGround Station Rainfall Attenuation (dB) Overestimation Percentage TRMM GPM Abuja 10.5587 10.3059 102.3942 Hartbeesthoek 22.7269 22.7947 99.7017 Cairo -7.8440 -13.2802 100.6930 Longonot 15.5252 16.3896 105.5677 Port Louis -0.3620 0.7753 101.373 Praia -1.7871 -1.3956 106.6934 Table 5 5Estimation comparison of TRMM and GPM results for the six candidate ground stations.Ground Station Available link (dB) for different unavailability times 1% 0.5% 0.1% 0.01% 0.001% Abuja 9.5255 1.718 3.6989 -7.5994 -5.1025 Hartbeesthoek -5.5514 -13.2145 -10.3438 -20.0882 -16.0089 Cairo 37.9994 29.1518 29.4063 22.1473 16.3977 Longonot 2.1810 -5.3206 -2.682 -13.6831 -10.6924 Port Louis 21.0312 12.7648 14.0458 3.4818 3.6307 Praia 23.6519 15.3909 16.519 4.1021 5.4907 Table 6 6Available link results for the six candidate stations for unavailability time of 1%, 0.5%, 0.1%, 0.01% and 0.001% and uplink centre frequency of 28.5GHz Algorithm Theoretical Basis Document (ATBD)Version 06, vol. 06, no. 6, pp. 1-39, 2020.[18] ITU, "Recommendation ITU-R P.618-8,"International Telecommunication Union, Geneva, 2017.[19] ITU, "Recommendation ITU-R P.837-7," International Telecommunication Union, Geneva, 2015.[20] M.Gérard Rain rate and rain attenuation prediction for satellite communication in Ku and Ka bands over Nigeria. J S Ojo, A Moses Oludare, K S Swapan, Progress in Electromagnetics Research. 5J. S. Ojo, A. Moses Oludare and K. S. Swapan, "Rain rate and rain attenuation prediction for satellite communication in Ku and Ka bands over Nigeria," Progress in Electromagnetics Research, vol. 5, pp. 207-223, 2008. Rainfall Attenuation Measurement at Ota, a Tropical Location. O O Ometan, T V Omotosho, O M Adewusi, S A Akinwumi, M E Emetere, A Boyo, Proceeding of the 2019 6th International Conference on Space Science and Communication (IconSpace) IEEE. eeding of the 2019 6th International Conference on Space Science and Communication (IconSpace) IEEEO. O. Ometan, T. V. Omotosho, O. M. Adewusi, S. A. Akinwumi, M. E. Emetere and A. Boyo, "Rainfall Attenuation Measurement at Ota, a Tropical Location," Proceeding of the 2019 6th International Conference on Space Science and Communication (IconSpace) IEEE, no. 6, pp. 91-95, 2019. LEO Satellite Constellation for Internet of Things. Z Qu, Z Gengxin, C Haotong, X Jidong, IEEE Access. 5Z. Qu, Z. Gengxin, C. Haotong and X. Jidong, "LEO Satellite Constellation for Internet of Things," IEEE Access 5, pp. 18391-18401, 2017. B Soret, I Leyva-Mayorga, R Maik, W Dirk, M Bho, D Armin, P Popovski, arXiv:1912.08110LEO Small-Satellite Constellations for 5G and Beyond-5G Communications. arXiv preprintB. Soret, I. Leyva-Mayorga, R. Maik, W. Dirk, M. Bho, D. Armin and P. Popovski, "LEO Small-Satellite Constellations for 5G and Beyond-5G Communications.," arXiv preprint arXiv:1912.08110, 2019. Broadband LEO satellite communications: Architectures and key technologies. Y Su, L Yaoqi, Z Yiqing, Y Jinhong, C Huan, S Jinglin, IEEE Wireless Communications. 262Y. Su, L. Yaoqi, Z. Yiqing, Y. Jinhong, C. Huan and S. Jinglin, "Broadband LEO satellite communications: Architectures and key technologies," IEEE Wireless Communications, vol. 26, no. 2, pp. 55-61, 2019. Predicting cell phone adoption metrics using satellite. E J Oughton, M Jatin, arXiv:2006.07311CambridgearXiv preprintE. J. Oughton and M. Jatin, "Predicting cell phone adoption metrics using satellite," arXiv preprint arXiv:2006.07311 , Cambridge, 2020. Propagation Elements for the Link Budget of Broadband Satellite Systems in Ka and Q/V Band. S Ventouras, P S Crawford, C Kourogiorgas, International Conference on Wireless and Satellite Systems. S. Ventouras, P. S. Crawford and C. Kourogiorgas, "Propagation Elements for the Link Budget of Broadband Satellite Systems in Ka and Q/V Band.," In International Conference on Wireless and Satellite Systems, pp. 155-162, 2017. Effect of atmospheric parameters on satellite link. J S Mandeep, T , International Journal of Infrared and Millimeter Waves. 2810J. S. Mandeep and T. K, "Effect of atmospheric parameters on satellite link," International Journal of Infrared and Millimeter Waves, vol. 28, no. 10, pp. 789-795, 2007. Impact of Rain Attenuation to Ka-Band Signal Propagation in Tropical Region: A Study of 5-Year MEASAT-5's Beacon Measurement Data. F Samat, S J S Mandeep, Wireless Personal Communications. 112F. Samat and S. J. S. Mandeep, "Impact of Rain Attenuation to Ka-Band Signal Propagation in Tropical Region: A Study of 5-Year MEASAT- 5's Beacon Measurement Data.," Wireless Personal Communications , vol. 112, p. 2725- 2740, 2020. Rain attenuation prediction for terrestrial links at microwave and millimeter bands over Rwanda. D Sumbiri, A J Thomas, A Alonge, 2016 Progress in Electromagnetic Research Symposium (PIERS), no. EEE. D. Sumbiri, A. J. Thomas and A. Alonge, "Rain attenuation prediction for terrestrial links at microwave and millimeter bands over Rwanda," In 2016 Progress in Electromagnetic Research Symposium (PIERS), no. EEE, pp. 4233-4236, 2016. Statistical evaluation of measured rain attenuation in tropical climate and comparison with prediction models. A A Yusuf, B J Falade, O Olufeagba, M , R A Tharek, ournal of Microwaves, Optoelectronics and Electromagnetic Applications. 152A. A. Yusuf, B. J. Falade, O. Olufeagba, M. O and R. A. Tharek, "Statistical evaluation of measured rain attenuation in tropical climate and comparison with prediction models," ournal of Microwaves, Optoelectronics and Electromagnetic Applications , vol. 15, no. 2, pp. 123-134, 2016. Characterization of rain specific attenuation and frequency scaling method for satellite communication in South Korea. S Shrestha, C Dong-You, International Journal of Antennas and Propagation. S. Shrestha and C. Dong-You, "Characterization of rain specific attenuation and frequency scaling method for satellite communication in South Korea," International Journal of Antennas and Propagation , pp. 1-16, 2017. Characterization of Rain Specific Attenuation and Frequency Scaling Method for Satellite Communication in South Korea. S Sujan, C Dong-You, International Journal of Antennas and Propagation. S. Sujan and C. Dong-You, "Characterization of Rain Specific Attenuation and Frequency Scaling Method for Satellite Communication in South Korea," International Journal of Antennas and Propagation, pp. 1-16, 2017. Estimating One-Minute Rain Rate Distributions in the Tropics From TRMM Satellite Data. G R Rimven, K S Paulson, B Timothy, IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing. 1110G. R. Rimven, K. S. Paulson and B. Timothy, "Estimating One-Minute Rain Rate Distributions in the Tropics From TRMM Satellite Data (October 2017)," IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, vol. 11, no. 10, pp. 3660- 3667, 2018. A technical comparison of three low earth orbit satellite constellation. P Inigo, G C Bruce, F C Edward, Acta Astronautica. 159P. Inigo, G. C. Bruce and F. C. Edward, "A technical comparison of three low earth orbit satellite constellation," Acta Astronautica, no. 159, pp. 123-135, 2019. Ground Segment Architectures for Large LEO Constellations with Feeder Links in EHFbands. P Del, C Bruce, C Edward, 2018 IEEE Aerospace Conference. P. Iñigo del, C. Bruce and C. Edward, "Ground Segment Architectures for Large LEO Constellations with Feeder Links in EHF- bands," In 2018 IEEE Aerospace Conference, pp. 1-4, 2018. H J George, B T David, B Dan, H Kuolin, J Robert, K Christopher, N J Eric, S Soroosh, T Jackson, X Pingping, NASA Global Precipitation Measurement (GPM) Integrated Multi-satellitE Retrievals for GPM (IMERG). H. J. George, B. T. David, B. Dan, H. Kuolin, J. Robert, K. Christopher, N. J. Eric, S. Soroosh, T. Jackson and X. Pingping, "NASA Global Precipitation Measurement (GPM) Integrated Multi-satellitE Retrievals for GPM (IMERG)," The latitudinal variability of oceanic rainfall properties and its implication for satellite retrievals: 2. The relationships between radar observables and drop size distribution parameters. A Protat, K Christian, L Valentin, P A Walter, A P Simon, B Ana, L Jussi, M G Gerald, Journal of Geophysical Research: Atmospheres. 12423A. Protat, K. Christian, L. Valentin, P. A. Walter, A. P. Simon, B. Ana, L. Jussi and M. G. Gerald, "The latitudinal variability of oceanic rainfall properties and its implication for satellite retrievals: 2. The relationships between radar observables and drop size distribution parameters," Journal of Geophysical Research: Atmospheres , vol. 124, no. 23, pp. 13312- 13324, 2019. Link budget analysis for future E-band gigabit satellite communication links (71-76 and 81-84 GHz). J Lewark, U Antes, J Walheim, J Timmermann, J Zwick, T , K I , CEAS Space Journal. 41-4J. Lewark U, Antes J, Walheim J, Timmermann J, Zwick T and K. I., "Link budget analysis for future E-band gigabit satellite communication links (71-76 and 81-84 GHz)," CEAS Space Journal, vol. 4, no. 1-4, pp. 41-46, 2013. Atmospheric attenuation of the Ku band along the space-earth path due to clouds and rain. J Dvořák, J Hart, K , Agronomy Research. 18S2J. Dvořák, J. Hart and K. J, "Atmospheric attenuation of the Ku band along the space-earth path due to clouds and rain," Agronomy Research, vol. 18, no. S2, p. 1235-1243, 2020. Rain attenuation prediction for terrestrial links at microwave and millimeter bands over Rwanda. S Djuma, A J Thomas, A , 2016 Progress in Electromagnetic Research Symposium (PIERS). S. Djuma, A. J. Thomas and A. A, "Rain attenuation prediction for terrestrial links at microwave and millimeter bands over Rwanda," In 2016 Progress in Electromagnetic Research Symposium (PIERS), pp. 4233-4236, 2016.
sample_14922
0.6238
arxiv
THEORETICAL STUDY OF EMISSION SPECTRUM FOR A QUANTUM DOT-MICROCAVITY SYSTEM IN A MEAN FIELD APPROXIMATION 30 Aug 2015 Juan S Rojas-Arias B Rodríguez Instituto de Física Universidad de Antioquia Herbert Vinck-Posada Departamento de Física Universidad Nacional Colombia THEORETICAL STUDY OF EMISSION SPECTRUM FOR A QUANTUM DOT-MICROCAVITY SYSTEM IN A MEAN FIELD APPROXIMATION 30 Aug 20151 ESTUDIO TEÓRICO DEL ESPECTRO DE EMISIÓN PARA UN SISTEMA MICROCAVIDAD-PUNTO CUÁNTICO EN UNA APROXIMACIÓN DE CAMPO MEDIO ResumenEn este trabajo, se obtiene una expresión numérica para calcular el espectro de emisión de un sistema microcavidadpunto cuántico usando una teoría de campo medio en el formalismo de la matriz densidad. El sistema modelado es un micropilar semiconductor que contiene unúnico punto cuántico en el interior de la microcavidad, este sistema presenta pérdida de fotones a través de los espejos de la cavidad y bombeo de excitones al punto cuántico. Obtenemos una ecuación maestra de campo medio no lineal que nos permite calcular el espectro de emisión.Palabras clave: Microcavidad, punto cuántico, teoría de campo medioAbstractIn this work, we deduce a numerical expression to calculate the emission spectrum for a quantum dot-microcavity system, using a mean field theory in the density matrix formalism. The open system modeled, is a typical semiconductor micropillar that contains a single quantum dot inside a microcavity, this system presents leakage of photons through cavity mirrors and pumping of excitons to the quantum dot. We obtain a mean field nonlinear master equation that allow us calculate the emission spectrum. Keywords: Microcavity, quantum dot, mean field theory Introducción Desde que Purcell descubrió el efecto que una cavidad tiene en el tiempo de relajación de un emisoróptico [1], lo emisores dentro de cavidades han sido de gran interés investigativo debido a sus potenciales aplicaciones tecnológicas, especialmente desde su implementación en sistemas de estado sólido como lo son, en particular, puntos cuánticos al interior de micropilares. Es bien conocido que en estos sistemas se presentan dos regímenes: acople débil y acople fuerte (WC y SC, respectivamente, por sus siglas en inglés). En el primero, la interacción entre la radiación (modosópticos de la cavidad) y la materia (puntos cuánticos) es tan débil que puede ser tratada perturbativamente; en elúltimo se presenta una alta probabilidad de emisión y reabsorción de fotones por parte del emisor, generando estados altamente acoplados de luz y materia conocidos como estados vestidos. [2] Un modelo usualmente utilizado para la descripción de la física fundamental de este sistema es el de Jaynes Cummings (h = 1) [3] H = ω f a † a + ω a σ † σ + g(a † σ + σ † a)(1) a y a † son los operadores de aniquilación y creación de fotones de la cavidad, respectivamente, con energía ω f , estos siguen la regla de conmutación [a, a † ] = 1; σ y σ † son los operadores escalera para excitón, además satisfacen la regla de anticonmutación {σ, σ † } = 1 debido a la estadística fermiónica que le imponemos al punto cuántico de energía ω a ; g indica la fuerza de acople lineal entre radiación y materia. El sistema que vamos a tratar incluye, además, una pérdida de fotones a través de los espejos de la cavidad, una pérdida de excitones debida a emisión espontánea y un bombeo incoherente de excitones al punto cuántico. Nos interesa analizar la validez de la aproximación de campo medio en la cual el valor esperado del producto de operadores se expresa como el producto de los valores esperados de cada operador [4]. Luego de analizar la validez de la aproximación se propone un cálculo del espectro de emisión. Fijamos g = 1meV y lo tomamos como nuestra escala de energía [5] a partir de la cual se determinan las demás cantidades. Marco Teórico Estudios previos han mostrado la forma de tratar este sistema añadiendo términos disipativos de Lindblad a la ecuación maestra de Liouville-von Neumann para la evolución temporal de la matriz de densidad [5][6] ∂ t ρ = i[ρ, H] + κ 2 (2aρa † − a † aρ − ρa † a) + γ 2 (2σρσ † − σ † σρ − ρσ † σ) + P 2 (2σ † ρσ − σσ † ρ − ρσσ † ).(2) El sistema pierde fotones con una tasa κ a través de los espejos de la microcavidad, γ es la tasa de decaimiento del excitón por emisión espontánea y P es la tasa de bombeo continuo e incoherente de excitón al punto cuántico. Calculando los elementos de matriz en la base (|Xn ; |Gn ) se obtiene ρ in,jm = in|ρ|jm , lo cual lleva al siguiente conjunto infinito de ecuaciones diferenciales [5]: ∂ t ρ Gn,Gn =ig √ n(ρ Gn,Xn−1 − ρ Xn−1,Gn ) + γρ Xn,Xn − κ[nρ Gn,Gn − (n + 1)ρ Gn+1,Gn+1 ] − P ρ Gn,Gn(3)∂ t ρ Xn,Xn =ig √ n + 1(ρ Xn,Gn+1 − ρ Gn+1,Xn ) − γρ Xn,Xn − κ[nρ Xn,Xn − (n + 1)ρ Xn+1,Xn+1 ] + P ρ Gn,Gn (4) ∂ t ρ Gn,Xn−1 =i[g √ n(ρ Gn,Gn − ρ Xn−1,Xn−1 ) − ∆ρ Gn,Xn−1 ] − [(γ + κ(2n − 1) + P )/2]ρ Gn,Xn−1 − κ n(n + 1)ρ Gn+1,Xn(5)∂ t ρ Xn−1,Gn = − i[g √ n(ρ Gn,Gn − ρ Xn−1,Xn−1 ) − ∆ρ Xn−1,Gn ] − [(γ + κ(2n − 1) + P )/2]ρ Xn−1,Gn − κ n(n + 1)ρ Xn,Gn+1(6) donde se ha definido el detuning ∆ = ω f −ω a . Una vez calculados los elementos de matriz, el número medio de fotones se puede obtener de: N = m m(ρ Gm,Gm + ρ Xm,Xm )(7) Este tratamiento es lo que consideramos como "modelo exacto", ya que su planteamiento es analítico a pesar de que sea necesario truncar el conjunto de ecuaciones diferenciales; respecto aél compararemos nuestros resultados. Teniendo en cuenta que el valor esperado de un operador se obtiene como O = T r(ρO) y la derivada del mismo en el cuadro de Schrödinger es˙ O = T r(O∂ t ρ), se calcula la dinámica de los valores esperados haciendo uso de (2). Al hacer esto, se obtienen valores esperados para los conjuntos de operadores σ † σa † y a † aσ † σ , los cuales en la aproximación de campo medio se expresan como: σ † σa † ≈ σ † σ a †(8)a † aσ † σ ≈ a † a σ † σ(9) obteniendo las siguientes ecuaciones: a † = iω f a † + ig σ † − κ 2 a † (10) σ † = iω a σ † + ig a † − 2ig a † σ † σ − Γ 2 σ † (11) σ † σ = ig( a † σ − σ † a ) − Γ σ † σ + P(12) y los hermíticos conjugados de (10) y (11). Se ha definido Γ = γ + P una tasa de disipación efectiva para el excitón. La razón para realizar la aproximación así y no, por ejemplo, como σ † σa † ≈ σ † σ a † , es porque de esta forma no se pierde información del bombeo P el cual es importante para mantener las excitaciones en la cavidad, permitiendo la llegada a un estado estacionario, veamos. Si se tomara σ † σ ≈ σ † σ , su derivada sería˙ σ † σ ≈˙ σ † σ + σ † ˙ σ , con lo que se obtendría: σ † σ ≈ ig( a † σ − σ † a ) − Γ σ † σ(13) Comparando con (12) vemos que al separar σ † σ se pierde parte del efecto que tiene el bombeo sobre el sistema. Con la dinámica de los valores esperados resuelta, se define la función de correlación en la aproximación de campo medio, en analogía a lo realizado en [2], como: G mf (t, τ ) = a † (t) a(t + τ )(14) Con la función de correlación se puede calcular el espectro, en particular, se puede calcular para estados estacionarios que son en los que nos vamos a centrar: S(ω) = 1 M lím t→∞ R ∞ 0 G mf (t, τ )e iωτ dτ(15) siendo M una constante de normalización. Figura 1. Número medio de fotones en aproximación de campo medioN en escala de grises, como una función de κ y P en condiciones de resonancia ∆ = 0 con γ = 0.1 y g = 1. Validez de la aproximación Al realizar la aproximación se pierde información de las reglas de conmutación debido a que al proponer a † a ≈ a † a , los valores esperados del lado derecho conmutan, equivalente a decir que [a, a † ] = 0. Es de esperarse, entonces, que la aproximación dependa de las poblaciones medias de fotones en la cavidad, lo que la hace sensible a los parámetros κ y P . Definimos el número medio de fotones en la aproximación de campo medio como:N = a † a (16) Figura 2. Error relativo δ, como una función de κ y P en condiciones de resonancia ∆ = 0 con γ = 0.1 y g = 1, se observa un bajo error para pequeños valores de disipación. La figura 1 muestra cómo varía esteúltimo en función de κ y P . Se obtiene un alto número de fotones para κ ≈ 0.1 y P ≈ 20, algo que es de esperarse ya queéste disminuye con su tasa de disipación y aumenta con el bombeo de excitaciones en la cavidad. Sin embargo, el bombeo del sistema se realiza en el excitón, de forma que valores de P muy altos producen una saturación en la población de excitones, lo que impide el crecimiento de la población de fotones como lo muestra la figura, comportamiento que ya ha sido estudiado antes [5][7] [8]. Con el objetivo de realizar un análisis cuantitativo de la validez de la aproximación de campo medio y de su sensibilidad a los parámetros disipativos, se define el error relativo δ = (N −N )/N . La figura 2 evidencia el comportamiento de esta cantidad en función de κ y P . Se encuentra una región bien definida en la que el error relativo es menor del 10 %. Vemos, además, que para grandes valores de κ, δ crece, esto es debido al bajo número medio de fotones que se presenta. Como estamos olvidando las reglas de conmutación, es de esperarse que la aproximación tenga mayor validez a medida que aumenta la población de fotones en la cavidad. Espectro de Emisión Ya conociendo las regiones en que la aproximación es válida, nos remontamos al cálculo del espectro de emisión, que consiste en la transformada de Fourier de la función de correlación (14). El espectro obtenido, figura 3, presenta su máximo pico en frecuencia ω ≈ 1000meV, algo que se esperaba debido a los valores tomados para las energías propias de la cavidad ω f,a . La figura 4 muestra el efecto que tiene el detuning. Los espectros fueron calculados para estado estacionario. Conclusiones Se analizó cualitativa y cuantitativamente la aproximación de campo medio aquí descrita, para el cálculo del número medio de fotones y el espectro de emisión de un sistema microcavidad-punto cuántico. Se encontró que la aproximación es válida para valores de κ entre 0meV y 0.4meV, y para P entre 1meV y 14meV, con un error relativo inferior al 10 %. Se calculó el espectro yéste reproduce el resultado conocido de reducción del ancho de línea para el caso de alto bombeo de excitones en la cavidad. Agradecimientos Este trabajo ha sido financiado por Colciencias dentro del proyecto con código 110156933525, contrato número 026-2013 y código HERMES 17432. Por otra parte, reconocemos el apoyo técnico y computacional del Grupo deÓptica e Información Cuántica de la Universidad Nacional de Colombia, Sede Bogotá. Figura 3 . 3Espectro de emisión del sistema en resonancia para los parámetros κ = 0.1, P = 10, γ = 0.1 y g = 1. Figura 4 . 4Espectro de emisión del sistema con detuning ∆ = −5, κ = 0.1, P = 10, γ = 0.1 y g = 1. E M Purcell, http:/link.aps.org/doi/10.1103/PhysRev.69.674.2Proceedings of the. theAmerican Physical Society674E. M. Purcell, in Proceedings of the American Physical Society (1946) p. 674. . F P Laussy, E Valle, C Tejedor, 10.1103/PhysRevB.79.235325Phys. Rev. B. 79235325F. P. Laussy, E. del Valle, and C. Tejedor, Phys. Rev. B 79, 235325 (2009). C C Gerry, P L Knight, Introductory Quantum Optics. Cambridge University PressC. C. Gerry and P. L. Knight, Introductory Quantum Optics (Cambridge University Press, 2005). H Vinck-Posada, B A Rodríguez, A González, 10.1016/j.physe.2005.01.005Physica E: Low-dimensional Systems and Nanostructures. 27427H. Vinck-Posada, B. A. Rodríguez, and A. González, Physica E: Low-dimensional Systems and Nanostructures 27, 427 (2005). . J I Perea, D Porras, C Tejedor, 10.1103/PhysRevB.70.115304Phys. Rev. B. 70115304J. I. Perea, D. Porras, and C. Tejedor, Phys. Rev. B 70, 115304 (2004). . E Valle, F P Laussy, C Tejedor, 10.1103/PhysRevB.79.235326Phys. Rev. B. 79235326E. del Valle, F. P. Laussy, and C. Tejedor, Phys. Rev. B 79, 235326 (2009). . O Benson, Y Yamamoto, 10.1103/PhysRevA.59.4756Phys. Rev. A. 594756O. Benson and Y. Yamamoto, Phys. Rev. A 59, 4756 (1999). . Y Mu, C M Savage, 10.1103/PhysRevA.46.5944Phys. Rev. A. 465944Y. Mu and C. M. Savage, Phys. Rev. A 46, 5944 (1992).
sample_14981
0.6811
arxiv
12 Oct 2012 Paco Talero Grupo Física y Matemática Dpt de Ciencias Naturales Universidad Central Carrera 5 No 21-38BogotáD.C. Colombia Centro de Investigación en Ciencia Aplicada y Tecnología Avanzada Col. Irrigación Instituto Politécnico Nacional Av. Legaria 694C. P. 11500México D. F Fernanda Santana Observatorio Astronómico Nacional de Colombia Universidad Nacional De Colombia Carrera 45 No 26-85Bogotá D.C. Colombia César Mora Centro de Investigación en Ciencia Aplicada y Tecnología Avanzada Col. Irrigación Instituto Politécnico Nacional Av. Legaria 694C. P. 11500México D. F 12 Oct 2012modelastronomyphysics educationteaching methods Estimación del tiempo de iluminación solar sobre la tierra mediante un modelo analítico: un escenario fértil para enseñar física (Estimation of solar illumination time on the earth by an analytical model: a fertile scenery for to teach physics)Se formuló un modelo analítico que permitió estimar el tiempo de iluminación solar sobre la Tierra para cualquier fecha del año y cualquier latitud, el modelo tomó la oblicuidad de la eclíptica constante, los rayos de luz paralelos, la Tierra esférica y el movimiento de la Tierra circular uniforme, también mostró un contexto de la astronomía para enseñar física básica. Se relacionó el movimiento de la Tierra alrededor del Sol con el movimiento del plano de luz proyectado sobre la Tierra, luego se dedujo la zona iluminada para una latitud dada y se calculó el tiempo de iluminación mediante el movimiento circular uniforme de rotación terrestre. El modelo se confrontó con resultados numéricos de la Geoscience Australia Agency hallando como error porcentual máximo 1, 6 %, el cual se atribuyó principalmente a la discrepancia entre la trayectoria real elíptica y la trayectoria circular tomada en este modelo. Así, sin hacer uso de la trigonometría esférica se obtuvo un modelo analítico que explica de manera muy aproximada el tiempo de iluminación solar en cualquierépoca del año y para cualquier latitud, el modelo brinda un contexto auténtico para estudiar algunos aspectos de la física básica. Palavras-chave: modelo, astronomía, enseñanza de la física, métodos de enseñanza.We proposed an analytical model for the calculus of illumination time of the Earth for any time of year and any latitude, this model assumes the obliquity of the ecliptic as constant, the light beams as parallels, the Earth as spherical, the movement of translation of Earth as uniform circular, also this model showed a context of the astronomy whereby the teachers can teach the basic physics.It was built through a relationship between the movement of translation and of rotation of the wave front light, then we found the of illumination zone on the Earth and the illumination time is estimated in a particular latitude with the uniform circular movement of Earth. Present model was confronted with the numerical results of the Geoscience Australia Agency and it is found a maxim perceptual error of 1, 6 %, this value was assigned primarily to the difference between the circular trajectory, in this model, and the elliptical trajectory that is the real. Without the use of spherical trigonometry was obtained an analytical model that estimates very close the solar illumination time at any time of year and any latitude on earth, the model provides an authentic context for studying basic aspects of physics. Introducción Recientes investigaciones en enseñanza de la física han venido mostrando que la astronomía trae consigo contextos auténticos de alta motivación en los estudiantes que han permitido desarrollar diversos contenidos físicos a diferentes niveles de formación, tales contextos abarcan tópicos como la Tierra, la escala del sistema solar, la determinación de distancias a los pla-netas y a las estrellas, la ley de Hubble, la ley de Wien y las curvas de rotación en galaxias espirales, entre otros [1][2][3][4][5][6][7][8][9][10][11]. Así mismo, estos contextos han permitido introducir contenidos físicos tales como dinámica, cinemática yóptica. En [2] se muestra la experiencia de buscar planetas extrasolares a través de la adquisición de datos propios mediante el control remoto de un telescopio diseñado para tal fin; en [3] se expone un estudio que revela algunas ideas erróneas sobre la trayec-toria de los planetas alrededor del sol; en [4,5] se estudia el movimiento planetario a través de experimentos virtuales con base en argumentos físicos elementales e intuitivos que permiten desarrollar discusión sobre la ley de gravitación, la tercera ley de Kepler y métodos numéricos de implementación simple; en [7] se estudian curvas de rotación en galaxias espirales ;en [8] se muestra como obtener la excentricidad de laórbita terrestre usando, principalmente, las leyes de Kepler y un instrumento de observación sencillo; en [9] se repasan algunos métodos geométricos mediante los cuales se estima las distancias Tierra-Luna y Tierra-Sol, así como los diámetros del Sol y la Luna en relación al radio de la Tierra; en [10] se aprovecha el contexto de la ley de Hubble para promover la habilidad de la interpretación conceptual en gráficas de velocidad contra distancia y en [11] se muestra como una presentación desde la estadística de fotones de la ley de radiación de cuerpo negro es más eficaz, desde el punto de vista pedagógico, que el tratamiento tradicional que se hace generalmente en los libros de texto. Dentro del contexto anterior, este trabajo muestra como el fenómeno cotidiano del día y la noche puede usarse para estudiar aspectos básicos de física como factores de conversión, movimiento circular uniforme (MCU) yóptica de rayos. El problema concreto de estudio consiste en responder la pregunta: ¿es posible estimar mediante un modelo analítico basado en conceptos físicos elementales el tiempo de iluminación solar sobre la Tierra para cualquier fecha del año y en cualquier latitud? Para responder esta pregunta se desarrolla un modelo analítico que deja de lado algunos hechos astrofísicos que no son relevantes durante el transcurso de pocos años, así las características del modelo son la siguientes: toma en cuenta la corrección estándar de la refracción de la luz por la atmósfera y el tiempo diario de iluminación debido al movimiento de traslación de la Tierra alrededor del Sol; desprecia los efectos tanto de precesión como de nutación; considera la Tierra completamente esférica; asume el movimiento de traslación como un MCU y toma los rayos de luz solar paralelos. Para la formulación del modelo se establece el sistema de referencia inercial con uno de sus ejes paralelo al eje de rotación de la Tierra (considerado estático respecto a las estrellas fijas) y los demás ejes también anclados a estrellas fijas. Ahora, se establece un vínculo entre el MCU de la Tierra alrededor del Sol y el movimiento del frente de onda plano de luz solar el cual gira sobre la esfera terrestre, luego se delimita la zona de la Tierra iluminada en cualquier fecha del año a una latitud arbitraria y se aplican conceptos de cinemática del MCU de rotación de la Tierra para calcular el tiempo que un punto terrestre estaría iluminado. Mediante las ecuaciones obtenidas es posible conocer de manera muy aproximada el tiempo de iluminación para una fecha particular del año en todo el mundo, conocer la fecha de ocurrencia del Sol de media noche para cualquier latitud y mostrar diagramas de simetríaútiles a la hora de interpretar hechos físicos mediante la lectura de gráficos. El modelo permite realizar análisis gráfico del tiempo de iluminación durante un año para una latitud determinada, estas gráficas permiten realizar una confrontación sencilla del modelo con resultados numéricos obtenidos de simulaciones que toman en cuenta los efectos de otros fenómenos astrofísicos en particular de la trayectoria elíptica de la Tierra, al confrontar el modelo con los resultados arrojados en el simulador de la Geoscience Australia Agency se halla un error porcentual máximo en la gráfica mencionada muy cercano a 1, 6 % error que se atribuye fundamentalmente, y de acuerdo con la tercera ley de Kepler, a la diferencia entre las trayectorias elíptica y circular. Este trabajo muestra, sin hacer uso de la trigonometría esférica, una manera de pensar físicamente sobre el hecho cotidiano de la noche y el día, a través de un modelo analítico basado fundamentalmente en MCU que a través de sus resultados permite explicar de manera muy aproximada el tiempo de iluminación solar en cualquierépoca del año y para cualquier latitud, el modelo deja un escenario cautivante dentro de la astronomía para estudiar algunos aspectos básicos de la física como el MCU y laóptica de rayos paralelos. Este artículo está organizado de manera siguiente: en la sección (2) se deduce el tiempo de iluminación terrestre de acuerdo con lo planteado anteriormente, en la sección (3) se hacen correcciones por traslación y refracción, en la sección (4) se comparan los resultados del modelo con resultados numéricos, en la sección (5) se proponen algunas estrategias didácticas para poner en práctica los resultados de este modelo y en la sección (6) se muestran las conclusiones. Tiempo de iluminación solar sobre la Tierra Se sabe que debido a la rotación de la Tierra sobre su propio eje esta no posee una geometría que corresponda por completo a una esfera sino más bien a un elipsoide [12][13][14].Debido a la geometría elipsoidal de la Tierra y a la interacción gravitacional con la Luna, el Sol y los demás cuerpo celestes que componen el sistema solar el movimiento de traslación y rotación terrestre varia respecto a lo que se espera del estudio de un sistema Sol-Tierra completamente aislado. Sin embargo, estos efectos no se toman en cuenta en este trabajo debido a que sus efectos son despreciables durante el transcurso de un año [13,15]. A lo anterior se añade que la luz solar se toma con la aproximación de rayos paralelos, esto a causa de que observaciones bien establecidas muestran una desviación del paralelismo de aproximadamente 0, 5 o ,que es producida por la refracción de la luz al atravesar la atmósfera [16]. En la Fig.1 se muestra un corte meridional de la Tierra paralelo a los rayos de luz provenientes del Sol para el solsticio de invierno en el hemisferio norte, se observa que elángulo ǫ formado entre el plano M del frente de onda de la luz solar y el eje de rotación de la Tierra L es la oblicuidad de la eclíptica, que es eĺ angulo formado por el eje de rotación de la Tierra y el plano de traslación alrededor del Sol. Esto implica que un observador en la superficie de la Tierra a una latitud φ tendrá una trayectoria circular con radio r = qs, una velocidad angular ω y un periodo de rotación T = 2π ω que corresponden a la velocidad angular y al periodo de rotación terrestre como muestra la Fig.1.Así mismo, de la la Fig.1 se puede obtener las ecuaciones tan φ = h r (1) donde r o = pq y tan ǫ = r o h .(2) Al eliminar h de (1) y (2) se obtiene invierno vista desde el polo norte terrestre (PNT), se observa que la zona iluminada es el arco de circunferencia ⌢ AB conángulo θ y radio r = Aq. Además, la geometría evidenciada que elángulo θ se puede expresar como cos θ 2 = ro r , lo cual permite expresar con ayuda de (3) elángulo θ a través de la ecuación r o r = tan φtan ǫ.(3)cos θ 2 = tan φ tan ǫ.(4) Ahora, si se supone que el plano M no rota significativamente al rededor del punto p durante una revolución terrestre el tiempo de iluminación t D en el solsticio se puede obtener al calcular el tiempo que un observador sobre la superficie terrestre tarda en barrer elángulo θ con velocidad angular ω, siendo ω = θ t D . Así se obtiene t D = T π cos −1 (tan φ tan ǫ) .(5) El tiempo t N que el observador permanece en la zona no iluminada se puede calcular a partir de (5) y es simplemente t N = T − t D . Al tomar como origen de tiempo el solsticio de invierno en el hemisferio norte la traslación de la Tierra alrededor del Sol se ve reflejada en la rotación del plano M alrededor del punto p, ver Fig.3. Si se considera el movimiento de traslación como un MCU con velocidad angular Ω entonces el plano M girará sobre p barriendo unángulo Ωt a partir de la posición inicial, como muestra la Fig.3. Nótese en la Fig.3 es isósceles y por lo tanto al usar la suma deángulos internos se tiene θ = π − 2α, al aplicar el teorema del seno al triángulo qqB se encuentra r sin α = r o cos (Ωt) y usar la ecuacion (3) se encuentra t D = T π cos −1 (tan φ tan ǫ cos (Ωt)) . Si se considera la traslación de la Tierra alrededor del Sol como un MCU con Ω << ω, se desprecia la rotación del plano M del frente de onda de la luz solar y también se desprecia la refracción de la luz por la atmósfera la ecuación (6) permite estimar el tiempo de luz solar durante una revolución de la Tierra para cualquier fecha del año y cualquier latitud. La ecuación (6) tiene sentido sólo si se cumple la condición |tan φ tan ǫ cos (Ωt)| ≤ 1, para que pueda evaluarse la función arcocoseno. Esta condición demarca la latitud máxima φ max que puede ser evaluada en (6) de acuerdo con el tiempo t transcurrido. Así, de acuerdo con (7) se tiene para la máxima latitud la ecuación φ max = tan −1 ±1 tan ǫ cos (Ωt) ,(8) que demarca el comienzo de Sol de media noche y la noche polar, esto sin tomar en cuenta el Leve incremento en el tiempo de iluminación debido a refracción de la luz y traslación de la Tierra. Corrección de t D por traslación y refracción Durante una revolución de la Tierra sobre su eje el plano M no permanece en reposo, como se supuso, sino que rota un poco alrededor del punto p. En la Fig.4 se muestra elángulo de la zona iluminada inicial θ i , es decir justo cuando un observador sobre la superficie terrestre llega al punto A y se muestra también uń angulo θ f de la zona iluminada cuando el mismo observador justo alcanza el plano M por su otro extremo en el punto D. De acuerdo con esto el observador barre unángulo β adicional, que es preciso calcular para determinar el tiempo adicional de iluminación. En la Fig.4 se observa la relación entre losángulos γ, α i y Ωτ γ + α i + Ωτ = π, donde el tiempo τ se refiere al tiempo transcurrido desde que un observador ligado a la Tierra con latitud φ coincide con el plano de M en el punto A hasta que nuevamente coincide en el tiempo t + τ , siendo t el tiempo transcurrido desde el solsticio de invierno en el hemisferio norte hasta que observador y plano coinciden en el punto D. Igualmente en la Fig.4 se puede observar también que elángulo β adicional que barre el observador está relacionado con losángulos γ y α f mediante β + γ + α f = π.(10) Además, de los triángulos qAB y qCD se encuentran las relaciones 2α i + θ i = π. 2α f + θ f = π. (12) Ahora, al combinar las ecuaciones (9),(10),(11) y (12) se encuentra β = θ f − θ i 2 + Ωτ,(13) donde θ i = θ(t) y θ f = θ(t + τ ) con θ(t) = 2 cos −1 (tan φ tan ǫ cos (Ωt)) . Cuando la Tierra gira alrededor del Sol la zona ilumi- nada cambia de θ i a θ f lo que implica que un observador que coincidida con el plano de luz inicialmente en A barre un arco ⌢ AD y emplea un tiempo τ que se concreta justo cuando el observador alcanza el plano de luz en D. De manera que θ i + β = ωτ,(15) siendo τ el tiempo que el observador está iluminado. Ahora, como t D el tiempo que el observador está iluminado cuando no se toma en cuenta la pequeña traslación que la Tierra sufre mientras hace una revolución sobre su eje ∆t = τ − τ i es el tiempo adicional de iluminación que debe soportar el observador si se toma en cuenta esta pequeña traslación. Para calcular τ se reemplaza la ecuación (13) en (15) y se encuentra τ = θ f + θ i 2(ω − Ω) .(16) En (16) se espera que θ f ≈ θ i dado que Ω << ω, lo que sugiere hacer una expansión en serie de Taylor de θ(τ ) alrededor de 0 y tomar la aproximación con los primeros dos términos de la serie, así se obtiene θ f = θ i + 2ητ (17) con η = Ω tan ǫ tan φ sin(Ωt) 1 − tan 2 ǫ tan 2 φ cos 2 (Ωt) ,(18) que también cumple la condición (7) y los términos de coseno y seno junto con los ordenes de magnitud garantizan que (18) siempre permanece finito y menor que 1 rad s . Para encontrar la corrección por traslación ∆t se reemplaza la ecuación (17) en (16), obteniendo τ = θ i ω − Ω − η (19) lo que conduce a ∆t = (Ω − η) θ i ω (ω − Ω − η) ,(20) que es la correción por traslación buscada y resulta ser de ≈ 2 m . De otro lado, se sabe que cuando los rayos de luz penetran en la atmósfera sufren refracción que aumenta el tiempo de iluminación, así en la Fig.2 los rayos de luz paralelos a la semirecta ps que llegan tanto al punto A como al B convergen un poco hacia el punto q. De esta manera un observador comienza a ser iluminado un poco antes de llegar al punto A y sigue un poco iluminado después de pasar por el punto B. En la literatura suele tomarse la porción deángulo que barre un observador bajo los efectos de la luz refractada como θ R ≈ 9, 95 × 10 −3 rad [14,17]. De lo anterior se entiende que este fenómeno genera un tiempo adicional de iluminación dado por 2θ R ω , que es aproximadamente obtenidos con la simulación y el modelo analítico desde mediados de febrero hasta los primeros días de octubré epoca del año en la cual la Tierra está ceca al perihelio, que ocurre aproximadamente el 4 de enero [18]. Por el contrario se observa un buen acuerdo entre mediados de octubre y los primeros días de febreroépoca del año en que la Tierra está cerca a su afelio, que ocurre aproximadamente el 4 de julio [19]. La tercera ley de Kepler implica que cuando la Tierra se encuentra en el perihelio su rapidez es mayor que cuando se encuentra en el afelio lo que trae como consecuencia que el tiempo adicional de iluminación por incremento de traslación aumente ya que el plano M de la Fig.1 se mueve más rápido sobre el punto q y por tanto un observador sobre la Tierra tarda más tiempo en alcanzar el plano de luz solar. Por el contrario cuando la Tierra se encuentra en el afelio el plano M se mueve más lento produciendo que el tiempo adicional de iluminación por traslación sea menor. Consecuentemente en cecanias del perihelio la simulación muestra resultados alejados del modelo analítico de trayectoria circular que corresponde a unos ≈ 12,5 m que trae consigo un error relativo porcentual de ≈ 1,6 %. t D (min) t(d) MCU Simulado •• • • • • • • • • • • • • • • • • • • • • • • • • • • • • ••• • • • • • • • • • • • • • • • • • • • • • • • • • • •• • De otro lado la Fig. (6) muestra en el solsticio de invierno el tiempo de iluminación para diferentes latitudes, se observa un muy buen acuerdo entre el modelo simulado y el modelo analítico. Diversas comparaciones entre el modelo analítico y la simulación arrojan resultados similares. Así, el modelo analítico da cuenta de manera cercana y con un Algunas sugerencias didácticas De acuerdo con los resultados obtenidos la ecuación (21) permite estimar el tiempo de iluminación para una fecha particular del año y para un lugar particular en la Tierra caracterizado por su latitud, tomando correcciones por refracción y traslación. Con este resultado es posible atacar problemas de la vida cotidiana tales como la estimación del tiempo de iluminación solar en un país particular; apoyar una explicación física cuantitativa de las estaciones del año; ofrecer un espacio para conceptualizar el MCU ejemplificando a través de los movimientos de traslación y rotación de la Tierra; usar esquemas como el mostrado en la Fig.3 para plantear una discusión sobre la refracción de la luz por la atmósfera; discutir los fenómenos del Sol de media noche y la noche polar, en tre otros. Así mismo, se pueden plantear situaciones en las cuales dada una fecha particular del año se pregunta por la duración de la iluminación en diferentes países y ofrecer explicación física de las diferencias presentadas. Resulta particularmente interesante usar el modelo para estimar la fecha de inicio de los días y noches polares, para esto es necesario realizar análisis gráfico de la ecuación (8) que muestra la máxima latitud φ max que es posible evaluar en las ecuaciones (5) y (21) como función del tiempo y que a su vez permite estudiar las zonas de φ max (rad) t(d) H.Norte • • • • • • • • • • • • • • • • • • • • • • • • • • H.Sur • • • • • • • • • • • • • • • • • • • • • • • • • • Figura 7: Latitud para el Sol de media noche y la noche polar con el transcurso del año sin correciones por refracción ni traslación. la Tierra donde comienza el sol de media noche o la noche polar. En la Fig.7 se muestra la evolución de la latitud máxima con el transcurso del año para los hemisferios norte y sur, así por arriba de la línea de puntos oscuros habrá latitudes que están en noche polar para una fecha determinada del año y por debajo de la línea de puntos claros habrá latitudes en las cuales habrá día polar. Además, el modelo puede usarse para estudiar algunos aspectos referidos a la iluminación de planetas tonto en el sistema solar como en otros sistemas solares. Conclusiones Se demostró que es posible formular un modelo analítico con base en la hipotesis de un MCU de la Tierra alrededor del Sol que permite estimar el tiempo de iluminación para un tiempo cualquiera después del solsticio de invierno en el hemisferio norte a cualquier latitud, que concuerda bien con el modelo numérico de la Geoscience Australia Agency y se realizaron correcciones por traslación y refracción siendo respectivamente de ≈ 2 m y de ≈ 4 m 5 s , el modelo brinda un escenario rico en fenómenos terrestres relacionados con la astronomía que permiten estudiar algunos aspectos de la física básica. Queda como problema sugerido aplicar el modelo a planetas extrasolares con diversas características para estudiar diferentes aspectos relacionados con el tiempo de iluminación sobre sus superficies. Agradecimientos Los autores agradecen a los profesores Fabian Galindo, Giovanni Cardona y Guillermo Avendaño por la lectura y las sugerencias realizadas sobre el manuscrito; al Departamento de Ciencias Naturales de la Universidad Central por el apoyo y el tiempo asignado a la investigación y al CICATA del IPN de México por su continua colaboración. Figura 1 : 1Corte meridional de la Tierra paralelo a los rayos de luz provenientes del Sol para el solsticio de invierno en el hemisferio norte. Figura 2 : 2Corte de la Tierra a latitud φ vista desde PNT. Figura 3 : 3Posición angular del plano M en tiempo t. Figura 4 : 4Zonas iluminadas al principio y al final de una fracción de revolución terrestre. Figura 5 : 5Modelo analítico con MCU vs simulación para φ = 30 o y ǫ = 23,5 o entre el 21 de junio de 2009 y el 21 de junio de 2010. Figura 6 : 6Modelo analítico con MCU vs modelo numérico para el solsticio de invierno en el hemisferio norte. mecanismo físico de explicación al tiempo de iluminación solar en cualquier tiempo del año y en cualquier lugar de la Tierra. m 5 s . De acuerdo con las anteriores consideraciones la ecuación (6) toman la forma t D = ∆t + T π 2θ R + cos −1 (tan φ tan ǫ cos (Ωt)) .(21)4. Modelo vs resultados numéricosDe los datos numéricos ofrecidos por la simulación de la Geoscience Australia Agency puede obtenerse resultados que calculan el tiempo que un observador permanece iluminado durante una revolución de la Tierra. Los aspectos más relevantes para la confrontación del modelo analítico que toma en cuenta el modelo númerico de Geoscience Australia Agency son la trayectoria elíptica de la Tierra alrededor del Sol y la refracción estándar de la luz debida a la atmósfera[17].En laFig. (5)se muestra el tiempo de iluminación t D en minutos como función del tiempo t transcurrido en días desde el comienzo del solsticio de verano de 2009 hasta justo el comienzo del solsticio de verano de 2010, se observa mayor diferencia entre los tiempos . C H Holbrow, P Shaffer, Am. J. Phys. 80362C. H. Holbrow and P. Shaffer, Am. J. Phys. 80, 362 (2012). . R Goulda, S Sunbury, Am. J. Phys. 80445R. Goulda and S. Sunbury, Am. J. Phys. 80, 445 (2012). . F Santana, P Talero, Lat , Am. J. Phys. Educ. 5492F. Santana y P. Talero, Lat. Am. J. Phys. Educ. 5, 492 (2011). . F Santana, P Talero, Lat , Am. J. Phys. Educ. 5508F. Santana y P. Talero, Lat. Am. J. Phys. Educ. 5, 508 (2011). Experimentos Virtuales de Física: Mecánica. P Talero, Bogotá, D.C.Editorial Universidad CentralP. Talero Experimentos Virtuales de Física: Me- cánica (Editorial Universidad Central, Bogotá, D.C., 2009). Estudio de la mecánica celeste del viaje a Mate con experimentos virtuales. F Santana, Bogotá, D.C.Universidad Distrital Francisco José De CaldasF. Santana Estudio de la mecánica celeste del viaje a Mate con experimentos virtuales (Universidad Distrital Francisco José De Caldas,Bogotá, D.C., 2011). . O D Pavioni Y, F M Ortega, Lat , Am. J. Phys. Educ. 3320O. D. Pavioni y F M. Ortega, Lat. Am. J. Phys. Educ. 3, 320 (2007). . O D Pavioni Y, F M Ortega, Lat , Am. J. Phys. Educ. 3320O. D. Pavioni y F M. Ortega, Lat. Am. J. Phys. Educ. 3, 320 (2007). . P Núñez, S E Calderón, S Gil, Lat , Am. J. Phys. Educ. 3329P. Núñez, S. E. Calderón y S. Gil, Lat. Am. J. Phys. Educ. 3, 329 (2009). . C S Wallacea, E Pratherb, Am. J. Phys. 80324C. S. Wallacea and E. Pratherb, Am. J. Phys. 80, 324 (2009). . J M Marra, F P Wilkinb, Am. J. Phys. 80399J. M. Marra and F. P. Wilkinb, Am. J. Phys. 80, 399 (2009). . H Karttunen, P Kroger, H Oja, M Poutanen, K J , SpringerNew YorkH. Karttunen,P.Kroger,H.Oja, M.Poutanen and K. J. Donner Fundamental Astronomy (Springer, New York, 2003). Green Spherical astronomy. R M , Cambridge University pressLondonR. M. Green Spherical astronomy (Cambridge University press, London, 1985). Portilla Elementos de astronomía de posición (Editorial Universidad Nacional de Colombia. J G , Bogotá, D.C.J. G. Portilla Elementos de astronomía de posi- ción (Editorial Universidad Nacional de Colom- bia, Bogotá, D.C., 2001). Física Volumen I: Mecánica. M Alonso, E J Finn, ; Addison-Wesley Iberoamericana, U S , M. Alonso y E. J. Finn Física Volumen I: Mecáni- ca (ADDISON-WESLEY IBEROAMERICANA, U.S.A, 1976).
sample_15049
0.9604
arxiv
DISPERSION FORCES STABILISE ICE COATINGS AT CERTAIN GAS HYDRATE INTERFACES WHICH PREVENT WATER WETTING A PREPRINT April 16, 2019 13 Apr 2019 M Boström Centre for Materials Science and Nanotechnology Department of Physics University of Oslo Blindern, NOP. O. Box 10480316OsloNorway R Corkery corkery@kth.se Applied Physical Chemistry KTH Royal Institute of Technology 100 44StockholmSESweden E R A Lima O I Malyi S Y Buhmann Freiburg Institute for Advanced Studies Albert-Ludwigs-Universität Freiburg Albertstr. 1979104FreiburgGermany C Persson I Brevik D F Parsons d.parsons@murdoch.edu.au J Fiedler Centre for Materials Science and Nanotechnology Department of Physics University of Oslo Blindern, NOP. O. Box 10480316OsloNorway Department of Energy and Process Engineering Surface and Corrosion Science Department of Chemistry KTH Royal Institute of Technology SE Centre for Materials Science and Nanotechnology Department of Physics Programa de Pós-graduação em Engenharia Química Universidade do Estado do Rio de Janeiro CEP Norwegian University of Science and Technology NO 100 44, 20550-0137491Trondheim, Stockholm, Rio de Janeiro RJNorway, Sweden, Brazil Physikalisches Institut Albert-Ludwigs University of Oslo Blindern NOP. O. Box 10480316OsloNorway Centre for Materials Science and Nanotechnology Department of Physics Universität Freiburg Hermann-Herder-Str. 379104FreiburgGermany Department of Energy and Process Engineering University of Oslo Blindern NOP. O. Box 10480316OsloNorway School of Engineering and IT Norwegian University of Science and Technology NO 7491TrondheimNorway Physikalisches Institut Albert-Ludwigs Murdoch University 90 South St Murdoch6150WAAustralia Universität Freiburg Hermann-Herder-Str. 379104FreiburgGermany DISPERSION FORCES STABILISE ICE COATINGS AT CERTAIN GAS HYDRATE INTERFACES WHICH PREVENT WATER WETTING A PREPRINT April 16, 2019 13 Apr 2019A PREPRINT -APRIL 16, 2019Gas hydrates · Interfacial ice formation · Buoyancy · Lifshitz interactions · Dispersion forces Gas hydrates formed in oceans and permafrost occur in vast quantities on Earth representing both a massive potential fuel source and a large threat in climate forecasts. They have been predicted to be important on other bodies in our solar systems such as Enceladus, a moon of Saturn. CO 2 -hydrates likely drive the massive gas-rich water plumes seen and sampled by the spacecraft Cassini, and the source of these hydrates is thought to be due to buoyant gas hydrate particles. Dispersion forces cause gas hydrates to be coated in a 3-4 nm thick film of ice, or to contact water directly, depending on which gas they contain. These films are shown to significantly alter the properties of the gas hydrate clusters, for example, whether they float or sink. It is also expected to influence gas hydrate growth and gas leakage. Introduction Gas hydrates are systems consisting of water and gas molecules forming a solid ice structure. Such systems can naturally be found in ice-cold water [1]; in particular, they can occur in permafrost [2], sediments [3], and below the oceans in the seabed [4]. For the latter, there are particularly interesting examples where gas hydrates are considered important in connection with planetary processes and the implications for life. The aqueous ocean-bearing moons Europa and Enceladus are perhaps the best examples in our solar system beyond Earth where gas hydrates are formed in salty oceans that are favourable for life [5]. On Mars, methane distribution is associated with subterranean water, implying the presence of methane hydrates [6]. On Enceladus giant plumes of erupted gases are observed and the composition directly measured to be water, salts and volatile gases including CO 2 , CO, N 2 , H 2 S and methane [7,8]. Several hypotheses consider gas hydrates to be important for the creation of volatile enriched plumes and for the composition of ice layers beneath and/or entrained into, or sprayed onto the outer surface of Enceladus [9,10,11]. In particular, type II gas hydrates on Enceladus and Europa are calculated to be less dense than water and can float in their respective oceans. They are thereby available for incorporation into the overlying thick ice layer of each icy moon. Type I CO 2 hydrates are at a density where their positive or negative buoyancy is uncertain [12,13,14,15,9]. However, if a layer of water ice forms on these gas hydrates in the presence of ice cold liquid water, then the growth of such hydrate crystals may be limited by the capping effect. This may have an impact on their buoyancy, and thus on the hypothesized composition of the ice layers in Enceladus and Europa, with obvious implications for the composition of their plumes and their potential to sample the underlying oceans and any harboured life. water ice Hydrate ε 1 ε 2 ε 3 wet surface dry surface d Figure 1: (Color online). Schematic figure of the considered arrangement. A gas hydrate surface (ε 3 ) on the left, separated by an ice layer (ε 2 ) of thickness d from a water layer (ε 1 ). A dry surface feels a repulsive Casimir force at the ice-water interface which yields a stable ice interface. In contrast, an attractive force results in a wet surface due to the vanishing of the ice interface. On Earth, methane hydrates occur naturally and in engineered situations. Large reservoirs of methane hydrates occur in sediments of deep oceans basins, at shallower depths in the sediments of arctic sea shelves, and in deep permafrost regions. In all these cases, the understanding of whether a layer of ice forms on the hydrate has implications for exploration and production of fossil fuels, and also for understanding the potential for methane contribution to greenhouse gases as the planet becomes warmer. In all of the contexts above, hydrates are usually surrounded by ice cold water. Depending on the gas hydrate structure with respect to contributions and volume fractions, it turns out that some hydrates form an ice interface to water, whereas others do not. The latter have a wet surface. The ones with a gas hydrate-ice interface may be considered to have a dry surface. The prediction of the wet or dry surface cannot be made easily. In the present paper we address this issue by considering a planar three-layer system, as depicted in Fig. 1, namely a gas hydrate layer, an ice sheet, and a water layer. Thus, we assume that initially all hydrates are covered by an ice interface. We estimate the Casimir force acting on the outside at the ice-water interface, i.e., the pressure acting on the system. Depending on the sign of the Casimir force, it will work towards growth or melting of the thin ice sheet. We assume that the temperature is at the triple point of water. An attractive pressure acting on the ice layer thus results in a melting of the ice sheet [16,17,18]. It will simply vanish. This kind of consideration is not new. In the past, ice melting at the triple point with a nano-sized film of water was discussed [19]. It was found that a thin water film is energetically favourable up to a certain thickness where it has an energy minimum [19,20,21,22,23]. The inclusion of retardation resulted in incomplete melting while a non-retarded approximation predicted complete melting for an ice surface at the triple point of water [19]. Here we apply Lifshitz theory to estimate the energy of the hydrate-ice-system as a function of ice thickness, and show that for some gas hydrates the ice film is stabilised at a thickness of 3-4 nm, while for other gas hydrates the ice film is unstable, resulting in direct wetting. Materials and Methods Dispersion forces between solid bodies The Casimir interaction energy F (d) (also known as Lifshitz free energy) per unit area between material 1 (water) with dielectric function ε 1 and material 3 (gas hydrate), ε 3 , separated by the distance d across medium 2 (ice), ε 2 as depicted in Fig. 1 can be written at temperature T as [24,25,26,27] F (d) = ∞ n=0 g TM (ξ n ) + g TE (ξ n ) ,(1) where g TX (ξ) (TX=TM, TE) denotes the trace over the scattering for transverse magnetic (TM) and transverse electric (TE) Green's function. This fundamental solution comes from the vector Helmholtz equation for the electric field. The primed sum denotes that the n = 0 term is weighted by a factor one half. At finite temperature these functions are evaluated at the discrete Matsubara frequencies ξ n = 2πnk B T / [28]. The systems in this study, as mentioned, are all studied at the triple point of water. For the considered three layer system, the traces over the scattering Green's functions, including multiple reflection in the center layer, can be written (in cgs units) as g TX (ξ n ) = 1 β d 2 q (2π) 2 ln 1 − e −2γ2d r TX 12 r TX 32 ,(2) with β = 1/(k B T ), and the Fresnel reflection coefficients are r TM i2 = ε i γ 2 − ε 2 γ i ε i γ 2 + ε 2 γ i ,(3) for TM waves and r TE i2 = γ 2 − γ i γ 2 + γ i ,(4) for TE waves. We have introduced the imaginary part of the transverse wave vector γ 2 i = q 2 + ξ 2 ε i /c 2 . We assume nonmagnetic media. Material Modelling Dielectric functions (at imaginary frequencies) were taken from Elbaum and Schick [19] using the data from Daniels [29] and labeled by ice JD and from Seki et al. [30] (ice SM ) for ice (ε 2 ) and from Elbaum and Schick [19] for water (ε 1 ). These dielectric functions are for a system at the triple point of water, close to zero degrees Celsius at low pressure. The final results for ice melting [19,20,21,22,23,31,32] and water freezing [33,34] are sensitive to the dielectric functions of ice and water since these are extremely similar when the water is in equilibrium with the ice. We show in Fig. 2 the dielectric functions for crystalline CO 2 , water and ice. A model for the dielectric function of a gas hydrate (ε 3 ) is derived using the Lorentz-Lorenz model [35] with the mixing scheme specifically for gas hydrates taken from Bonnefoy et al. [36,37] ε 3 = 1 + 2Γ 1 − Γ ,(5) with Γ = ε 2 − 1 ε 2 + 2 n wh n i + 4πα M n M 3 ,(6) which means that the dominating factors for the dielectric function of gas hydrates are the ice polarisability weighted by density of water in the hydrate relative to pure ice, and the polarisabilities of different gas molecules weighted by their corresponding densities. The mass density of water in pure ice is 0.9167 g/cm 3 [38], giving the number density of water molecules in pure ice as n i = 3.06 × 10 −2 Å −3 . The number densities of gas molecules (n M ) and water molecules (n wh ) in different gas hydrate structures are tabled in Tab. 1 with the water/gas number density ratio p = n wh n M .(7) Quantum chemical calculations of dynamic polarisabilities at discrete frequencies were represented at arbitrary imaginary frequencies iξ by fitting to the oscillator model, α M (iξ) = j α j 1 + (ξ/ω j ) 2(8) A 5-mode fit has previously been found to describe the dynamic polarisability accurately to a 0.02% relative error [41]. The adjusted parameters for a 5-mode model for CO 2 , CH 4 , N 2 , and H 2 S are given in our recent work [42]. Quantum Table 1: Hydrate mass densities (ρ h ) and number densities of water (n wh ) and gas molecules (n M ) in different gas hydrates. The water/gas number density ratio is denoted p. Gas molecule Here we show these for the three CO 2 gas hydrates and the two CH 4 gas hydrates that we consider (the inset shows the same on a linear scale). p ρ h (g/cm 3 ) n M (Å −3 ) n wh (Å −3 ) CO 2 , calculations on which the fits were based were taken at a coupled-cluster singles and doubles (CCSD) level of theory [43] using aug-cc-pVQZ basis sets [44]. Product of Reflection Coefficients As can be observed in Eq. (2), the Casimir force is determined by the product of reflection coefficients at both interfaces, summed over all frequencies. Thus, the magnitude and sign is given by the balance of areas enclosed by these curves above and below the frequency axis. This behaviour is illustrated in Fig. 3, where the products of the non-retarded Fresnel coefficients (TM mode) are shown each given by r i2 = ε i − ε 2 ε i + ε 2 .(9) One can get insights from this quantity also in cases where retardation matter. Negative values for the product shown in Fig. 3 (larger in magnitude for CO 2 hydrates than for CH 4 hydrates) for high frequencies contribute to repulsion. The crossing point at 1.6 × 10 16 rad s −1 where r 12 r 32 = 0 corresponds to the frequency where the dielectric function of ice crosses that of pure water, seen in Figure 2. For nonretarded, small film thicknesses, the respective sum over all frequencies (with many more terms for high frequencies than for low frequencies) gives the net sign for the free energy of very thin ice films. Retardation favours the small-frequency contributions and hence screens out high frequency (repulsive) contributions for thicker ice films. It turns out that already for film thicknesses as thin as a few nanometers retardation is important for ice-water related systems [19]. The net sign in our case is not trivial, and we will demonstrate later that CO 2 and N 2 hydrates in water behave differently from CH 4 and H 2 S hydrates in water. Results Gas hydrate specific ice formation While it is well known that water can start to freeze from its surface when the temperature goes to zero degrees Celsius, Elbaum and Schick [33] predicted that dispersion forces do not play a role in this mechanism. In fact, they found that a thin ice film on the surface would have its energy minimum for zero ice film thickness which would not result in surface freezing on open water surfaces. The underlying mechanism for why ice growth actually occurs at the surface is that large ice structures float with a certain fraction above a water surface due to the lower density of ice. In contrast to their results, we have found that buoyancy combined with dispersion and double layer forces establish an equilibrium where large ice particles float on the surface while small (micron-sized) ice particles are trapped at a distance below a water surface [45]. Further, it was shown that ice formation can be induced by dispersion forces near silica-water interfaces (where silica can be used as a model for rock material) [34]. Before presenting the gas hydrates, we first use the dielectric functions shown in Fig. 2 to perform calculations for the free energy for an ice film growing on an interface between crystalline CO 2 and ice cold water. We see in Fig. 4 that this three layer system has an energy minimum corresponding to an equilibrium ice film with thickness (d) between 3.3 nm and 3.9 nm, depending on the model for the dielectric function of ice. In the remainder of this letter, we use ice JD , the Daniels [29] model for ice, since both models give very similar results. The thicknesses correlate with the frequency where the dielectric functions of ice and water have a crossing [34]. Figure 5 shows the free energy as a function of ice film thickness for different gas hydrates in ice cold water. Ice films are predicted for CO 2 hydrates (d=44, 43 and 37 Å for volume fractions p = 5.75, 6 and 7.67, respectively) and for the N 2 hydrate (d = 32 Å) but not for any of the CH 4 or H 2 S hydrates. In the former cases, retardation plays a role at the nanometer scale as it is the reason for the change in the sign of the Lifshitz energy. This model is sensitive to the various dielectric functions which are involved in the system [46]. While the results are model dependent for the specific combination of materials used, the clear trend is that interfacial ice caps can exist at some gas hydrates in ice cold water, but not for others. The stark difference in behaviour between CO 2 or N 2 hydrates and CH 4 or H 2 S hydrates can be understood from differences in gas polarisability in the optical/UV spectrum, combined with the difference in the dielectric spectra of water and ice. These are expressed in the maximum and minimum seen in the product of reflection coefficients in Figure 3. The positive value of the product r 12 r 32 at low frequencies contributes to stabilisation of the water interface towards the hydrate interface, i.e., wetting, with removal of the ice layer. Negative values at high frequencies destabilise the water interface, i.e., stabilise the ice layer. The overall behaviour is a balance between these two regimes. As discussed above, the positive and negative regimes ultimately derive from the reflection coefficient r 12 between liquid water and ice, that is from the crossing in the dielectric functions of ice and cold water at 1.6 × 10 16 rad s −1 seen in Figure 2. The effect of the hydrate (via reflection coefficient r 32 ) is to strengthen or attenuate r 12 . Figure 3 shows that the high frequency stabilisation of the ice layer is weaker for CH 4 and N 2 than for CO 2 at all hydrate ratios, while H 2 S is only weaker than CO 2 at higher water/gas ratios. At low frequencies, destabilisation of the ice layer is much stronger for H 2 S than CO 2 , while weaker for N 2 . In the balance between low frequency destabilisation and high frequency stabilisation of the ice layer, high frequencies dominate for CO 2 , but are insufficiently weak for CH 4 . In the case of N 2 , low frequency behaviour is weaker than for other gases, so again high frequency stabilisation of ice dominates. In the case of H 2 S, low frequency destabilisation of the ice layer is stronger than for CO 2 and dominates over high frequency stabilisation. These patterns follow the underlying polarisabilities of the gas molecules, see Figure 6: the polarisability of CH 4 is weaker than CO 2 at all frequencies. The polarisability of H 2 S is significantly stronger than CO 2 at low frequencies, but drops rapidly at high frequencies, crossing CO 2 to respond similarly to CH 4 in the UV spectrum. The polarisability of N 2 is much weaker than other gas molecules, in particular, is much closer to the polarisability of a water molecule. The polarisability per ice molecule is shown in Figure 6 for comparison. This results in an N 2 gas hydrate dielectric function closer to that of ice, leading to a smaller reflection coefficient. Stabilisation of the ice layer at a hydrate surface is determined predominantly from the polarisability of the gas molecule relative to a water molecule in the optical spectrum around 3 × 10 15 rad s −1 (stabilising water wetting) and in the UV spectrum around 3 × 10 16 rad s −1 (stabilising the ice layer). Size dependence for floating of gas hydrate clusters Buoyancy of gas hydrate particles is of considerable importance for understanding the distribution and composition of ices, water and gases in subglacial water bodies in Antarctica and on ocean bearing moons of our solar systems and extra solar planets. Buoyancy of gas hydrates on these water bodies depends on hydrate density and assumed ocean densities. Lake Vostok, located 4 km below the Antarctic surface, is an analogue of deeper subglacial oceans the Jovian and Saturnian moons and is a notable target for astrobiological studies. McKay et al. [12] suggest the observed lack of gas hydrates accreted at the top of Lake Vostok in Antarctica (density 1.016 g cm −3 ) is consistent with formation of relatively dense CO 2 clathrate hydrates that sink to the lake floor. Mousis et al. (2013) later estimated the densities of type I and II clathrate CO 2 hydrates in Lake Vostok, concluding that CO 2 -containing type I clathrates sink above a critical CO 2 composition in the lake. et al. [15] discuss the buoyancy of CO 2 hydrates using two further density estimates of the oceans of Europa (density 1.016 g cm −3 ) and Enceladus (1.003 g cm −3 ) and used measured gas hydrate densities. Bouquet et al. [9] consider the buoyancy of multiple guest clathrates on Enceladus using a calculated high pressure sea water density of 1.030 g cm −3 , concluding the type I clathrates are marginally denser (1.040 g cm −3 ) than the sea water and type II significantly lighter (0.970 g cm −3 ). Figure 7 shows the average densities of gas hydrate particles of varying radius, each compositional variant coated in a layer of ice of thickness determined by the polarizability and amount of the entrapped gas species. These were calculated using equation 10 below. The equilibrium ice film thicknesses and densities are given in the text immediately below Figure 5. The value used for the density of pure ice was 0.9167 g cm −3 . Horizontal lines represent the estimated or measured density of the ocean/sea water on the various bodies. It is quite apparent that for CO 2 gas hydrate particles, which are otherwise denser than most models for the water on Enceladus or in Lake Vostok, an equilibrium ice layer of the order of several nm has a significant impact on the buoyancy of the particles. When the radii of these is below approximately 20-100 nm, the average density drops below values estimated for the ocean water density on Enceladus and consequently will float. We use the following simple expression for the average density of a ice coated gas hydrate cluster (approximated as a sphere), ρ av = ρ h r 3 h + ρ i [(r h + d) 3 − r 3 h ] (r h + d) 3 .(10) Here ρ av is the average density of mixed particle comprising a clathrate hydrate core and a shell of water ice, ρ h densities are given in Tab. 1 for different gas hydrates, ρ i is given for ice above, and r h the radius of a gas hydrate cluster. Finally, d is the approximate thickness of each ice film at planar water-CO 2 gas hydrate and water-N 2 gas hydrate interfaces given above. Conclusions In analogy to the premelting layers of ice [19,23,22], we found that freezing of gas hydrates in ice cold water is caused by an energy minimum in dispersion energies. This is not expected at water surfaces [33] but predicted to occur at some water-solid interfaces [34]. We find that a significant difference between different gas hydrate surfaces in water lies in whether they are coated with a nano-sized interfacial ice cap or not. The result is sensitive to the details in the dielectric functions of the materials involved. However, our results indicate that some hydrates are more likely to have interfaces that are kept dry by an interfacial ice cap. We have seen this trend for three different volume fractions of CO 2 hydrates in water as well as for N 2 hydrate and crystalline CO 2 in water. Other hydrates, CH 4 hydrate in water, are more likely to stay wet and have no interfacial ice cap. A review [47] a few years ago asked the question if gas hydrate surfaces in air are dry or wet. Our results are consistent with gas hydrate surfaces that are in equilibrium with water molecules in vapor phase. If a film of water is adsorbed on a gas hydrate surface, much thicker than say 10 nm, then our calculations can be extended to predict that a fraction of that water will form an interfacial ice layer between the water film and the surface of the CO 2 (or N 2 ) hydrates but not so for CH 4 (or H 2 S) hydrates. These differences for materials, whether their interfaces stay dry or wet, are expected to influence the fluxes of gas molecules into the liquid water and then further towards the surrounding atmosphere. Further, as we discussed above a dry surface may affect the growth and overall density of gas hydrate crystals. The density of type I CO 2 hydrate crystal densities are similar to that predicted for different ice coated ocean waters on Earth, Enceladus and Europa [12,13,14,15,9]. The density values in Tab. 1 for CO 2 hydrate suggest a water ice cap layer could make a significant difference in buoyancy when hydrate crystals have diameters in the range of approximately 20-100 nm, based on the 3-4 nm ice films we predict. Indeed if a layer of interfacial ice cap grows on a hydrate crystal early after nucleation, its growth may be restricted to such small sizes, leading to the formation of nanoscale, ice-capped CO 2 hydrate crystals with positive buoyancy. Besides the requirement of accurate dielectric functions for quantitative predictions of such ice layer thicknesses, the restriction to interactions caused by dispersion forces yields a source of uncertainties. For non-polar systems, it would be sufficient to neglect electrostatic effects. However, water is a polar medium, thus interactions caused by permanent dipole moments will also play a role and will shift this theory to a more precise one. The extension of the theory of dispersion forces to include permanent dipole moments is of current interest for several groups and will also be part of further investigations. However, a simple estimation of such effects shows a small contribution to the dispersion forces which is smaller than in the vacuum case due to the shielding effect of the environmental medium. We have notably shown that the above-mentioned density dependence of the gas hydrates induce a sinking or floating of the particles which is important for carbon capture and storage via gas hydrates [48]. The creation of an interfacial ice layer modify the average density of the particle, thus the buoyancy that determines the floating or sinking of the particle. When studying very small gas hydrates, the particle's curvature may be expected to play a role. It can easily be incorporated into theory by changing the geometry from a planar to a spherically layered system. However, since the size of the gas hydrate clusters are much larger than the predicted ice film layer a planar approximation is expected to give useful estimates. Such investigations will also effect the description of crystallization processes in particular for cloud creation [49] by treating the gas hydrate as cloud condensation nuclei. Figure 2 : 2(Color online) The dielectric functions of crystalline CO 2[31], both ice models and water[19] at 273.16 K. Figure 3 : 3(Color online) Product of the non-retarded reflection coefficients for the two interfaces. Figure 4 : 4(Color online) The free energy per unit area (at 273.16 K) as a function of ice film thickness on the boundary between the surface of a crystalline CO 2 structure and liquid water. It is predicted that at equilibrium an ice film around d = 33 Å for the ice model from M. Seki et al. and d = 39 Å for J. Daniels' model. Figure 5 : 5(Color online) The Lifshitz free energy per unit area (at 273.16 K) for a flat three-layer system (water-ice-gas hydrate) as a function of the ice film thickness d. For CO 2 gas hydrates and the N 2 gas hydrate, energy minimum exist corresponding in each case to an equilibrium ice film thickness: d CO2 =44, 43 and 37 Å for CO 2 volume fractions p = 5.75, 6 and 7.67, respectively, and d N2 =32 Å. Figure 6 : 6(Color online) Polarisabilities of gas molecules at imaginary frequencies. The polarisability of a water molecule in ice is also shown for comparison. Figure 7 : 7(Color online) The average densities of gas hydrate particles of varying radius for CO 2 hydrates with density fraction p = 5.75 (solid black line), p = 6.0 (dotted red line) and p = 7.67 (dashed blue line) and N 2 with p = 6.0 (dotted magenta line), each compositional variant coated in a layer of ice of thickness determined by the polarizability and amount of the entrapped gas species as specified above. As comparison we show the water densities in different systems. References for the water/gas number density ratios p are given in Tab. 1. Prieto-Ballesteros et al.[13] considered buoyancy of type I CO 2 , SO 2 , CH 4 and H 2 S gas hydrates (space group 223) on Europa, where two extreme models for the density of the ocean water were considered, namely a eutectic brine of composition MgSO 4 -H 2 O system with density 1.19 g cm −3 and a low salinity water ocean of density 1.0 g cm −3 . Safi DisclaimerThis document is the unedited Author's version of a Submitted Work that was subsequently accepted for publication in ACS Earth and Space Chemistry, copyright c American Chemical Society after peer review. To access the final edited and published work see:https://doi.org/10.1021/acsearthspacechem.9b00019 Methane hydrate stability in seawater. R Gerald, Mary S Dickens, Quinby-Hunt, Geophysical Research Letters. 2119Gerald R. Dickens and Mary S. Quinby-Hunt. Methane hydrate stability in seawater. Geophysical Research Letters, 21(19):2115-2118, 1994. Natural Gas Hydrate in Oceanic and Permafrost Environments. M. D. MaxWashington DC, USAKluwer Academic PublishersM. D. Max, editor. Natural Gas Hydrate in Oceanic and Permafrost Environments. Kluwer Academic Publishers, Washington DC, USA, 2003. Gas hydrate dissociation in sediments: Pressuretemperature evolution. Gye-Chun Tae-Hyuk Kwon, J Carlos Cho, Santamarina, Geochemistry, Geophysics, Geosystems. 93Tae-Hyuk Kwon, Gye-Chun Cho, and J. Carlos Santamarina. Gas hydrate dissociation in sediments: Pressure- temperature evolution. Geochemistry, Geophysics, Geosystems, 9(3), 2008. The effect of hydrate saturation on water retention curves in hydrate-bearing sediments. Nariman Mahabadi, Xianglei Zheng, Jaewon Jang, Geophysical Research Letters. 439Nariman Mahabadi, Xianglei Zheng, and Jaewon Jang. The effect of hydrate saturation on water retention curves in hydrate-bearing sediments. Geophysical Research Letters, 43(9):4279-4287, 2016. Ocean worlds in the outer solar system. F Nimmo, R T Pappalardo, Journal of Geophysical Research: Planets. 121F. Nimmo and R. T. Pappalardo. Ocean worlds in the outer solar system. Journal of Geophysical Research: Planets, 121:1378-1399, 2016. Mapping the methane on Mars. S Fonti, G A Marzo, Astronomy and Astrophysics. 512A51S. Fonti and G. A. Marzo. Mapping the methane on Mars. Astronomy and Astrophysics, 512(A51):1-6, 2010. Cassini ion and neutral mass spectrometer: Enceladus plume composition and structure. J H WaiteJr, M R Combi, W H Ip, T E Cravens, R L McnuttJr, W Kasprzak, R Yelle, J Luhmann, H Niemann, D Gell, B Magee, G Fletcher, G Lunine, W Tseng, Science. 3115766J. H. Jr. Waite, M. R. Combi, W. H. Ip, T. E. Cravens, R. L. Jr. McNutt, W. Kasprzak, R. Yelle, Luhmann J., Niemann H., D. Gell, B. Magee, G. Fletcher, Lunine G., and W. L Tseng. Cassini ion and neutral mass spectrometer: Enceladus plume composition and structure. Science, 311(5766):1419-1422, 2006. A salt-water reservoir as the source of a compositionally stratified plume on Enceladus. F Postberg, J Schmidt, J Hillier, S Kempf, R Srama, Nature. 4747353F. Postberg, J. Schmidt, Hillier J., S. Kempf, and R. Srama. A salt-water reservoir as the source of a compositionally stratified plume on Enceladus. Nature, 474(7353):620-622, 2011. Possible evidence for a methane source in Enceladus' ocean. Alexis Bouquet, J Hunter Olivier Mousis, Sylvain Waite, Picaud, Geophysical Research Letters. 42Alexis. Bouquet, Olivier Mousis, J. Hunter Waite, and Sylvain Picaud. Possible evidence for a methane source in Enceladus' ocean. Geophysical Research Letters, 42:1334-1339, 2015. Enceladus: A hypothesis for bringing both heat and chemicals to the surface. D L Matson, J C Castillo-Rogez, A G Davies, T V Johnson, Icarus. 2211D. L. Matson, J. C. Castillo-Rogez, A. G. Davies, and T. V. Johnson. Enceladus: A hypothesis for bringing both heat and chemicals to the surface. Icarus, 221(1):53-62, 2012. Enceladus' near-surface CO 2 gas pockets and surface frost deposits. D L Matson, A G Davies, T V Johnson, T B Coimbe, J-P Mccord, J Radebaugh, S Singh, Icarus. 302D. L. Matson, A. G. Davies, T. V. Johnson, T. B. Coimbe, J-P. ansd McCord, J. Radebaugh, and S. Singh. Enceladus' near-surface CO 2 gas pockets and surface frost deposits. Icarus, 302:18-26, 2018. Clathrate formation and the fate of noble and biologically useful gases in lake vostok. C P Mckay, K P Hand, P T Doran, D T Andersen, J C Priscu, antarctica. Geophysical Research Letters. 3013C. P. McKay, K. P. Hand, P. T. Doran, D. T. Andersen, and J. C. Priscu. Clathrate formation and the fate of noble and biologically useful gases in lake vostok, antarctica. Geophysical Research Letters, 30(13), 2003. Evaluation of the possible presence of clathrate hydrates in europas icy shell or seafloor. O Prieto-Ballesteros, J S Kargel, M Fernandez-Sampedro, F Selsis, E S Martinez, D L Hogenboom, Icarus. 177O. Prieto-Ballesteros, J. S. Kargel, M. Fernandez-Sampedro, F. Selsis, E. S. Martinez, and D. L. Hogenboom. Evaluation of the possible presence of clathrate hydrates in europas icy shell or seafloor. Icarus, 177:491-505, 2005. On the abundances of noble and biologically relevant gases in lake vostok, antarctica. Olivier Mousis, Azzedine Lakhlifi, Sylvain Picaud, Matthew Pasek, Eric Chassefiere, Astrobiology. 134Olivier Mousis, Azzedine Lakhlifi, Sylvain Picaud, Matthew Pasek, and Eric Chassefiere. On the abundances of noble and biologically relevant gases in lake vostok, antarctica. Astrobiology, 13(4):380-390, 2013. Properties of CO2 clathrate hydrates formed in the presence of MgSO4 solutions with implications for icy moons. E Safi, S P Thompson, A Evans, S J Day, C A Murray, J E Parker, A R Baker, J M Oliveira, J Th, Van Loon, Astronomy and Astrophysics. 600A88E. Safi, S. P. Thompson, A. Evans, S. J. Day, C. A. Murray, J. E. Parker, A. R. Baker, Oliveira J. M., and J. Th. van Loon. Properties of CO2 clathrate hydrates formed in the presence of MgSO4 solutions with implications for icy moons. Astronomy and Astrophysics, 600(A88):1-9, 2017. . L D Landau, E M , Lifshitz. Statistical Physics. Butterworth-Heinemann. L. D. Landau and E. M. Lifshitz. Statistical Physics. Butterworth-Heinemann, 1980. The structural origin of anomalous properties of liquid water. Anders Nilsson, Lars G M Pettersson, Nature Communications. 68998Anders Nilsson and Lars G M Pettersson. The structural origin of anomalous properties of liquid water. Nature Communications, 6:8998, dec 2015. Transformations of Ice II, Ice III, and Ice V at Atmospheric Pressure. J E Bertie, L D Calvert, E Whalley, The Journal of Chemical Physics. 384J. E. Bertie, L. D. Calvert, and E. Whalley. Transformations of Ice II, Ice III, and Ice V at Atmospheric Pressure. The Journal of Chemical Physics, 38(4):840-846, 1963. Application of the theory of dispersion forces to the surface melting of ice. Michael Elbaum, M Schick, Phys. Rev. Lett. 66Michael Elbaum and M. Schick. Application of the theory of dispersion forces to the surface melting of ice. Phys. Rev. Lett., 66:1713-1716, Apr 1991. Optical study of surface melting on ice. M Elbaum, S G Lipson, J G Dash, Journal of Crystal Growth. 1293M. Elbaum, S.G. Lipson, and J.G. Dash. Optical study of surface melting on ice. Journal of Crystal Growth, 129(3):491 -505, 1993. Dispersion-force effects in interfacial premelting of ice. L A Wilen, J S Wettlaufer, M Elbaum, M Schick, Phys. Rev. B. 52L. A. Wilen, J. S. Wettlaufer, M. Elbaum, and M. Schick. Dispersion-force effects in interfacial premelting of ice. Phys. Rev. B, 52:12426-12433, Oct 1995. The premelting of ice and its environmental consequences. J G Dash, H Fu, J S Wettlaufer, Reports on Progress in Physics. 581115J. G. Dash, H. Fu, and J. S. Wettlaufer. The premelting of ice and its environmental consequences. Reports on Progress in Physics, 58(1):115, 1995. Impurity Effects in the Premelting of Ice. J S Wettlaufer, Phys. Rev. Lett. 82J. S. Wettlaufer. Impurity Effects in the Premelting of Ice. Phys. Rev. Lett., 82:2516-2519, Mar 1999. The general theory of van der Waals forces. I E Dzyaloshinskii, E M Lifshitz, L P Pitaevskii, Advances in Physics. 1038I.E. Dzyaloshinskii, E.M. Lifshitz, and L.P. Pitaevskii. The general theory of van der Waals forces. Advances in Physics, 10(38):165-209, 1961. Van der Waals forces: A handbook for biologists, chemists, engineers, and physicists. V A Parsegian, Cambridge University PressNew YorkV. A. Parsegian. Van der Waals forces: A handbook for biologists, chemists, engineers, and physicists. Cambridge University Press, New York, 2006. Molecular Forces and Self Assembly in Colloid. B W Ninham, P Lo Nostro, Nano Sciences and Biology. Cambridge University PressB. W. Ninham and P. Lo Nostro. Molecular Forces and Self Assembly in Colloid, Nano Sciences and Biology. Cambridge University Press, Cambridge, 2010. Dispersion Forces I: Macroscopic quantum electrodynamics and ground-state Casimir, Casimir-Polder and van der Waals forces. S Y Buhmann, SpringerHeidelbergS. Y. Buhmann. Dispersion Forces I: Macroscopic quantum electrodynamics and ground-state Casimir, Casimir- Polder and van der Waals forces. Springer, Heidelberg, 2012. Dispersion Forces II: Many-Body Effects, Excited Atoms, Finite Temperature and Quantum Friction. S Y Buhmann, Springer Tracts in Modern Physics. HeidelbergSpringerS Y Buhmann. Dispersion Forces II: Many-Body Effects, Excited Atoms, Finite Temperature and Quantum Friction. Springer Tracts in Modern Physics. Springer, Heidelberg, 2012. Bestimmung der optischen Konstanten von Eis aus Energie -Verlustmessungen von schnellen Elektronen. J Daniels, Optics Communications. 34J. Daniels. Bestimmung der optischen Konstanten von Eis aus Energie -Verlustmessungen von schnellen Elektronen. Optics Communications, 3(4):240 -243, 1971. Optical Spectra of Hexagonal Ice. Masami Seki, Koichi Kobayashi, Jun&apos;ichirō Nakahara, Journal of the Physical Society of Japan. 508Masami Seki, Koichi Kobayashi, and Jun'ichirō Nakahara. Optical Spectra of Hexagonal Ice. Journal of the Physical Society of Japan, 50(8):2643-2648, 1981. Effects of van der Waals forces and salt ions on the growth of water films on ice and the detachment of CO2 bubbles. P Thiyam, E R A Lima, O I Malyi, D F Parsons, S Y Buhmann, C Persson, M Boström, Europhysics Letters). 113443002EPLP. Thiyam, E. R. A. Lima, O. I. Malyi, D. F. Parsons, S. Y. Buhmann, C. Persson, and M. Boström. Effects of van der Waals forces and salt ions on the growth of water films on ice and the detachment of CO2 bubbles. EPL (Europhysics Letters), 113(4):43002, 2016. The influence of Lifshitz forces and gas on premelting of ice within porous materials. M Boström, O I Malyi, P Thiyam, K Berland, I Brevik, C Persson, D F Parsons, Europhysics Letters). 115113001EPLM. Boström, O. I. Malyi, P. Thiyam, K. Berland, I. Brevik, C. Persson, and D. F. Parsons. The influence of Lifshitz forces and gas on premelting of ice within porous materials. EPL (Europhysics Letters), 115(1):13001, 2016. On the failure of water to freeze from its surface. M Elbaum, M Schick, J. Phys. I France. 112M. Elbaum and M. Schick. On the failure of water to freeze from its surface. J. Phys. I France, 1(12):1665-1668, 1991. Clas Persson, Drew F. Parsons, and Iver Brevik. Lifshitz interaction can promote ice growth at water-silica interfaces. Mathias Boström, I Oleksandr, Prachi Malyi, K V Parashar, Priyadarshini Shajesh, Kimball A Thiyam, Milton, Phys. Rev. B. 95155422Mathias Boström, Oleksandr I. Malyi, Prachi Parashar, K. V. Shajesh, Priyadarshini Thiyam, Kimball A. Milton, Clas Persson, Drew F. Parsons, and Iver Brevik. Lifshitz interaction can promote ice growth at water-silica interfaces. Phys. Rev. B, 95:155422, Apr 2017. Local field effects and effective medium theory: A microscopic perspective. D E Aspnes, American Journal of Physics. 508D. E. Aspnes. Local field effects and effective medium theory: A microscopic perspective. American Journal of Physics, 50(8):704-709, 1982. A priori calculation of the refractive index of some simple gas hydrates of structures I and II. O Bonnefoy, F Gruy, J.-M Herri, Materials Chemistry and Physics. 892O. Bonnefoy, F. Gruy, and J.-M. Herri. A priori calculation of the refractive index of some simple gas hydrates of structures I and II. Materials Chemistry and Physics, 89(2):336 -344, 2005. Van der Waals interactions in systems involving gas hydrates. O Bonnefoy, F Gruy, J.-M Herri, Fluid Phase Equilibria. 2312O. Bonnefoy, F. Gruy, and J.-M. Herri. Van der Waals interactions in systems involving gas hydrates. Fluid Phase Equilibria, 231(2):176 -187, 2005. D R Linde, CRC Handbook of Chemistry and Physics. Boca Raton (FLCRC Press86th ed.D. R. Linde, editor. CRC Handbook of Chemistry and Physics (86th ed.). CRC Press, Boca Raton (FL), 2005. Density of CO2 Hydrate by Monte Carlo Simulation. M Ferdows, M Ota, Proceedings of the Institution of Mechanical Engineers, Part C: Journal of Mechanical Engineering Science. 2205M Ferdows and M Ota. Density of CO2 Hydrate by Monte Carlo Simulation. Proceedings of the Institution of Mechanical Engineers, Part C: Journal of Mechanical Engineering Science, 220(5):691-696, 2006. Natural gas hydrates -A promising source of energy. Y Makogon, Journal of Natural Gas Science and Engineering. 2Y. Makogon. Natural gas hydrates -A promising source of energy. Journal of Natural Gas Science and Engineering, 2:49-59, 03 2010. Importance of Accurate Dynamic Polarizabilities for the Ionic Dispersion Interactions of Alkali Halides. Drew Parsons, Barry W Ninham, Langmuir. 263Drew Parsons and Barry W. Ninham. Importance of Accurate Dynamic Polarizabilities for the Ionic Dispersion Interactions of Alkali Halides. Langmuir, 26(3):1816-1823, 2010. Effective Polarizability Models. Johannes Fiedler, Priyadarshini Thiyam, Anurag Kurumbail, Friedrich A Burger, Michael Walter, Clas Persson, Iver Brevik, Drew F Parsons, Mathias Boström, Stefan Y Buhmann, 29185741The Journal of Physical Chemistry A. 12151Johannes Fiedler, Priyadarshini Thiyam, Anurag Kurumbail, Friedrich A. Burger, Michael Walter, Clas Persson, Iver Brevik, Drew F. Parsons, Mathias Boström, and Stefan Y. Buhmann. Effective Polarizability Models. The Journal of Physical Chemistry A, 121(51):9742-9751, 2017. PMID: 29185741. A comparison of the efficiency and accuracy of the quadratic configuration interaction (QCISD), coupled cluster (CCSD), and Brueckner coupled cluster (BCCD) methods. Claudia Hampel, Kirk A Peterson, Hans-Joachim Werner, Chem. Phys. Lett. 1901-2Claudia Hampel, Kirk A. Peterson, and Hans-Joachim Werner. A comparison of the efficiency and accuracy of the quadratic configuration interaction (QCISD), coupled cluster (CCSD), and Brueckner coupled cluster (BCCD) methods. Chem. Phys. Lett., 190(1-2):1-12, 1992. Gaussian basis sets for use in correlated molecular calculations. III. The atoms aluminum through argon. David E WoonJr, H Thom, Dunning, J. Chem. Phys. 982David E. Woon and Jr. Thom H. Dunning. Gaussian basis sets for use in correlated molecular calculations. III. The atoms aluminum through argon. J. Chem. Phys., 98(2):1358-1371, 1993. Ice Particles Sink below the Water Surface Due to a Balance of Salt, van der Waals, and Buoyancy Forces. P Thiyam, J Fiedler, S Y Buhmann, C Persson, I Brevik, M Boström, D F Parsons, The Journal of Physical Chemistry C. 12227P. Thiyam, J. Fiedler, S. Y. Buhmann, C. Persson, I. Brevik, M. Boström, and D. F. Parsons. Ice Particles Sink below the Water Surface Due to a Balance of Salt, van der Waals, and Buoyancy Forces. The Journal of Physical Chemistry C, 122(27):15311-15317, 2018. Influence of dielectric properties on van der Waals/Casimir forces in solid-liquid systems. P J Van Zwol, G Palasantzas, J M Th, De Hosson, Phys. Rev. B. 79P. J. van Zwol, G. Palasantzas, and J. Th. M. De Hosson. Influence of dielectric properties on van der Waals/Casimir forces in solid-liquid systems. Phys. Rev. B, 79:195428, May 2009. Is the Surface of Gas Hydrates Dry? Energies. Nobuo Maeda, 8Nobuo Maeda. Is the Surface of Gas Hydrates Dry? Energies, 8(6):5361-5369, 2015. The use of rotational invariants for the interpretation of marine csem data with a case study from the north alex mud volcano, west nile delta. Sebastian Hölz, Andrei Swidinsky, Malte Sommer, Marion Jegen, Jörg Bialas, Geophysical Journal International. 2011Sebastian Hölz, Andrei Swidinsky, Malte Sommer, Marion Jegen, and Jörg Bialas. The use of rotational invariants for the interpretation of marine csem data with a case study from the north alex mud volcano, west nile delta. Geophysical Journal International, 201(1):224-245, 2015. Factors determining the impact of aerosols on surface precipitation from clouds: An attempt at classification. A P Khain, N Benmoshe, A Pokrovsky, Journal of the Atmospheric Sciences. 656A. P. Khain, N. BenMoshe, and A. Pokrovsky. Factors determining the impact of aerosols on surface precipitation from clouds: An attempt at classification. Journal of the Atmospheric Sciences, 65(6):1721-1748, 2008.
sample_15231
0.5793
arxiv
Sustainable AI Regulation Philipp Hacker Sustainable AI Regulation Working Paper (this version June 1, 2023) Early draft for PLSC, footnotes missing * Prof. Dr. Philipp Hacker, LL.M. (Yale), Chair for Law and Ethics of the Digital Society, European New School of Digital Studies, European University Viadrina Frankfurt (Oder). Current proposals for AI regulation, in the EU and beyond, aim to spur AI that is trustworthy and accountable. What is missing, however, is a robust regulatory discourse and roadmap to make AI, and technology more broadly, environmentally sustainable. This paper aims to take first steps to fill this gap.In computer science, AI and technology more generally are increasingly recognized as important contributors to climate change. And with good reason: Current estimates show that information and communication technology (ICT) contributes up to 3.9% of global greenhouse gas (GHG) emissions compared to roughly 2.5% for global air travel. The carbon footprint of machine learning more specifically has skyrocketed over the last years. Water consumption is another crucial factor. Regarding both energy and water, AI training is particularly resource intensive, and even more so with large generative AI models, such as ChatGPT or GPT-4.However, questions of climate change and sustainability still occupy a significant blind spot in AI regulation. This paper will therefore explore two key dimensions: legal instruments to make AI greener; and methods to render AI regulation more sustainable. Concerning the former, transparency mechanisms, such as the disclosure of the GHG footprint under Article 11 AI Act, could be a first step. However, given the well-known limitations of disclosure, regulation needs to go beyond transparency. Hence, in this paper, I propose a mix of co-regulation strategies; sustainability by design; restrictions on training data; and consumption caps.Within sustainability by design strategies, one important mechanism could be what I term "sustainability impact assessments". Crucially, during the modelling phase, developers should compare different AI model types (e.g., linear regression versus neural networks) not only regarding their performance but also their estimated GHG footprint. Already, effective tools exist to measure the GHG impact of such models. Simply put, if two model types exhibit similar performance, the developers would be obliged, under such a provision, to choose the more sustainable model for further development and deployment. In this way, the current fixation on performance measures may be complemented by climate change mitigation strategies. Importantly, pre-trained models, such as large AI models, may in the long run be more energyefficient despite their high upfront training costs. However, ironically, planned regulation might thwart these efforts. Pre-trained models, such as ChatGPT, are significantly dis-incentivized by the EU AI Act and the EU AI liability directives. Hence, regulatory endeavors should urgently be updated to better reflect the sustainability challenges AI raises.This regulatory toolkit may then, in a second step, serve as a blueprint for other information technologies and infrastructures facing significant sustainability challenges due to their high GHG emissions, for example: blockchain (e.g., bitcoin); Metaverse applications; and data centers. The regulatory toolbox described above, from transparency to sustainability II assessments and hard consumption caps, can and must be flexibly adapted to these other areas of technology law. The final dimension consists in efforts to render AI regulation, and by implication the law itself, more sustainable. Certain rights we have come to take for granted, such as the right to erasure (Article 17 GDPR), may have to be limited due to sustainability considerations. Imagine that a large AI model was trained on supposedly anonymized medical data and is used for cancer detection. Given new re-identification techniques, one data subject exercises her right to erasure. Not only may her data point have to be deleted from the training data, but the entire AI model may have to be re-trained-entailing significant GHG emissions. In my view, the subjective right to erasure, in such situations, has to be balanced against the collective interest in mitigating climate change. Here, I draw on the growing literature on data externalities and third-party effects of processing. The paper formulates guidelines to strike this balance equitably, discusses specific use cases, and identifies doctrinal legal methods for incorporating such a "sustainability limitation" into existing (e.g., Art. 17(3) GDPR) and future law (e.g., AI Act). Ultimately, law, computer science and sustainability studies need to team up to effectively address the dual large-scale transformations of digitization and sustainability. I. III Introduction The next generation of AI systems is currently developed under the name of large generative AI models (or foundation models). 1 These involve popular applications like ChatGPT, GPT-4, or DALL-E 2. Training such models is complex and resource intensive. 2 Significantly, not only do they demonstrate the vast transformative potential of AI for society, 3 but they also underscore palpable and emerging risks posed by AI. 4 In this article, the focus will be on a crucial risk dimension that has hitherto been under-appreciated in the legal literature and regulatory: AI scholars are increasingly sounding the alarm on the contribution of machine learning to climate change because of its energy 5 and water consumption. 6 AI regulation therefore, arguably, needs a paradigm change: from trustworthy 7 to sustainable AI 8 regulation. This paper takes first steps into this direction. In doing so, it seeks to move beyond the state of the art in three specific respects. First, it tackles specific regulatory challenges triggered by the advent of large generative AI models, 9 such as ChatGPT or GPT-4, which have so far received 1 See, e.g., Mark Chen and others, 'Evaluating large language models trained on code' (2021) arXiv preprint arXiv:210703374 ; Rishi Bommasani and others, 'On the opportunities and risks of foundation models' (2021) arXiv preprint arXiv:210807258 . Terminologically, foundation models are trained on large data at scale and are able to tackle diverse tasks; they can be adapted to diverse downstream use cases (ibid, 7). Large AI models overlap mostly-but not fully-with this definition. They typically contain several billion parameters, are trained on large datasets, and require significant compute infrastructure Joerg Bienert et al., Large AI Models for Germany: Feasibility Study (2023); specifically, generative models output content addressed towards communication, e.g., text, images, videos, or music, see, e.g., Patrick Meyer, 'ChatGPT: How Does It Work Internally?' Towards AI <https://pub.towardsai.net/chatgpt-how-does-it-work-internally-e0b3e23601a1> accessed January 30, 2023. The terms "large generative AI model" (LGAIM) and "foundation model" are used interchangeably in this paper unless specifically differentiated. 63-66. 9 "Large" refers to the number of parameters in the model (> 10 billion), the amount of training data, and the size of the necessary compute infrastructure for training; many, but not all, large AI models are generative, creating text, videos, images etc.; see, e.g., Bienert et al., LEAM Report (2023), 31-32 and n. 1. scant attention in the legal literature. 10 Second, it ventures beyond existing research paradigms to develop a comprehensive legal framework for addressing the growing importance of AI for environmental sustainability. In legal scholarship, the implications of the law for climate change, and vice versa, are increasingly discussed in the general legal literature. 11 Nonetheless, for AI regulation more specifically, questions of climate change and sustainability still occupy a significant blind spot. 12 In this domain, an interdisciplinary lens is necessary to tease apart the differential impact of machine learning modelling choices for, e.g., greenhouse gas (GHG) emissions and water consumption, and to suggest a pertinent regulatory framework. For example, it will often make a profound difference, in terms of the GHG footprint, if the developer uses a simple linear regression model or a complex, much more compute-intensive deep neural network. 13 The advent of large AI models, such as GPT-4, which are pre-trained once and may then be adapted to many different use cases, may change that equation, though: while their training is highly resource-intensive, 14 they may in fact harbour potential sustainability advantages in the long run by "replacing" a large number of smaller models. 15 In this context specifically, I will draw on a growing literature investigating the intersection of computer science, and machine learning more specifically, on the one hand and climate change on the other. 16 Against this background, second, the article reviews the EU AI Act, which is currently in the midst of the legislative process, regarding its sustainability requirements -which have, in fact, just been updated by the European Parliament (EP) in its latest vote on the Act (AI Act EP 3 Version). 17 The EP, however, chiefly focuses on soft rules, 18 such as lofty principles, 19 voluntary codes of conduct, 20 green labels, 21 and disclosure rules. 22 The paper goes beyond these suggestions to propose a number of policy options necessary to align AI development with sustainability, ranging from co-regulation instruments to sustainability by design and restrictions on AI training to consumption caps based on an AI model social utility. The article then uses the toolkit developed for sustainable AI regulation to envision a blueprint for sustainable technology regulation more broadly, for example in the context of blockchain, data centers, or the metaverse. In the third step, I enquire into the specific challenges raised by the current climate crisis for technology law and, potentially, the law more generally: the article asks to what extent sustainability considerations may limit, or strengthen, certain subjective rights, such as the right to erasure, that we have come to take for granted. Overall, the article seeks to deliver the first comprehensive account of sustainable AI regulation -in the decidedly dual sense of making AI (and technology more broadly) and the law covering AI (and beyond) more sustainable. More specifically, the remainder of the article is structured as follows. Part II provides an accessible introduction to the benefits as well as potential risks of AI, with a focus on the environmental dimension. The core topics of the article unfold in Parts III-VI. Here, the paper explores two key dimensions: legal instruments to "green" AI, both under the AI Act (Part III) and with respect to a number of policy proposals (Part IV). I will then briefly turn to digital technology more broadly to show how sustainable AI regulation may serve as a blueprint for solving urgent climate change issues raised by soaring GHG emissions other digital technologies, such as blockchain, the metaverse, and data centers (Part V). Finally, the paper considers methods to render AI regulation, and the law more generally, more sustainable (Part VI). The last section concludes (Part VII).. II. AI and sustainability AI and classical AI risks In a nutshell, computer scientists continue to disagree on the concept of AI, with one leading definition referring to AI as computer programs that emulate human, rational behavior and thinking. 23 The concept of AI was one of the two main divisive questions which led to the delay of the AI Act in the EU Parliament. What is certain, however, is that AI confers tremendous opportunities to our societies, 24 but also harbors several serious risks. 25 Classical risks associated with AI include a range of specific 17 characteristics. 26 First, the need for training data raises significant challenges for data protection and privacy. Second, deep learning systems in particular are opaque and it is difficult to explain why they generate a specific output. Third, due to their reliance on data, which may encode social and historical biases, AI are prone to exacerbate patterns of discrimination. Fourth, learning capabilities (machine learning) may lead to unforeseeable output and actions. Previous scholarship in AI regulation has largely focused on these four risks, 27 which are compounded by the growing interconnection between data, models, and applications. Indeed, these four risks need to be addressed by any AI labeled trustworthy. Fifth, large generative AI models in particular may take manipulation, fake news, and hate speech to unprecedented levels by automated mass generation, if not properly reined in. 28 This is another topic now addressed by a growing body of legal research. 29 Another perspective: environmental risks Beyond theses more traditional risks, however, an increasing body of research points to environmental risks posed by AI training and deployment. 30 Current research operates with a threefold concept of sustainability, branching out into economic, social, and environmental aspects. 31 While these are all important goals, the present paper will focus on the IT law implications of environmental sustainability, which is key to solving the current climate crisis. Why environmental sustainability? The current climate crisis arguably poses an existential threat to the human species, at least when compared to the rather benign living conditions that have reigned for centuries in many regions of the world. Despite efforts by scientists, civil society, and policymakers, no clear legislative path or collective action scheme has emerged to date that would likely prevent crossing the threshold of 1.5°C of global warming, compared to the pre-industrial era. Hence, new approaches are needed that go beyond the traditional, but so far largely ineffective international climate summits and individual initiatives of certain climate-progressive states. Effectively, in my view, every legal field-just like every industrial, administrative or consumption sector-will have to chart paths across its own territory to map possible contributions to the collective effort of mitigating climate change. Information and communication technology (ICT), and the concomitant field of IT law, are particularly well positioned to lead this effort as ICT arguably has an important role to play concerning both the mitigating at the contributing side of climate change, and the legal field is promisingly interdisciplinary in its general approach. 26 a) Promises to mitigate global warming ICT more generally and AI particularly may be harnessed to combat climate change in various ways. This is an active field of research in various technical disciplines. It has resulted in numerous theoretical and empirical contributions demonstrating how a reduction of energy, water and material consumption can be achieved by bringing AI applications to bear on questions of project planning, documentation, and implementation. 32 b) Contributions of ICT and AI to climate change In computer science, AI and technology more generally are increasingly recognized as important contributors to climate change. 33 And with good reason: Current estimates show that IT contributes up to 3.9% of global greenhouse gas (GHG) emissions 34 -compared to roughly 2.5% for global air travel. 35 The carbon footprint of machine learning more specifically has skyrocketed over the last years. 36 AI training is particularly resource intensive, both in terms of energy and water usage, and even more so with large AI models. 37 However, running a large AI model, such as GPT-4, also comes with sustainability costs. It not only consumes energy, but also significant amounts of water for cooling the data centers hosting the model: recent estimates posit that a standard conversation with ChatGPT consisting of 20-50 questions and answers consumes roughly the content of a 500ml bottle of water, depending on the circumstances of deployment. 38 Given the large number of conversations ChatGPT has powered since its inception, this adds up to a highly significant amount of water-an increasingly scarce resource in many parts of the world. Hence, regulatory guidance is arguably needed to make AI and technology more sustainable. III. Sustainable AI and the EU AI Act In the general legal literature, a growing discussion exists about the interrelated impacts of climate change on the law, and vice versa. 39 However, for AI regulation more specifically, 6 questions of climate change and sustainability still occupy a significant blind spot. 40 "The uptake of AI applications is beneficial for the environment," the Commission laconically concludes. 41 While AI does have a role to play here, 42 this analysis is dangerously one-sided and ignores recent developments in computer science reviewed above, suggesting a highly significant and rapidly growing contribution of AI, and ICT, to GHG emissions. This section of the article will therefore explore how existing or forthcoming legal instruments may render AI more sustainable. As a key example, let us turn to the EU AI Act (for the GDPR, see below, Part VI.1.). Under the General Approach adopted by the Council of the EU on December 6, 2022 (AI Act Council Version), 43 the European legislator only encourages voluntary codes of conduct concerning environmental sustainability (Art. 69(2) AI Act, Council General Approach). Quite evidently, the General Approach fails to adequately tackle the issue of environmental sustainability. However, significant progress was made on May 11, when two key committee votes 44 cleared the path for amendments to the AI Act by the European Parliament (AI Act EP Version 45 ). While the EP Version goes further in addressing environmental concerns, it still falls short of taking sufficient action. The amendments contain different sets of rules concerning sustainability. I will structure my analysis around five pillars: goals and principles; preferential access to research funding and sandboxes; information approaches; risk assessment; and guidance and review. The first one focuses on goals and principles. Article 1 AI Act EP Version sets out the general objectives of the regulation, the prevention of including harm to the environment. Furthermore, environmental sustainability figures prominently among the new principles for AI development and deployment (Article 4a(1)(f) AI Act EP Version). However, arguably, they lack the necessary regulatory teeth to incentivize meaningful action. The Act, in these sections, sets lofty goals without providing concrete measures to ensure their implementation. If, eventually, the principles become part of the enforceable rules-such as the data protection principles in Article 5 GDPR 46 -then indeed they might qualify as backup rules offering a last resort in case some system circumvents specific AI Act rules, meeting requirements by the letter but violating them in spirit. The second pillar concerns funding and support. It channels the provision of preferential access to research funding and sandboxes for AI systems promising to make a positive impact on the environment, as outlined in Article 54a. This provision aims to encourage the development of AI systems that prioritize environmental sustainability. However, further details and mechanisms for implementation are required to effectively promote these objectives; moreover, 7 to develop truly groundbreaking AI systems in the range of foundation models, significantly more funding in the provision of computer infrastructure will be necessary. 47 Information approaches are emphasized in the third pillar. Article 12(2a) AI Act EP Version requires the measurement and calculation of resource use and environmental impact throughout the lifecycle of high-risk AI systems, including energy consumption. Article 11 in conjunction with Annex IV 3(b) AI Act EP Version mandates the disclosure of energy consumption information during development and use, considering relevant Union and national legislation. Importantly, and rightly, the Commission is charged to develop a methodology for calculating Key Performance Indicators and references for the Sustainable Development Goals (SDGs), including environmental impact (Recital 46b; see also Recital 87a AI Act EP Version). Harmonized standards according to Article 40 will be essential to effectively compare and evaluate the environmental impact of different AI systems. While transparency mechanisms such as logging and disclosing the greenhouse gas (GHG) footprint under Articles 11 and 12 are a step in the right direction, numerous studies indicate that standard disclosures are often ignored by recipients. 48 Nevertheless, such mechanisms can be beneficial for non-governmental organizations, information intermediaries, and regulatory agencies seeking to collect data on the environmental impact of AI systems. The fourth pillar encompasses risk assessment, specifically addressed in Article 28b(2)(a) AI Act EP Version. Providers of foundation models need to assess and mitigate, and ultimately manage throughout the lifecycle (Article 28b(2)(f) AI Act EP Version), foreseeable risks not only with respect to health, safety, fundamental rights, democracy and the rule of law, but also the environment. While, as I have spelled out in detail elsewhere, 49 risk assessment and management should generally relate to specific use cases, addressing sustainability risks at the level of the model itself seems reasonable indeed: it is here that most resources for equipment and training are used, and where sustainable practices may have a large impact that propagates down the AI value chain. However, the provision needs to be suitably operationalized. The proposal made below concerning sustainability by design and sustainable impact assessments (see Part IV.0.) precisely ties into this risk management framework. The fifth pillar involves guidance and review. Article 82b(1)(viii) AI Act EP Version calls for guidance by the European Commission on the practical implementation of environmental impact measurement and reporting methods, including carbon footprint and energy efficiency. However, Article 84(3)(bf), which pertains to review and potential update requirements, lacks specificity and does not prioritize urgent environmental concerns adequately. Notably, there is a missing pillar in the EU AI Act: operationalizing sustainable ambitions and translating them into effective action. While the Act addresses various aspects, it fails to provide a comprehensive framework that actively promotes meaningful action to address the climate change impact of AI. Thus, in my view, the proposed AI Act EP Version still inadequately addresses the environmental consequences of AI. IV. Policy proposals: sustainable AI regulation going forward The preceding analysis has shown that current EU law, despite some promising steps in the latest version of the AI Act endorsed by the European Parliament, does not adequately address the climate risks posed by AI systems. In the following section, this article introduces and 47 Cf. al discusses for policy proposals, ranging from co-regulation instruments to sustainability by design and restrictions on AI training to consumption caps based on an AI model social utility. Co-regulation A first potential approach to regulating the use of AI and its impact on sustainability is through tools of co-regulation that have also been introduced in the GDPR. For example, Article 69 AI Act already encourages, as seen, the adoption of industry codes of conduct. These codes serve as voluntary agreements or standards developed and embraced by relevant stakeholders, such as companies, associations, or professional bodies, to guide their behavior and practices regarding AI. 50 For instance, the GDPR encourages the creation of codes of conduct to promote sector-specific data protection rules (Art. 40 GDPR). These codes may eventually be approved by national data protection authorities or even the Commission and thus be acquired general validity in the EU (Article 40(9) GDPR). Such a provision formalizing administrative oversight and endowing a limited binding effect on codes of conduct is missing in the AI Act and should be added to make them an attractive instrument, similar to a safe harbor provision in a legal act. The key advantage of industry codes of conduct is their ability to harness the distributed knowledge and expertise of the various actors involved in the design, development, and deployment of AI systems. They can promote innovation and flexibility by allowing for customized solutions that are tailored to specific contexts and sectors, making them adaptable to evolving circumstances and needs. Additionally, they can enhance trust and legitimacy by demonstrating the industry's commitment and responsibility in addressing the ethical and social challenges posed by AI. However, industry codes of conduct also have their drawbacks. One of these is the potential lack of sufficient incentives for compliance, particularly when effective monitoring and enforcement mechanisms are absent. Additionally, there is a risk of regulatory capture or fragmentation, as different groups or regions may adopt diverging or conflicting standards, which could undermine the coherence and consistency of the regulatory framework. Furthermore, these codes may not adequately represent the interests and values of all affected parties, such as consumers, workers, or civil society organizations, who may have limited participation or representation in the code development process. Similar arguments may be raised concerning sustainability seals (cf. Art. 42 GDPR). While they may also gain industry support and even provide guidance to downstream companies and consumers, there is a distinctive risk of industry tailoring certification mechanisms to their needs in order to facilitate "greenwashing". Such a provision is currently missing entirely in the AI Act and should be introduced. However, it will be crucial to ensure proper oversight of the certification mechanism to prevent opportunistic behavior by AI developing companies. Therefore, industry codes of conduct related to sustainable AI and sustainability seals should not be viewed as a replacement for legal regulation. Instead, they should be seen as complementary measures that can enhance the effectiveness and legitimacy of AI governance. It is essential that these codes and seals undergo regular review and evaluation to ensure their ongoing relevance, reliability, and responsiveness to the evolving challenges and opportunities presented by the climate effect of AI. Sustainability by design A second and, in my view, more promising proposal is to integrate a requirement of sustainability by design into the AI Act. Inspired by the principle of data protection by design, which requires the integration of data protection safeguards into the design and operation of 50 Thilo Hagendorff, 'The ethics of AI ethics: An evaluation of guidelines' (2020) 30 Minds and Machines 99. information systems, sustainability by design aims to embed environmental considerations into the design and implementation of ML models and practices. As I will argue, a key tool for achieving this goal are sustainability impact assessments. a) From data protection to sustainability by design Over the past decades, data protection law has arguably taken a compliance turn. 51 Data controllers not only need to answer to data subjects exercising their subjective rights, and agencies nudging inquiries, but have to establish technical and organizational routines to ensure data protection compliance even in the absence of individual and administrative proceedings (Art. 24 et seqq. GDPR). This is based on the correct assumption that subjective rights, and administrative inquiries, often come too late and are exercised too rarely to effectively protect data protection principles and data subject on the ground. One of the most notable provisions embodying this compliance term is the principle of data protection by design and default (Article 25 GDPR). Data protection, in this way, is converted from a mere reactive tool of expost control to a proactive instrument of ex-ante design. As political scholars have pointed out repeatedly, however, civil liberties and freedoms, such as data protection, are essentially worthless if their grantees lack the material resources to exercise them and to flourish in the protective frame afforded by them. 52 This limitation resurfaces with renewed urgency in the current climate emergency. While the capabilitarian tradition rightly stresses access to basic amenities and resources, even these preconditions of the enjoyment of subjective rights are threatened for a growing number of persons by hostile environmental conditions as a result of climate change. Hence, in my view, data protection by design needs to be complemented by "sustainability by design". At the technical and organizational level, developers need to ensure that all reasonable levers are pulled to minimize the contribution of ICT to climate change. Such a paradigm change has been explored for consumption practices 53 and product design 54 in the literature, and is increasingly translated into the practice of supply chain management and other industrial sectors for the pursuit of corporate ESG goals. 55 Building on these approaches, sustainability by design should also become a leading principle in the governance and regulation of the ICT sector. If we cannot the climate crisis, data protection by design will ultimately be a futile effort, a luxury game played out in a few privileged jurisdictions whose citizens-or courts and regulators-may still afford to care about data protection and privacy. b) Sustainability impact assessments As always with "by design" principles, the devil is in the details of implementing such ideals in concrete technologies and practices. In the context of AI regulation more specifically, mandatory sustainability impact assessments may be effective instruments to firmly integrate climate change considerations into the development of AI models. 56 55 See, e.g., https://www.bcg.com/press/10february2022-bcg-cdp-build-tech-platform-scope-3-data-acceleratedecarbonization; https://www.accenture.com/us-en/services/sustainability/sustainability-by-design; https://www.designorate.com/principles-of-sustainable-design/. 56 See also Hacker, 'The European AI Liability Directives -Critique of a Half-Hearted Approach and Lessons for the Future', 63 et seqq. on a large literature, and practical experience, concerning data protection, 57 social, 58 and algorithmic impact assessments. 59 While impact assessments are not a silver bullet 60 and embody important normative and design choices, 61 they do provide a promising route toward operationalizing sustainability considerations in the design and deployment of AI models. More specifically, a mandatory sustainability impact assessment (SIA) should be a key component of the AI Act. Indeed, the EP has added such wording for high-risk models (Art. 9(2(a) AI Act EP Version) and for foundation models (Art. 28b(2)(a) AI Act EP Version). Both provisions call, inter alia, for a risk assessment and mitigation measures concerning environmental risks. While they present a step in the right direction, they should be simultaneously narrowed and expanded. First, Art. 28b(2)(a) AI Act EP Version should be restricted to an assessment of environmental hazards-the GHG emissions and water consumption are the main risks which already materialize during the training of foundation models, before their actual deployment in real uses cases. 62 Any mistakes in this domain will inevitably propagate down the AI value chain. Other risks, e.g., to health, safety, and fundamental rights, are generally best addressed at the application level. 63 However, the analysis of environmental risks more specifically should not be limited to high-risk (Art. 9(2)(a) AI Act EP Version) or foundation models (Art. 28b(2)(a) AI Act EP Version) only. Rather, the SIA should apply to developers of both high-risk and non-high-risk AI systems: the carbon footprint of AI systems is unrelated to their level of risk regarding health, safety, or fundamental rights, or their integration in Annexes II and III. As part of the SIA, during the modeling phase, developers should compare different model and design types-such as linear regression versus deep learning, 64 federated versus non-federated learning, 65 or the use of a pre-trained models versus the training of a new model from scratch 66 -not only in terms of performance but also considering their estimated climate footprint. 67 As in the establishment of a design defect under product liability law, 68 only models and designs that are reasonably available to the developer, considering cost and utility, need to be integrated into the SIA. Obviously, such a constraint depends on the availability of approximating and comparing the GHG emissions of different models and design choices. 69 Fortunately, tools already exist to measure the carbon impact of AI models. 70 Simply put, if two model types demonstrate similar performance, developers would be obliged under the new provision to choose the more sustainable model for further development and deployment. This approach would supplement the existing focus on performance measures with greater environmental awareness and practical, low-maintenance steps to integrate sustainability into the broader target function of ML development. In fact, sustainability and performance may often align synergistically in many scenarios. One current trend in machine learning involves the utilization of pre-trained models, 71 such as ChatGPT or GPT-4. These models are initially trained on general data for a specific task class, such as image 72 or speech recognition 73 , and subsequently fine-tuned by developers using domain-specific data for a specific problem. 74 Pre-trained models not only exhibit superior performance and have become the state-of-the-art architecture for numerous tasks, 75 but may also consume less energy overall since the pre-training process needs to be performed only once for multiple model deployments. 76 However, ironically, regulations may hinder these efforts. The most powerful pre-trained models, including foundation models, are precisely the ones that the current version of the AI Act and AI liability directives discourage in their development. 77 Hence, as I have explained in detail elsewhere, the AI Act's rules on foundation models 78 and the concomitant liability 12 provisions 79 need to be adapted to the specificities and complexities of foundation models, such as GPT-4. Restrictions on training AI models One further entry point for a regulation is the time, location and type of training large AI models undergo. As mentioned, the large number of iterations necessary to calibrate state-of-the-art machine learning models consumes significant amounts of energy-leaving a large GHG footprint-and freshwater. A recent paper has shown how the GHG emissions of AI training might be lowered by (requiring) a shift to regions where large amounts of renewable are available to power AI training. Generally, this might lead to policy where AI developers might be bound to conduct training only at facilities that derive a certain percentage of their energy from renewable sources. The devil, however, is in the details. One particularly attractive move to raise the renewable energy percentage would be to "follow the sun", i.e., to conduct training in regions with excellent opportunities for photovoltaic production of energy. Incidentally, these regions may also, precisely because of their sun exposure, exhibit higher average temperatures-leading to greater water needs to cool data centers. 80 Hence, factoring water consumption into the equation introduces potentially hard trade-offs between the conservation of scarce sources and GHG emissions. Federated learning strategies may offer a way out of this impasse, as they can be both water-81 and energy efficient. 82 Ultimately, these questions will probably have to be settled in a country-and region-specific way, depending on the available resources. For the time being, however, rules such as a minimum threshold of, e.g., 50% of renewable energy powering AI training should be considered, and federated learning strategies should be explored and incentivized further. Consumption caps based on an AI model's social utility The final, and most intrusive, regulatory mechanism contemplated here to render AI more sustainable is the establishment of energy consumption caps. ML systems have become ubiquitous in various domains, such as healthcare, education, entertainment, and security. Arguably, these sectors differ in their criticality for basic societal tasks. Hence, consumption caps could be formulated as a function of the sector and specific use case the model is deployed in-similar to the risk qualification undertaken in Annexes II and III AI Act. Significantly, many of the areas listed in Annexes II and III are, arguably, among the most important societal sectors in which machine learning could, if properly used, simultaneously have the greatest positive societal impact, e.g., medicine, employment, administration, transportation and automotive etc. As a first step, lawmakers or regulators would have to define certain "social usefulness classes" based on the expected societal benefits of harnessing AI in a certain area. In a second step, consumption soft or hard consumption caps could be allocated to these classes. They would designate the amount of energy that can be used, or GHG that may be emitted, to train and run an ML system in that specific sector in use case. In this way, the permitted climate costs often AI model would depend on how valuable and beneficial the system is for society. However, this approach raises the question of how to measure and compare the social value of different ML applications. Ultimately, this is a judgment call that depends on what we can 79 Hacker, 'The European AI Liability Directives -Critique of a Half-Hearted Approach and Lessons for the Future', 53 et seq. 80 Li and others, 'Making AI Less" Thirsty": Uncovering and Addressing the Secret Water Footprint of AI Models', 9. 81 Ibid,8. 82 Güler and Yener, 'Sustainable federated learning'. 13 afford as a society in terms of energy and carbon emissions. It is a debate that, in terms of climate emergency, our societies must increasingly be prepared to have. The proposal is complicated further because, particularly in AI value chains where foundation models are finetuned, emissions cannot be simply mapped onto a specific use case as the climate costs of the foundation model factors into potentially a great variety of different applications. However, such measuring problems can, in my view, be overcome. One may either use a specific fraction (e.g., 1/1000) of the foundation models costs for each use case, or attempt to specifically measure only the cost for fine-tuning, deploying and running the model for a specific use case, with correspondingly lower consumption caps. Eventually, I submit, there should indeed be a difference between training an ML system for medical diagnostics that could potentially, with the right guardrails in place, 83 save hundreds of lives, and developing an ML system for mere entertainment purposes. For example, this difference could also translate into greater leeway in the sustainability impact assessment that would be required before deploying an ML system. By giving more flexibility to ML systems with higher social utility, we could encourage more innovation and research in areas that are critical for human well-being and social welfare, while balancing the expected benefits of specific AI applications with their climate costs. V. From sustainable AI to sustainable technology regulation 1. Sustainability challenges in technology AI models are, however, not the only digital tools or infrastructures suffering from significant GHG emissions. Indeed, many other digital technologies, beyond AI, face significant sustainability challenges due to their high GHG emissions: for example, blockchain (e.g., Bitcoin); 84 metaverse applications; 85 and data centres, 86 to name only a few. The energy demand of data centers, more specifically, is expected to grow substantially over the next years as cloud services and large compute infrastructures become ever more important to sustain advanced, data-intense IT applications, such as large AI models or the metaverse. Sustainable AI regulation as a blueprint In these areas, sustainable AI regulation may arguably serve as a blueprint. The regulatory toolbox described above, from co-regulation to sustainability assessments and hard consumption caps, can and should be flexibly adapted to these other areas of technology law. [to be elaborated xxx] VI. Sustainable and Climate-Responsive Law Perhaps the biggest challenge in a regulatory framework for sustainable AI lies in the partially intertwined, but to a large extent also independent and accelerating dynamics of the respective fields -climate change and AI development. Making regulation future-proof concerning only 83 See, e.g., Brent Mittelstadt, Sandra Wachter and Chris Russell, 'The Unfairness of Fair Machine Learning: Levelling down and strict egalitarianism by default' (2023) 14 one of these critical societal transformations already is challenging; 87 combining both of them raises the stakes even further. Hence, regulatory techniques must be developed to enable the flexible and continued adaptation of laws both to the level of climate change and to future developments of digitization and particularly in AI, which will certainly not stop with GPT-4. While the law may be harnessed to make AI and technology more sustainable, scholars also need to auto-reflexively develop pathways to render AI regulation, and the law more generally, more sustainable. Under such a perspective, sustainability emerges as a collective interest that may reconfigure certain existing rights we have come to take for granted. A sustainability limit to existing rights On a theoretical level, this questions links to the broader issue of the value and position of collective interests in law. 88 Arguably, from an economic perspective, sustainability and climate change mitigation qualify as a public good. 89 This not only points to the importance of regulatory intervention for its implementation but also raises important doctrinal questions concerning the relationship to subjective rights: using several examples drawn from data protection and non-discrimination law, the following sections explore to what extent existing subjective rights may have to be limited, or buttressed, by sustainability considerations. Taken together, these examples point to the larger question of the relevance and status of collective interests in sustainability in a body of the law that, in private law particularly, has for centuries been understood as structuring largely dyadic relationships (e.g., between seller and buyer; or more recently between data controller and data subject). a) Data protection versus sustainability To start with, we shall consider the right to be forgotten (Article 17 GDPR), which allows data subjects, under certain conditions, to request the erasure of their personal data. Now imagine that a large AI model was trained on supposedly anonymized medical data and is used for cancer detection. Some individuals whose data were contained in the training data set may be reidentified with novel technical tools. One of them exercises her right to erasure under Article 17(1)(a) GDPR. As a consequence, not only may her data point have to be deleted from the training data, but the entire AI model may have to be re-trained 90 -entailing significant GHG emissions. In my view, the subjective right to erasure, in such situations, has to be balanced against the collective interest in mitigating climate change. Doctrinally, such a "sustainability limitation" might be based on Art. 17(3)(c) or (d) GDPR. According to the former, the right to erasure does not exist if processing is necessary for reasons of public interest in the area of public health, provided that the constraints of Article 9(2)(h) or (i) and Article 9(3) GDPR are heeded. This requires, importantly, a specific law under EU or Member State law authorizing the processing of sensitive data in the specific case and providing adequate safeguards. While such a law would indeed be a favorable course of action, the question remains whether, in its absence, a possible defense against the erasure request in this and other cases might be based on Article 17(3)(d) GDPR. Pursuant to this provision, the erasure request may be denied if the processing is necessary for "for archiving purposes in the public interest, scientific or historical research purposes or statistical purposes in accordance with Article 89(1) [GDPR] in so far as [the erasure] is likely to render impossible or seriously impair the achievement of the objectives of that processing". Art. 17(3) GDPR establishes an exemption whose validity, in each single case, can only be ascertained by striking an equitable balance between the mentioned rights and interests. Based on a grammatical interpretation of Article 17(3)(d) GDPR, one will hardly find that the erasure request will seriously impair reaching the objectives of the research purpose: the deletion of a single data point from the training data set will rarely have any noticeable effect. One could, potentially, argue that taken together, a multitude of erasure requests could have such an effect; but the extent to which such extrapolations might be considered in evaluating a single erasure request -particularly if the other requests have not yet been formulated -is unclear. Hence, the woman from the example stands a decent chance of seeing her erasure request granted under a literal interpretation of Article 17(3)(d) GDPR. Arguably, however, Article 17(3) GDPR only imperfectly sketches and operationalizes a constitutionally required balancing exercise. As the CJEU spelled out in the infamous Google Spain case, the "right to be forgotten" requires a comprehensive assessment of the rights and interests of the respective parties to determine whether any erasure request must be granted. Hence, I submit that, a purposive, teleological interpretation of Article 17(3) GDPR must not be limited to the cases enumerated in letters (a) to (e). Rather, an unwritten exemption must be read into Art. 17(3) GDPR according to which erasure requests may be denied if a comprehensive balancing exercise including the constitutionally protected rights and interests of the involved parties finds a preponderance of the rights and interests of the data controller. Importantly, Article 17(3)(c) and (d) GDPR demonstrate that collective interests, such as public health, archiving, or research may limit individual erasure requests. This links the right to erasure to a growing debate on the relevance of third-party interests for interpreting the GDPR. 91 That debate, however, has so far focused on the extent to which disclosure of individual data points, and their processing, may generate (negative) externalities to third parties, for example because ML models might inference their hitherto undisclosed preferences by aggregating enough data from similarly situated persons (triangulation). The impetus, then, would be to restrict data processing in the interest of the data subjects whose preferences might be the object of inference. The question of sustainability puts this issue on its head: under this perspective, we must ask if the (climate) externalities of the exercise of individual data subject rights may effectively limit the reach or even existence of these individual rights. Again, as Article 17(3)(c) and (d) GDPR, such reasoning is not foreign to the GDPR and its right to erasure. Framed as a constitutionally required weighting exercise, it involves balancing the right of data protection against the right to, or at least interest in, saving energy and reducing GHG emissions for the sake of climate change mitigation. Importantly, while the latter is a collective interest, precisely the debate around data externalities shows that the right of data protection need not be understood as a merely individual right, but that it also embodies a collective dimension. Ultimately, such cases will have to be resolved on a case-by-case basis. However, the guideline, in my view, should be that a clear discrepancy between the individual and collective harms flowing from the continued storage/use of the data point in question and the harms resulting from the climate costs of, e.g., retraining the model should indeed lead to an exemption from the right of erasure under Article 17(3) GDPR. This will depend, inter alia, on the nature of the personal data (e.g., its proximity to sensitive data and its importance for the exercise of other fundamental rights); the extent of the projected climate costs; potential alternatives the data controller might have used to minimize climate costs in the case of erasure requests (e.g., machine unlearning 92 , sharding 93 ). The social utility of the model itself, however, should not factor into the equation as the erasure will rarely generally not lead to the deletion of the model, but only it is (partial) retraining; if indeed the purpose of the model is defeated by the erasure request, Article 17(3)(d) GDPR provides the more specific norm for the balancing exercise. In our example case, if indeed the GHG emissions from retraining model are significant (e.g., the yearly emissions of a small town) there is arguably a case to be made that the erasure request should, despite the sensitive nature of the data, eventually be denied. b) Transparency versus sustainability Transparent models may be, in some cases, more resource intensive than black box models. This holds particularly if a post hoc explanation algorithm must be deployed on top of the machine learning model. Conversely, the use of simpler models that are interpretable from the start may indeed reduce energy consumption. For instance, consider a scenario where only a black-box model can solve a problem, such as detecting fraudulent transactions or diagnosing diseases. Suppose that the law requires the model to provide explanations for its predictions, and that a post-hoc explanation algorithm exists for this purpose. However, the post-hoc explanation algorithm is very resource intensive, as it needs to analyze the black-box model and generate explanations for each case. This may result in increased energy consumption and environmental impact. In such a situation, one might wonder whether the harm of opacity is less than the harm to sustainability. That is, would it be better to use a simpler and more transparent model that is interpretable from the start, even if it sacrifices some accuracy? Or would it be preferable to use a more accurate but opaque model that requires a costly post-hoc explanation method? How can we balance these conflicting objectives and values? These questions are not easy to answer, as they depend on various factors, such as the nature and importance of the problem, the availability and quality of the data, the expectations and preferences of the users and stakeholders, and the legal and ethical implications of the decisions. environment and sustainability. Adding post-hoc fairness algorithms to the original algorithmic process may increase the energy consumption and carbon footprint of the system, as they require additional computational resources and data processing. However, between opacity and lack of non-discrimination, we argue that non-discrimination is more important and urgent to ensure in algorithmic systems, as long as the energy consumption of the system is reasonable and within acceptable limits. This is because lack of nondiscrimination has more severe and direct impacts on the affected persons than opacity. Lack of non-discrimination may lead to unfair outcomes, such as denial of opportunities, resources, or benefits, or exposure to risks, harms, or disadvantages. Moreover, lack of non-discrimination may disproportionately affect those who are already marginalized or underserved by society, such as minorities, women, or people with disabilities. Therefore, non-discrimination is a fundamental human right that should be respected and protected in algorithmic systems-even if climate costs are substantial. Climate-responsive law The previous use cases have shown how sustainability considerations may become factors irritating our traditional understanding of subjective rights, and limiting them if conditions warrant. These deliberations point to the larger question of how the law more generally may adapt to a changing climate. More specifically, the remaining part of the article will ask if and how legal provisions, particularly those of technology law covered in this article, could be coupled to the state of climate change going forward. Ideally, one may imagine sustainability rules to become stricter if the climate crisis accelerates, and to soften if, at some future moment in time, the current trend of climate change is reversed. In this way, sustainability obligations could be adapted (tightened or loosened) depending on the "state of the planet". To this end, legal and sustainability scholars should explore suitable indices capturing the state of climate change-at regional and global levels-and propose ways to integrate the current value of these indices into the interpretation or even wording of the law. While legal norms regularly refer to the state of the art in technical development, it its high time to adapt laws to the climate state of the world. This may, for example, take the form of flexible thresholds in technical standards and SIAs, coupled with relevant indices; of collective interest interpretation of general clauses; or of fundamental rights interpretation of secondary law if climate change mitigation does, indeed, gain the status of a Charter right. Again, the jurisprudence of the German Constitutional Court, binding the government to climate mitigation measure based on the current state of climate change, 94 may serve as an example here. Generally, the task of formulating a climate-responsive law contains two steps: first, the development of suitable indices (below, Part a)); and, second, legal methods to reflect the value of these indices in the interpretation and making of the law (below, Part b)). a) Measuring global climate challenges In the efforts to confront the monumental task of addressing global climate challenges, accurate measurement and assessment of these challenges have become indispensable. The Intergovernmental Panel on Climate Change (IPCC), for example, compiles data and creates reports 95 to help scientists, industry leaders and policymakers understand and adapt to the rapidly evolving science behind it impact of climate change. 94 In-depth index for climate change An in-depth index for climate change that incorporates both long-term trends and short-term fluctuations could serve as a vital tool in this regard. Such an index, with sub-indices, would incorporate numerous variables, including but not limited to, average global temperatures, sealevel rise, ice cap measurements, CO2 concentration, and the frequency of extreme weather events. Utilizing such a rich index offers a robust and nuanced understanding of the climatic changes unfolding, and may act as a significant guide for legislative reform. Institutionally, the pursuit and construction of such an index can link up with current initiatives at the EU level, for example. The European Climate Adaptation Platform (Climate-ADAPT), a partnership between the European Commission and the European Environment Agency (EEA), collects data and provides resources concerning climate change and adaptation in the EU. 96 More specifically, one initiative within that strategy, the European Climate Risk Assessment (EUCRA), maps out "current and future climate change impacts and risks relating to the environment, economy and wider society in Europe." 97 Drawing on publicly available data, projects like EUCRA, and Climate-ADAPT more generally, may facilitate tracking and disclosing various regional climate developments and indices, which may be taken up for legal interpretation and lawmaking. ii. Pragmatic proxies The development of comprehensive indices suitably geared toward legal use will probably take time, however. Climate change is a highly complex process at the feasibility of a single index, while desirable from a law and policy perspective, may be scientifically challenging. In the meantime, the application of pragmatic, more readily available proxy indices can further contribute to our ability to measure climate change effectively and to base policy and law upon it. These proxies might include factors such as the frequency and severity of natural disasters; CO2 concentrations in specific regions; changes to the global or regional average temperature; or changes in seasonal patterns. Such proxies might serve as tangible, readily observable indicators to infer the broader climate trajectory and to inform law and policy. Within the framework of Climate-ADAPT, a range of indicators are already made available as part of the European Climate Data Explorer (ECDE). 98 They include information on health, agriculture, forestry, energy, tourism as well as coastal and water resources. 99 Such categories can arguably be starting points for developing indices that can meaningfully be used by legal institutions, such as the courts, regulatory agencies, or parliaments. b) Continuous adaption of legal provisions Recognizing the dynamic nature of climate change, our laws should be adapted continuously to meet these shifting challenges effectively. Generally, there is an agreement that environmental protection laws, for example, need to be rendered more stringent as climate change proceeds, 100 and that it must inform current and future policy in a variety of sectors. 101 However, distinct legal methods can be brought to bear expand the impact of climate change insights beyond environmental law, both concerning existing and future law. i. General considerations The vast majority of laws are not in the making, but already in existence and will not be changed in the immediate future. Hence, scholars have started to interpret legal norms in the light of climate change considerations, giving rise to what may be termed an "ecological analysis of law" 102 rivaling the more traditional "economic analysis of law". 103 General clauses, for example, have long been recognized as gate openers, facilitating the integration of broader societal and normative questions into the law. More specifically, they may be interpreted by incorporating the collective interest dimension of environmental sustainability. As the specific use cases discussed above show, a flexible understanding of general clauses and vague legal terms offers a window of opportunity to ventilate specific insights from sustainability studies and climate science in the law's realm proper. Moreover, the evolution of climate change law might witness the reinterpretation of secondary EU legislation through the lens of fundamental rights, provided that climate change mitigation indeed gains recognition as a right under the EU Charter of Fundamental Rights. This development could significantly enhance the enforcement of climate change mitigation measures and hold greater accountability for environmental harm. Under such an interpretation, secondary laws and regulations that have traditionally been seen as purely economic or technical could now be reevaluated based on their environmental impact and their consistency with the right to climate change mitigation. For example, laws relating to energy production, transportation, and agriculture might need to be reassessed to ensure they do not infringe upon the recognized fundamental right to climate change mitigation. Beyond the interpretation of existing law, sustainability considerations should also increasingly inform the genesis of new legislation. Building on theories and practices of evidence-based legislation, 104 the imperative of climate change adaptation in lawmaking can take several forms, necessitating innovative approaches in interdisciplinary analysis and legal drafting. One such form can be the integration of flexible thresholds in technical standards, aligned with pertinent climate change indices. This would enable the law to dynamically respond to the severity and frequency of climate anomalies and extreme weather events. For instance, emission standards for industrial pollutants, in the realm of IT development and beyond, could be tied to indices of air quality and global warming, automatically adjusting to the prevailing conditions. This, in turn, could ensure that regulatory mechanisms remain relevant and proportionate to the degree of environmental degradation. This transformative approach embodying a climate-responsive law, involving the adaptation of technical standards, the reinterpretation of general clauses and vague legal terms, and the recognition of fundamental rights, could prove to be a game changer in our global response to the climate crisis. Given the urgency of the climate crisis, the law should be leveraged to facilitate and accelerate climate change mitigation. Overall, laws should be interpreted acknowledging the collective interest in environmental sustainability, designed to be capable of evolving in accordance with scientific insights and understanding of climate change, and revised regularly-"manually" by legislative review or "automatically" by reference to a climate change index-to reflect the changing conditions of the planet the laws operate on. ii. A case in point: Sustainability thresholds in sustainability impact assessments Sustainability thresholds in sustainability impact assessments have a critical role to play in these adaptations of legal provisions, and may serve as a case in point. As discussed, sustainability impact assessments would cover the development and deployment of AI more specifically, and technology more broadly (see Part IV.2.). Such mandatory assessments would ensure that reasonable alternatives to specific models and implementations are considered, and chosen, if the trade-off between the performance of the alternative model and the benefits in terms of GHG emissions speaks in favor of the alternative. Importantly, one way to operationalize the SIA could be the establishment of a threshold of performance loss-vis-à-vis the best performing model-below which even significantly more sustainable models need not be anymore. Conversely, the performance corridor delineated by the best-performing model and the threshold, the most sustainable model (or the model with the best performance-sustainability trade-off, depending on the exact design of the SIA) would have to be chosen. This decisive threshold could arguably be tethered to the climate change index, or a meaningful sub-index or proxy: the more urgent the climate crisis, the broader the range of models that need to be considered as an alternative, and hence the greater the weight of sustainability considerations in the trade-off. Effectively, in terms of accelerating climate change, even alternative models with significantly lower performance could then be benchmarked against the best performing model. Similarly, the renewable energy threshold discussed above (see Part IV.3.) might be coupled to a climate change index, raising the threshold as the planet heats up. By calibrating thresholds in response to the climate change index, AI regulation and practice may be endowed with a scientifically grounded and continuously updated basis. In conclusion, legal responses to climate change require both the understanding of scientific data and the ability to translate that understanding into effective, adaptive legislation. The proposed climate change index and use of pragmatic proxies provide a means to grasp the state of climate change more accurately, while continuous adaptation of legal provisions based on ecological interpretation of law and on sustainability thresholds offer a flexible and responsive strategy for maintaining balancing performance and innovation with climate change mitigation. Overall, this contributes to an understanding of the law that is not fixed and doctrinal, but responsive to the key challenges our society is facing, such as the dual large-scale transformations of digitization and sustainability. VII. Conclusion This paper suggests that AI regulation needs a shift from trustworthiness to sustainability. This desideratum has acquired urgency with the advent of large generative AI models like ChatGPT or GPT-4. While such large AI models may offer sustainability benefits in the long run, their training and deployment is highly resource intensive along several parameters, such as GHG emissions and water consumption. Against this background, the paper articulates a framework for sustainable AI and technology regulation, in a dual sense. First, AI regulation needs to take contributions of AI to climate change and water scarcity seriously, establish provisions to make AI more environmentally sustainable. Second, AI regulation itself-and the law more generally-must be rendered more sustainable by recognizing the collective interest of climate change mitigation as a modifying factor in the analysis and enforcement of individual subjective rights. Concerning the first dimension-regulating for a more sustainable AI development and deployment-I show that the significant challenges AI poses regarding environmental sustainability are only in adequately addressed by the upcoming EU AI Act. Hence, the paper suggests and develops a range of strategies, from transparency mechanisms to co-regulation, sustainability by design, including sustainability impact assessments, and restrictions on AI training to consumption caps. Regarding the second dimension-bringing AI regulation and the law itself in line with sustainability desiderata-the paper explores the balance between individual rights, such as the right to erasure under the GDPR, and collective interests like mitigating climate change. It suggests that the right to erasure may need to be limited if it interferes with efforts to combat climate change. The authors also discuss the potentially increased energy consumption associated with more transparent models and fairness-aware algorithms implementing nondiscrimination provisions. While greater leeway exists for a restrictive integration of transparency provisions in cases of high climate costs, I suggest that non-discrimination provisions should generally prevail over climate concerns. Finally, the paper argues for the development of a comprehensive index to measure the impact of climate change regionally and globally, and to use this as a variable to calibrate AI and technology regulation. More specifically, thresholds and sustainability impact assessments for restrictions for training data could be coupled to suitable indices, tightening regulatory requirements as the climate crisis accelerates (and vice versa). The overall goal is to facilitate a broadened, climate-responsive interpretation and making of the law to promote environmental sustainability. Overall, the law must be leveraged, beyond environmental law properly, to accelerate climate change mitigation efforts-before it is too late for good. of Contents I. Introduction . 1 II. AI and sustainability . 3 1. AI and classical AI risks . 3 2. Another perspective: environmental risks . 4 3. Why environmental sustainability? . 4 a) Promises to mitigate global warming . 5 b) Contributions of ICT and AI to climate change . 5 III. Sustainable AI and the EU AI Act . 5 IV. Policy proposals: sustainable AI regulation going forward . 7 1. Co-regulation . 8 2. Sustainability by design . 8 a) From data protection to sustainability by design . 9 b) Sustainability impact assessments . 9 3. Restrictions on training AI models . 12 4. Consumption caps based on an AI model's social utility . 12 V. From sustainable AI to sustainable technology regulation . 13 1. Sustainability challenges in technology . 13 2. Sustainable AI regulation as a blueprint . 13 VI. Sustainable and Climate-Responsive Law . 13 1. A sustainability limit to existing rights . 14 a) Data protection versus sustainability . 14 b) Transparency versus sustainability . 16 c) Non-discrimination versus sustainability . 16 c) Non-discrimination versus sustainabilityIn ways similar to post hoc explanations, post-hoc fairness algorithms may mitigate bias in machine learning systems. However, these methods may have unintended consequences for the92 Thanh Tam Nguyen and others, 'A survey of machine unlearning' (2022) arXiv preprint arXiv:220902299 ; Ayush Sekhari and others, 'Remember what you want to forget: Algorithms for machine unlearning' (2021) 34 Advances in Neural Information Processing Systems 18075; Yinzhi Cao and Junfeng Yang, 'Towards making systems forget with machine unlearning' (2015) 2015 IEEE symposium on security and privacy 463. 93 Lucas Bourtoule and others, 'Machine unlearning' (2021) 2021 IEEE Symposium on Security and Privacy (SP) 141. See n. FEHLER! TEXTMARKE NICHT DEFINIERT.. 95 See, e.g., Hans-Otto Pörtner and others, Climate Change 2022: Impacts, Adaptation and Vulnerability (2022); Valérie Masson-Delmotte and others, Climate Change 2021: The physical science basis (2021); Nebojsa i. Table //www.europarl.europa.eu/meetdocs/2014_2019/plmrep/COMMITTEES/CJ40/DV/2023/05-11/ConsolidatedCA_IMCOLIBE_AI_ACT_EN.pdf (= AI Act EP Version).40 But see Mario Martini and Hannah Ruschemeier, 'Künstliche Intelligenz als Instrument des Umweltschutzes' (2021) 2021 Zeitschrift für Umweltrecht 515-521 et seqq. Pagallo, Sciolla and Durante, 'The environmental challenges of AI in EU law: lessons learned from the Artificial Intelligence Act (AIA) with its drawbacks '. 41 European Commission, Proposal for a Directive of the European Parliament and of the Council on adapting non-contractual civil liability rules to artificial intelligence (2022) 4. 42 Cowls and others, 'The AI gambit: leveraging artificial intelligence to combat climate change-opportunities, challenges, and recommendations'. 43 https://data.consilium.europa.eu/doc/document/ST-14954-2022-INIT/en/pdf. 44 Luca Bertuzzi, 'AI Act moves ahead in EU Parliament with key committee vote' EURACTIV <https://www.euractiv.com/section/artificial-intelligence/news/ai-act-moves-ahead-in-eu-parliament-with-key- committee-vote/> accessed May 11, 2023. 45 Draft Compromise Amendments on the Draft Report, Proposal for a regulation of the European Parliament and of the Council, Brando Benifei & Ioan-Dragoş Tudorache (May 9, 2023), https: ., Large AI Models for Germany: Feasibility Study 48 See only Omri Ben-Shahar and Carl E Schneider, More than you wanted to know. The Failure of Mandated Disclosure (Princeton University Press 2014); Philipp Hacker, Verhaltensökonomik und Normativität: die Grenzen des Informationsmodells im Privatrecht und seine Alternativen, vol 67 (Mohr Siebeck 2017) 116, 132 et seqq. 49 Hacker, Engel and Mauer, 'Regulating ChatGPT and other Large Generative AI Models'. Such a proposal may build 51 Meg Leta Jones and Margot E Kaminski, 'An American's Guide to the GDPR' (2020) 98 Denv L Rev 93. 52 See, e.g., Amartya Sen, The Idea of Justice (Harvard University Press 2011). 53 John Ehrenfeld, Sustainability by design: A subversive strategy for transforming our consumer culture (Yale University Press 2008). 54 Carlo Vezzoli and Ezio Manzini, Design for environmental sustainability (Springer 2008). arXiv preprint arXiv:230202404 . 84 Johannes Sedlmeir and others, 'The energy consumption of blockchain technology: Beyond myth' (2020) 62 Business & Information Systems Engineering 599. Luca Bertuzzi, 'EU Commission moves to link 'fair share' debate with the metaverse' 2023) <www.euractiv.com/section/digital/news/eu-commission-moves-to-link-fair-share-debate-with-the-metaverse> accessed January 10 . 86 Technology Policy Council, TechBrief: Computing and Climate Change (Association for Computing Machinery 2021) 1.85 But see now, e.g., Philipp Hacker, Andreas Engel and Marco Mauer, 'Regulating ChatGPT and other Large Generative AI Models' (2023) ACM Conference on Fairness, Accountability, and Transparency (FAccT '23, See, e.g., https://www.bcg.com/de-de/publications/2022/how-ai-can-help-climate-change; https://www.sueddeutsche.de/wirtschaft/ki-energie-sparen-industrie-eisengiesserei-aveva-1.5650707; OECD, See, e.g., the recent decision of the Irish DPA of December 31, 2022, Meta Platforms, xx. See, e.g., David Flaherty, 'Privacy impact assessments: an essential tool for data protection' (2000) 5 Privacy Law & Policy Reporter 85; David Wright and Paul De Hert (eds), Privacy Impact Assessment (Springer 2012); The exact impact is not easy to measure. An index including Scope 1, 2 and 3 Emissions for necessary compute resources (e.g., energy; carbon emissions) for training and retraining could be used as a proxy. For a more See, e.g., Solon Barocas and Karen Levy, 'Privacy dependencies' (2020) 95 Wash L Rev 555; Ben-Shahar, 'Data Pollution' (2019) 11 Journal of Legal Analysis 104; Hacker, Datenprivatrecht (Mohr Siebeck 2020), 64 et seqq. ChatGPT and the AI Act. Natali Helberger, Nicholas Diakopoulos, Internet Policy Review. 12Natali Helberger and Nicholas Diakopoulos, 'ChatGPT and the AI Act' (2023) 12 Internet Policy Review ; Regulating AI in Europe: four problems and four solutions. Lilian Edwards, 2022Lilian Edwards, 'Regulating AI in Europe: four problems and four solutions' (2022) 2022; The European AI Liability Directives -Critique of a Half-Hearted Approach and Lessons for the Future. Hacker, Hacker, 'The European AI Liability Directives -Critique of a Half-Hearted Approach and Lessons for the Future'. The principle of sustainability: transforming law and governance. E G See, Bosselmann, See, e.g., Bosselmann, The principle of sustainability: transforming law and governance (Routledge 2016); Sjåfjell/Richardson, Company Law and Sustainability. Sjåfjell/Richardson (eds), Company Law and Sustainability (CUP 2015); . Nachhaltigkeit Mittwoch, Und Unternehmensrecht, Mittwoch, Nachhaltigkeit und Unternehmensrecht (Mohr Siebeck 2022); Herbert Zech, Nachhaltigkeit und Digitalisierung im Recht' (2022). Herbert Zech, 'Nachhaltigkeit und Digitalisierung im Recht' (2022) 2 . Zeitschrift für Digitalisierung und Recht. 123Zeitschrift für Digitalisierung und Recht 123; . Nachhaltiges Schirmer, Privatrecht, Mohr SiebeckSchirmer, Nachhaltiges Privatrecht (Mohr Siebeck, 2023). Zeitschrift für Umweltrecht 515, 521 et seqq.; Pagallo/Sciolla/Durante, 'The environmental challenges of AI in EU law: lessons learned from the Artificial Intelligence Act (AIA) with its drawbacks' (2022) 16 Transforming Government: People, Process and Policy 359. But See Martini/Ruschemeier, Künstliche Intelligenz als Instrument des UmweltschutzesBut see Martini/Ruschemeier, 'Künstliche Intelligenz als Instrument des Umweltschutzes', (2022) Zeitschrift für Umweltrecht 515, 521 et seqq.; Pagallo/Sciolla/Durante, 'The environmental challenges of AI in EU law: lessons learned from the Artificial Intelligence Act (AIA) with its drawbacks' (2022) 16 Transforming Government: People, Process and Policy 359. Oecd See, Measuring the Environmental Impacts of AI Compute and Applications (2022). 27See OECD, Measuring the Environmental Impacts of AI Compute and Applications (2022), 27. Carbon emissions and large neural network training. Others Patterson, arXiv:210410350arXiv preprintPatterson and others, 'Carbon emissions and large neural network training' (2021) arXiv preprint arXiv:210410350. Patterson and others, 'Carbon emissions and large neural network training. Cf, arXiv:210410350arXiv preprintCf. Patterson and others, 'Carbon emissions and large neural network training' (2021) arXiv preprint arXiv:210410350. . E G See, Stefano Bianchini, Giacomo Damioli, Claudia Ghisetti, The environmental effects of the "twin" green and digital transition in European regions' (2023) 84 Environmental and Resource Economics 877OECD, Measuring the Environmental Impacts of AI Compute and ApplicationsSee, e.g., Stefano Bianchini, Giacomo Damioli and Claudia Ghisetti, 'The environmental effects of the "twin" green and digital transition in European regions' (2023) 84 Environmental and Resource Economics 877OECD, Measuring the Environmental Impacts of AI Compute and Applications (2022); The AI gambit: leveraging artificial intelligence to combat climate change-opportunities, challenges, and recommendations. Others Cowls, Cowls and others, 'The AI gambit: leveraging artificial intelligence to combat climate change-opportunities, challenges, and recommendations' Artificial intelligence and the climate emergency' (2021) 4 One Earth 776; Freitag and others. AI & Society. 1The real climate and transformative impact of ICT: A critique of estimates, trends. and regulations' (2021) 2 PatternsAI & Society 1; Taddeo and others, 'Artificial intelligence and the climate emergency' (2021) 4 One Earth 776; Freitag and others, 'The real climate and transformative impact of ICT: A critique of estimates, trends, and regulations' (2021) 2 Patterns 100340; Artificial intelligence, systemic risks, and sustainability. Victor Galaz and others. 67Schwartz and others, 'Green AI' (2020) 63 Communications of the ACM 54Victor Galaz and others, 'Artificial intelligence, systemic risks, and sustainability' (2021) 67 Technology in Society 101741; Schwartz and others, 'Green AI' (2020) 63 Communications of the ACM 54. Measuring the Environmental Impacts of AI Compute and Applications: The AI Footprint. Measuring the Environmental Impacts of AI Compute and Applications: The AI Footprint (2022); Artificial intelligence and the climate emergency: Opportunities, challenges, and recommendations. One Earth. 4Mariarosaria Taddeo and othersMariarosaria Taddeo and others, 'Artificial intelligence and the climate emergency: Opportunities, challenges, and recommendations' (2021) 4 One Earth 776; The AI gambit: leveraging artificial intelligence to combat climate change-opportunities, challenges, and recommendations. AI & Society 1Josh Cowls and othersJosh Cowls and others, 'The AI gambit: leveraging artificial intelligence to combat climate change-opportunities, challenges, and recommendations' (2021) AI & Society 1. Our house is on fire: The climate emergency and computing's responsibility' (2022) 65 Communications of the ACM 38; Freitag and others. The real climate and transformative impact of ICT: A critique of estimates, trends, and regulations'; Taddeo and others. Artificial intelligence and the climate emergency: Opportunities, challenges, and recommendations'See, e.g., Bran Knowles and others, 'Our house is on fire: The climate emergency and computing's responsibility' (2022) 65 Communications of the ACM 38; Freitag and others, 'The real climate and transformative impact of ICT: A critique of estimates, trends, and regulations'; Taddeo and others, 'Artificial intelligence and the climate emergency: Opportunities, challenges, and recommendations'. The real climate and transformative impact of ICT: A critique of estimates, trends, and regulations. Others Freitag, Freitag and others, 'The real climate and transformative impact of ICT: A critique of estimates, trends, and regulations'; Measuring the Environmental Impacts of AI Compute and Applications: The AI Footprint. OECDOECD, Measuring the Environmental Impacts of AI Compute and Applications: The AI Footprint, 25-26. . ACM Tech. Policy Council, ACM TechBrief: Computing and Climate Change. 1ACM Tech. Policy Council, ACM TechBrief: Computing and Climate Change (2021) 1. Training GPT-3 in Microsoft's state-of-the-art U.S. data centers can directly consume 700,000 liters of clean freshwater, enough for producing 370 BMW cars or 320 Tesla electric vehicles, and these numbers would have been tripled if GPT-3 were trained in Microsoft's Asian data centers. 2OECDMeasuring the Environmental Impacts of AI Compute and Applications: The AI Footprint, 5; Li and othersOECD, Measuring the Environmental Impacts of AI Compute and Applications: The AI Footprint, 5; Li and others, 'Making AI Less" Thirsty": Uncovering and Addressing the Secret Water Footprint of AI Models', 2: "Training GPT-3 in Microsoft's state-of-the-art U.S. data centers can directly consume 700,000 liters of clean freshwater, enough for producing 370 BMW cars or 320 Tesla electric vehicles, and these numbers would have been tripled if GPT-3 were trained in Microsoft's Asian data centers." Making AI Less" Thirsty": Uncovering and Addressing the Secret Water Footprint of AI Models. Others Li, 3Li and others, 'Making AI Less" Thirsty": Uncovering and Addressing the Secret Water Footprint of AI Models', 3. The principle of sustainability: transforming law and governance. E G See, Klaus Bosselmann, See, e.g., Klaus Bosselmann, The principle of sustainability: transforming law and governance (Routledge 2016); Company Law and Sustainability. Beate Sjåfjell and Benjamin J. RichardsonCambridge University PressBeate Sjåfjell and Benjamin J. Richardson (eds), Company Law and Sustainability (Cambridge University Press 2015); . Anne-Christin Mittwoch, Nachhaltigkeit und Unternehmensrecht (Mohr Siebeck. 2022Anne-Christin Mittwoch, Nachhaltigkeit und Unternehmensrecht (Mohr Siebeck 2022); . Jan-Erik Schirmer, Nachhaltiges Privatrecht (Mohr Siebeck. 2023Jan-Erik Schirmer, Nachhaltiges Privatrecht (Mohr Siebeck 2023); Nachhaltigkeit und Digitalisierung im Recht. Zech, Zech, 'Nachhaltigkeit und Digitalisierung im Recht'. Felix Bieker and others, A process for data protection impact assessment under the european General Data Protection Regulation. SpringerFelix Bieker and others, A process for data protection impact assessment under the european General Data Protection Regulation (Springer 2016); Data protection impact assessments: a meta-regulatory approach' (2017) 7 International Data Privacy Law 22. Reuben Binns, Reuben Binns, 'Data protection impact assessments: a meta-regulatory approach' (2017) 7 International Data Privacy Law 22; A risk to a right? Beyond data protection risk assessments. Niels Van Dijk, Raphaël Gellert, Kjetil Rommetveit, Computer Law & Security Review. 32Niels Van Dijk, Raphaël Gellert and Kjetil Rommetveit, 'A risk to a right? Beyond data protection risk assessments' (2016) 32 Computer Law & Security Review 286; Understanding the notion of risk in the General Data Protection Regulation. Raphael Gellert, Computer Law & Security Review. 27934Raphael Gellert, 'Understanding the notion of risk in the General Data Protection Regulation' (2018) 34 Computer Law & Security Review 279. From privacy impact assessment to social impact assessment. E G See, Lilian Edwards, Derek Mcauley, Laurence Diver, IEEE Security and Privacy Workshops. 53SPWSee, e.g., Lilian Edwards, Derek McAuley and Laurence Diver, 'From privacy impact assessment to social impact assessment' (2016) 2016 IEEE Security and Privacy Workshops (SPW) 53. An Institutional View of Algorithmic Impact Assessments' (2021) 35. E G See, D Andrew, Selbst, Harvard Journal of Law & Technology. See, e.g., Andrew D Selbst, 'An Institutional View of Algorithmic Impact Assessments' (2021) 35 Harvard Journal of Law & Technology 117; Algorithmic Impact Assessments: A Practical Framework for Public Agency. Dillon Reisman, Others, AI NowDillon Reisman and others, 'Algorithmic Impact Assessments: A Practical Framework for Public Agency' (2018) AI Now ; Algorithmic impact assessments under the GDPR: producing multi-layered explanations' (2020) International Data Privacy Law. E Margot, Gianclaudio Kaminski, Malgieri, Margot E Kaminski and Gianclaudio Malgieri, 'Algorithmic impact assessments under the GDPR: producing multi-layered explanations' (2020) International Data Privacy Law 19; Emanuel Moss and others, Assembling accountability: Algorithmic Impact Assessment for the public interest. APO Report. Emanuel Moss and others, Assembling accountability: Algorithmic Impact Assessment for the public interest (APO Report, 2021). A human rights perspective on privacy and data protection impact assessments. Hert Paul De, Privacy Impact Assessment. David Wright and Paul De HertSpringerPaul De Hert, 'A human rights perspective on privacy and data protection impact assessments' in David Wright and Paul De Hert (eds), Privacy Impact Assessment (Springer 2012). Three Pathways for Standardisation and Ethical Disclosure by Default under the European Union Artificial Intelligence Act' (2023) Working Paper. Johann Laux, Sandra Wachter, Brent Mittelstadt, Johann Laux, Sandra Wachter and Brent Mittelstadt, 'Three Pathways for Standardisation and Ethical Disclosure by Default under the European Union Artificial Intelligence Act' (2023) Working Paper, https://ssrncom/abstract=4365079 . Another key risk at this level is discrimination; hence, Art. 10 AI Act should apply to foundation models as well, see Hacker, Engel and Mauer. Regulating ChatGPT and other Large Generative AI Models. Part 7.3Another key risk at this level is discrimination; hence, Art. 10 AI Act should apply to foundation models as well, see Hacker, Engel and Mauer, 'Regulating ChatGPT and other Large Generative AI Models', Part 7.3. . Ibid, Part 7.2; but see also n. 62Ibid, Part 7.2; but see also n. 62. Energy and policy considerations for modern deep learning research. Emma Strubell, Ananya Ganesh, Andrew Mccallum, 2020) 34 Proceedings of the AAAI Conference on Artificial Intelligence 13693. Emma Strubell, Ananya Ganesh and Andrew McCallum, 'Energy and policy considerations for modern deep learning research' (2020) 34 Proceedings of the AAAI Conference on Artificial Intelligence 13693. A framework for sustainable federated learning. Başak Güler, Aylin Yener, IEEE 2021Başak Güler and Aylin Yener, A framework for sustainable federated learning (IEEE 2021) impact measure (including production, transport, and end-of-life, as well as water consumption), see OECD, Measuring the Environmental Impacts of AI Compute and Applications: The AI Footprint. David Cf, Patterson, Others, arXiv:210410350 . comprehensiveAnnex A. arXiv preprintCarbon emissions and large neural network trainingCf. David Patterson and others, 'Carbon emissions and large neural network training' (2021) arXiv preprint arXiv:210410350 . comprehensive impact measure (including production, transport, and end-of-life, as well as water consumption), see OECD, Measuring the Environmental Impacts of AI Compute and Applications: The AI Footprint, Annex A; and 3 Emissions, see IPCC, Working Group III Contribution to the Fifth Assessment Report of the Intergovernmental Panel on Climate Change. 122on Scope 1, 2 and 3 Emissions, see IPCC, Working Group III Contribution to the Fifth Assessment Report of the Intergovernmental Panel on Climate Change (2014), 122. The European AI Liability Directives -Critique of a Half-Hearted Approach and Lessons for the Future. Hacker, 24 et seq.Hacker, 'The European AI Liability Directives -Critique of a Half-Hearted Approach and Lessons for the Future', 24 et seq.. Making AI Less" Thirsty": Uncovering and Addressing the Secret Water Footprint of AI Models', 9; below, text accompanying n. 80) have to be resolved on a case-by-case basis. Any trade-offs between GHG emissions and water consumption (see, e.g., Li and others. grounded in best practices, a reasonable weighting of all relevant factors, and regulatory guidelines69 Water consumption should be monitored as well, to the extent possible. Any trade-offs between GHG emissions and water consumption (see, e.g., Li and others, 'Making AI Less" Thirsty": Uncovering and Addressing the Secret Water Footprint of AI Models', 9; below, text accompanying n. 80) have to be resolved on a case-by-case basis, grounded in best practices, a reasonable weighting of all relevant factors, and regulatory guidelines. Measuring the Environmental Impacts of AI Compute and Applications: The AI Footprint. 28Overview in OECDOverview in OECD, Measuring the Environmental Impacts of AI Compute and Applications: The AI Footprint, 28. Pre-trained models: Past, present and future' (2021) 2 AI Open 225. Xu Han and othersSee, e.g., Xu Han and others, 'Pre-trained models: Past, present and future' (2021) 2 AI Open 225; Pre-train, Prompt, and Predict: A Systematic Survey of Prompting Methods in Natural Language Processing. 55 ACM Computing Surveys. 1Pengfei Liu and othersPengfei Liu and others, 'Pre-train, Prompt, and Predict: A Systematic Survey of Prompting Methods in Natural Language Processing' (2021) 55 ACM Computing Surveys 1 . Unregistered multiview mammogram analysis with pre-trained deep learning models. E G See, Gustavo Carneiro, Jacinto Nascimento, Andrew P Bradley, SpringerSee, e.g., Gustavo Carneiro, Jacinto Nascimento and Andrew P Bradley, Unregistered multiview mammogram analysis with pre-trained deep learning models (Springer 2015). Toward a realistic model of speech processing in the brain with self-supervised learning. Juliette Millet and others. Juliette Millet and others, 'Toward a realistic model of speech processing in the brain with self-supervised learning' (2022) NeurIPS https://arxiv.org/abs/2206.01685. Pre-trained models: Past, present and future' (2021) 2 AI Open 225. Xu Han, Others, Xu Han and others, 'Pre-trained models: Past, present and future' (2021) 2 AI Open 225. . Ibid, Ibid. David Patterson and others, 'Carbon emissions and large neural network training. Cf, arXiv:210410350arXiv preprintCf. David Patterson and others, 'Carbon emissions and large neural network training' (2021) arXiv preprint arXiv:210410350. Regulating ChatGPT and other Large Generative AI Models. Engel Hacker, Mauer, Hacker, Engel and Mauer, 'Regulating ChatGPT and other Large Generative AI Models'. . Ibid, Ibid. Substantively smart cities-Participation, fundamental rights and temporality. E G See, Philipp Hacker, Jürgen Neyer, Internet Policy Review. 12See, e.g., Philipp Hacker and Jürgen Neyer, 'Substantively smart cities-Participation, fundamental rights and temporality' (2023) 12 Internet Policy Review ; . Liaquat Ali Khan, 40Liaquat Ali Khan, 'Temporality of Law' (2009) 40 . McGeorge L Rev. McGeorge L Rev 55; Recurring dilemmas: The law's race to keep up with technological change. Lyria Bennett, Moses , Ill JL Tech & Pol'y 239. Lyria Bennett Moses, 'Recurring dilemmas: The law's race to keep up with technological change' (2007) U Ill JL Tech & Pol'y 239. Collective interests and collective rights. E G See, G Dwight, Newman, The American Journal of Jurisprudence. 12749See, e.g., Dwight G Newman, 'Collective interests and collective rights' (2004) 49 The American Journal of Jurisprudence 127; The collective interest in private dispute resolution. Linda Mulcahy, Oxford Journal of Legal Studies. 5933Linda Mulcahy, 'The collective interest in private dispute resolution' (2013) 33 Oxford Journal of Legal Studies 59; Verhaltensökonomik und Normativität: die Grenzen des Informationsmodells im Privatrecht und seine Alternativen. E G See, Philipp Hacker, Mohr Siebeck368et seqqSee, e.g., Philipp Hacker, Verhaltensökonomik und Normativität: die Grenzen des Informationsmodells im Privatrecht und seine Alternativen (Mohr Siebeck, 2017), 368 et seqq. The economics of climate change. E G See, Nicholas Stern, 98See, e.g., Nicholas Stern, 'The economics of climate change' (2008) 98 Gernot Wagner, Martin L Weitzman, Climate shock. Princeton University Press1American Economic Review 1; Gernot Wagner and Martin L Weitzman, Climate shock (Princeton University Press 2016). Algorithms that remember: model inversion attacks and data protection law. E G See, Michael Veale, Reuben Binns, Lilian Edwards, Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences. 376See, e.g., Michael Veale, Reuben Binns and Lilian Edwards, 'Algorithms that remember: model inversion attacks and data protection law' (2018) 376 Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences 20180083; A legal framework for AI training data-from first principles to the Artificial Intelligence Act' (2021) 13 Law, Innovation and Technology 257. Philipp Hacker, Philipp Hacker, 'A legal framework for AI training data-from first principles to the Artificial Intelligence Act' (2021) 13 Law, Innovation and Technology 257. . Rob Nakicenovic, Swart, Emissions scenarios -Special Report of the Intergovernmental Panel on Climate ChangeNakicenovic and Rob Swart, Emissions scenarios -Special Report of the Intergovernmental Panel on Climate Change (2000); . Working Ipcc, Group, III Contribution to the Fifth Assessment Report of the Intergovernmental Panel on Climate ChangeIPCC, Working Group III Contribution to the Fifth Assessment Report of the Intergovernmental Panel on Climate Change (2014); Climate Change and Land: an IPCC special report on climate change, desertification, land degradation, sustainable land management, food security, and greenhouse gas fluxes in terrestrial ecosystems. R Priyadarshi, Shukla, Others, Priyadarshi R Shukla and others, Climate Change and Land: an IPCC special report on climate change, desertification, land degradation, sustainable land management, food security, and greenhouse gas fluxes in terrestrial ecosystems (2019);. . Id, Id. Adapting Environmental Law to the impacts of climate change-Analysis, development and innovation of legal instruments' (2010) 8 UBA Project. M Reese, Others, FKZ 3708 41 100/01111M Reese and others, 'Adapting Environmental Law to the impacts of climate change-Analysis, development and innovation of legal instruments' (2010) 8 UBA Project FKZ 3708 41 100/01, Project Z 6-90 111 Adaptation principles. Stephane Hallegatte, Jun Rentschler, Julie Rozenberg, World BankStephane Hallegatte, Jun Rentschler and Julie Rozenberg, Adaptation principles (World Bank 2020). . Ivo Bach, Eva-Maria Kieninger, Juristenzeitung. Ökologische Analyse des ZivilrechtsIvo Bach and Eva-Maria Kieninger, 'Ökologische Analyse des Zivilrechts' (2021) Juristenzeitung 1088; . Alexander Hellgardt, Victor Jouannaud, Nachhaltigkeitsziele und Privatrecht. 222Alexander Hellgardt and Victor Jouannaud, 'Nachhaltigkeitsziele und Privatrecht' (2022) 222 Archiv für die civilistische Praxis 163; cf., also Malte-Christian Gruber. Environmental Law and Economics. Klaus Mathis and Bruce R. HuberSpringerEscaping the Epistemic Trap: An Ecological Analysis of Law and EconomicsArchiv für die civilistische Praxis 163; cf., also Malte-Christian Gruber, 'Escaping the Epistemic Trap: An Ecological Analysis of Law and Economics' in Klaus Mathis and Bruce R. Huber (eds), Environmental Law and Economics (Springer Die epistemische Analyse des Rechts: Von der ökonomischen zur ökologischen Rationalität in der Rechtswissenschaft. Dan Wielsch, Juristenzeitung. 67Dan Wielsch, 'Die epistemische Analyse des Rechts: Von der ökonomischen zur ökologischen Rationalität in der Rechtswissenschaft' (2009) Juristenzeitung 67; . Axel Halfmeier, Nachhaltiges Privatrecht. 216Axel Halfmeier, 'Nachhaltiges Privatrecht' (2016) 216 Archiv für die civilistische Praxis 717; Zech. Nachhaltigkeit und Digitalisierung im Recht. Archiv für die civilistische Praxis 717; Zech, 'Nachhaltigkeit und Digitalisierung im Recht'; 18 et seqq. Nachhaltiges Schirmer, Privatrecht, Schirmer, Nachhaltiges Privatrecht, 18 et seqq. E G See, A Richard, Posner, Economic Analysis of Law. Aspen Publishing9th ednSee, e.g., Richard A Posner, Economic Analysis of Law (9th edn, Aspen Publishing 2014); Steven Shavell, Foundations of Economic Analysis of Law. Harvard U PressSteven Shavell, Foundations of Economic Analysis of Law (Harvard U Press 2004). . E G See, J Jeffrey, Rachlinski, 96See, e.g., Jeffrey J Rachlinski, 'Evidence-based law' (2010) 96 Putting evidence-based law making to the test: judicial review of legislative rationality' (2016) 4 The Theory and Practice of Legislation 155. Jurgen De Cornell L Rev 901; Rob Van Gestel, Poorter, Cornell L Rev 901; Rob Van Gestel and Jurgen De Poorter, 'Putting evidence-based law making to the test: judicial review of legislative rationality' (2016) 4 The Theory and Practice of Legislation 155; Learning and the law: improving behavioral regulation from an international and comparative perspective. Georgios Dimitropoulos, Philipp Hacker, JL & Pol'y. 473Georgios Dimitropoulos and Philipp Hacker, 'Learning and the law: improving behavioral regulation from an international and comparative perspective' (2016) 25 JL & Pol'y 473; Sex trafficking and the sex industry: The need for evidence-based theory and legislation. Ronald Weitzer, Ronald Weitzer, 'Sex trafficking and the sex industry: The need for evidence-based theory and legislation' (2011) . J Crim L & Criminology. J Crim L & Criminology 1337; Understanding evidence-based public health policy' (2009) 99 American Journal of Public Health 1576. References Ben-Shahar O and Schneider CE, More than you wanted to know. The Failure of Mandated Disclosure. Jamie F Ross C Brownson, Katherine A Chriqui, Stamatakis, Princeton University PressRoss C Brownson, Jamie F Chriqui and Katherine A Stamatakis, 'Understanding evidence-based public health policy' (2009) 99 American Journal of Public Health 1576. References Ben-Shahar O and Schneider CE, More than you wanted to know. The Failure of Mandated Disclosure (Princeton University Press 2014) The principle of sustainability: transforming law and governance. K Bosselmann, RoutledgeBosselmann K, The principle of sustainability: transforming law and governance (Routledge Sustainability by design: A subversive strategy for transforming our consumer culture. J Ehrenfeld, Yale University PressEhrenfeld J, Sustainability by design: A subversive strategy for transforming our consumer culture (Yale University Press 2008) P Hacker, Verhaltensökonomik Und Normativität, die Grenzen des Informationsmodells im Privatrecht und seine Alternativen. Mohr Siebeck67Hacker P, Verhaltensökonomik und Normativität: die Grenzen des Informationsmodells im Privatrecht und seine Alternativen, vol 67 (Mohr Siebeck 2017) O Lobel, The Equality Machine. Lobel O, The Equality Machine (2022) . A-C Mittwoch, Nachhaltigkeit Und Unternehmensrecht, Mohr SiebeckMittwoch A-C, Nachhaltigkeit und Unternehmensrecht (Mohr Siebeck 2022) R A Posner, Economic Analysis of Law. Aspen Publishing9th ednPosner RA, Economic Analysis of Law (9th edn, Aspen Publishing 2014) Russell Sj, P Norvig, Artificial Intelligence: A Modern Approach. 4th Global edn, Pearson Education 2022Russell SJ and Norvig P, Artificial Intelligence: A Modern Approach (4th Global edn, Pearson Education 2022) . J-E Schirmer, Nachhaltiges Privatrecht, Mohr SiebeckSchirmer J-E, Nachhaltiges Privatrecht (Mohr Siebeck 2023) A Sen, The Idea of Justice. Harvard University PressSen A, The Idea of Justice (Harvard University Press 2011) S Shavell, Foundations of Economic Analysis of Law. Harvard U PressShavell S, Foundations of Economic Analysis of Law (Harvard U Press 2004) Design for environmental sustainability. C Vezzoli, E Manzini, SpringerVezzoli C and Manzini E, Design for environmental sustainability (Springer 2008) G Wagner, M L Weitzman, Climate shock. Princeton University PressWagner G and Weitzman ML, Climate shock (Princeton University Press 2016) . T Wischmeyer, T Rademacher, Regulating Artificial Intelligence. SpringerWischmeyer T and Rademacher T, Regulating Artificial Intelligence (Springer 2020) A human rights perspective on privacy and data protection impact assessments. De Hert, P , Privacy Impact Assessment. Wright D and Hert PDSpringerDe Hert P, 'A human rights perspective on privacy and data protection impact assessments' in Wright D and Hert PD (eds), Privacy Impact Assessment (Springer 2012) Integrated Reporting: Concepts and Cases that Redefine Corporate Accountability. E Giovannoni, G Fabietti, Busco C and othersSpringer International PublishingWhat Is Sustainability? A Review of the Concept and Its ApplicationsGiovannoni E and Fabietti G, 'What Is Sustainability? A Review of the Concept and Its Applications' in Busco C and others (eds), Integrated Reporting: Concepts and Cases that Redefine Corporate Accountability (Springer International Publishing 2013) Escaping the Epistemic Trap: An Ecological Analysis of Law and Economics. M-C Gruber, Gruber M-C, 'Escaping the Epistemic Trap: An Ecological Analysis of Law and Economics' in Environmental Law and Economics. Mathis K and Huber BRSpringerMathis K and Huber BR (eds), Environmental Law and Economics (Springer 2017) Artificial Intelligence in the European Union: Policy, ethics and regulation. I Ulnicane, The Routledge Handbook of European Integrations. Hoerber T, Weber G and Cabras ITaylor & FrancisUlnicane I, 'Artificial Intelligence in the European Union: Policy, ethics and regulation' in Hoerber T, Weber G and Cabras I (eds), The Routledge Handbook of European Integrations (Taylor & Francis 2022) A process for data protection impact assessment under the european General Data Protection Regulation. F Bieker, Others, SpringerBieker F and others, A process for data protection impact assessment under the european General Data Protection Regulation (Springer 2016) A framework for sustainable federated learning. B Güler, A Yener, IEEE 2021Güler B and Yener A, A framework for sustainable federated learning (IEEE 2021) Company Law and Sustainability. Sjåfjell B and Richardson BJCambridge University PressSjåfjell B and Richardson BJ (eds), Company Law and Sustainability (Cambridge University Press 2015) Privacy Impact Assessment. Wright D and De Hert PSpringerWright D and De Hert P (eds), Privacy Impact Assessment (Springer 2012) Act moves ahead in EU Parliament with key committee vote. L Bertuzzi, &apos; Ai, 2023Bertuzzi L, 'AI Act moves ahead in EU Parliament with key committee vote' EURACTIV <https://www.euractiv.com/section/artificial-intelligence/news/ai-act-moves-ahead-in-eu- parliament-with-key-committee-vote/> accessed May 11, 2023 Commission moves to link 'fair share' debate with the metaverse' EURACTIV <www.euractiv.com/section/digital/news/eu-commission-moves-to-link-fair-share-debatewith-the-metaverse> accessed. L Bertuzzi, &apos; Eu, Bertuzzi L, 'EU Commission moves to link 'fair share' debate with the metaverse' EURACTIV <www.euractiv.com/section/digital/news/eu-commission-moves-to-link-fair-share-debate- with-the-metaverse> accessed January 30, 2023 How Does It Work Internally. P Meyer, Chatgpt, Towards AI. Meyer P, 'ChatGPT: How Does It Work Internally?' Towards AI <https://pub.towardsai.net/chatgpt-how-does-it-work-internally-e0b3e23601a1> accessed January 30, 2023 . Ethics Guidelines for Trustworthy AI. European CommissionHLEGAIHLEGAI, Ethics Guidelines for Trustworthy AI (European Commission 2019) Acm Tpc, Techbrief, Computing and Climate Change. ACM TPC, ACM TechBrief: Computing and Climate Change (2021) . Large AI Models for Germany: Feasibility Study. al. JBe, Large AI Models for Germany: Feasibility Study (2023) Proposal for a Directive of the European Parliament and of the Council on adapting non-contractual civil liability rules to artificial intelligence. Commission E. Commission E, Proposal for a Directive of the European Parliament and of the Council on adapting non-contractual civil liability rules to artificial intelligence (2022) Atp Council, Techbrief, Computing and Climate Change. Council ATP, ACM TechBrief: Computing and Climate Change (2021) Adaptation principles. S Hallegatte, J Rentschler, J Rozenberg, World2020Hallegatte S, Rentschler J and Rozenberg J, Adaptation principles (World Bank 2020) . H-Legoa Intelligence, Ethics Guidelines for Trustworthy AI. Intelligence H-LEGoA, Ethics Guidelines for Trustworthy AI (2019) . Working Ipcc, Group, III Contribution to the Fifth Assessment Report of the Intergovernmental Panel on Climate ChangeIPCC, Working Group III Contribution to the Fifth Assessment Report of the Intergovernmental Panel on Climate Change (2014) Others Masson-Delmotte V And, Climate Change, The physical science basis. Masson-Delmotte V and others, Climate Change 2021: The physical science basis (2021) N Nakicenovic, R Swart, Emissions scenarios -Special Report of the Intergovernmental Panel on Climate Change. Nakicenovic N and Swart R, Emissions scenarios -Special Report of the Intergovernmental Panel on Climate Change (2000) Measuring the Environmental Impacts of AI Compute and Applications: The AI Footprint. OECDOECD, Measuring the Environmental Impacts of AI Compute and Applications: The AI Footprint (2022) H-O Pörtner, Others, Climate Change 2022: Impacts, Adaptation and Vulnerability. Pörtner H-O and others, Climate Change 2022: Impacts, Adaptation and Vulnerability (2022) Climate Change and Land: an IPCC special report on climate change, desertification, land degradation, sustainable land management, food security, and greenhouse gas fluxes in terrestrial ecosystems. P R Shukla, Others, Shukla PR and others, Climate Change and Land: an IPCC special report on climate change, desertification, land degradation, sustainable land management, food security, and greenhouse gas fluxes in terrestrial ecosystems (2019) Generative AI carries serious online risks' (2023) Emerald Expert Briefings. O Analytica, Analytica O, 'Generative AI carries serious online risks' (2023) Emerald Expert Briefings Filling gaps in trustworthy development of AI. Avin S Others, Avin S and others, 'Filling gaps in trustworthy development of AI' (2021) 374 Science 1327 . I Bach, E-M Kieninger, 1088Ökologische Analyse des ZivilrechtsBach I and Kieninger E-M, 'Ökologische Analyse des Zivilrechts' (2021) Juristenzeitung 1088 Privacy dependencies' (2020) 95 Wash L Rev 555. S Barocas, K Levy, Barocas S and Levy K, 'Privacy dependencies' (2020) 95 Wash L Rev 555 Data Pollution. O Ben-Shahar, Journal of Legal Analysis. 10411Ben-Shahar O, 'Data Pollution' (2019) 11 Journal of Legal Analysis 104 Recurring dilemmas: The law's race to keep up with technological change. Bennett Moses, L , U Ill JL Tech & Pol'y. 239Bennett Moses L, 'Recurring dilemmas: The law's race to keep up with technological change' (2007) U Ill JL Tech & Pol'y 239 . S Bianchini, G Damioli, C Ghisetti, 877The environmental effects of the "twin" green and digital transition in European regions' (2023) 84 Environmental and Resource EconomicsBianchini S, Damioli G and Ghisetti C, 'The environmental effects of the "twin" green and digital transition in European regions' (2023) 84 Environmental and Resource Economics 877 Data protection impact assessments: a meta-regulatory approach. R Binns, Law 227 International Data PrivacyBinns R, 'Data protection impact assessments: a meta-regulatory approach' (2017) 7 International Data Privacy Law 22 On the opportunities and risks of foundation models. R Bommasani, Others, arXiv:210807258arXiv preprintBommasani R and others, 'On the opportunities and risks of foundation models' (2021) arXiv preprint arXiv:210807258 L Bourtoule, Others, Machine unlearning' (2021) 2021 IEEE Symposium on Security and Privacy (SP). 141Bourtoule L and others, 'Machine unlearning' (2021) 2021 IEEE Symposium on Security and Privacy (SP) 141 Understanding evidence-based public health policy. R C Brownson, J F Chriqui, K A Stamatakis, 99Brownson RC, Chriqui JF and Stamatakis KA, 'Understanding evidence-based public health policy' (2009) 99 . American Journal of Public Health. 1576American Journal of Public Health 1576 S Bubeck, Others, arXiv:230312712Sparks of artificial general intelligence: Early experiments with GPT-4' (2023). arXiv preprintBubeck S and others, 'Sparks of artificial general intelligence: Early experiments with GPT-4' (2023) arXiv preprint arXiv:230312712 Klimaurteil "des Bundesverfassungsgerichts:"Versubjektivierung "des Art. C Calliess, Das, Calliess C, 'Das "Klimaurteil "des Bundesverfassungsgerichts:"Versubjektivierung "des Art. Towards making systems forget with machine unlearning. Y Cao, J Yang, 2015Cao Y and Yang J, 'Towards making systems forget with machine unlearning' (2015) 2015 Evaluating large language models trained on code. Chen M Others, arXiv:210703374arXiv preprintChen M and others, 'Evaluating large language models trained on code' (2021) arXiv preprint arXiv:210703374 A A Chien, Good, better, best: how sustainable should computing be?' (2021). 64Chien AA, 'Good, better, best: how sustainable should computing be?' (2021) 64 . Communications of the ACM. 6Communications of the ACM 6 The AI gambit: leveraging artificial intelligence to combat climate change-opportunities, challenges, and recommendations. Cowls J Others, AI & Society 1Cowls J and others, 'The AI gambit: leveraging artificial intelligence to combat climate change-opportunities, challenges, and recommendations' (2021) AI & Society 1 Learning and the law: improving behavioral regulation from an international and comparative perspective. G Dimitropoulos, P Hacker, Dimitropoulos G and Hacker P, 'Learning and the law: improving behavioral regulation from an international and comparative perspective' (2016) 25 JL & Pol'y 473 Accountability of AI under the law: The role of explanation. Doshi-Velez F, Others, arXiv:171101134arXiv preprintDoshi-Velez F and others, 'Accountability of AI under the law: The role of explanation' (2017) arXiv preprint arXiv:171101134 Regulating AI in Europe: four problems and four solutions. L Edwards, 2022Edwards L, 'Regulating AI in Europe: four problems and four solutions' (2022) 2022 From privacy impact assessment to social impact assessment. L Edwards, D Mcauley, L Diver, IEEE Security and Privacy Workshops. 53SPWEdwards L, McAuley D and Diver L, 'From privacy impact assessment to social impact assessment' (2016) 2016 IEEE Security and Privacy Workshops (SPW) 53 Privacy impact assessments: an essential tool for data protection. D Flaherty, Privacy Law & Policy Reporter. 5Flaherty D, 'Privacy impact assessments: an essential tool for data protection' (2000) 5 Privacy Law & Policy Reporter 85 The real climate and transformative impact of ICT: A critique of estimates, trends, and regulations. C Freitag, Others, 2100340Freitag C and others, 'The real climate and transformative impact of ICT: A critique of estimates, trends, and regulations' (2021) 2 Patterns 100340 Artificial intelligence, systemic risks, and sustainability. V Galaz, Others, 67Galaz V and others, 'Artificial intelligence, systemic risks, and sustainability' (2021) 67 . Technology in Society. 101741Technology in Society 101741 Understanding the notion of risk in the General Data Protection Regulation. R Gellert, Gellert R, 'Understanding the notion of risk in the General Data Protection Regulation' (2018) . Computer Law & Security Review. 279Computer Law & Security Review 279 B Güler, A Yener, arXiv:210211274Sustainable federated learning' (2021). arXiv preprintGüler B and Yener A, 'Sustainable federated learning' (2021) arXiv preprint arXiv:210211274 A legal framework for AI training data-from first principles to the Artificial Intelligence Act' (2021) 13 Law, Innovation and Technology 257. P Hacker, Hacker P, 'A legal framework for AI training data-from first principles to the Artificial Intelligence Act' (2021) 13 Law, Innovation and Technology 257 The European AI Liability Directives -Critique of a Half-Hearted Approach and Lessons for the Future' (2022) Working Paper. P Hacker, Hacker P, 'The European AI Liability Directives -Critique of a Half-Hearted Approach and Lessons for the Future' (2022) Working Paper, https://arxivorg/abs/221113960 Exploring the triangle of unfair commercial practice, data protection, and privacy law. P Hacker, 27Manipulation by algorithmsHacker P, 'Manipulation by algorithms. Exploring the triangle of unfair commercial practice, data protection, and privacy law' (2023) 27 . European Law Journal. European Law Journal Regulating ChatGPT and other Large Generative AI Models. P Hacker, A Engel, M Mauer, Hacker P, Engel A and Mauer M, 'Regulating ChatGPT and other Large Generative AI Models' ACM Conference on Fairness, Accountability, and Transparency (FAccT '23, forthcoming. ACM Conference on Fairness, Accountability, and Transparency (FAccT '23, forthcoming) https://arxiv.org/abs/2302.02337 Substantively smart cities-Participation, fundamental rights and temporality' (2023) 12 Internet Policy Review Hagendorff T, 'The ethics of AI ethics: An evaluation of guidelines' (2020) 30 Minds and Machines 99. P Hacker, J Neyer, Hacker P and Neyer J, 'Substantively smart cities-Participation, fundamental rights and temporality' (2023) 12 Internet Policy Review Hagendorff T, 'The ethics of AI ethics: An evaluation of guidelines' (2020) 30 Minds and Machines 99 . A Halfmeier, Nachhaltiges Privatrecht, Archiv für die civilistische Praxis. 717216Halfmeier A, 'Nachhaltiges Privatrecht' (2016) 216 Archiv für die civilistische Praxis 717 Pre-trained models: Past, present and future' (2021) 2 AI Open 225. Han X Others, Han X and others, 'Pre-trained models: Past, present and future' (2021) 2 AI Open 225 Protecting rights through climate change litigation before European courts' (2022) 13. J Hartmann, M Willers, Journal of Human Rights and the Environment. 90Hartmann J and Willers M, 'Protecting rights through climate change litigation before European courts' (2022) 13 Journal of Human Rights and the Environment 90 ChatGPT and the AI Act' (2023) 12 Internet Policy Review Hellgardt A and Jouannaud V, 'Nachhaltigkeitsziele und Privatrecht' (2022) 222 Archiv für die civilistische. N Helberger, N Diakopoulos, Praxis. 163Helberger N and Diakopoulos N, 'ChatGPT and the AI Act' (2023) 12 Internet Policy Review Hellgardt A and Jouannaud V, 'Nachhaltigkeitsziele und Privatrecht' (2022) 222 Archiv für die civilistische Praxis 163 The economics of data externalities. S Ichihashi, Journal of Economic Theory. 105316Ichihashi S, 'The economics of data externalities' (2021) 196 Journal of Economic Theory 105316 An American's Guide to the GDPR. M L Jones, M E Kaminski, 98Jones ML and Kaminski ME, 'An American's Guide to the GDPR' (2020) 98 . Denv L Rev. 93Denv L Rev 93 Binary governance: Lessons from the GDPR's approach to algorithmic accountability' (2018) 92 S Cal L Rev 1529. M E Kaminski, Kaminski ME, 'Binary governance: Lessons from the GDPR's approach to algorithmic accountability' (2018) 92 S Cal L Rev 1529 Regulating the Risks of AI' (2023) 103 Forthcoming, Boston University Law Review Kaminski ME and Malgieri G, 'Algorithmic impact assessments under the GDPR: producing multi-layered explanations' (2020) International Data Privacy Law 19. M E Kaminski, Kaminski ME, 'Regulating the Risks of AI' (2023) 103 Forthcoming, Boston University Law Review Kaminski ME and Malgieri G, 'Algorithmic impact assessments under the GDPR: producing multi-layered explanations' (2020) International Data Privacy Law 19 M E Kaminski, G Malgieri, Multi-layered explanations from algorithmic impact assessments in the GDPR' (2020) Proceedings of the 2020 Conference on Fairness, Accountability, and Transparency. 68Kaminski ME and Malgieri G, 'Multi-layered explanations from algorithmic impact assessments in the GDPR' (2020) Proceedings of the 2020 Conference on Fairness, Accountability, and Transparency 68 Trustworthy artificial intelligence: a review' (2022) 55. D Kaur, Others, ACM Computing Surveys (CSUR). 1Kaur D and others, 'Trustworthy artificial intelligence: a review' (2022) 55 ACM Computing Surveys (CSUR) 1 . L A Khan, 40Khan LA, 'Temporality of Law' (2009) 40 . McGeorge L Rev. 55McGeorge L Rev 55 Demonstrate-Search-Predict: Composing retrieval and language models for knowledge-intensive NLP. O Khattab, Others, arXiv:221214024arXiv preprintKhattab O and others, 'Demonstrate-Search-Predict: Composing retrieval and language models for knowledge-intensive NLP' (2022) arXiv preprint arXiv:221214024 Our house is on fire: The climate emergency and computing's responsibility' (2022) 65. B Knowles, Others, Communications of the ACM. 38Knowles B and others, 'Our house is on fire: The climate emergency and computing's responsibility' (2022) 65 Communications of the ACM 38 Accountable algorithms. J A Kroll, Others, University of Pennsylvania Law Review. 633165Kroll JA and others, 'Accountable algorithms' (2017) 165 University of Pennsylvania Law Review 633 Trustworthy Artificial Intelligence and the European Union AI Act: On the Conflation of Trustworthiness and the Acceptability of Risk' (2022) Regulation and Governance. J Laux, S Wachter, B Mittelstadt, doi:101111/rego12512Laux J, Wachter S and Mittelstadt B, 'Trustworthy Artificial Intelligence and the European Union AI Act: On the Conflation of Trustworthiness and the Acceptability of Risk' (2022) Regulation and Governance, doi:101111/rego12512 Three Pathways for Standardisation and Ethical Disclosure by Default under the European Union Artificial Intelligence Act. J Laux, S Wachter, B Mittelstadt, Working PaperLaux J, Wachter S and Mittelstadt B, 'Three Pathways for Standardisation and Ethical Disclosure by Default under the European Union Artificial Intelligence Act' (2023) Working Paper, https://ssrncom/abstract=4365079 Making AI Less" Thirsty": Uncovering and Addressing the Secret Water Footprint of AI Models. Li P Others, arXiv:230403271arXiv preprintLi P and others, 'Making AI Less" Thirsty": Uncovering and Addressing the Secret Water Footprint of AI Models' (2023) arXiv preprint arXiv:230403271 Advances, challenges and opportunities in creating data for trustworthy AI' (2022) 4 Nature Machine Intelligence 669. W Liang, Others, Liang W and others, 'Advances, challenges and opportunities in creating data for trustworthy AI' (2022) 4 Nature Machine Intelligence 669 Pre-train, Prompt, and Predict: A Systematic Survey of Prompting Methods in Natural Language Processing. P Liu, Others, 55 ACM Computing Surveys. 1Liu P and others, 'Pre-train, Prompt, and Predict: A Systematic Survey of Prompting Methods in Natural Language Processing' (2021) 55 ACM Computing Surveys 1 New directions in privacy: Disclosure, unfairness and externalities. M Maccarthy, 6MacCarthy M, 'New directions in privacy: Disclosure, unfairness and externalities' (2011) 6 . I/S, A Journal of Law and Policy. 425I/S: A Journal of Law and Policy 425 Intelligenz als Instrument des Umweltschutzes' (2021) 2021 Zeitschrift für Umweltrecht Mittelstadt B, Wachter S and Russell C, 'The Unfairness of Fair Machine Learning: Levelling down and strict egalitarianism by default. M Martini, H Ruschemeier, arXiv:230202404arXiv preprintMartini M and Ruschemeier H, 'Künstliche Intelligenz als Instrument des Umweltschutzes' (2021) 2021 Zeitschrift für Umweltrecht Mittelstadt B, Wachter S and Russell C, 'The Unfairness of Fair Machine Learning: Levelling down and strict egalitarianism by default' (2023) arXiv preprint arXiv:230202404 The collective interest in private dispute resolution. L Mulcahy, Oxford Journal of Legal Studies. 5933Mulcahy L, 'The collective interest in private dispute resolution' (2013) 33 Oxford Journal of Legal Studies 59 Collective interests and collective rights. D G Newman, The American Journal of Jurisprudence. 12749Newman DG, 'Collective interests and collective rights' (2004) 49 The American Journal of Jurisprudence 127 A survey of machine unlearning. T T Nguyen, Others, arXiv:220902299arXiv preprintNguyen TT and others, 'A survey of machine unlearning' (2022) arXiv preprint arXiv:220902299 The environmental challenges of AI in EU law: lessons learned from the Artificial Intelligence Act (AIA) with its drawbacks ' (2022) 16 Transforming Government: People, Process and Policy 359. U Pagallo, J C Sciolla, Durante M , Pagallo U, Sciolla JC and Durante M, 'The environmental challenges of AI in EU law: lessons learned from the Artificial Intelligence Act (AIA) with its drawbacks ' (2022) 16 Transforming Government: People, Process and Policy 359 Carbon emissions and large neural network training. D Patterson, Others, arXiv:210410350arXiv preprintPatterson D and others, 'Carbon emissions and large neural network training' (2021) arXiv preprint arXiv:210410350 Is the future of AI sustainable? A case study of the European Union' (2022) 16 Transforming Government: People. N Perucica, K Andjelkovic, Process and Policy. 347Perucica N and Andjelkovic K, 'Is the future of AI sustainable? A case study of the European Union' (2022) 16 Transforming Government: People, Process and Policy 347 . J J Rachlinski, 96Rachlinski JJ, 'Evidence-based law' (2010) 96 . Cornell L Rev, 901Cornell L Rev 901 Adapting Environmental Law to the impacts of climate change-Analysis, development and innovation of legal instruments' (2010) 8 UBA Project FKZ 3708 41 100/01. Reese M Others, 111Reese M and others, 'Adapting Environmental Law to the impacts of climate change-Analysis, development and innovation of legal instruments' (2010) 8 UBA Project FKZ 3708 41 100/01, Project Z 6-90 111 Algorithmic Impact Assessments: A Practical Framework for Public Agency. Reisman D Others, AI NowReisman D and others, 'Algorithmic Impact Assessments: A Practical Framework for Public Agency' (2018) AI Now . Schwartz R And Others, Ai &apos; Green, Communications of the ACM. 5463Schwartz R and others, 'Green AI' (2020) 63 Communications of the ACM 54 The energy consumption of blockchain technology: Beyond myth. J Sedlmeir, Others, Sedlmeir J and others, 'The energy consumption of blockchain technology: Beyond myth' . Business & Information Systems Engineering. 599Business & Information Systems Engineering 599 Remember what you want to forget: Algorithms for machine unlearning' (2021) 34 Advances in Neural Information Processing Systems 18075. A Sekhari, Others, Sekhari A and others, 'Remember what you want to forget: Algorithms for machine unlearning' (2021) 34 Advances in Neural Information Processing Systems 18075 An Institutional View of Algorithmic Impact Assessments. A D Selbst, Harvard Journal of Law & Technology. 11735Selbst AD, 'An Institutional View of Algorithmic Impact Assessments' (2021) 35 Harvard Journal of Law & Technology 117 How the EU can achieve legally trustworthy AI: a response to the European commission's proposal for an artificial intelligence act' (2021) Working Paper Stern N, 'The economics of climate change. N A Smuha, Others, 98Smuha NA and others, 'How the EU can achieve legally trustworthy AI: a response to the European commission's proposal for an artificial intelligence act' (2021) Working Paper Stern N, 'The economics of climate change' (2008) 98 . American Economic Review. 1American Economic Review 1 Energy and policy considerations for modern deep learning research. E Strubell, A Ganesh, A Mccallum, 2020) 34 Proceedings of the AAAI Conference on Artificial Intelligence 13693. Strubell E, Ganesh A and McCallum A, 'Energy and policy considerations for modern deep learning research' (2020) 34 Proceedings of the AAAI Conference on Artificial Intelligence 13693 Artificial intelligence and the climate emergency: Opportunities, challenges, and recommendations. Taddeo M Others, 2021) 4 One Earth 776Taddeo M and others, 'Artificial intelligence and the climate emergency: Opportunities, challenges, and recommendations' (2021) 4 One Earth 776 A risk to a right? Beyond data protection risk assessments. N Van Dijk, Gellert R Rommetveit, K , Computer Law & Security Review. 28632Van Dijk N, Gellert R and Rommetveit K, 'A risk to a right? Beyond data protection risk assessments' (2016) 32 Computer Law & Security Review 286 Putting evidence-based law making to the test: judicial review of legislative rationality' (2016) 4 The Theory and Practice of Legislation 155. R Van Gestel, De Poorter, J , Van Gestel R and De Poorter J, 'Putting evidence-based law making to the test: judicial review of legislative rationality' (2016) 4 The Theory and Practice of Legislation 155 The Role of the EU Charter of Fundamental Rights in Climate Litigation. J Van Zeben, Van Zeben J, 'The Role of the EU Charter of Fundamental Rights in Climate Litigation' (2021) . German Law Journal. 1499German Law Journal 1499 Algorithms that remember: model inversion attacks and data protection law. M Veale, R Binns, L Edwards, Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences. 376Veale M, Binns R and Edwards L, 'Algorithms that remember: model inversion attacks and data protection law' (2018) 376 Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences 20180083 Transparent, explainable, and accountable AI for robotics. S Wachter, B Mittelstadt, L Floridi, Science robotics. 26080Wachter S, Mittelstadt B and Floridi L, 'Transparent, explainable, and accountable AI for robotics' (2017) 2 Science robotics eaan6080 Sex trafficking and the sex industry: The need for evidence-based theory and legislation. R Weitzer, J Crim L & Criminology. 1011337Weitzer R, 'Sex trafficking and the sex industry: The need for evidence-based theory and legislation' (2011) 101 J Crim L & Criminology 1337 Die epistemische Analyse des Rechts: Von der ökonomischen zur ökologischen Rationalität in der Rechtswissenschaft. D Wielsch, 67Wielsch D, 'Die epistemische Analyse des Rechts: Von der ökonomischen zur ökologischen Rationalität in der Rechtswissenschaft' (2009) Juristenzeitung 67 . H Zech, &apos;risiken Digitaler, Systeme, Weizenbaum Series. 1Zech H, 'Risiken Digitaler Systeme' (2020) Weizenbaum Series 1 H Zech, Nachhaltigkeit und Digitalisierung im Recht' (2022) 2 Zeitschrift für Digitalisierung und Recht 123. Zech H, 'Nachhaltigkeit und Digitalisierung im Recht' (2022) 2 Zeitschrift für Digitalisierung und Recht 123 T P Council, TechBrief: Computing and Climate Change. Association for Computing MachineryCouncil TP, TechBrief: Computing and Climate Change (Association for Computing Machinery 2021) Moss E Others, Assembling accountability: Algorithmic Impact Assessment for the public interest. Moss E and others, Assembling accountability: Algorithmic Impact Assessment for the public interest (APO Report, 2021) Commission moves to link 'fair share' debate with the metaverse' (2023) <www.euractiv.com/section/digital/news/eu-commission-moves-to-link-fair-share-debatewith-the-metaverse> accessed. L Bertuzzi, &apos; Eu, Bertuzzi L, 'EU Commission moves to link 'fair share' debate with the metaverse' (2023) <www.euractiv.com/section/digital/news/eu-commission-moves-to-link-fair-share-debate- with-the-metaverse> accessed January 10
sample_15333
0.9963
arxiv
Benjamin Auteurs Rotenberg Laboratoire PHENIX Sorbonne Universités UPMC Univ Paris 06 CNRS 4 place Jussieu75005Paris RS2E (Réseau sur le Stockage Electrochimique de l'Energie) 3459, 80039Amiens CedexFR CNRSFrance Mathieu Salanne Laboratoire PHENIX Sorbonne Universités UPMC Univ Paris 06 CNRS 4 place Jussieu75005Paris RS2E (Réseau sur le Stockage Electrochimique de l'Energie) 3459, 80039Amiens CedexFR CNRSFrance Patrice Simon RS2E (Réseau sur le Stockage Electrochimique de l'Energie) 3459, 80039Amiens CedexFR CNRSFrance CIRIMAT Université de Toulouse CNRS INPT UPS 118 route de Narbonne31062, Cedex 9ToulouseFrance SupercapacitorsMolecular simulationIn situ experimentsNanoporous carbon Vers des supercondensateurs plus performants: quand expériences et simulations permettent d'élucider les mécanismes à l'échelle nanométrique RésuméLes supercondensateurs sont des dispositifs de stockage de l'énergie électrique permettant notamment de délivrer une forte puissance. Ils sont constitués d'électrodes de carbone poreux plongées dans un électrolyte concentré. La charge est stockée par adsorption des ions sur la surface des électrodes. Les carbones nanoporeux permettent de stocker une plus grande quantité d'électricité grâce à un mécanisme de charge différent des carbones possédant des pores de plus grande taille. Ce mécanisme de charge a été récemment caractérisé en combinant des expériences in situ (Résonance Magnétique Nucléaire, microbalance à quartz) et des simulations moléculaires.Mots-clésSupercondensateur, Simulation moléculaire, Expériences in situ, Carbone nanoporeux Towards more efficient supercapacitors: When experiments and simulations uncover the mechanisms on the nanometer scale Abstract Supercapacitors are energy storage devices able to deliver electricity with a high power. They consist of porous carbon electrodes in a concentrated electrolyte. Charged is stored by the adsorption of ions at the electrode surface. Nanoporous carbons allow to store more electricity thanks to a charging mechanism that differs from carbons with larger pores. This charge storage mechanisms has recently been uncovered by combining in situ experiments (Nuclear Magnetic Resonance, Electrochemical Quartz Microblance) and molecular simulations. I. Introduction Le réchauffement de la planète, les réserves limitées en combustibles fossiles et la pollution des villes (les transports sont responsables de 30 % des émissions de CO 2 ) montrent, entre autres, combien il est important de se tourner vers une utilisation intensive et efficace des énergies renouvelables (ENR) et de trouver des solutions innovantes pour faciliter le passage progressif du véhicule thermique aux véhicules électriques. L'intermittence des énergies renouvelables ainsi que la nécessité d'embarquer une quantité suffisante d'électricité dans les véhicules électriques afin d'assurer une grande autonomie, font du développement de nouvelles technologies pour le stockage de l'énergie un des défis majeurs des vingt prochaines années: il s'agit d'une étape indispensable pour mieux gérer les ressources en énergie de notre planète. S'il existe une grande variété de solutions de stockage à grande échelle (stockage hydraulique, air comprimé, volants d'inertie…), la technologie la plus largement utilisée reste incontestablement le stockage électrochimique avec les batteries et les supercondensateurs [1]. Ce succès s'explique par l'avantage considérable qu'ils apportent par rapport à d'autres solutions : la mobilité. La mise au point de générateurs électrochimiques performants revêt donc une importance toute particulière [2,3]. Comme le montre la Figure 1a, les batteries permettent de stocker ou délivrer de grandes quantités d'énergie (200 Wh/kg) pendant des temps longs, typiquement de plusieurs heures ou dizaines d'heure. Cependant, de par le mécanisme de stockage des charges impliquant la rupture / création de liaisons chimiques par des réactions d'oxydo-réduction, elles restent limitées en terme de puissance. A l'inverse, les condensateurs diélectriques classiques ne stockent que peu d'énergie mais sont capables de la restituer en quelques millisecondes, permettant ainsi délivrer de grandes puissances. Les supercondensateurs sont des systèmes intermédiaires entre les condensateurs classiques et les batteries. Ils peuvent fournir des densités de puissance très élevées (> 10 kW/kg) avec une densité d'énergie modeste (6 Wh/kg), ce qui définit une constante de temps allant de quelques secondes à quelques dizaines de secondes. Ces performances sont liées au mode de stockage de la charge : il n'y a en effet aucune réaction redox dans les supercondensateurs car le stockage est réalisé de façon électrostatique, par adsorption des ions d'un électrolyte à la surface de carbones poreux de surface très développée. Ce mécanisme peut être décrit en première approche en utilisant la notion de capacité de double couche électrochimique (Figure 1b), suivant le modèle proposé par Helmholtz en 1853 : C = ε 0 ε r A d(1) où ε 0 la permittivité du vide, ε r est la constant diélectrique de l'électrolyte, d l'épaisseur de la double couche électrochimique (distance de séparation des charges), et A l'aire de l'électrode. On notera qu'excepté ε 0 , ces grandeurs sont difficiles à définir à l'échelle locale des interfaces. La capacité de cette double couche électrochimique est de l'ordre de 10 à 20 µF/cm². En remplaçant une électrode plane par un matériau poreux de grande surface spécifique comme le carbone activé (1000 à 2000 m²/g, Figure 1c), on atteint des capacités de plus de 100 F/g de carbone. La tension maximum de ces cellules est limitée par la décomposition de l'électrolyte : 2,7 à 3 V en électrolyte non-aqueux. Le stockage des charges en surface explique la grande puissance de ces systèmes par rapport aux batteries. L'absence numéro de l'Actualité Chimique consacré à la transition énergétique [8]. II. Modèles structuraux des carbones nanoporeux Les carbones nanoporeux sont généralement constitués d'unités graphitiques nanométriques (substracting pore effect) [10]. Si l'on souhaite accéder, au-delà de la surface spécifique, à une mesure des tailles de pores et de leur distribution, on peut avoir recours à une analyse de type théorie de la fonctionnelle de la densité (Quenched Solid Density Functional Theory) [11]. Tout ceci illustre la difficulté de mesure la surface des carbones nanoporeux. En réalité, le concept même de surface est à manier avec précaution, car il dépend de l'approche (notamment, la sonde choisie) pour la mesurer. Il est donc pour cela nécessaire de compléter ces techniques d'adsorption par une caractérisation directe de la structure telle que la diffusion de rayons X aux petits angles (SAXS) ou la résonance magnétique nucléaire (RMN), et avoir ainsi accès au rapport surface sur volume accessible aux ions, c'est-à-dire dans des conditions pertinentes pour les applications électrochimiques. Malgré toutes les limitations évoquées cidessus, il reste possible de discuter l'évolution de la capacité par unité de surface en fonction [13]. Enfin, notons que la plupart des études ont pour l'instant porté sur la structure du carbone nanoporeux, alors que la capacité à prédire les paramètres structuraux cruciaux pour l'optimisation du stockage de charge nécessite également de comprendre la structure et la dynamique de l'électrolyte confiné. III. Mouillage des pores sans différence de potentiel Jusqu'à récemment, on croyait que la charge des supercondensateurs venait d'un mécanisme simple, à savoir l'entrée des ions dans le réseau de pores du carbone sous l'effet du champ Le développement de techniques in situ comme la microbalance à quartz électrochimique (EQCM) s'est révélé être particulièrement important pour réaliser ce type de mesures [17]. La VI. Dynamique de charge et décharge La caractéristique principale des supercondensateurs, par rapport aux batteries notamment, est leur grande puissance spécifique : ils se chargent ou se déchargent en quelques secondes. Dans la perspective d'optimiser ces dispositifs, il ne faut donc pas que l'augmentation de la capacité se fasse au détriment de la puissance. Les théories habituelles prédisent que les liquides sous confinement extrême sont fortement ralentis, ce qui disqualifie en principe l'utilisation de carbone micro-ou nanoporeux pour les supercondensateurs. Heureusement, l'effet n'est pas si dramatique que cela dans des structures à porosité interconnectée comme les Les développements méthodologiques ne sont bien sûr pas en reste, avec par exemple pour les simulations une nouvelle approche pour la prédiction des propriétés interfaciales en fonction de la différence de potentiel entre les électrodes, qui exploite les fluctuations d'équilibre de la charge des électrodes sous l'effet de l'agitation thermique dans l'électrolyte [26]. Nous avons ainsi pu faire le lien entre des pics de la capacité différentielle et des transitions, induites par la différence de potentiel, au sein de l'électrolyte adsorbé [27,28]. Du point de vue des applications, on pourra exploiter les possibilités offertes pour la fabrication d'électrodes de carbone dont on contrôle la porosité, la composition (par activation ou par dopage) ou la microstructure, ainsi que la large gamme de liquides ioniques et de solvants disponibles. Ces matériaux carbonés pourraient également jouer un rôle important dans d'autres contextes, par exemple avec des solutions aqueuses pour la récupération "d'énergie bleue", en exploitant la différence de salinité entre l'eau de mer et celle des rivières [29,30]. présentant des défauts, avec des pores de tailles couvrant les micropores (taille < 2 nm) aux mesopores (taille entre 2 et 50 nm). Contrairement aux pores en fentes ou aux nanotubes, ils ne présentent aucun ordre tri-dimensionnel à longue portée [Figure 2]. Puisque les performances électrochimiques des carbones sont déterminées par l'interface entre le carbone poreux et l'électrolyte, il est nécessaire de pouvoir caractériser de façon fiable et précise le réseau poreux. Les surfaces spécifiques (surface par unité de volume ou de masse de matériau) ou les distributions de tailles de pores sont généralement obtenues à partir de mesures d'adsorption de gaz, via des modèles théoriques. Cependant ces méthodes présentent des limitations importantes lorsqu'on chercher à les appliquer aux carbones microporeux. Le choix de la sonde moléculaire est essentiel, car certains pores peuvent être inaccessibles aux molécules de gaz et l'être quand même pour les ions de l'électrolyte, selon les conditions thermodynamiques. Ceci est particulièrement vrai pour l'adsorption de N 2 à 77 K, qui ne donne pas des mesures précises pour les ultra-micropores (< 0,7 nm) dans les carbones. L'utilisation de l'argon, plus petit et sans quadrupôle, et ce à plus haute température (87 K), combinée à une analyse théorique plus simple des données expérimentales, est plus adaptée dans ce cas. L'adsorption de fluides super-ou sous-critiques (CO 2 ) à température ambiante offre une approche complémentaire pour caractériser la surface accessible dans des conditions plus proches de celle d'utilisation. Outre la sonde moléculaire et les conditions thermodynamiques, un autre défi doit être surmonté, car les propriétés microscopiques doivent être déduites des isothermes d'adsorption à travers un modèle approprié. L'analyse BET (Brunauer-Emmett-Teller) n'est pas recommandée pour les carbones microporeux, comme l'a confirmé récemment l'IUPAC [9] , car elle sous-estime les ultra-micropores et surestime les micropores de plus grande taille. Il est nécessaire d'avoir recours à des techniques plus élaborées telles que la méthode SPE Figure 3a 3aprésente le schéma de principe d'une microbalance EQCM, dans laquelle un mélange de carbone poreux à étudier est placé sur un quartz piézoélectrique utilisé comme électrode de travail dans une cellule électrochimique. La variation de la fréquence de résonance du quartz est proportionnelle au changement de masse de l'électrode durant la polarisation. La Figure 3b montre la variation de masse (exprimée en nombre de mole d'anions et cations en divisant par la masse molaire des ions nus) en fonction de la charge lors de la polarisation d'une électrode de carbone. Les traits pointillés symbolisent la variation théorique de masse Δm d'après la loi de Faraday : la charge de l'électrode, F la constante de Faraday, M la masse molaire et z la valence de l'espèce échangée. En première approche, on peut considérer que les contre-ions seuls s'adsorbent : les anions sont adsorbés pour des charges positives (Q>0), et les cations pour des charges négatives (Q<0). La Figure 3b, qui correspond à un électrolyte organique avec des carbones de taille de pores contrôlée de 1 nm, montre trois zones de pentes différentes, correspondants à des mécanismes différents. A faible charge, il y a un échange entre anions et cations : les contre-ions s'adsorbent tandis que les co-ions (charge de même signe que celle de l'électrode) sont expulsés. A charge plus importante, seuls les contre-ions s'adsorbent. De ces courbes, on peut déduire le nombre de molécules de solvant accompagnant les ions lors de leur adsorption dans les pores. En plus de mettre en évidence deux mécanismes de stockage des charges différents pour des polarisations positives et négatives (voir plus loin), la différence entre la variation de masse théorique et expérimentale de l'électrode pour les charges négatives a permis de calculer un nombre de solvatation de 3 pour les cations 1-éthyl-3-méthylimidazolium confinés dans les pores, alors que ce cation est normalement entouré de 8 molécules de solvant dans le même électrolyte non confiné[15]. Ces résultats sont la preuve expérimentale de la désolvatation partielle des ions dans les nanopores, et viennent confirmer les simulations par dynamique moléculaire qui ont également montré ce phénomène[18].V. Mécanisme de stockage de chargeSi le principe de base du stockage de charge dans les supercondensateurs, à savoir l'adsorption d'ions à la surface de l'électrode, est bien établi, le mécanisme microscopique correspondant était bien moins clair jusqu'à récemment. La théorie de Gouy-Chapman-Stern (GCS) -qui prolonge le modèle de Helmholtz -reste la pierre angulaire de l'électrochimie théorique depuis plus d'un siècle ; elle prédit que près d'une surface étendue, la charge de l'électrode est compensée par la polarisation de l'électrolyte. La charge ionique et le potentiel électrostatique évoluent sur une distance caractéristique dite de Debye, de l'ordre de 1 à 10 nm en fonction de la concentration de l'électrolyte et la permittivité du solvant. Mais cette image est d'une utilité limitée dans le cas des supercondensateurs, à cause des effets de corrélation ionique à forte concentration en sel ou dans les liquides ioniques et des effets prononcés du confinement, qui est différent de la situation de l'électrode plane[19]. Les avancées récentes des techniques de simulations ont démontré la nécessité de décrire correctement la structure de l'électrolyte sur la surface.Pour des surfaces complexes (électrodes poreuses), la simulation a mis en évidence un point important dans le cas du confinement extrême : lorsque la taille des pores est comparable à celle des ions, la charge de l'électrode est compensée par un déséquilibre entre les nombres de co-et contre-ions dans le pore. Dans un tel état "super-ionique", la violation de l'électroneutralité dans le fluide interstitiel est compensée par l'apparition d'une charge opposée sur l'électrode, qui écrante la répulsion entre ions de même charge[20]. Plusieurs processus peuvent conduire à un excès global de contre-ions dans l'électrode: l'asdsorption de contre-ions, l'échange entre co-et contre-ions, ou la désorption de co-ions. Pour une combinaison donnée d'électrodes et d'électrolytes (nature des ions, présence et nature de solvant), l'un ou plusieurs de ces mécanismes peut être observé en fonction du potentiel. La simulation moléculaire, ainsi que les expériences de RMN, spectroscopie IR, SAXS et EQCM, suggèrent que l'échange d'ions est le processus le plus courant pour les faibles différences de potentiels, mais que pour des gros ions et/ou à fort potentiel l'adsorption des seuls contre-ions est aussi observée. La désorption des co-ions seule semble moins fréquente. Des mesures récentes de RMN in situ avec un électrolyte dans un solvant ont montré que le mécanisme de stockage de charge peut varier en fonction de la polarisation : alors que pour les polarisations positives l'échange d'ion était observé, c'est l'adsorption des contre-ions qui dominait pour les polarisations négatives. Ainsi, plusieurs facteurs contribuent à l'excès de charge, tels que la taille et la mobilité relatives des co-et contre-ions, ou encore la réorganisation des ions sur plusieurs cycles charges/décharges. Comme nous l'avons déjà mentionné, tant l'adsorption de contre-ions que l'échange d'ions sont accompagnés d'entrées et sorties de molécules de solvant. Dans les liquides ioniques purs, les simulations moléculaires indiquent que l'échange d'ions a lieu sans changer le volume de liquide dans l'électrode (voir Figure 4 ) 4[21]. Cette conclusion reste à renforcer pour d'autres combinaisons de cations et d'anions, et à confirmer expérimentalement. carbones dérivés de carbures (CDCs), pour lesquels des temps caractéristiques de charge inférieurs à 20 secondes ont été observés pour les carbones présentant les pores de plus petite taille (0,8 nm en moyenne)[4]. Cette tendance est également confirmée par les mesures de spectroscopie d'impédance électrochimique, qui permet de sonder la résistivité de l'électrolyte à l'intérieur des pores dans le domaine des basses fréquences. Les valeurs obtenues (de l'ordre de 50 à 200 Ω.cm pour des électrolytes organiques dans l'acétonitrile, à température ambiante) ne sont pas beaucoup plus élevées que celles mesurées dans les liquides (non confinés).La charge rapide des supercondensateurs empêche l'utilisation des techniques in situ habituelles pour suivre leur évolution au cours du temps. Souvent, le temps nécessaire à l'enregistrement d'un spectre ou d'un diffractogramme est plus long que le temps de charge.Cependant, des techniques telles que la spectroscopie infrarouge ou le SAXS ont permis de suivre l'évolution de la structure à l'échelle des quelques secondes au cours de trifluorométhylsulfonyl)imide) dans une électrode CDC ou encore une solution aqueuse de CsCl dans une électrode de carbone activé[22,23]. La RMN et l'imagerie de résonance magnétique (IRM) permettent également de suivre l'évolution des ions, à condition d'utiliser des cellules de mesure in situ avec un design particulier qui permet d'enregistrer la signature d'une seule électrode à la fois.Enfin, la simulation moléculaire a permis de comprendre l'origine microscopique de la rapidité de charge. En particulier, l'étude des trajectoires de dynamique moléculaire permet d'extraire des propriétés de transport difficilement mesurables telles que les coefficients de diffusion des différentes espèces. Des travaux récents ont ainsi montré que les coefficients de diffusion des ions dans les électrolytes sont généralement diminués d'un ou deux ordres de grandeurs dans les électrodes (électrolytes confinés) par rapport au liquide (non confiné)[24], mais de fortes variations sont observées avec le remplissage des électrodes dans le cas des RTILs. Dans les CDCs, la connectivité du réseau de pore joue bien sûr un rôle important sur les propriétés de transport. A partir des résultats de simulation moléculaire, nous avons pu faire le lien avec un modèle de circuit électrique équivalent (voirFigure 5) et remonter ainsi au temps de charge pour une électrode réelle, de l'ordre de 1 à 10 s[25]. Ceci confirme les bonnes capacités prédictives de ces simulations, y compris du point de vue dynamique.VIII. Conclusion et perspectivesLa compréhension des mécanismes fondamentaux à l'échelle microscopique ces 5 dernières années fournit une base solide pour la conception de meilleurs supercondensateurs, en suggérant de nouvelles stratégies pour l'optimisation du stockage de la charge par une combinaison adéquate de structure des électrodes, d'ions et de solvant. L'utilisation à grande échelle des outils expérimentaux et de simulation développés pour établir ces mécanismes sera la clé du succès pour atteindre cet objectif. Fig. 2 . 2(a) Capacité électrique par unité de surface obtenue pour le liquide ionique EMI-TFSI à 60°C avec des électrodes en carbones dérivés de carbures (CDC), en fonction de la taille moyenne des pores de l'électrode. Reproduit de Simon et Gogotsi, Nat. Mater. 2008, 7, 845-854 [5] avec la permission de Nature Publishing Group. (b) Exemples de structure de carbones: pores réguliers (fentes ou nanotubes) ou désordonnés (CDC). Reproduit de Salanne et al., Nature Energy, 2016, 1, 16070 [6] avec la permission de Nature Publishing Group. Fig. 3 . 3(a) Schéma d'une microbalance à quartz électrochimique (EQCM). L'électrode de travail (WE) est déposée sur un quartz piézoélectrique qui permet de mesurer la variation de masse au cours de la charge (ici la contre-électrode CE est en platine). (b) La comparaison des résultats expérimentaux à la loi de Faraday (Equation 2) pour des ions nus ou solvatés permet de déduire les mécanismes qui interviennent en fonction de la polarisation de l'électrode. Fig. 4 .Fig. 5 . 45Simulation moléculaire d'un supercondensateur constitué de deux électrodes nanoporeurses de Carbone Dérivé de Carbure (CDC), maintenues à une différence de potentiel constante, et d'un électrolyte liquide ionique à température ambiante. Les ions du liquide ionique, l'hexafluorophosphate de butyl-méthyl-imidazolium (BMI-PF 6 ), sont décrits par un modèle à "gros grains" (trois sites pour le cation, en rouge, un seul pour l'anion, en vert). Pour une différence de potentiel nulle (Ψ=0.0V), il y a autant de cations que d'anions dans chaque électrode, et la charge de ces dernières est nulle. Pour une différence potentiel de 1V, il y a un excès de cations dans l'électrode négative (Ψ=-0.5V) et un excès d'anions dans l'électrode positive (Ψ=+0.5V). Dans les deux cas, la charge nette du liquide dans l'électrode est compensée par la charge de cette dernière. La charge locale de l'électrode (négative en vert, positive en rouge) est illustrée, dans chaque cas, sur la partie droite de la figure correspondante. Ce mécanisme d'échange d'ions entre les électrodes diffère radicalement de ce qui se passe près d'une électrode plane de graphite. Reproduit de Merlet et al. Nat. Mater., 2012, 11, 306 [21] avec la permission de Nature Publishing Group. La dynamique de charge peut être étudiée par simulation moléculaire en mesurant la charge des électrodes en fonction du temps lorsque l'on passe d'une différence de potentiel nulle à une valeur non-nulle (où l'inverse). Compte tenu de la taille nanométrique du système simulé, on ne peut directement comparer ces résultats aux données expérimentales. On peut par contre les analyser à l'aide d'un modèle de circuit électrique équivalent similaire à ceux utilisés par les expérimentateurs. Les paramètres correspondant à un modèle de ligne à transmission (résistance de l'électrolyte R bulk , résistance et capacité par unité de longueur d'électrode R l et C i ) sont ainsi déterminés, ce qui permet d'extrapoler à un temps de charge pour un grain d'électrode de taille micrométrique (dans ce modèle, le temps de charge croît comme le carré de la taille) de quelques secondes, en accord avec la caractérisation électrochimique. Reproduit avec la permission de Péan et al., ACS Nano, 2014, 8, 1576 [25]. Copyright 2014 American Chemical Society. Encadré 1: Electrolytes pour les supercondensateurs Trois types d'électrolytes liquides sont utilisés dans les surpercondensateurs actuels. Les électrolytes aqueux sont avantageux du point de vue environnemental et de la sécurité, mais ils possèdent une fenêtre électrochimique limitée. Cette dernière peut être fortement élargie en utilisant des solvants organiques avec des ions dissous, voire des liquides ioniques à température ambiante. Ces derniers possèdent cependant des conductivités ioniques relativement faibles. de variation de volume dans les électrodes au cours des cycles de charge/décharge (la charge Les supercondensateurs sont utilisés pour deux applications principales, qui sont la fourniture de pics de puissance et la récupération de l'énergie ; pour cette dernière, c'est la vitesse de recharge qui est exploitée[2]. On les retrouve en petit format (cellule de capacité de moins de 100F) en électronique de puissance. Les formats plus importants (capacité de plus de 100F Ils permettent également, en association avec les batteries, d'augmenter la durée de vie de ces dernières en fournissant les pics de puissance qui sont les plus contraignants pour la batterie.restant en surface) permet aux supercondensateurs d'atteindre des cyclabilités de plusieurs millions de cycles à température ambiante, soit bien plus que pour les batteries (typiquement quelques centaines). Enfin, l'utilisation de solvants comme l'acétonitrile permet un fonctionnement entre -40°C et +70°C. Rappelons toutefois que la densité d'énergie est environ 30 fois plus faible que celle des batteries. par cellule) sont utilisés par exemple dans l'aéronautique (A380), l'automobile, les tramways et les bus (fonction stop and start et récupération de l'énergie de freinage), ou encore les grues portuaires (récupération de l'énergie potentielle)… Des applications récentes utilisent les supercondensateurs pour la traction électrique dans les bus qui font des arrêts réguliers. L'autonomie limitée (quelques minutes) reste suffisante pour rouler en mode tout électrique entre deux arrêts, et la recharge se fait en moins d'une minute pendant l'échange de passagers. Jusqu'en 2005, le modèle classique utilisé pour décrire l'adsorption des ions dans les pores des carbones prévoyait que seuls les pores de taille comprise entre 2 et 10 nm (les mésopores) permettaient un stockage efficace des ions ; la plupart des travaux étaient donc orientés vers la synthèse de carbones mésoporeux pour maximiser la capacitance. La découverte de l'augmentation de la capacité dans les nanopores (de taille inférieure à 1 nm, c'est-à-dire inférieure à la taille des ions solvatés) a conduit à complètement repenser l'adsorption des ions dans les pores confinés, et donc la charge de la double couche à l'échelle nanométrique [4]. Du point de vue pratique, la première conséquence a été l'utilisation, dans les systèmes commerciaux, de carbones microporeux dont tout le volume poreux provient de pores de taille inférieure à 2 nm [5]. Du point de vue scientifique, il a fallu développer de nouvelles techniques, expérimentales et théoriques, pour essayer de comprendre l'organisation des ions de l'électrolyte dans les pores nanométriques et sub-nanométriques des carbones pour essayer d'expliquer ces capacités élevées dans ces pores confinés [6]. Ces 5 à 10 dernières années, les techniques de caractérisation in situ par diffusion aux petits angles des rayons X (SAXS) et des neutrons (SANS), ainsi que les approches théoriques par dynamique moléculaire classique ou ab initio [7] ont permis de faire des avancées importantes dans le domaine. Le développement de techniques électrochimiques avancées, comme la microbalance à quartz électrochimique couplée à des techniques spectroscopiques comme la RMN, ont également été à l'origine de progrès notables, en contribuant à comprendre le transport et l'adsorption des ions dans les pores. Nous développons ici le sujet abordé succinctement dans un récent de la taille de pore à partir des mesures d'adsorption d'argon, pour comparer différents carbones. On préférera toutefois les capacités gravimétriques (F.g -1 d'électrode) ou volumétriques (F.cm -3 d'électrode) qui sont mesurables directement, sans avoir recours à des considérations théoriques ou structurales.Il est beaucoup plus délicat de caractériser la "vraie" structure des carbones nanoporeux, car il n'est à ce jour pas possible de le faire à partir d'approches purement expérimentales. On a ainsi recours à des combinaisons modélisation/expérience. Par exemple, la diffraction des rayons X et le SAXS permettent d'obtenir des informations structurales à courte et longue distance. Mais l'on obtient en général des informations structurales à 1D, et le passage à la structure 3D se fait souvent en recourant à des simulations de Monte Carlo hybride inverse[12]. Une approche combinant RMN, rayons X, spectroscopie Raman et simulation sur réseau a ainsi récemment permis d'estimer la taille des domaines graphitiques dans les carbones poreux, tandis que des simulations de trempe de dynamique moléculaire ont permis d'obtenir des structures de carbone réalistes sans partir de données expérimentales électrique lors de l'application d'une différence de potentiel entre les électrodes. Les premières mesures de RMN in situ ont montré que ce n'est pas le cas. Même à faible concentration en électrolyte, on observe un décalage vers les basses fréquences du signal RMN, induit par les courants de cycle aromatique des domaines graphitiques et la susceptibilité magnétique du carbone [14]. Les résultats indiquent que les ions ainsi que le solvant sont bien présents dans les pores. La situation à 0 V est donc mieux décrite par l'interpénétration de deux structures hétérogènes: le carbone solide d'une part, et l'électrolyte d'autre part. Par des simulations de dynamique moléculaire, nous avons pu confirmer cette image, en montrant qu'un liquide ionique en contact avec une électrode de carbone nanoporeux entre spontanément dans les nanopores y compris en l'absence de différence de potentiel. diffusion au petits angles des rayons X ou de neutrons, en exploitant le contraste entre le carbone et l'électrolyte, pour préciser par exemple l'entrée ou non dans les pores de plus petite taille. résultats aient été obtenus avec des carbones à porosité contrôlée dans le domaine des micropores (<1,5 nm), ces techniques électrochimiques classiques ne donnent pas accès à des informations quantitatives sur, par exemple, le nombre de molécules de solvant perdues lors de l'adsorption dans les nanopores.La spectroscopie RMN permet de plus de quantifier la concentration des ions adsorbés au sein de l'électrode [15]. Celle-ci est proportionnelle à la concentration dans le volume de l'électrolyte, ce qui confirme l'affinité des ions pour le carbone. Cependant, à l'échelle de temps de la mesure RMN, les ions diffusent dans la structure poreuse et sondent différents environnements, ce qui conduit à des spectres larges. Il n'est donc pas aisé de préciser les populations des différents sites d'adsorption par cette technique. On peut alors recourir à la En combinant diffusion de neutrons et simulations moléculaires, Bañuelos et al. ont conclu qu'un liquide ionique à température ambiante (RTIL) couvrait la surface des pores d'un carbone à porosité hiérarchisé de manière uniforme, plutôt que de remplir certains pores complètement avant de passer à d'autres. Différentes observations ont été faites dans le cas des électrolytes aqueux, suggérant que la chimie de surface du carbone et la nature de l'électrolyte jouent un rôle important sur les propriétés de mouillage. Récemment, Kondrat et Kornyshev ont proposé d'utiliser des pores "ionophobes" pour la conception particulière d'une nouvelle génération de supercondensateurs [16]. Cette idée, dont la faisabilité expérimentale reste à démontrer, repose sur le fait que de tels pores se rempliraient seulement à haut potentiel, ce qui ouvre des perspectives intéressantes en termes de densité d'énergie et de vitesse de charge/décharge. IV. Désolvatation dans les nanopores La découverte que les ions d'un électrolyte pouvaient accéder et s'adsorber dans des pores de dimensions inférieures à la taille des ions solvatés a été le point de départ d'un grand nombre de travaux sur l'étude du confinement des ions dans les nanopores de carbone. Du point de vue expérimental tout d'abord, les résultats des caractérisations électrochimiques classiques (voltammétrie, chrono-potentiométrie ou encore spectroscopie d'impédance électrochimique) ont conduit à proposer que l'accès à ces nanopores se faisait en perdant une partie de leur cortège de solvatation. De plus, la capacité était fortement augmentée lorsque la taille des pores était du même ordre de grandeur que celle des ions nus [4,5]. Cependant, bien que ces RemerciementsLes auteurs remercient leurs collègues Pierre-LouisTaberna et Barbara Daffos à Toulouse Electrochemical supercapacitors: scientific fundamentals and technological applications. B E Conway, SpringerNew YorkConway B.E., Electrochemical supercapacitors: scientific fundamentals and technological applications (Springer, New York), 1999. Electrochemical capacitors for energy management. J R Miller, P Simon, Science. 321Miller J.R., Simon P. Electrochemical capacitors for energy management. Science, 2008, 321, 651-652. T Brousse, M Morcrette, Accumulateurs et supercondensateur. Actualité Chimique. Brousse T., Morcrette M., Accumulateurs et supercondensateur. Actualité Chimique, 2015, 400-401, 58-64. Anomalous Increase in Carbon Capacitance at Pore Sizes Less Than 1. J Chmiola, Chmiola J. et al., Anomalous Increase in Carbon Capacitance at Pore Sizes Less Than 1 . Nanometer, Science. 313Nanometer, Science, 2006, 313, 1760-1763. Materials for electrochemical capacitors. P Simon, Y Gogotsi, Nat. Mater. 7Simon,P., Gogotsi Y., Materials for electrochemical capacitors. Nat. Mater. 2008, 7, 845- 854. . M Salanne, B Rotenberg, K Naoi, K Kaneko, P.-L Taberna, C P Grey, B Dunn, Salanne M., Rotenberg B., Naoi K., Kaneko K., Taberna P.-L., Grey C.P., Dunn B., Efficient storage mechanisms for building better supercapacitors. P Simon, Nature Energy. Simon P., Efficient storage mechanisms for building better supercapacitors. Nature Energy, 2016, 1, 16070. Modéliser et simuler la chimie : le défi de la chimie théorique. Numéro spécial Actualité Chimique. Modéliser et simuler la chimie : le défi de la chimie théorique, Numéro spécial Actualité Chimique, 2014, 382-383 Stockage de charge dans les carbones nanoporeux : l'origine moléculaire de la supercapacité. C Merlet, C Péan, M Salanne, B Rotenberg, Actualité Chimique. Merlet C., Péan C., Salanne M., Rotenberg B., Stockage de charge dans les carbones nanoporeux : l'origine moléculaire de la supercapacité. Actualité Chimique, 2016, 408-409, 43-45. Physisorption of gases, with special reference to the evaluation of surface area and pore size distribution. M Thommes, Pure Appl. Chem. 87Thommes M. et al. Physisorption of gases, with special reference to the evaluation of surface area and pore size distribution. Pure Appl. Chem., 2015, 87, 1051-1069. Simulation study on the relationship between a high resolution α s -plot and the pore size distribution for activated carbon. N Setoyama, T Suzuki, K Kaneko, Carbon. 36Setoyama, N., Suzuki, T. & Kaneko, K. Simulation study on the relationship between a high resolution α s -plot and the pore size distribution for activated carbon. Carbon, 1998, 36, 1459-1467. Quenched solid density functional theory and pore size analysis of micro-mesoporous carbons. A V Neimark, Y Lin, P I Ravikovitch, M Thommes, Carbon. 47Neimark A. V., Lin Y., Ravikovitch, P. I., Thommes M. Quenched solid density functional theory and pore size analysis of micro-mesoporous carbons. Carbon, 2009, 47, 1617-1628. Realistic molecular model of kerogen's nanostructure. C Bousige, Nature Mater. 15Bousige C. et al. Realistic molecular model of kerogen's nanostructure. Nature Mater., 2016, 15, 576-582. Modeling the structural evolution of carbide-derived carbons using quenched molecular dynamics. J C Palmer, Carbon. 48Palmer J. C. et al. Modeling the structural evolution of carbide-derived carbons using quenched molecular dynamics. Carbon, 2010, 48, 1116-1123. Exploring electrolyte organization in supercapacitor electrodes with solid-state NMR. M Deschamps, Nature Mater. 12Deschamps M. et al. Exploring electrolyte organization in supercapacitor electrodes with solid-state NMR. Nature Mater. 2013, 12, 351-358. In situ NMR and electrochemical quartz crystal microbalance techniques reveal the structure of the electrical double layer in supercapacitors. J M Griffin, Nature Materials. 14Griffin J.M. et al., In situ NMR and electrochemical quartz crystal microbalance techniques reveal the structure of the electrical double layer in supercapacitors, Nature Materials, 2015, 14, 812-819. Pressing a spring: what does it take to maximize the energy storage in nanoporous supercapacitors? Nanoscale Horiz. S Kondrat, A Kornyshev, 1Kondrat S., Kornyshev A. Pressing a spring: what does it take to maximize the energy storage in nanoporous supercapacitors? Nanoscale Horiz. 2016, 1, 45-52. Application of a quartz-crystal microbalance to measure ionic fluxes in microporous carbons for energy storage. M D Levi, G Salitra, N Levy, D Aurbach, J Maier, Nature Mater. 8Levi M. D., Salitra G., Levy N., Aurbach D., Maier J. Application of a quartz-crystal microbalance to measure ionic fluxes in microporous carbons for energy storage. Nature Mater., 2009, 8, 872-875. Highly confined ions store charge more efficiently in supercapacitors. C Merlet, Nat. Commun. Merlet C. et al., Highly confined ions store charge more efficiently in supercapacitors, Nat. Commun., 2013, 4, 2701. Ionic Liquids at Electrified Interfaces. M V Fedorov, A K Kornyshev, Chem. Rev. Fedorov, M.V., Kornyshev, A.K. Ionic Liquids at Electrified Interfaces, Chem. Rev., 2014, 114, 2978. Superionic state in double-layer capacitors with nanoporous electrodes. S Kondrat, A A Kornyshev, J. Phys.: Condens. Matter. Kondrat, S. & Kornyshev, A.A. Superionic state in double-layer capacitors with nanoporous electrodes. J. Phys.: Condens. Matter, 2011, 23, 022201. On the molecular origin of supercapacitance in nanoporous carbon electrodes. C Merlet, Nat. Mater. 306Merlet C. et al., On the molecular origin of supercapacitance in nanoporous carbon electrodes, Nat. Mater., 2012, 11, 306. Ion dynamics in porous carbon electrodes in supercapacitors using in situ infrared spectroelectrochemistry. F W Richey, B Dyatkin, Y Gogotsi, Y A Elabd, J. Am. Chem. Soc. 135Richey F. W., Dyatkin B., Gogotsi Y., Elabd, Y. A. Ion dynamics in porous carbon electrodes in supercapacitors using in situ infrared spectroelectrochemistry. J. Am. Chem. Soc., 2013, 135, 12818-12826 (2013). Tracking the structural arrangement of ions in carbon supercapacitor nanopores using in-situ small angle X-ray scattering. C Prehal, Energy Environ. Sci. 8Prehal, C. et al. Tracking the structural arrangement of ions in carbon supercapacitor nanopores using in-situ small angle X-ray scattering. Energy Environ. Sci., 2015, 8, 1725- 1735 (2015). C Péan, Confinement, Desolvation, And Electrosorption Effects on the Diffusion of Ions in Nanoporous Carbon Electrodes. 137Péan C. et al., Confinement, Desolvation, And Electrosorption Effects on the Diffusion of Ions in Nanoporous Carbon Electrodes, JACS, 2015, 137, 12627-12632. On the Dynamics of Charging in Nanoporous Carbon-Based Supercapacitors. C Péan, ACS Nano. Péan C. et al., On the Dynamics of Charging in Nanoporous Carbon-Based Supercapacitors, ACS Nano, 2014, 8, 1576. Charge Fluctuations in Nanoscale Capacitors. D L Limmer, Phys. Rev. Lett. Limmer D.L. et al., Charge Fluctuations in Nanoscale Capacitors, Phys. Rev. Lett,. 2013, 111, 106012. The Electric Double Layer Has a Life of Its Own. C Merlet, J. Phys. Chem. C. 11812891Merlet C. et al., The Electric Double Layer Has a Life of Its Own, J. Phys. Chem. C, 2014, 118, 12891. Structural Transitions at Ionic Liquid Interfaces. B Rotenberg, M Salanne, J. Phys. Chem. Lett. 6Rotenberg B., Salanne M., Structural Transitions at Ionic Liquid Interfaces, J. Phys. Chem. Lett., 2015, 6, 4978-4985. Extracting renewable energy from a salinity difference using a capacitor. D Brogioli, Phys. Rev. Lett. 58501Brogioli, D. Extracting renewable energy from a salinity difference using a capacitor. Phys. Rev. Lett., 2009, 103, 058501. Giant osmotic energy conversion measured in a single transmembrane boron nitride nanotube. A Siria, Nature. 494Siria, A. et al. Giant osmotic energy conversion measured in a single transmembrane boron nitride nanotube. Nature 2013, 494, 455-458. . Figures, Figures et légendes Les lignes diagonales indiquent le temps caractéristique de charge/décharge. (b) Représentation de la double couche électrochimique à la surface d'une électrode plane chargée négativement. Le modèle de condensateur plan prédit une capacité C proportionnelle à l'aire A de l'électrode et inversement proportionnelle à la distance d de séparation des charges. (c) Dans le cas d'un carbone poreux de grande surface spécifique. Le diagramme de Ragone représente les différents dispositifs de stockage de l'électricité en fonction de leur puissance spécifique (puissance par unité de masse) et de leur énergie spécifique (énergie par unité de masse). ici supérieure à 1000 m 2 .g -1 ), la prédiction de la capacité est plus délicateFig. 1. (a) Le diagramme de Ragone représente les différents dispositifs de stockage de l'électricité en fonction de leur puissance spécifique (puissance par unité de masse) et de leur énergie spécifique (énergie par unité de masse). Les lignes diagonales indiquent le temps caractéristique de charge/décharge. (b) Représentation de la double couche électrochimique à la surface d'une électrode plane chargée négativement. Le modèle de condensateur plan prédit une capacité C proportionnelle à l'aire A de l'électrode et inversement proportionnelle à la distance d de séparation des charges. (c) Dans le cas d'un carbone poreux de grande surface spécifique (ici supérieure à 1000 m 2 .g -1 ), la prédiction de la capacité est plus délicate.
sample_15336
0.9733
arxiv
Capitulation abélienne des groupes de classes de rayons 8 Apr 2020 Jean-François Jaulent Capitulation abélienne des groupes de classes de rayons 8 Apr 2020arXiv:1801.07173v2 [math.NT] Nous montrons que la méthode utilisée par Bosca pour faire capituler les classes d'idéaux d'un corps de nombres s'étend aux classes de rayons dans le cas modéré. Plus précisément, nous prouvons que pour toute extension K/k de corps de nombres dans laquelle une au moins des places à l'infini se décompose complètement et tout diviseur m sans facteur carré, il existe une infinité d'extensions abéliennes F/k telles que les classes de rayons modulo m de K capitulent dans KF . Il suit de là que les résultats de Kurihara sur la trivialité des groupes de classes des pro-extensions abéliennes maximales des corps de nombres totalement réels valent encore pour les groupes de classes de rayons dans le cas modéré.Abstract. Building on Bosca's method, we extend to tame ray class groups the results on capitulation of ideals of a number field by composition with abelian extensions of a subfield first studied by Gras. More precisely, for every extension of number fields K/k,where at least one infinite place splits completely, and every squarefree divisor m of K, we prove that there exist infinitely many abelian extensions F/k such that the ray class group mod m of K capitulates in KF . As a consequence we generalize to tame ray class groups the results of Kurihara on triviality of Introduction Il est reconnu que la capitulation des idéaux (i.e. le fait de devenir principal) par extension abélienne est un problème difficile. La raison en est, nous semble-t-il, que la théorie du corps de classes qui décrit précisément ces extensions abéliennes est centrée sur les questions normiques tandis que la capitulation met en jeu, elle, les propriétés du morphisme d'extension. Du point de vue cohomologique, le noyau de capitulation dans une extension galoisienne est gouverné par le premier groupe de cohomologie des unités. Il est donc naturel que les propriétés des unités -et donc le comportement des places à l'infini -joue un rôle essentiel dans ces questions. C'est ainsi que Gras a montré dans [4] que, pour une extension abélienne de corps de nombres K/k vérifiant des conditions de signatures convenables, il existe une infinité d'extensions abéliennes F/k telles que les idéaux de K capitulent dans le compositum F K. Ce résultat a été ensuite généralisé par Bosca dans [1] pour K/k arbitraire sous la seule condition que l'une au moins des places à l'infini se décompose complètement dans K/k. Par passage à la limite inductive dans les tours abéliennes pour k = Q, il retrouve ainsi le théorème de Kurihara [14] sur la trivialité du groupe de classes du compositum de K avec l'extension abélienne maximale Q ab du corps des rationnels pour K totalement réel et démontre en outre la conjecture de Gras (cf. [4], p. 405). La preuve de Bosca repose sur la conjonction de trois types d'arguments : la description des groupes de normes donnée par le corps de classes ; le théorème de densité de Chebotarev ; et des dénombrements de classes ambiges dans le cas cyclique, à la manière de Chevalley. Le but de la présente note est d'étendre aux groupes de classes de rayons Cl mK K les résultats de Bosca en reprenant essentiellement la même stratégie -au prix de quelques complications techniques -dans le cas où le diviseur m K qui définit le module de congruences est sans facteur carré, ce qui, du point de vue du corps de classes, revient à accepter de la ramification modérée. Le résultat que nous obtenons, en parfaite analogie avec le cas des classes d'idéaux, généralise ainsi ceux de Bosca et, partant, de Kurihara dans ce nouveau cadre, et les redonne comme cas particuliers lorsque m K est pris trivial. Par exemple, pour l'extension abélienne réelle maximale de Q, le Scolie 9 infra s'énonce ainsi : Convention. Étant donnés un ensemble fini T = T Q de places de Q et une extension L ⊂ Q, convenons de noter par T L l'ensemble des places de L au-dessus de T et écrivons Cl m L = lim − → Cl m K la limite inductive des groupes de classes de rayons modulo m K = p K ∈T K p K , pour K ⊂ L de degré fini sur Q. Cela étant, pour tout ensemble fini T de places de Q, autrement dit pour tout diviseur sans facteur carré m Q = p∈T du corps des rationnels, il vient : Théorème. Le sous-corps réel maximal L = Q ab + = f >0 Q[cos(2π/f )] du corps cyclotomique engendré par toutes les racines de l'unité Q ab = f >0 Q[ζ f ] est m-principal : Cl m L = 1. Plus généralement les extensions algébriques totalement réelles N de Q ab + sont m-principales. En d'autres termes, toute classe de rayons d'un corps totalement réel modulo un diviseur sans facteur carré se trivialise par extension abélienne réelle. La démonstration de ce résultat montre même que les extensions principalisantes F peuvent être prises non-ramifiées en un ensemble fini arbitraire de places ; ce qui implique l'existence d'une infinité de telles extensions non emboîtées. Comme expliqué en appendice, le cas sauvage, en revanche, met en jeu ultimement d'autres phénomènes qui s'opposent à la capitulation des groupes de classes infinitésimales. Par exemple, pour tout premier ℓ donné et sous la conjecture de Leopoldt pour ℓ, le ℓ-groupe des ℓ-classes infinitésimales d'ordre fini d'un corps totalement réel ne peut capituler dans aucune de ses extensions dès lors qu'il n'est pas nul, le morphisme d'extension étant alors toujours injectif. Énoncé des résultats et stratégie de preuve Rappelons qu'un corps de nombres est, par convention, une extension finie du corps Q et qu'une place à l'infini d'un tel corps est dite se décomposer complètement dans une extension finie K/k lorsqu'elle possède exactement [K : k] prolongements à K (ce qui a lieu si et seulement si ce n'est pas une place réelle dont l'un au moins des prolongements ne l'est pas). Le résultat principal de Bosca [1] prouvant la conjecture de Gras peut s'énoncer comme suit : Théorème A (Bosca). Pour toute extension K/k de corps de nombres où une place à l'infini au moins se décompose complètement, il existe une extension abélienne finie F/k complètement décomposée en toutes les places à l'infini, telle que les classes de Cl K capitulent dans L = KF . Sa généralisation en termes de classes de rayons s'énonce naturellement comme suit : étant donné un ensemble fini T = T k de places d'un corps de nombres k et une extension K de k, convenons de noter T K l'ensemble des places de K au-dessus de T k . Cela étant : Théorème B. Pour toute extension K/k de corps de nombres dans laquelle une place à l'infini au moins se décompose complètement et tout ensemble fini T de places non complexes de k, il existe une extension abélienne finie F/k complètement décomposée en toutes les places à l'infini, telles que les classes de rayons de Cl m K modulo m K = q K ∈T K q K capitulent dans L = KF . Ce second résultat contient naturellement le premier qui correspond au cas particulier T = ∅. La stratégie pour prouver le Théorème B reprend dans un contexte plus technique celle mise en oeuvre par Bosca [1] pour établir le Théorème A : comme tout groupe abélien fini est un produit direct de ℓ-groupes cycliques, il suffit de montrer que pour tout nombre premier ℓ chaque classe [d K ] d'ordre ℓ-primaire de Cl mK K se trivialise dans KF d pour une certaine ℓ-extension abélienne ∞-décomposée F d du corps de base k ; le compositum F des F d lorsque d parcourt un système de représentants d'une famille génératrice de classes fournissant alors un corps principalisant, toutes les classes de Cl mK K capitulent par construction dans L = KF . L'idée est de représenter la classe considérée par un idéal premier convenable p K ; à prendre pour F une ℓ-extension de k cyclique de degré assez grand, non-ramifiée en dehors de p k et nondécomposée en p k , dans laquelle l'idéal premier p k au-dessous de p K est très ramifié ; puis à former le compositum L = F K. Par construction, l'idéal p K est alors une grande puissance d'un idéal p L de L, ambige dans l'extension cyclique L/K ; ce qui permet de montrer que sa classe est principale, dès que l'on contrôle effectivement le nombre de classes d'ambiges dans l'extension cyclique L/K, ce qui se fait en imposant à p K un certain nombre de conditions arithmétiques fortes. Pour cela, il est plus commode d'établir d'abord le résultat attendu dans le cas galoisien, le cas général pouvant s'en déduire ultérieurement par passage à la clôture galoisienne (Scolie 7). La situation considérée est donc la suivante : -K/k désigne une extension galoisienne de corps de nombres, de groupe de Galois ∆, dans laquelle une au moins des places à l'infini est complètement décomposée ; ℓ est un nombre premier fixé et T un ensemble fini, stable par ∆, d'idéaux premiers de K. On note m K = q K ∈T q K leur produit et E m K = {ε ∈ E K | ε ≡ 1 mod m K } le groupe des unités de K congrues à 1 modulo m K . En termes de représentations, l'hypothèse faite, qui revient à postuler la trivialité du sous-groupe de décomposition ∆ p∞ de l'une des places à l'infini, assure, d'après le théorème de Herbrand (cf. [8,9] ou e.g. [16]), que le caractère du groupe des unités KF . Le point-clé de la démonstration consiste à minorer un indice normique en imposant un comportement ad hoc de p K dans l'extension K ε n = K ζ ℓ n , ℓ n E ε K pour n assez grand (Prop. 3). χ EK = p∞ Ind ∆ ∆p ∞ 1 ∆p ∞ − 1 ∆ contient le caractère d'augmentation χ aug ∆ = χ rég ∆ − 1 ∆ . Interprétation infinitésimale des ℓ-groupes de classes de rayons Soit donc K un corps de nombres et m un diviseur de K sans facteur carré. Écrivons K × m = q|m K × q le produit des groupes multiplicatifs des complétés de K aux places (finies ou réelles) intervenant dans m. Notons q q l'idéal maximal de l'anneau local des entiers de K q et U 1 q = 1+q q le sous-groupe de K × q formé des unités principales, si q est finie ; U 1 q = K ×2 q ≃ R × + , si q est réelle. Par définition (cf. e.g. [15] §5.1), le groupe des classes de rayons modulo m de K est le quotient : Cl m K = D m K /P m K , où D m K est le groupe des idéaux de K étrangers à m et P m K le sous-groupe formé des idéaux principaux engendrés par les x de K × qui satisfont la congruence multiplicative : x ≡ 1 mod × m, i.e. dont l'image canonique dans K × m tombe dans le sous-groupe U 1 m = q|m U 1 q . Fixons maintenant un nombre premier ℓ ; écrivons m = m ′m en mettant dans m ′ les places qui divisent ℓ et dansm les autres ; puis considérons le ℓ-sous-groupe Cℓ m K = Z ℓ ⊗ Z Cl m K du groupe Cl m K . Nous allons interpréter ce ℓ-groupe en termes idéliques en nous appuyant sur le formalisme et les notations de la théorie ℓ-adique du corps de classes tels qu'introduits dans [12]. Écrivons pour cela Cℓ m K comme quotient du tensorisé ℓ-adique D m K = Z ℓ ⊗ Z D m K par son sous- module principal P m K = Z ℓ ⊗ Z P m K . Précisons ce dernier : pour chaque place non-complexe q de K, notons R Kq = lim ← − K × q /K ×ℓ m q le compactifié ℓ-adique du groupe multiplicatif K × q . Et notons U Kq son sous-groupe des unités, qui s'identifie au groupe U 1 q des unités principales de K q , pour q|ℓ ; au ℓ-sous-groupe de Sylow µ Kq du groupe des racines de l'unité contenues dans K q , pour q ∤ ℓ (et donc à {±1} pour q réelle et ℓ = 2, au groupe trivial {1} pour q réelle et ℓ = 2). Rappelons que le tensorisé R K = Z ℓ ⊗ Z K × du groupe multiplicatif de K s'injecte canoniquement dans le pro-ℓ-groupe des idèles, défini comme le produit restreint des compactifiés R Kq : R K ֒→ J K = res q R Kq . Ainsi P m K est l'image dans D m K ≃ res q∤m R Kq / q∤m U Kq ≃ res q∤m R Kq q|m ′ U Kq / q∤m U Kq de R m K = x = (x q ) q ∈ R K | x q ∈ U q pour q|m ′ et x q = 1 pour q|m = R K ∩ res q∤m R Kq q|m ′ U Kq , sous-module de R K formé des éléments qui sont des unités aux places divisant m ′ et triviaux aux places divisantm (on dit que que ce sont des unités en m ′ qui sontm-infinitésimales 1 ). Il suit : Cℓ m K = D m K /P m K ≃ res q∤m R Kq q|m ′ U Kq / q∤m U Kq R K ∩ res q∤m R Kq q|m ′ U Kq . Puis : Cℓ m K ≃ res q∤m R Kq q|m ′ U Kq R K / q∤m U Kq R K . Le théorème d'approximation faible permet de remplacer au numérateur q|m ′ U Kq par q|m ′ R Kq . Il vient donc finalement : Cℓ m K ≃ res q∤m R Kq R K / q∤m U Kq R K ≃ res q∤m R Kq / R K ∩ res q∤m R Kq ≃ Cℓm K . Proposition 1. Soient m un diviseur sans facteur carré d'un corps de nombres K, puis ℓ un nombre premier arbitraire etm le diviseur construit sur les places de K qui ne divisent pas ℓ. Le ℓ-groupe Cℓ m K des classes de rayons modulo m est indépendant de m ′ = m/m et s'identifie au quotient du Z ℓ module multiplicatif Dm K construit sur les idéaux premiers qui ne divisent parm par le sous-module P m K des idéaux principaux engendré par les élémentsm-infinitésimaux x ∈ Rm K : Cℓ m K ≃ Cℓm K = Dm K /Pm K . Par la théorie du corps de classes, Cℓ m K s'identifie ainsi au groupe de Galois de la ℓ-extension abéliennem-ramifiée (i.e. non-ramifiée en dehors dem) maximale Hm K de K. Preuve. Le corps de classes H m K associé à Cℓ m K est la ℓ-extension abélienne maximale m-modérément ramifiée (i.e. non-ramifiée en dehors de m et possiblement mais modérément aux places dem). Or, dans une ℓ-extension les places divisant ℓ qui se ramifient le font sauvagement, les autres modérément. H m K = Hm K est donc la ℓ-extension abéliennem-ramifiée maximale de K. La qualification d'ambiges pour désigner les classes ou les idéaux invariants par le groupe de Galois dans une extension galoisienne de corps de nombres est traditionnelle depuis Hilbert ([10], §5.7). L'ambiguïté de cette notion tient au fait que les classes ambiges (i.e. invariantes) d'idéaux ne sont pas nécessairement représentées par des idéaux ambiges (i.e. invariants). On parle de classes ambiges dans le premier cas, de classes d'ambiges dans le second. Le but de la présente section est d'étendre aux ℓ-groupes de classes infinitésimales Cℓm L , dans une ℓ-extension cyclique de corps de nombres L/K, les calculs de Chevalley sur les classes ambiges d'idéaux dans les extensions cycliques ( [3], pp. 402-406). Un point-clé de la démonstration est le fait que, pour Γ cyclique, le quotient de Herbrand d'un Z[Γ]-module noethérien M q(Γ, M ) = |H 2 (Γ,M)| |H 1 (Γ,M)| ne dépend que du caractère du Q[Γ]-module Q ⊗ Z M . Pour le module des unités, il est donné par le théorème de représentation de Herbrand (cf. [8,9] ou e.g. [16]), ce qui conduit à la formule de Chevalley (où d q ∞ K (L/K) désigne le degré de l'extension locale attaché à la place à l'infini q ∞ K ) : q(Γ, E L ) = [L:K] q ∞ K dq∞ K (L/K) Proposition 2 (Classes infinitésimales d'ambiges). Soient ℓ un nombre premier, L/K une ℓextension cyclique de groupe Γ etm un diviseur Γ-invariant, étranger à ℓ et sans facteur carré. Le nombre de ℓ-classes de Cℓm L qui sont représentées par un idéal ambige est donné par : Dm L Γ : Pm L Γ = | Cℓm K | q ∞ K d q ∞ K (L/K) q • K ∤m K e q • K (L/K) [L : K] Em K : N L/K (Em L ) où q ∞ K parcourt les places à l'infini, q • K les places finies étrangères àm ramifiées dans L/K ; et d q K (L/K) et e q K (L/K) désignent le degré local et l'indice de ramification en q K . Preuve. Reprenons les calculs effectués dans [11], §2 pour les classes ℓ-infinitésimales, en nous appuyant cette fois sur la description infinitésimale des ℓ-classes de rayons donnée dans la section précédente. Partons de l'identité : Dm L Γ : Pm L Γ = Dm L Γ : Dm K Dm K : Pm K / Pm L Γ : Pm K . -Dm L Γ est engendré par les produits q • L |q • K q • L , où q • K décrit l'ensemble des idéaux premiers de K étrangers àm, de sorte qu'il vient : (Dm L Γ : Dm K ) = q • K ∤m K e q • K (L/K). -Dm K /Pm K est tout simplement le ℓ-groupe Cℓm K . -Reste à étudier le quotient Pm L Γ /Pm K . La Proposition 1 nous fournit la suite exacte courte 1 → Em L → Rm L → Pm L → 1, où Em L = E L ∩ Rm L est formé des unités de L qui sont m-infinitésimales. Prenant la cohomologie, nous obtenons la suite exacte longue 1 → Em L Γ = Em K → Rm L Γ = Rm K → Pm L Γ → H 1 (Γ, Em L ) → H 1 (Γ, Rm L ) → · · · et finalement la suite exacte : 1 → Pm K → Pm L Γ → H 1 (Γ, Em L ) → H 1 (Γ, Rm L ). Dans celle-ci, le groupe Rm L des éléments de R L qui sontm-infinitésimaux est le noyau de l'épimorphisme de R L sur R Lm = q |m R Lq donné par : x = (x q ) q → (x q ) q|m . Partant alors de la suite 1 → Rm L → R L → R Lm → 1 et prenant la cohomologie, nous obtenons : Contexte. Pour minorer l'indice normique dans la Proposition 2, fixons quelques conditions : 1 → Rm L Γ = Rm K → R Γ L = R K → R Γ Lm = R Km → H 1 (Γ, Rm L ) → H 1 (Γ, R L ) → · · · . de sorte que H 1 (Γ, Rm L ) s'injecte dans H 1 (Γ, R L ). -K/k désigne désormais une extension galoisienne de corps de nombres, de groupe de Galois ∆, dans laquelle une au moins des places à l'infini est complètement décomposée ; ℓ est un nombre premier fixé etm un diviseur ∆-stable, sans facteur carré et étranger à ℓ ; -L/K = KF/K provient d'une ℓ-extension cyclique F/k de groupe Γ, disjointe de K/k. La condition de décomposition assure, d'après le théorème de Herbrand déjà cité, que le groupe Em K = {ε ∈ E K | ε ≡ 1 modm K } contient un sous-module monogène E ε K = ε Z[∆] de caractère χ aug ∆ . Soit n ≥ 1 un entier arbitraire (n > 1, pour ℓ = 2) ; ζ ℓ n une racine ℓ n -ème primitive de l'unité ; E • Kn = {η ∈ K × n | η ℓ n ∈ E ε K } ; et K ε n = K ζ ℓ n , ℓ n E ε K l'extension kumérienne engendrée sur K n = K[ζ ℓ n ] par les racines ℓ n -èmes des éléments de E ε K . Il est bien connu que l'on a : K × ∩K ×ℓ n n = K ×ℓ n pour ℓ impair et (K × ∩K ×2 n n : K ×2 n ) ≤ 2 pour ℓ = 2 (cf. e.g. [18], Lem. 5.7) ; de sorte que ℓ ρn = (E • ℓ n Kn : E ε ℓ n K ) est indépendant de n pour ℓ impair, et ultimement pour ℓ = 2. Notons le ℓ ρ . Pour n ≥ ρ, l'ordre du radical Rad(K ε n /K n ) = E ε K /E • ℓ n Kn de l'extension kummérienne K ε n /K n est ainsi : [K ε n : K n ] = | Rad(K ε n /K n )| = E ε K : E ε K ℓ n /(E • ℓ n Kn : E ε ℓ n K ) = ℓ ([K:k]−1)n /ℓ ρ . Notons ℓ m , avec m ≥ n − ρ, l'ordre de ε dans E ε K /E • ℓ n Kn . Et soit τ n ∈ Gal(K ε n /K n ) qui vérifie : ℓ n √ ε τn−1 = ζ ℓ m pour une certaine racine ℓ m -ème primitive de l'unité ζ ℓ m . Alors τ n fixe ℓ n √ ε et, conjointement avec ses conjugués par ∆ n = Gal(K n /k), le corps K ε n . Proposition 3. Supposons que F/k est ramifiée, avec pour indice e p k = ℓ n , en une unique place p k ∤ 2ℓm k au-dessus d'un premier p ∤ 2ℓ qui se décompose complètement dans k ; que p k se décompose complètement dans K n = K[ζ ℓ n ] ; et qu'il existe une place p Kn de K n au-dessus de p k dont l'image par l'opérateur de Frobenius vérifie : Preuve. Par hypothèse les éléments de Frobenius Frob(p σ Kn , K ε n /K n ) attachés aux conjuguées de la place p Kn engendrent Gal(K ε n /K n ) ℓ n0 . Notons p K la place de K au-dessous de p Kn , et regardons K comme plongé diagonalement dans le produit de ses complétés σ∈∆ K p σ K au-dessus de p k . Du fait de l'hypothèse de décomposition, K p σ K est encore le complété de K n en la place p σ Kn . Par suite, les éléments de K × qui sont localement des puissances ℓ n -èmes aux places p σ K sont globalement des puissances ℓ n−n0 -èmes dans K × n . En particulier, il vient donc : E ε K ∩ σ∈∆ K ×ℓ n p σ K = E ε K ∩ K ×ℓ n−n0 n ; et finalement : E ε K : E ε K ∩ σ∈∆ U ℓ n p σ K = [K n [ ℓ n−n0 E ε K ] : K n ] = ℓ ([K:k]−1)(n−n0) /ℓ ρ . Maintenant, dans la formule obtenue, les groupes d'unités locales U p σ K sont procycliques, puisque p = 2 étant complètement décomposé dans K/Q, les complétés K p σ K sont tous isomorphes à Q p . Or, par construction, ℓ n est précisément l'indice de ramification de chacune des places p σ K dans L/K. D'après la théorie locale du corps de classes, U ℓ n p σ K est donc le sous-groupe normique N Lpσ L /Kpσ K (U p σ L ) attaché à l'extension locale L p σ L /K p σ K . Il en résulte qu'on a : E ε K : E ε K ∩ σ∈∆ U ℓ n p σ K = E ε K : E ε K ∩ σ∈∆ N Lpσ L /Kpσ K (L × p σ L ) = E ǫ K : E ǫ K ∩ N L/K (L × ) , en vertu du principe de Hasse (cf. [15], Th. 3.1), puisque dans l'extension cyclique L/K les éléments globaux qui sont normes locales sont exactement les normes globales et que, par ailleurs, les unités sont banalement normes locales aux places non-ramifiées. Il suit donc : Em K : N L/K (Em L ) ≤ Em K : Em K ∩ N L/K (L × ) ≤ E ǫ K : E ǫ K ∩ N L/K (L × ) = ℓ ([K:k]−1)(n−n0) /ℓ ρ . Et finalement : Dm L Γ : Pm L Γ ≤ | Cℓm K | q ∞ K d q ∞ K (L/K) ℓ n [L:K] ℓ ([K:k]−1)n0+ρ ≤ | Cℓm K | 2 cL/K ℓ ([K:k]−1)n0+ρ . Récapitulons : étant donnée une extension galoisienne K/k de corps de nombres complètement décomposée en au moins une place à l'infini, un nombre premier ℓ et un diviseur m K de K sans facteur carré, stable par ∆ = Gal(K/k), nous avons définim K en écartant les places divisant ℓ et fait choix d'un sous-Z[∆]-module E ε K de E m K de caractère χ aug ∆ , ce qui détermine une constante ℓ ρ . Posons maintenant ℓ n0 = [H K ∩ K ∞ : K] |µ K |, où H K désigne le ℓ-corps de classes de Hilbert de K (i.e. sa ℓ-extension abélienne non-ramifiée maximale), K ∞ la Z ℓ -extension cyclotomique de K, et µ K le ℓ-sous-groupe de Sylow du groupe des racines de l'unité contenues dans K. Étant donnés une classe [d K ] d'ordre ℓ-primaire dans Cl m K et un entier n ≥ n 1 , nous cherchons une place p k ∤m k de k au-dessus d'un premier p ∤ 2ℓ de Q complètement décomposé dans k et une place p K de K au-dessus de p k qui satisfassent les quatre conditions suivantes : (i) p k est complètement décomposée dans K n = K[ζ ℓ n ] ; (ii) l'une des places au-dessus p Kn dans K n est d'image τ ℓ n0 n dans Gal K n ℓ n E ε K /K n ; (iii) p K représente la classe [d K ] de Cl m K (autrement dit a même image dans Gal(Hm K /K)) ; (iv) il existe une ℓ-extension cyclique F/k, ramifiée uniquement en p k avec pour indice ℓ n . Examinons cette dernière condition. Par la théorie ℓ-adique du corps de classes (cf. [12], §2.2), le groupe de Galois de la ℓ-extension abélienne p-ramifiée ∞-décomposée maximale H p k du corps k relativement à sa sous-extension non-ramifiée maximale H k est donné par l'isomorphisme : Gal(H p k /H k ) ≃ R k q U k q q|∞ R k q / R k q =p U k q q|∞ R k q ≃ µ k p /s p (E k ) , où U kp = µ kp est le ℓ-groupe des racines de l'unité dans k p et s p (E k ) l'image locale du groupe des unités globales. Or, le quotient obtenu est cyclique d'ordre ℓ d pour un d ≥ n si et seulement si le complété k p contient les racines ℓ n -ièmes de l'unité et si les éléments de E k sont des puissances ℓ n -ièmes locales dans k p ; ce qui a lieu dès que la place p k est complètement décomposée dans l'extension k ζ ℓ n , ℓ n √ E k /k. Le sous-groupe d'inertie I = I(p k , H p k /k) est alors d'ordre ℓ d pour un d ≥ n ; et il suffit de prendre pour F le corps des points fixes de n'importe quel sous-groupe B de A = Gal(H p k /k) qui rencontre trivialement I et définit un quotient cyclique A/B pour avoir I(p k , F/k) = BI/B ≃ I. En fin de compte, l'existence de F est assurée si l'on remplace (i) par : (i ′ ) p k se décompose complètement dans K n ℓ n √ E k = K ζ ℓ n , ℓ n √ E k . Et tout le problème est alors de s'assurer de la compatibilité des trois conditions (i ′ ), (ii) et (iii). D'un côté, les extensions kummériennes K n ℓ n √ E k /K n et K n ℓ n E ε K /K n étant linéairement disjointes, puisque E k et E ε K sont en somme directe par construction, τ n ∈ Gal K n ℓ n E ε K /K n se relève dans Gal K n ℓ n E k E ε K ]/K n ℓ n √ E k en un élémentτ n . D'un autre côté, l'intersection H E K de Hm K avec K n ℓ n E k E ε K ] = K ζ ℓ n , ℓ n E k E ε K ] est simultanémentm-ramifiée (comme Hm K ) et ℓ-ramifiée (car engendrée par des racines ℓ n -èmes d'unités) donc non-ramifiée (puisquem et ℓ sont étrangers), i.e. contenue dans H K . Par abélianité, il suit : Théorème 5. Soit K/k une extension galoisienne de corps de nombres dans laquelle l'une au moins une place à l'infini se décompose complètement ; ℓ un nombre premier ; etm K un diviseur de K sans facteur carré, étranger à ℓ et stable par ∆ = Gal(K/k). Pour chaque classe [d K ] ∈ Cl m K d'ordre ℓ-primaire du groupe de classes de rayons modulo m, il existe une ℓ-extension abélienne ∞-décomposée 2 F/k telles que la classe [d K ] se trivialise dans le groupe de classes de rayons Clm L du compositum L = F K ataché au diviseur sans facteur carrém L = qL|mK q L . L'extension F/k peut être prise non-ramifiée en tout ensemble fini donné de places p k ∤ ℓ. La première étape consiste à se ramener au cas où [d K ] est une puissance ℓ n0 -ième dans Cl m K . Définissons pour cela n K en notant ℓ nK = |µ HK ∩K∞ | (et ℓ nK = |µ HK ∩K∞[i] | dans le cas spécial ℓ = 2 et K[i]/K non-ramifiée ∞-décomposée). Cela étant, nous avons : Lemme 6. Pour tout entier n ≥ n K , il existe une ℓ-extension abélienne F ′ de Q telle que le compositum K ′ = KF ′ vérifie les trois conditions : H K ′ ∩ K ′ ∞ = K ′ , |µ K ′ | = ℓ nK ≤ ℓ n , [d K ′ ] ∈ (Clm K ′ ) ℓ n , où [d K ′ ] est l'étendue de [d K ]. Preuve. Remplacer K par la sous-extension non-ramifiée maximale H K ∩ K ∞ de sa Z ℓ -extension cyclotomique, revient à composer K avec un étage fini de la Z ℓ -extension cyclotomique Q ∞ de Q. Cela fait, le corps obtenu vérifie par construction la condition H K ∩ K ∞ = K. Par suite, le théorème de Chebotarev appliqué dans la clôture galoisienne de l'extension H m K [ζ 2ℓ n ] nous assure l'existence d'un premier p ′ K ∤ ℓm K de K dans [d K ] (i.e. d'image donnée dans Gal(Hm K /K)) au-dessus d'un p ′ complètement décomposé dans K[ζ 2ℓ n ]/Q (donc vérifiant la congruence p ′ = 1 mod l n ) : -pour ℓ impair, cela résulte immédiatement de la disjonction Hm K ∩ K[ζ 2ℓ n ] = K ; -pour ℓ = 2, si l'extension K[i]/K est non-ramifiée et ∞-décomposée, le résultat vaut encore à condition de remplacer K/k par l'extension K[i]/k qui vérifie alors les mêmes propriétés. De ce fait, le sous-corps totalement réel du corps cyclotomique Q[ζ p ′ ] contient un unique souscorps F ′ qui est cyclique de degré ℓ n et totalement ramifié en p ′ . Comme p ′ est pris complètement décomposé dans K/Q, la place p ′ K au-dessus est totalement ramifiée dans l'extension composée KF ′ /K ′ ; de sorte que l'étendue [d KF ′ ] de [d K ] est bien une puissance ℓ n -ème dans Clm KF ′ . Enfin, K ′ /K étant totalement ramifiée en p ′ , on a µ K ′ = µ K , sauf si K[i] vient remplacer K. Preuve du Théorème. D'après le Lemme 6, nous pouvons supposer, sans restreindre la généralité, Scolie 9. Pour tout corps de nombres totalement réel K et tout ensemble fini T = T Q de places de Q, il existe une infinité d'extensions abéliennes réelles F/Q telles que les classes de rayons modulo H K ∩ K ∞ = K et [d K ] ∈ (Clm K ) ℓ mK ,m K = q K ∈T K q K de Cl mK K capitulent dans Cl mFK FK (avec m FK = q FK ∈T FK q FK ). En d'autres termes, le groupe Cl Corollaire 12. Soit k un corps de nombres totalement réel, k ab + sa plus grande extension abélienne totalement réelle et T k un ensemble fini de places de k. Alors toute extension algébrique K de k ab + dont la clôture galoisienne possède au moins un plongement réel est T • K -principale. Preuve. D'après le scolie, pour tout α dans K, le groupe des classes T • k[α] -infinitésimales du corps k[α] capitule dans le sous-corps k ab + [α] de K. Et K est donc bien T • K -principal, comme annoncé. Scolie 13. Soit k un corps de nombres qui possède au moins une place complexe et T k un ensemble fini de places de k. Alors, pour tout corps de nombres K qui contient k, il existe une infinité d'extensions abéliennes F/k complètement décomposées en toutes les places à l'infini et telles que les classes de rayons modulo m K = q K ∈T K q K de Cl m K capitulent dans Cl mFK FK . Passant à la limite inductive, nous obtenons, toujours en termes de classes infinitésimales modérées, une généralisation d'un second résultat de Kurihara (cf. [14], Th. A.1 & [1], Cor. 3) : Corollaire 14. Soient k un corps de nombres qui possède au moins une place complexe, k ab + sa plus grande extension abélienne de k complètement décomposées en toutes les places à l'infini, et T k un ensemble fini de places de k. Alors toute extension algébrique K de k ab + est T • K -principale : Cl Appendice Nous nous sommes limités dans cet article au cas de la ramification modérée. On peut naturellement se demander ce qu'il en est lorsqu'on autorise de la ramification sauvage, notamment en considérant les groupes de classes T -infinitésimales plutôt que T • -infinitésimales. Fixons pour cela un nombre premier ℓ. Une première difficulté est que le ℓ-groupe des classes Tinfinitésimales Cℓ T K n'est plus nécessairement fini dès lors que l'ensemble T contient une ou plusieurs des places au-dessus de ℓ : par exemple, si T les contient toutes, la conjecture de Leopoldt postule précisément que Cℓ T K est fini dans le cas où le corps K est totalement réel ; il est toujours infini sinon (cf. e.g. [5], III §3, ou [11,12]). Plus généralement, si la ℓ-partie T ′ de T contient certaines des places au dessus de ℓ (sans nécessairement les contenir toutes), la dimension du groupe Cℓ T K modulo sa Z ℓ -torsion dépend de propriétés fines d'indépendance ℓ-adique des ℓ-unités. On peut bien sûr tenter de contourner cette obstruction en se concentrant sur le sous-groupe de torsion T T K de Cℓ T K , qui est seul susceptible de capituler par ℓ-extension. Mais, même dans ce cadre restreint, le résultat de capitulation peut être en défaut : par exemple, lorsque T est exactement l'ensemble des places au-dessus de ℓ, le morphisme d'extension T T K → T T L est toujours injectif sous la conjecture de Leopoldt (cf. e.g. [5], IV Th.2.1, ou [11,12]), quelle que soit l'extension L/K. La raison profonde est que le groupe d'unités qui contrôle la capitulation est trivial dans ce dernier cas. Un phénomène analogue (mais plus compliqué) se produit pour le sous-groupe de torsion du module de Bertrandias-Payan T bp K (cf. [6,13,17]), pour lequel le groupe en question se réduit aux racines de l'unité. Références K Or, celui-ci est trivial, en vertu du théorème 90 de Hilbert. Il suit : H 1 (Γ, Rm L ) = 1 ; puis : Pm L Γ /Pm K ≃ H 1 (Γ, Em L ) ; et finalement :Pm L Γ : Pm K = |H 1 (Γ, Em L )| = |H 2 (Γ, Em L )|/q(Γ, Em L ).Enfin, le quotient de Herbrand q(Γ, Em L ) coïncide avec q(Γ, E L ) = q(Γ, E L ) puisque Em L est d'indice fini dans E L . Il vient donc :Pm L Γ : Pm K = Em K : N L/K (Em L ) (L/K). Récapitulant le tout, on obtient le résultat annoncé. Frob(p Kn , K ε n /K) = τ ℓ n0 n pour un n 0 ≥ 0 donné. Alors le nombre de classes d'ambiges Dm L Γ : Pm L Γ dans Cℓm L est majoré par ℓ n1 où n 1 = hm K + ([K : k] − 1)n 0 + ρ pour ℓ = 2 & n 1 = hm K + ([K : k] − 1)n 0 + ρ + c L/K , sinon ;ℓ hm K = |Cℓm K | et c L/K est le nombre de places réelles de K qui deviennent complexes dans L. où ℓ mK désigne l'ordre du ℓ-groupe µ K . Posons n 0 = m K et définissons n 1 comme plus haut. La Proposition 4 nous assure alors pour tout n ≥ n 0 l'existence d'une ℓ-extensions cyclique ∞-décomposée F de k ramifiée en un unique premier p k avec pour indice e p k (F/k) = ℓ n , qui satisfait les conditions (i), (ii) et (iii) de la section précédente.En particulier la classe [d K ] est représentée par l'un des [K : k] idéaux p K au-dessus de p k , lequel se ramifie dans l'extension composée L/K = KF/K avec pour indice ℓ n , de sorte qu'on a :p K = a ℓ n L pour un idéal a L invariant par Γ = Gal(L/K). L'étendue [d L ] = [a L ] ℓ n de [d K ]à L est ainsi la puissance ℓ n -ème de la classe d'un idéal ambige. D'après la Proposition 3, c'est donc la classe principale dès qu'on a n ≥ n 1 ; et [d K ] se trivialise alors dans Clm L . Scolie 7. La conclusion du Théorème vaut encore lorsque K/k n'est pas supposée galoisienne.Preuve. Partons d'une classe d'ordre ℓ-primaire δ K ∈ Clm K ; introduisons la clôture galoisienneK/k de K/k et notons ℓ s la ℓ-partie de [K : K]. D'après le Lemme 6, quitte à remplacer K par KF ′ pour une ℓ-extension abélienneF ′ de Q (ce qui remplaceK parKF ′ avec [KF ′ : KF ′ ] ≤ [K : K] = ℓ s ), nous pouvons supposer que δ K est une puissance ℓ s -ème dans Clm K , donc la norme NK /K (δK) d'une classe de Clm K . Donnons-nous maintenant un corps principalisant F pour δK ; et écrivons que l'étendue j FK/K (δK) est la classe triviale 1 FK . Notant H = F K ∩K et δ H = NK /H (δK ), nous avons : j FK/H (δ H ) = j FK/H (NK /H (δK)) = N FK/FK (j FK/K (δK)) = N FK/FK (1 FK ) = 1 FK ; et j H/K (δ K ) = j H/K (N H/K (δ H )) = σ∈Gal(H/K) δ σ H capitule donc dans F K.2. Quand une place réelle devient complexe par extension, certains auteurs parlent de ramification à l'infini ; d'autres, d'inertie. Pour éviter toute ambiguïté, nous précisons que les places de k ne se complexifient pas dans F . Définition 8 . 8Soient k un corps de nombres et T = T k un ensemble fini de places de k. Pour chaque extension algébrique K de k (non nécessairement de degré fini sur k), convenons de noter T K l'ensemble des places de K au-dessus de T . Nous disons que K est T • K -principal lorsque son groupe des classes T • K -infinitésimales (défini comme limite inductive des groupes de classes de rayons Cl m H modulo m H = qH ∈TH q H associés aux sous-extensions H de degré fini) est trivial : Cela posé, appliquons d'abord le Théorème principal (Th. B) avec k = Q. Partant d'une classe [d K ] d'ordre ℓ-primaire de Cl m K , on cherche un idéal premier p K dans [d K ] et une ℓ-extension cyclique p K -ramifiée F de k convenables tels que [d K ] capitule dans Cl mEn particulier E m K , qui est d'indice fini dans E K , contient donc un sous-Z[∆]-module monogène E ε K = ε Z[∆] de caractère χ aug ∆ . 1 . 1La notion ℓ-adique d'élément infinitésimal, introduite dans[11], est exposée dans dans[12] et[5], III.2.b. T • K •K des classes T • K -infinitésimales de K capitule dans le surcorps K[cos(2π/n)] pour une infinité de n.Passant à la limite inductive, nous obtenons la généralisation suivante, en termes de classes infinitésimales modérées, du Théorème principal de Kurihara (cf.[14], Th.1.1 & [1], Cor. 1) : Corollaire 10. Soit Q ab + = n>0 Q[cos(2π/n)] la plus grande extension abélienne réelle de Q (i.e. le sous-corps réel maximal du corps cyclotomique Q ab = n>0 Q[ζ n ]). Alors, pour tout ensemble fini T Q de places de Q, les extensions algébriques totalement réelles K de Q ab + sont T • K -principales. Regardons maintenant le cas relatif en distinguant suivant la signature du corps de base k : Scolie 11. Soit k un corps de nombres totalement réel et T k un ensemble fini de places de k. Alors, pour tout corps de nombres K ⊃ k où l'une au moins des places réelles se décompose complètement, il existe une infinité d'extensions abéliennes F/k complètement décomposées en toutes les places à l'infini et telles que les classes de rayons de Cl mK K capitulent dans Cl mFK FK . Passant à la limite, nous obtenons la généralisation en termes de classes infinitésimales modérées d'un résultat conjecturé par Gras et démontré par Bosca (cf. [4], Conj. 0.5 & [1], Cor. 4) : T • K •K = 1. Preuve. D'après le scolie, pour tout α dans K, le groupe des classes T • k[α] -infinitésimales du corps k[α] capitule dans le sous-corps k ab + [α] de K. Et K est donc bien T • K -principal, comme annoncé. Principalization of ideals in Abelian extensions of number fields. S Bosca, Int. J. Number Th. 5S. Bosca, Principalization of ideals in Abelian extensions of number fields, Int. J. Number Th. 5 (2009), 527-539. Die Bestimmung der Dichtigkeit einer Menge von Primzahlen, welche zu einer gegebenen Substitutionsklasse gehören. N Chebotarev, Math. Ann. 95N. Chebotarev, Die Bestimmung der Dichtigkeit einer Menge von Primzahlen, welche zu einer gegebenen Substitutionsklasse gehören, Math. Ann. 95 (1926), 191-228. Sur la théorie du corps de classes dans les corps finis et les corps locaux. C Chevalley, J. fac. Sci. Tokyo. 2C. Chevalley Sur la théorie du corps de classes dans les corps finis et les corps locaux J. fac. Sci. Tokyo 2 (1933), 365-476. Principalisation d'idéaux par extensions absolument abéliennes. G Gras, J. Number Th. 62G. Gras, Principalisation d'idéaux par extensions absolument abéliennes J. Number Th. 62 (1997), 403-421. G Gras, Class Field Theory : From Theory To Practice. SpringerG. Gras, Class Field Theory : From Theory To Practice, Springer, 2005. Sur le module de Bertrandias-Payan dans une p-extension galoisienne -Noyau de capitulation. G Gras, Pub. Math. G. Gras, Sur le module de Bertrandias-Payan dans une p-extension galoisienne -Noyau de capitulation, Pub. Math. Besançon 2016, 25-44. Invariant generalized ideal classes -structure theorems for p-class groups in p-extensions. G Gras, Proc. Math. Sc. 127G. Gras, Invariant generalized ideal classes -structure theorems for p-class groups in p-extensions, Proc. Math. Sc. 127 (2017), 1-34. Nouvelle démonstration et généralisation d'un théorème de Minkowski. J Herbrand, C.R.A.S. 191J. Herbrand, Nouvelle démonstration et généralisation d'un théorème de Minkowski, C.R.A.S. 191 (1930), 1282-1285. Sur les unités d'un corps algébrique. J Herbrand, C.R.A.S. 192J. Herbrand, Sur les unités d'un corps algébrique, C.R.A.S. 192 (1931), 24-27. D Hilbert, T héorie des corps de nombres algébriques. 2D. Hilbert T héorie des corps de nombres algébriques, Ann. Fac. Sci. Toulouse 2 (1910), 225-456. S -classes infinitésimales d'un corps de nombres algébriques. J.-F Jaulent, Ann. Sci. Inst. Fourier. 34J.-F. Jaulent, S -classes infinitésimales d'un corps de nombres algébriques, Ann. Sci. Inst. Fourier 34 (1984), 1-27. Théorie ℓ-adique globale du corps de classes. J.-F Jaulent, J. Théor. Nombres Bordeaux. 10J.-F. Jaulent, Théorie ℓ-adique globale du corps de classes, J. Théor. Nombres Bordeaux 10 (1998), 355-397. Sur la capitulation pour le module de Bertrandias-Payan. J.-F Jaulent, Pub. Math. Besançon. J.-F. Jaulent, Sur la capitulation pour le module de Bertrandias-Payan, Pub. Math. Besançon 2016, 45-58. On the ideal class group of the maximal real subfields of number fields with all roots of unity. M Kurihara, J. European Math. Soc. 1M. Kurihara, On the ideal class group of the maximal real subfields of number fields with all roots of unity, J. European Math. Soc.1 (1999), 35-49. J S Milne, Class field theory. v 4.02J.S. Milne, Class field theory, v 4.02 (2013). https://www.jmilne.org/math/CourseNotes/CFT.pdf Le théorème de Herbrand sur les unités. J Martinet, Sém. Th. Nombres Bordeaux. 10J. Martinet, Le théorème de Herbrand sur les unités, Sém. Th. Nombres Bordeaux (1968-1968), exp. n o 10, 1-11. http://www.numdam.org/article/STNB_1968-1969____A10_0.pdf Descente galoisienne et capitulation entre modules de Bertrandias-Payan. T Nguyen Quang, Do, Pub. Math. T. Nguyen Quang Do, Descente galoisienne et capitulation entre modules de Bertrandias-Payan, Pub. Math. Besançon 2016, 59-79. Global units and ideal class groups. K Rubin, Invent. Math. 89K.Rubin, Global units and ideal class groups, Invent. Math. 89 (1987), 511-526. UMR 5251, 351 Cours de la Libération, F-33405 Talence cedex Courriel : jean-francois.jaulent@math.u-bordeaux. Adresse : Univ. Bordeaux & CNRS, Institut de Mathématiques de BordeauxAdresse : Univ. Bordeaux & CNRS, Institut de Mathématiques de Bordeaux, UMR 5251, 351 Cours de la Libération, F-33405 Talence cedex Courriel : jean-francois.jaulent@math.u-bordeaux.fr url : https://www.math.u-bordeaux.fr/~jjaulent/
sample_15362
0.5086
arxiv
Future change in the solar wind and Central England temperature: implications for climate change attribution Ian R Edmonds iredmonds@aapt.net.au Physics Department Queensland University of Technology BrisbaneAustralia (Retired) Future change in the solar wind and Central England temperature: implications for climate change attribution 1 FutureCETarxiv.docx The recent increase in global temperature is attributed by the IPPC to anthropogenic global warming, (AGW), with a minor role for natural trends in temperature due to solar activity and volcanism. The IPPC estimates natural temperature (NAT) from climate models and attributes the difference from recent recorded temperature to AGW. This paper uses the temperature record to assess if trends in temperature are due to NAT or AGW effects. The method requires long records like the 362-year Central England temperature (CET) record. The CET was divided into a 262 year-long early part when only NAT was significant, and a 100 year-long later part. The early part was decomposed into eight components in the spectral range 15 to 257 years and the components were forward projected to the next 100 years. The projected NAT replicated the recorded cooling from 1950 to 1980 and the rapid increase from 1980 to 2010, indicating that the recent strong 50-year trend in CET was primarily NAT. Based on the small difference between the projected NAT and the recorded CET a minor role was attributed to AGW and a climate sensitivity to CO2 doubling, T2CO2 = 0.7 +/-0.2 C, was estimated. Components, at 514 and 1028 years, were derived from the CET record providing a means for validation of long projections against proxy records of past temperature. Future projection of combined NAT and AGW indicated a cooling of CET by 0.5 C from now to year 2060 before AGW becomes dominant. The possible cause of an imminent decrease in CET was explored by applying the same method of component estimation to temperature data from Melbourne, Australia (MET) and the geomagnetic aa index, a proxy for the solar wind. Comparing cyclic variations of the aa index and the CET and MET data indicated a complex relationship with the strong recent increase in CET and MET lagging the increase in the solar wind by ~15 years.HighlightsNovel method used to decompose the CET and aa index into cycles Forward projection of past CET onto recent CET demonstrates recent CET is primarily natural Observational determination of CET sensitivity to CO2 doubling = 0.7 +/-0.2 K Exploration of the complex lagged relationship between the solar wind and temperature Introduction. The prospect of catastrophic global warming, as a result of increasing anthropogenic emissions, has resulted in the prediction of future climate change becoming a critically important area of science, IPCC (2013b). The variation in long temperature records such as the Central England temperature, (CET), is due to natural variations and, in more recent times, according to the IPCC, the effects of anthropogenic emissions, principally CO2 and SO2, IPPC (2013a). The radiative forcing due to CO2 is given by F = 5.35ln(C/C0) Wm -2 , Myhre et al (1998). The change in temperature due to CO2 forcing is given by ∆ = ∆T = 5.35ln( / 0 )(1) where C is the current CO2 concentration, C0 the pre industrial CO2 concentration, and  is a sensitivity factor or attribution factor, the value of which depends on how much of recent temperature change is attributed to the forcing due to CO2 emissions, (IPPC 2013a, Hansen et al 2011. Natural temperature (NAT) variation is due to solar irradiance variation, volcanism, oceanic oscillations such as the Pacific Decadal Oscillation, and other factors such as cloud changes due to changes in cosmic ray flux, Dorman (2021). If  is known equation 1 can be used to predict future AGW for various CO2 emission scenarios, (Stott et al 2006a, IPCC 2013b). However, due to uncertain feedback effects in the climate system  is difficult to calculate from first principles. To estimate  computer models of NAT are made and the difference between recorded temperature and the modelled NAT is attributed to different effects including AGW, (Stott and Kettleborough 2002, Stott et al 2006a, Knutson et al 2006, Stott et al 2006b. The temperature change attributed to CO2, T, and the current CO2 concentration, C, are used with equation 1 to determine a value for the sensitivity, . If all the temperature increase since 1850, 1.2 C, is attributed to the increase of CO2 from 300 to 400 ppm, the sensitivity factor  = 0.8 K/Wm -2 . This is a very simplified description of attribution based on climate models, currently a complicated, vast, and expensive scientific endeavour. Attribution is the critical process and relies on accurate modelling of NAT. The CET, extending over 362 years from 1659 to 2022, Figure 1, is the longest instrumental record of temperature, (Manley 1974, Parker et al 1992. The linear trend in CET is 0.28 o C/century and the variance of CET is high; the standard deviation of the detrended CET is 0.6 o C. The high variance in CET presents challenges in attributing the contribution of AGW to CET. One approach to attribution that can be used with long temperature records is to compare historic trends in NAT with recent trends in NAT. If a recent trend is uniquely high, the trend could be regarded as unlikely to be due to NAT and, on that basis, attributed to AGW. Karoly and Stott (2006) applied this approach to the CET and attributed the recent 50year trend in CET to AGW. The approach is valid only if the entire temperature record is considered. Karoly and Stott (2006) omitted the first part of the CET record that, according to recent work, shows a 50-year trend, 1690 to 1740, of 0.35 o C/decade, significantly stronger than the recent 50-year trend, 0.27 o C/decade, Zhou 2013, Gonzalez-Hildalgo 2020). If all the recent increase in CET is attributed to AGW,  would be 0.8 K/Wm -2 and the projected increase in CET would follow the dotted line in Figure 1, a projection predicting an increase of CET of about 5 o C from present levels by 2100 and a climate sensitivity due to doubling of CO2, T2CO2 = 3.3 o C. The CET experienced a positive 50-year trend in the past, evident in Figure 1, between 1690 to 1740, significantly larger than the recent trend, Zhou 2013, Gonzalez-Hildalgo et al 2020), so the question of attribution arises: Is the recent high trend in CET primarily attributable to AGW or is it primarily attributable to the same natural effect that resulted in the earlier and larger trend? If the recent 50-year trend in CET was primarily natural the fitting of an AGW scenario to the recent trend as in Figure 1 would overestimate future temperature change: a viewpoint supported by several recent analyses of various temperature records, (Wu et al 2011, Loehle and Scafetta 2011, Tung and Zhou 2013, Abbot and Marohasy 2017. Clearly, the strong variations in CET before 1900, Zhou 2013, Gonzalez-Hidalgo 2020), were due to natural effects. The earlier variation could be due to natural variation such as volcanism and/or due to some complex superposition of natural cycles originating from solar irradiance and cosmic ray variation, de Jager (2005). There is considerable evidence of cycles in the CET, (Plaut et al 1995, Baliunas et al 1997, Tung and Zhou 2013, as well as evidence of long-term persistence in the CET, Gonzalez-Hidalgo (2020). Spectral analysis of other long temperature records provides evidence of cyclic behaviour, , Humlum et al 2012, Scafetta 2010 CET CET trend 0.28 C/century AGW scenario than the CET record length was achieved with a new method of spectral decomposition. Cycles were fitted to the components and the cycles were projected and superposed to obtain back and forward projections of the CET. In section 4 the validity of this approach was assessed by back projecting the CET and comparing with proxy records of past temperature. In Section 5 the same process of component and cycle identification was applied to the CET data in the time range 1659 to 1921 and a forward projection to the 100 years from 1921 to 2021 was made and compared with the actual CET data for that interval, in particular the time interval 1950 to 2010 that exhibits the recent strong 50-year trend in CET, Figure 1. This forward projection was used to attribute the recent temperature variation between natural and secular effects and assess climate sensitivity. In the last part of Section 5 the change in temperature was compared with the change in aa index, a proxy for the solar wind. Section 6 discusses the validity of IPCC projections of catastrophic temperature increase in the light of the projection of this paper of imminent temperature decrease. Section 7 is a conclusion. Data sources Annual mean Central England temperature, (Manley 1974, Parker et al 1992 Figure 2, was assessed by standard Fourier analysis. There are narrow peaks in the short period range, 15 to 57 years, but, due to limited resolution of the Fourier analysis, in the longer period range peaks are replaced by bands; one broad band between 60 and 100 years and the other between 200 and 400 years. It was noticed that the periods of some of the narrow peaks corresponded closely to harmonics of the Uranus-Neptune conjunction period, TUN = 171.4 years. For example, 57 = TUN/3, 34 = TUN/5, 24 = TUN/7, and 15 = TUN/11. In the absence of other criteria, the spectral range was divided into bands with centre periods, T, based on harmonic and simple factors of TUN, i.e., selecting bands with centre periods, T, by using the relation nT = mTUN where n and m are small integers. The basis for selecting periods based on TUN is strong evidence, as outlined in detail in Appendix A3, that both solar activity and temperature records are dominated by cycles with periods close to harmonics and sub harmonics of TUN. Further, back projection of the CET, as developed later in this paper, reproduces both the coarse and fine detail of proxy temperature records over the last two millennia when the back projection is based on decomposing CET into cycles based on harmonics and sub harmonics of TUN, c.f. Section 5.4. The centre periods used correspond to the labelled reference lines in Figure 2 with two exceptions. Spectral power at the period TUN is absent from the CET record for reasons outside the scope of the present article to discuss; but see McCracken et al (2014). The labelled period at 114 years, T = 2TUN/3, was omitted for reasons outlined in Appendix A1. Method of decomposition of the detrended CET into cycles. The detrended CET was decomposed into components based on eight frequency bands of centre frequency k/TUN where k = 2/3, 2, 5/2, 3, 4, 5, 7, and 11. For example, for k = 3, the band centre frequency is 3/TUN = 0.0175 yr -1 , corresponding to the period 57.13 years. The method of decomposition is illustrated in Figure 3 where the 24.5-year component, k = 7, is obtained. A Press band reject filter, Press et al (2007), as implemented in the DPlot application, is applied to the detrended CET. To reject the 24.5-year component the centre frequency of the Press filter was set to 1/24.5 = 0.0408 yr -1 and the filter bandwidth set to 10% of the centre frequency, 0.004 yr -1 . The filtered CET is then subtracted from the unfiltered CET yielding the 24.5-year component, indicated by the bold blue line in Figure 3. The time variation of this component is consistent with the time variation of the 24-year component in CET obtained by the more conventional method of continuous wavelet spectrum analysis, Tung and Zhou (2013). The eight components obtained are shown in Figure 4. As each component is decomposed from a frequency band the components, as expected, show significant variation in amplitude and phase. However, due to the narrow filter bandwidths the largest phase shift of any component over the 362-year record was a 1/2 cycle shift for the k = 11, 15-year component. The average phase shift of the eight components is 1/6 of a cycle indicating that fitting a cycle to each component, apart from the k = 11, 15-year component, is a very good approximation. A comparison of the sum of the eight components with a seven-year running average version of detrended CET, Figure 5, indicates that the sum of the eight components closely reconstitutes the detrended CET. The correlation coefficient, r = 0.92. In the following CET will refer to the seven-year running average of the annual mean CET. To project CET backward or forward it is necessary to approximate components with sinusoids. The approximation was obtained by fitting sinusoids of the form 0.15cos(2ki(t -ti)/TUN) to each of the components in Figure 4. Here ki/TUN defines the frequency of the ith sinusoid. For example, when ki = 3, ki/TUN = 0.0175 yr -1 corresponding to period 57.1 years. The year ti defines the phase of the sinusoid. The fit is obtained by adjusting ti to maximise the correlation coefficient between the component and the fitted cycle. The resulting eight cycles, the sum of the cycles, and the detrended CET are shown in Figure 6. The approximation of the detrended CET with the eight constant amplitude cycles, Figure 6, reduces the correlation coefficient to r = 0.68, Figure 6. However, the major features, the high warming trend 1690 to 1740, the cooling 1950 to 1980, and high warming trend 1980 to 2010 are retained. The variation in CET due to long period cycles. It is evident that the linear trend of CET, 0.28 o C per century, Figure 1, cannot extend indefinitely into the future or extend indefinitely into the past and must be due to long term cyclic variations in temperature imposed on the CET. Fourier analysis of the 362-year CET record, Figure 2, has insufficient resolution to uncover very long cycles. However, proxy records of solar activity and related quantities are available over much longer intervals (Castagnoli et al 1992, Rigozo et al 2010, Abreu et al 2012, Scafetta 2012, McCracken et al 2013, McCracken et al 2014. Fourier analysis of the records revealed the presence of long period cycles in solar activity several of which occur at periods close to harmonic and sub harmonic periods of TUN. The ~1000-year Eddy cycle, (Eddy 1976, Ma 2007 is close in period to 6TUN = 1028 years. Castagnoli et al (1992) identified six major components at 1100, 690, 500, 340, 250, and 90 years, closely corresponding to periods at factors of TUN, respectively, 6, 4, 3, 2, 3/2, 1/2. One of the major periodicities obtained from proxy cosmic ray data by McCracken et al (2013) occurred at 510 years, close to 3TUN, and two of the periodicities, 976 years and 1126 years, are both close to 6TUN. Scafetta (2012) found strong components in proxy total solar irradiance data at 499 years, ~3TUN, and at 978 years, ~6TUN. Ludecke and Weiss (2017) used worldwide temperature proxies to construct a mean global temperature over the last 2000 years. The harmonic analysis of the mean global temperature showed strongest components at periods at 1000 years, ~6TUN, and at 460 years, ~ 3TUN. used components at 1190 years, ~6TUN, and at 560 years, ~3TUN, to reconstitute the Central Greenland temperature as obtained from the GSIP2 ice core. Abbot (2021) applied spectral analysis to eight proxy temperature records for the northern hemisphere and found the dominant periodicities in the millennial and centennial time range were ~1000 years and ~500 years. Based on this observational evidence the same method of band reject filtering as outlined above was applied to the CET record to find the components of CET at 3TUN (514 years) and at 6TUN (1028 years). Cycles of the same amplitude as previously, 0.15 o C, were then fitted to the components by the same correlation method as outlined previously. The sum of the two long period cycles obtained is shown in Figure 7. Also shown in Figure 7 is the sum of the two components, the CET anomaly, and the linear trend of the CET anomaly. It is apparent that the linear trend of 0.28 o C/century in CET obtained in Figure 1 is partly due to the long period cycles and partly due to the short-term temperature depression around 1700 and the short-term temperature enhancement around 2000. The two long-term cycles were added to the eight-cycle approximation of CET, Figure 6, and the sum of the ten cycles was obtained using = 0.15 ∑ cos( 2πk i (t−t i ) T UN ) + 9.27 ℃(2) Here i = 1 …10. The ith value of ki is, in sequence, 11, 7, 5, 4, 3, 5/2, 2, 2/3, 1/3, 1/6, and the ith value of ti is, in sequence, 1993, 2000, 2005, 1998, 2005, 2002, 2000, 2005, 2000, and 2130 years. The periods, in sequence, are 15. 6, 24.5, 34.3, 42.8, 57.1, 68.6, 85.7, 257, 514, and 1028 years. The constant temperature, 9.27 o C, is the average value of CET 1659 to 2021. With the two long period cycles included in equation 2 the correlation coefficient between the ten-cycle approximation and the CET record is increased to r = 0.78, Figure 8. Backward and forward projection of the cyclic content of CET using equation 2. The forward projection of the cyclic content of CET using equation 2 to the year 2500 is shown in Figure 9. There is short term variation in temperature due to the seven cycles in the period range 15 to 257 years superimposed on a longer-term variation due to the two cycles of period 514 and 1028 years. The shorterterm variation repeats at intervals of 343 years and gives rise to the rapid temperature changes evident at 1650, 2000 and 2350 years. The longer-term cyclic variation of CET can be best appreciated by calculating equation 2 with only the 514-year and 1028-year cycles, i = 9 and 10, included, as in Figure 10, to cover both back and forward projection. Figure 10 shows that the long-term cycles of period 3TUN and 6TUN years combine to produce the broad swings in CET between the Warm Periods and the Little Ice Ages that occurred during the past two millennia, as labelled in Figure 10 with the common terminology relating to the events. The multiproxy reconstruction of temperature by Ljungqvist (2016) Attribution of temperature change between secular and natural effects Attribution of recent trends in temperature to different forcings is the critical problem of climate science. The previous section has shown the detrended CET can be closely approximated by eight components and approximated moderately well, correlation coefficient r = 0.68, by eight cycles. Decomposing a record into components and cycles does provide a view as to how various cycles combine to produce extreme excursions and strong trends. For example, it is evident in Figures 4 and 6 that the strong trends in the early part and in the recent part of the CET record are due to the 57.1, 68.5 and 86.7-year components repeating an in-phase condition after an interval of about 340 years. However, the positive interference of cycles in different parts of the record is not in itself useful for attribution as the cycles may have resulted from different effects on temperature at different times in the record; for example, volcanism in the early part of the record and AGW in the recent part of the record. The only unambiguous conclusion is that the strong trends in the early part of the record were not caused by AGW. Attribution based on climate models of NAT is problematic due to the large uncertainty in the NAT output of different models, e.g., (Karoly et al 2003, Karoly andBraganza 2005). Therefore, there is considerable interest in methods of attribution that avoid using climate models, Hegerl and Zwiers (2011). Wu et al (2011) used ensemble empirical mode decomposition to decompose the global mean surface temperature into a low frequency oscillation and a high frequency, approximately 65-year period, oscillation, and estimated about one third of late twentieth century warming was due to NAT. Another method is to decompose the temperature record into high and low frequency components using low pass filtering. The components of temperature are then compared with components of forcing decomposed from the same frequency range. For example, Tung and Zhou (2013) 50-to-90-year period signal in CET varied coherently with both the global mean temperature and with the Atlantic Multidecadal Oscillation (AMO) and attributed much of the recent CET variation to the AMO. Attribution by forward projection of early CET onto later CET. As discussed in Section 4, approximating components with sinusoids provides for projection beyond the temperature record. Projection is especially useful to separate cyclic effects from secular or "one off" effects. It is generally accepted that AGW is the result of secular forcings that become strong after 1950 and that temperature change before 1950 is due primarily to natural effects, (Karoly et al 2003, IPCC 2013, IPCC Report 2021, Figure SPM.1, SPM.2b). It follows that, if NAT is cyclic, and the cyclic content can be accurately decomposed from temperature data before 1950, the cycles can be projected forward to assess the NAT after 1950. Loehle and Scafetta (2011) (2011) projected three cycles of period 71.7, 24.9, and 15.3 years, obtained from the Svalbard temperature record forward to 2035 and concluded that the late 20 th century warming in Svalbard is not going to continue for the next 20 -25 years. Abbot and Marohasy (2017) fitted cycles to records of proxy temperature before 1830 and projected the cycles forward for comparison with the proxy records in the interval from 1880 to the present; finding that the increase in temperature over the last 100 years can be largely attributed to NAT. The results in section 3 of this paper indicate that the detrended CET can be accurately characterized by eight cycles covering the spectral range between 15 and 257 years, a spectral range relevant for the assessment of the 50-year trend in CET in the interval between 1950 and 2010. The CET record was divided into a 262 year long earlier part, 1659 to 1920, and a 100 year long later part, 1921 to 2021. The method for deriving an eight-cycle simulation of the detrended CET as outlined above was applied to the 262 year long data to obtain components and the approximate cycles in the same eight spectral bands between 15 years and 257 years. The periods of the cycles and the constant amplitude, 0.15 o C, of the cycles was retained, however, the phases, ti, of the eight cycles obtained differ and were, in sequence i = 1 to 8, as follows: 1994, 1999, 2004, 1996, 2012, 1997, 1994, and 2016. The projected CET obtained with these values in equation 2 is shown as the red full line in Figure 11, where the projected CET is compared with (1), the actual CET, and (2), the projected CET based on the entire, 362 year long, data record. Clearly, the projection from the early part of the record replicates, reasonably accurately, the later, 1921 to 2021, part of the record including the warming between 1930 and 1950, the cooling between 1950 and 1980, and the strong warming from year 1980 to year 2010. It is noticeable in Figure 11 that the second very narrow warming peak in CET at 2018 was not reconstituted from the 1659 to 1921 data or from the 1659 to 2021 data. This is due to the 15-year period cycle approximation being half a period out of phase with the 15-year component towards the end of the record as discussed in Appendix A2. This phase shift between cycle and component is an inevitable consequence of approximating a narrow band component with a single period cycle. The two forward projections to 2200, the one based on the earlier part of the record and the one based on the entire record are, as evident in Figure 11, closely similar. The correlation coefficient between the projected CET and the actual CET in the time interval 1921 -2021 is r = 0.55 indicating that the forward projection of the eight cycles reproduces CET in this interval moderately well. The correlation coefficient of the projection and CET in the 1921 to 2010 interval is r = 0.79. The result provides confidence in the forward projection capability of the method and confidence that the warming, 1920 to 1950, the cooling, 1950 to 1980, and the strong warming, 1980 to 2010, is primarily natural. The type of natural forcing that leads to the strong warming trend from 1950 to 2010 is not defined by this method. However, the possible candidates are solar activity and/or volcanism 5.2 Climate sensitivity to AGW. Previous work, for example Karoly and Stott (2006), attributed all the recent 50-year trend in CET to AGW with the implication that the sensitivity of temperature to CO2 is high and the projected temperature increase due to increasing CO2 is high. The forward projection of this high sensitivity scenario is illustrated in Figure 12 The correspondence of the forward projection obtained from early CET data, before changes in CO2 or SO2 were significant, to the CET data 1921 to 2021 provides strong evidence that the recent 50-year trend in CET is primarily natural. However, estimating the small change in CET at year 2000 that could be attributable to AGW is subject to high uncertainty because the change in CET due to AGW is a small difference between two near equal values, the CET record itself and the projected natural contribution to CET, c.f. Figure 12. The low sensitivity projection in Figure 12 was based on estimating that, of the 1.2 o C increase in CET from 1850 to 2000, just 0.2 +/-0.1 o C, or about 15% of the 1.2 o C increase at year 2000 is attributable to AGW. From the level of this projection at the time of CO2 doubling, t2CO2, the temperature change due to CO2 doubling is T2CO2 is 0.7 +/-0.2 o C, c.f. Figure 12. Even with CO2 concentration increasing at an exponential rate like the RCP8.5 scenario, the indication of the low sensitivity projection in Figure 12 is that, in the next few decades, CET will fall to a temperature about 0.7 o C below the current sevenyear average CET of 10.5 C, and remain near that lower temperature, ~ 9.7 o C, until about 2070 when CET will briefly rise to slightly above the current temperature. The projection indicates that CET will not be consistently above present temperatures until 2150. The projected temperature change in this low sensitivity forward projection is lower than the RCP8.5 projections of climate models, (Stott and Kettleborough 2002, Stott et Figure 12. For example, the IPCC RCP8.5 temperature projection at year 2100 is 4 o C above present levels and at year 2300 is 8 o C above present levels, (IPCC 2013 Figure 12.5), whereas the low sensitivity temperature projection of Figure 12 at year 2100 is 0.5 o C below present levels and at year 2300 is 2 o C above present levels. While considerably different from IPCC projections the low sensitivity, T2CO2 ~ 0.7 o C, projection should be viewed in the light of the recent hiatus in global temperature increase, Tung and Chen (2018), the decreasing estimates of climate sensitivity over time, Gervais (2016), the low climate sensitivity estimates based on other observational determinations, e.g., T2CO2 ~ 0.7 o C by Lindzen and Choi (2011), T2CO2 ~ 0.7 o C by Abbot and Marohasy (2017), the low sensitivity obtained by other methods of climate modelling, e.g., T2CO2 = 0.6 o C by Harde (2014) It is noted that the projections in Figure 12 are based on an exponential increase in concentration of CO2, C(t), given by the relation C(t) = C0 + exp(0.028(t -t0)). The increase approximates the Mauna Loa CO2 data record and the RCP 8.5 scenario of CO2 increase, Tollefson (2020). There are numerous scenarios for longterm CO2 concentration increase, some more plausible than others, (Hansen et al 2013, Moss et al 2010, Tollefson 2020. However, on current trends, a CO2 concentration of 500 ppm by 2050 appears probable. Based on this anticipated CO2 level and the projected SO2 concentration decrease, Bellouin et al (2011), and using the high climate sensitivity of  ~ 0.9 K/Wm -2 , as proposed by, for example, (IPCC 2013, Figure 12.40, IPCC 2018, Ma et al 2022), the CET would be 2 o C higher by 2050, as in Figure 12. Based on the low climate sensitivity estimate of this paper the CET would be 0.5 o C lower by 2050. Thus, the CET in the next few decades should provide a clear indication of the relative validity of deterministic projections and climate modelling projections of climate sensitivity and future climate change. Attribution of recent temperature extremes. It is obvious, for example from Figure 8 and 9, that the CET has increased by about 2 o C during the 340 years between the Little Ice Age around 1680 and the year 2021; and by about 1 o C from year 1850 to the year 2021. It is also clear from this paper that the increase is primarily natural and is largely due to the two long-term cycles coming into positive interference at around year 2000, c.f. Figure 10. Currently, there is concern that AGW is having a catastrophic effect on climate; for example, the statement by the UN Secretary-General at the 2022 United Nations Climate Change Conference: "We are on a highway to climate hell with our foot on the accelerator", The Guardian (2022); or "Assessing "Dangerous Climate Change"", Hansen et al (2013). There is evidence that daily maximum temperatures and daily minimum temperatures have increased recently, (Karoly and Braganza 2005, Fischer et al 2021, IPCC 2021). An edited collection of reports of this type of evidence appears in an annual series, now eight years long, published by the American Meteorological Society from 2013 to 2020 titled "Explaining Extreme Events of 2XXX From a Climate Perspective", e.g., Herring et al (2014). A very brief summary of the findings therein is that recent record high temperatures can be attributed to AGW. Examples of research specific to England are papers attributing the record high CET of 2014 to AGW, King et al (2015), and the paper by Christidis et al (2020) attributing the record temperatures in the UK in 2019 to AGW. CET has trended upward from a minimum during the Little Ice Age, Figure 1, so it is to be expected that in recent times CET will be exceeding temperature levels and records set at previous times, Rahmstorf and Coumou (2011). It is clear, from the attribution analysis in Section 5.1, that, if the same type of analysis had been made on CET data as it existed in 1920, a forward projection from 1920 would have anticipated a spate of temperature records in the 2000 to 2020 interval. If the increase in CET, 1950 to 2010, is attributed primarily to AGW the rate at which new CET records occur would increase with time in proportion with the increasing trend in CET indicated by the extreme scenario in Figure 12, Rahmstorf and Coumou (2011). Under the low sensitivity scenario of Figure 12 the indication is that the spate of new record high temperatures in the first two decades of this century is a temporary phenomenon and new high temperature records will not occur until 2070. Attribution of past temperature extremes. Proxy estimates of Earth's surface temperature during the past two millennia are of considerable and controversial interest with respect to attribution science; see Smerdon and Pollack (2016) for a review. As well as forward projection, equation 2 can be back projected. Because equation 2 is based on cycles at harmonic periods and simple factor periods of TUN and as TUN is a constant of the solar system, forward and back projection by equation 2 does not accumulate error due to period selection error and projections can be made over long time intervals. A back projection of CET to the year -500 AD is shown in Figure 13. The extended warm periods around 0 AD, 1000 AD and 2000 AD in the projection coincide closely with the Roman, Medieval, and Modern Warm Periods identified from historical and proxy records of temperature, e.g. (Esper et al 2002, Mann et al 2008, Ljungqvist 2010, Buntgen et al 2011 Assessment Report 2013, Figure 5.7, Smerdon andPollack 2016, Ludecke andWeiss 2017), that indicate a slow 0.5 C swing between the Medieval Warm Period and the Little Ice Age with short term temperature variation increasing the swing to approximately 1 C. The back projection in Figure 13 shows two CET peaks, at year 975 and year 1045, that replicate the double temperature peak form of the Medieval Warm Period evident in new paleo-climate reconstructions, (Esper 2002, Moberg 2005, Mann et al 2008 th Assessment Report 2013, Figure 5.7). The back projection also shows two strong peaks at -55 and + 15 years that replicate the double temperature peak form of the Roman warm Period, Buntgen et al (2011). The coincidence provides further validation of the accuracy of equation 2 for long projections. Figure 13 shows that extended warm periods return at intervals close to 6TUN = 1028 years and that strong positive and negative 50-year trends return at intervals close to 2TUN = 343 years. For example, the strong 50-year trends in Figure 13 evident at around years 1000, 1350, 1690, and 2000 in Figure 13 are also evident in proxy temperature records; for example, at around year 1000 and 1350 in proxy records of Norther Hemisphere temperature, Mann et al (2008). It is interesting that the times of occurrence of strong 50-year trends match almost exactly the times of high spatial deviation between proxy temperatures from different regions of the Northern Hemisphere, Christiansen and Ljungqvist (2012). When the 343-year cycle of rapid CET variation overlaps with the extended warm periods in the projection the CET attains levels of 10.4 o C, about one degree above the long-term average CET level and about two degrees above the minimum CET level. The indication from the back projection is that Central England is currently experiencing mean annual temperatures similar to the mean annual temperatures during the Medieval and the Roman Warm periods. Further, Figure 13 indicates that natural CET has increased by about 1.2 o C during the last century and is now passing through the Modern Warm Period peak. It is well known that in a temperature record exhibiting a normally distributed temperature variation the fraction of temperatures that exceed some specified high temperature will increase exponentially as the mean temperature increases, (Hansen et al 2012, IPPC 5 th Assessment Report 2013, Figure 1.8). The indication from Figure 13 is that the current spate of record temperatures in England, (King et al 2015, Christidis et al 2020, is due to a similar pattern of high temperatures and rapid temperature change imposed on long a term temperature cycle similar to the pattern that characterised temperature variation during the Roman and Medieval Warm Periods. Temperature variation over the past two millennia as projected in Figure 13 and as observed in proxy temperature records, (Mann et al 2008, Ljungqvist 2010, Buntgen et al 2011 th Assessment Report 2013, Figure 5.7, Ludecke and Weiss 2017), presents a serious challenge to current attribution science. It is known from ice core records of trace gases, for example, Rubino et al (2019), that CO2 concentration was essentially constant during the past two millennia and only began to increase from a level close to 280 ppm after 1800. Therefore, the temperature extremes of the Medieval Warm Period and the Little Ice Age along with the accompanying strong 50-year trends cannot be attributed to AGW and must be due to some other form of forcing, Shindell et al (2001). However, if the extremes and trends of the Medieval Warm Period and the Modern Warm Period are similar, as Figure 13 indicates, the attribution of the extremes and trends of the Modern Warm Period entirely to AGW is challenged. Mann et al (2009), suggest that "a better understanding of the influence of radiative forcing on large-scale climate dynamics should remain priorities as we work toward improving the regional credibility of climate model projections." Origin of recent natural variation in CET. The IPCC attributes the recent rapid increase in temperature solely to AGW, (IPCC 2007(IPCC , 2013(IPCC , 2021. This paper attributes the recent increase in the CET primarily to natural effects. Attribution to natural effects was based on the forward projection of the cyclic content derived from the CET when only natural effects were significant. The projection to the recent 100-year interval coincided closely with the CET record in that interval indicating recent trends in CET were primarily due to natural effects. Attribution between natural warming and AGW by forward projection does not require specification of the natural effect, only that the cycles forward projected were obtained from a time in the record when AGW was insignificant. The two types of natural effect considered by the IPCC are volcanism and solar activity. As volcanism reduces temperature it is not relevant to the recent rapid increase in temperature. Increased solar activity would increase temperature. However, according to the IPCC, the effect of solar activity in recent times, is negligible. The geomagnetic aa index, Figure 14, recorded since 1868, by magnetometers in England and Australia, is a proxy for the strength of the heliospheric magnetic field in the solar wind and is related to other forms of solar activity such as total solar irradiance, sunspot number and cosmic ray flux, Lockwood et al (1999).. The aa index roughly doubled between 1900 and 1990 due to the doubling of the solar magnetic flux emanating from the Sun, Lockwood et al (1999). This is the same interval during which the CET increased by about 0.6 C, c.f., Figure 1. The aa index fell sharply between 1990 and 2021 while the CET increased by another 0.6 C during the same interval, c.f. Figure 1. However, forward projection in this paper indicates an imminent fall in CET temperature suggesting that CET may follow a change in aa index after a significant lag. As the aa index record is long it is possible to apply the same decomposition into components method to the aa index as applied in section 4 to the CET record. As we are interested in trends over intervals of 50 years the aa index record was decomposed into components from frequency bands with centre periods at 34, 43, 57, 68, 86 and 257 years, Figure 15A. Also shown in Figure 15A is the average of the six aa index components. Figure 15B shows the six components derived from the CET anomaly for the same period bands, c.f., Figure 4. It is evident that a strong peak in the aa index, due to the positive interference of all six aa components, occurs in 1990, about 15 years before the strong peak in CET at year 2005 that is due to the positive interference of all six CET components. A similar result is obtained for the Melbourne TMAX anomaly (MET) with the six components coming into positive interference about 18 years after the peak in the aa index components. The average curves in Figure 15A, 15B and 15C show the same general trends of an increase from 1900 to 1940-1950, a decrease to year 1970-1980, an increase to peaks when the temperature peaks lag the aa index peak by about 15 years and then a sharp decrease from the peaks. The aa index additionally shows a minimum occurred at 2012. Provided the approximately 15-year lag of temperature relative to the solar wind is maintained in the next few decades, c.f., Figure 16, the implication is a minimum in CET and MET occurring at year 2027 -2030. The correlation coefficient at zero lag between the two average curves in Figure 15A and 15B is r = -0.06, suggesting an insignificant relationship. However, if the lag was considered the correlation would be high. Figures 15A, 15B and 15C indicate a strong but complex relationship between the cyclic variation of the aa index/solar wind and the cyclic variation of temperature. Close examination of Figures 15A, 15B and 15C shows that, aside from a lag that reaches a maximum lag of 15 years near year 2000, the 257, 68, 57 and 43-year components of aa index and temperature vary mainly in-phase. The 86 and 34-year components of aa index and temperature vary out-of-phase. This suggests that the response of temperature to the solar wind involves at least two internal oscillations, such as the Atlantic Multidecadal Oscillation, the North Atlantic Oscillation, the Pacific Decadal Oscillation, or the El Nino Southern Oscillation Zhou 2013, Power et al 2017), that are forced by the solar wind and directly influence temperature. The results in Figure 15 indicate that the response of temperature to the solar wind is not amenable to simple regression analysis, as in de Jager et al (2010). For example, Figures 15A and 15B indicate that, while the aa index and CET anomalies, at zero lag, are negatively correlated in the 40-year interval between 1980 and 2020, the peak in CET at 2005 is likely a lagged response to the peak in solar wind/aa index at 1990. Lockwood and Frohlich (2007) used a method to analyse longer-term trends in solar activity and temperature between 1975 and 2007 and, noting the negative correlation, concluded that the rapid rise in temperature after 1985 could not be ascribed to solar variability. However, Lockwood and Frohlich (2007) did not consider the possibility that temperature change would significantly lag multidecadal solar forcing. It is relevant here that Li et al (2013) demonstrated that the North Atlantic Oscillation (NAO) is connected to the Northern hemisphere mean surface temperature over multidecadal time scales, of approximately 60-year period, with the NAO leading the surface temperature by 15-20 years and thus acting as a useful predictor of temperature change. Both the aa index/solar wind and the NAO peak at the same time, 1990, suggesting the two variables are related, c.f. , Schaife et al 2013. Figures 15B and 15C indicate that the peak in regional temperature around 2010 is common at widely separated locations suggesting the influence of external forcing. By fitting cycles to the aa index components in Figure 15A a six-cycle composite of the aa index can be obtained in an equation similar in form to equation 2: = 1.5 ∑ cos( 2πk i (t−t i ) T UN ) + 9.55(3) Here i = 1 …8. The ith value of ki is, in sequence, 5, 4, 3, 5/2, 2, 2/3, 1/3, 1/6, and the ith value of ti is, in sequence, 1991, 1991, 1967, 1999, 2000, and 2130years. The periods, in sequence, are 34.3, 42.8, 57.1, 68.6, 85.7, 257, 514, and 1028 nT, is the average value of the aa index 1868 to 2020. The ti values at i = 7, period 514 years, and at i = 8, period 1028 years, were not derived from the aa index record but are the same as the values obtained from the CET record, i.e., the phases of the 514 and 1028 period cycles were inferred to be the same as the phases of the corresponding cycles derived from the, much longer, CET record. Equation 2 and equation 3 can be used by interested readers to explore the time relationship between the aa index and CET. For example, the back and forward projection of the aa index and the CET, Figure 16, shows that the aa index mostly leads the CET but sometimes lags, e.g., 1900 to 1950, illustrating the complexity of the relation. The lag of the CET relative to the aa index/solar wind appears to be amplitude dependent, increasing to ~15 years when the aa index and the CET experience strong trends, e.g., near year 1650 and near year 2000. It seems likely that the delayed response of the CET to increase in the aa index is due to thermal inertia of the upper mixed layer of the ocean, Soldatenko (2022). Gray et al (2013) found that the sea surface temperature in the North Atlantic/European region lagged the 11-year solar cycle by 3 -4 years or about 1/3 of a cycle and suggested the mechanism was solar forcing of the NAO, see Scaife et al (2013). See also Shindell et al (2001) who found "relatively small solar forcing may play a significant role in century-scale NH winter climate change". Discussion The changes in CET, 1659 to 2021, are quite complicated, Figure 1; however, the changes in temperature from 1900, when CO2 emissions started to become significant is the current focus of climate science, (Hansen 2011, Hansen et al 2013, IPPC 2013, IPPC 2018 (2013), and Figure 12. If the temperature hiatus continues, as projected for global temperature (Loehle and Scafetta 2011, Abbot and Marohasy 2017 or the temperature decreases in the next few decades as projected in this report and Li et al (2013) the challenge to the current climate modelling approach where the influence of external forcing is regarded as negligible would be severe. This report indicates that the slow increase in CET, 1900 to 1950, was due to the positive phases of the 57, 68, and 86-year period components in CET beginning to overlap; the 1950 to 1980 decrease due to the negative phases of the same components nearly overlapping; and the sharp rise 1980 to 2000 due to the positive phases of the same components closely overlapping, Figure 4 and Figure 5. The hiatus, 2000 to 2021, would appear to be the transition interval between a lagged response to the increase in solar activity to a peak in 1990 and the lagged response of CET to a fall in solar activity from the peak in 1990. The projected decrease in CET between 2020 and 2050 indicated in Figure 12 and Figure 16, if it occurs, will be due to the negative phases of the 57, 68 and 86-year components in CET again closely overlapping before moving progressively out of phase. Thus, the observationally determined projection of CET indicates that the hiatus is likely a crest between the recent rise and the imminent decrease in CET. The result in Figure 15C for the Melbourne TMAX anomaly where the decrease in temperature from 2010 is evident provides support for the idea that the hiatus is more likely a crest. By inference, any decreased climate sensitivity to CO2 concentration requires an increased sensitivity to solar activity and the accompanying effects, such as variation in total solar irradiance, cosmic ray flux and cloud cover. The analysis in section 5.5 provides evidence that change in CET is a complex lagged response to variation in solar activity. Revised estimates of solar irradiance, Ergorova et al (2018), indicate the effect may be about six times higher than the estimates used by the IPCC. Forward projections of solar activity, as in Figure 16 and in other studies, (Rigozo et al 2010, Shepherd et al 2014, do predict a strong decrease in solar activity from the grand maximum around year 2000. It is interesting that decreasing solar activity from 2000 onwards has recently been the subject of global climate modelling; for example (Ineson et al 2015, Maycock et al 2015, and interesting that the Coupled Model Intercomparison Project (CMIP) has replaced the stationary-Sun scenario in CMIP5 with more realistic scenarios in CMIP6 that include solar activity falling to a grand solar minimum around 2100, Matthes et al (2017). A strong increase in future volcanic activity would also result in a decrease in temperature. There is evidence of an approximately a 50-70-year oscillation in volcanic forcing of temperature over the last two millennia e.g. (Mann et al 2021, Sun et al 2022. However, apparently, no projections of near-future volcanic activity have been made. Conclusion The analysis in this paper indicates that the CET is currently passing through a relatively short interval, about two decades long, of higher-than-average temperature that is primarily natural and is the result of several of the natural cycles that contribute to CET variation coming into constructive interference. This is the reason record high temperatures have recently been recorded in Central England. Comparison of the cyclic content of the CET with the cyclic content of the aa index indicates that forcing of the CET may be due to a complex interaction of solar activity, solar wind, cosmic ray flux and cloud cover with the global oscillatory systems such as the NAO that directly influence oceanic and atmospheric temperature. This report projects a decrease of about 0.5 o C in CET during the next few decades with CET temperature continuously exceeding present temperatures from 2100 onwards if CO2 emissions continue to increase exponentially. The climate sensitivity, T2CO2, is estimated to be 0.7 +/-0.2 K. Appendix A 1. Selection of component periods. Basing the method of decomposing CET into cycles at periods based on simple factors of TUN is somewhat controversial. As pointed out earlier several of the shorter period peaks in the spectrum of CET and other temperature records are close to harmonics of TUN, Figure 2. The longest period component of CET resolvable by Fourier analysis occurs at 257 years making 3TUN/2 = 257.1 years an obvious choice as one of the centre periods for filtering. The spectral content in the broad band between 70 and 130 years in Figure 2 has no resolved peaks, however, the periods 68, 86, and 114 years cover the band reasonably well. The period 114 years was not used in equation 2 because the component at that period suffers a  phase shift in the middle of the CET record and cannot be approximated as a single sinusoid. It is closely approximated by the term 0.075cos(21.5(t -2019)/TUN).cos(2(t -2000)/3TUN) o C. However, when this term is added as an 11 th term in equation 2 the correlation coefficient of projected CET with the CET record in Figure 8 improves only marginally, from 0.78 to 0.79. For this reason and the benefit of keeping equation 2 simple the term was not included. Figure 17. This results in the short-term discrepancy between recorded and projected CET at around 2020 evident in Figures 6, 8, and 11. A 3. Basis for using TUN to decompose CET into cycles. Decomposing the CET record into cycles with periods, T, given by nT = mTUN is based on evidence that the long-term periodicity of solar activity varies at harmonics of TUN, McCracken et al (2014), and evidence that temperature on Earth varies with the variation in solar activity, (Usoskin et al 2005, Haigh 2007, Gray et al 2010, Bae et al 2022. The periods of the first ten harmonics of TUN are 85.7,57.1,42.8,34.3,28.5,24.5,21.4,19.0,17.1 and 15.6 years and four,15,24,34, and 57 years, are evident in the CET spectrum, Figure 2. Other evidence that the harmonics of TUN are relevant to temperature variation is as follows: Previous Fourier analyses of the CET record are dominated by components with periods close to harmonics of TUN. For example, the three long period cycles Baliunas et al (1997) identified in CET, were at periods of 102, 23.5, and 14.4 years, periods close to the first, sixth and tenth harmonics of TUN. The five long period components in the Svalbard temperature record identified by Figure 1 . 1CET 1659 to 2021 and the linear trend in CET of 0.028 o C/century. If the recent positive trend in CET between 1950 and 2000 is attributed entirely to AGW an AGW scenario can be fitted to this trend and used to make a forward projection of CET, the dotted line in the graph. The fit is obtained by assuming an exponential increase in CO2 concentration, C, between C0 = 300 ppm in 1850 and C = 400 ppm in 2010 and a logarithmic dependence of temperature on CO2 concentration, T = F = 5.35ln(C/C0). The temperature increase obtained is constrained to fit the recent trend in CET by adjusting the temperature to CO2 sensitivity factor, , to the value 0.80 K/Wm -2 , corresponding to a T2CO2 of 3.3 o C on CO2 concentration doubling from an 1850 level of 300 ppm to 600 ppm by the time of CO2 doubling, t2CO2, marked by the vertical reference line. Figure 2 . 2Periodogram of detrended CET obtained by padded Fast Fourier Transform. The dotted reference lines are at periods corresponding to harmonics or simple factors of TUN = 171.4 years. e.g., 15 = TUN/11, 24= TUN/7, 34 = TUN/5, 43 = TUN/4, 57 = TUN/3, 68 = 2TUN/5, 86 = TUN/2, and 257 = 3TUN/2 years. Figure 3 . 3Illustrates the novel decomposition method. To obtain the component of CET in the band with centre period TUN/7 = 24.5 years the detrended CET, red line, is filtered using a Press band reject filter of centre frequency 0.0408 yr -1 with 10% bandwidth, 0.004 yr -1 , green dots. The difference between the original CET and the filtered CET yields the 24.5-year period component of CET, blue bold line. Figure 4 . 0023 Figure 5 . 400235The eight components decomposed from the detrended CET using the method of Press band reject filtration outlined in the text. The centre frequency and 10% bandwidth of each frequency band are indicated. The average amplitude of the components is ~0.15 o C. .48 0.0408 bw 0.004 5 34.28 0.02917 bw 0.003 11 15.58 0.0642 bw 0.0064 3 57.13 0.0175 bw 0.0017 2 85.7 0.01166 bw 0.0011 2.5 68.56 0.01458 bw 0.0014 2/3 257.1 0.00389 bw 0.0004 4 42.85 0.0233 bw 0.Adding the eight components in Figure 4 closely reconstitutes the seven-year running average of the CET. Of particular interest are the high 50-year trend 1690 to 1740, the increase from 1900 to 1950, the decrease from 1950 to 1980, the rapid increase 1980 to 2010 and the hiatus 2000 to 2021. Figure 6 . 6Shows the constant amplitude sinusoidal cycles fitted to the components of Figure 4. The sum of the eight cycles, blue bold line, and the detrended CET, dots, are also shown. The approximation of the components by cycles results in a moderately good approximation to the detrended CET, correlation coefficient r = 0.68. Figure 7 . 7Shows the seven-year running average of CET anomaly, i.e., CET minus the 9.273 o C average. Also shown the sum of the 514-year and 1028-year components, the sum of the 514 and the 1028-year period cycles approximating the components, and the linear trend of the CET anomaly. Figure 8 . 8The ten-cycle approximation, equation 2, closely reconstitutes the CET. The correlation coefficient in the time range 1659 to 2021 is 0.78. The high 50-year trend, 1690 to 1740, the 0.5 o C rise, 1900 to 1950, the 0.5 o C decrease, 1950 to 1980, and the 1 o C increase from 1980 to 2010 are accurately reproduced by the ten-cycle approximation. Figure 9 . 9The forward projection of the cyclic content of CET as given by equation 2. Note that the pattern of strong short-term variation, evident near years 1650, 2000 and 2350 repeats at intervals of 343 years The short-term variation is superposed on the longer-term cycles illustrated inFigure 10. this back projection providing strong confidence in the projection capability of equation 2. Figure 10 . 10The longer-term cyclic component of CET accurately reproduces the warm and cold periods identified in historical and proxy records of temperature. used this projection method, decomposing a 20year cycle and a 60-year cycle from the global surface temperature record in the interval 1850 to 1950 and projecting the two cycles forward to 2010 to compare with the temperature record 1950 to 2010. From the comparison Loehle and Scafetta (2011) attributed 60% of the warming observed since 1970 to NAT. Humlum et al Figure 11 . 11The cyclic variation of CET derived from the CET record 1659 to 2021 compared with the detrended CET, line with diamond symbols. The vertical reference lines indicate the time interval 1921 to 2021 and the time interval 1921 to 2010. In the 1921 to 2021 interval the correlation coefficient between the CET forward projection and the detrended CET is r = 0.55. In the interval 1921 to 2010 the correlation coefficient is r = 0.79. The difference in correlation is due to phase shift of the 15-year cycle relative to the 15-year component as discussed in Appendix A2. Figure 12 . 12CET simulation based on 1659 to 2021 and to 1921 data.The seven-year running average of CET is shown by the blue broken curve. When the increase in CET from 1950 to 2000 is attributed entirely to AGW and the CO2 concentration continues to increase at the present rate, a temperature increase of about five degrees at year 2100 can be projected. The projected natural CET, calculated by equation 2, is also shown, as the green broken line that closely overlaps the CET before 2021. With the 50-year trend from 1950 to 2000 attributed primarily to natural variation a much lower climate sensitivity,  = 0.10 K/Wm -2 , rather than  = 0.87 K/Wm -2 , is appropriate. With  = 0.10 K/Wm -2 the CO2 contribution to CET is shown by the black long-dash line. The forward projection of CET due to combined AGW forcing and natural forcing of CET is shown by the broken red line. Reading off the graph at t2CO2, for the low sensitivity curve the T2CO2 is now 0.7 K compared with T2CO2 = 3.3 K for the high sensitivity curve, c.f.Figure 1. al 2006, IPCC 2013, Knutti et al 2017, Tollefson 2020) that resemble the high NATURAL CET (10 cycle sum + 9.273) AGW 100% change in CET at 2010 AGW 15% of change in CET at 2010 AGW + NATURAL sensitivity projection in , T2CO2 = 0.6 o C, Coe et al (2021), in the light of projections of imminent decrease in solar activity, (Clilverd et al 2006, Steinhilber and Beer 2013, Velasco Herrera et al 2015, Yndestad and Solheim 2016, Matthes et al 2017, Velasco Herrera et al 2021), the recent fall of the heliospheric magnetic field, c.f.Figure 14, and imminent reduction in global warming,(Loehle and Scafetta 2011, Omrani et al 2022) Figure 13 . 13The back projection of CET using equation 2. Also shown, broken red line, is the back projection with only the 514-year and 1028-year cycles in equation 2. It is evident that CET experiences extended Warm Periods at intervals of ~1028 years and extended cool periods, Little Ice Ages, also at intervals of 1028 years. Strong positive enhancements in CET occur at intervals of 343 years, e.g., at ~ year 0 and ~ year 343. Strong positive enhancements also occur within the extended cool periods, e.g., ~ year 680 and ~ year 1680, and within the extended warm periods, e.g., ~ year 0, ~ year 1000, and ~ year 2000. CET projected NATURAL and OBSERVED -500 to 2500.CET projected NATURAL long period CET OBSERVED CET Figure 14 . 14Annual mean level of the geomagnetic aa index. Figure 15 . 15The components of the aa index anomaly, (A), and the CET anomaly, (B), and the Melbourne TMAX anomaly, (C), derived from decomposition based on the periods 34, 43, 57, 68, 86 and 257 years. The average curves show that all components of the aa index positively interfere at year 1990 and all components of the CET and Melbourne TMAX positively interfere about 15 years later between year 2005 and 2010. Figure 16 . 16Forward and back projection of the aa index anomaly (reduced by a factor of 10) and the CET anomaly using cycles with periods 34, 43, 57, 68, 86, 257, 514, and 1028 years in equations 2 and 3. compare aa index and CET dual axis 1600 to 2200. A 2 . 2Phase shift between the 15-year component and cycle. Of the cycles that are included in equation 2 the 15-year cycle suffers the largest phase shift relative to the corresponding component, about half a cycle over the 362-year record, Figure 17 . 17Compares the TUN/11, 15.6-year, period component with the cycle approximation. The close to /2 phase shift of the cycle relative to the component around year 2000 results in the short-term discrepancy between recorded CET and projected CET at this time. ). This paper builds on this evidence by decomposing the CET into several components; each component derived from one of a series of spectral bands covering the period range 15 to 1000 years. Section 3 outlines how the extraction of components with period longeryear CET, o C jerk paper CET global warming scenario.grf 1650 1700 1750 1800 1850 1900 1950 2000 2050 2100 7 8 9 10 11 12 13 14 15 16 t 2C02 dT 2CO2 is available at https://www.metoffice.gov.uk/hadobs/hadcet/data/meantemp_monthly_totals.txt. Graph of the CET anomaly is available at https://www.metoffice.gov.uk/hadobs/hadcet/ . The Melbourne daily maximum temperature was obtained from http://www.bom.gov.au/climate/data/ for the Melbourne Regional Office data 1855 to 2013 and from the Olympic Park data 2013 to 2023. The geomagnetic aa index, 1868 -2021, can be downloaded from https://geomagnetism.ga.gov.au/geomagnetic-indices/aa-index The spectral content of CET. The spectral content of the detrended CET,3. Method 3.1 used low pass filtering to show theyear projected low frequency cycles of CET, o C jerk paper CET simulated low frequency CET 0 to 3000.grf 0 500 1000 1500 2000 2500 3000 8.75 9 9.25 9.5 9.75 Roman Warm Period Dark Ages Cold Medieval Warm Period Little Ice Age Modern Warm Period Next Little Ice Age 0.15*(cos(2*3.1415926*(x -2000)/514) +cos(2*3.1415926*(x -2130/1028)) ). The changes in CET from 1900 are relatively simple; four trends in the temperature are evident, an increase of about 1 C from 1900 to 1950, a decrease of about 0.5 C from 1950 to 1980, an increase of about 1 C from 1980 to 2000, and a hiatus or a crest from 2000 to 2021. In climate modelling the increase 1900 to 1950 is attributed 80% to an increase in CO2 and about 20% to an increase in solar irradiance; the decrease 1950 to 1980 is attributed to the combined effect of increases in CO2, aerosols, and volcanism; the increase 1980 to 2000 is attributed primarily to the rapid increase in CO2. In climate models the contribution from natural effects, specifically solar irradiance, to the increase between 1950 and 2000 is effectively zero,(Hansen et al 2011, IPCC 2021. The hiatus in CET, 2000 to 2021, presents a challenge for climate modelling and the hiatus generally is the subject of some controversy, e.g.,Fyfe et al (2016). With the CO2 concentration record continuing to increase exponentially at a rate equivalent to the RCP8.5 scenario and with the high climate sensitivity attributed to CO2 for the 1950 to 2000 change in CET, an increase of about 0.3 C would be projected by climate models for the interval 2000 to 2021, IPCC are at periods83, 62, 36, 26, and 16.8 years, close to the first, second, fourth, sixth, and ninth harmonics of TUN respectively. The five significant periods identified in six central European instrumental temperature records,Ludecke et al (2013) were at 248, 80, 61, 47 and 34 years; close to the 257, 86, 57, 43 and 34 year-periods used here.Mann et al (2021) identified oscillations in global mean temperature over the last millennium with periods at66, 58, 43, 28, 24, 19, and 14 years all close to harmonics of TUN apart from 66 years. The period, 66 years, is close to period 2TUN/5 = 68.5 years that was used in this paper. Acknowledgment. I acknowledge the use of CET data published by the Met Office, Hadley Centre for Climate Prediction and Research and aa index data from Geosciences Australia. I acknowledge useful comments by Don Field and Glen Johnston. The application of machine learning for evaluating anthropogenic versus natural climate change. J Abbot, J Marohasy, 10.1016/j.grj.2017.08.001GeoResJ. 14Abbot, J. & Marohasy, J. (2017) The application of machine learning for evaluating anthropogenic versus natural climate change. GeoResJ 14, 36-46 http://dx.doi.org/10.1016/j.grj.2017.08.001 Using oscillatory processes in norther hemisphere proxy temperature records to forecast industrial-era temperatures. J Abbot, 10.11648/j.earth.20211003.14Earth Sciences. 103Abbot, J. (2021) Using oscillatory processes in norther hemisphere proxy temperature records to forecast industrial-era temperatures. Earth Sciences. 10(3) 95-117 doi: 10.11648/j.earth.20211003.14 Is there a planetary influence on solar activity?. J A Abreu, J Beer, A Ferriz-Mas, K G Mccracken, F Steinhilber, 10.1051/0004-6361/201219997A&A. 548Abreu, J. A, Beer, J., Ferriz-Mas, A., McCracken, K. G. & Steinhilber, F. (2012) Is there a planetary influence on solar activity? A&A 548, A88 doi:10.1051/0004-6361/201219997 Holocene centennial variability in sea surface temperature and linkage with solar irradiance. S W Bae, K E Lee, T W Ko, R A Kim, Y.-G Park, 10.1038/s41598-022-19050-6Nature Sci. Rep. 12Bae, S. W, Lee, K. E., Ko, T. W., Kim, R. A. & Park, Y.-G. (2022) Holocene centennial variability in sea surface temperature and linkage with solar irradiance. Nature Sci. Rep. 12:15046 https://doi.org/10.1038/s41598-022-19050-6 Time scales and trends in the Central England Temperature data (1659-1990): A wavelet analysis. S Baliunas, P Frick, D Sokoloff, W Soon, JGR Lett. 2411Baliunas, S., Frick, P., Sokoloff, D. & Soon, W. (1997) Time scales and trends in the Central England Temperature data (1659-1990): A wavelet analysis. JGR Lett. 24(11) 1351-1354 Aerosol forcing in the Climate Model Intercomparison Project (CMIP5) simulations by HadGEM2 ES and the role of ammonium nitrate. N Bellouin, J Rae, A Jones, C Johnson, J Haywood, O Boucher, 10.1029/2011JD016074J. Geophys. Res. 11620206Bellouin, N., Rae, J., Jones, A., Johnson, C., Haywood, J., & Boucher, O. (2011) Aerosol forcing in the Climate Model Intercomparison Project (CMIP5) simulations by HadGEM2 ES and the role of ammonium nitrate. J. Geophys. Res. 116, D20206, doi:10.1029/2011JD016074 2500 years of European climate variability and human susceptibility. U Buntgen, W Tegel, K Nicolussi, M Mccormick, D Frank, V Trouet, Science. 331Buntgen, U., Tegel, W., Nicolussi, K. McCormick, M., Frank, D., Trouet, V. et al (2011) 2500 years of European climate variability and human susceptibility. Science 331 578-582 Common spectral features in the 5500-year record of total carbonate in sea sediments and radiocarbon in tree rings. G C Castagnoli, G Bonino, M Serio, C P Sonett, Radiocarbon. 343Castagnoli, G. C., Bonino, G., Serio, M. & Sonett, C. P. (1992) Common spectral features in the 5500-year record of total carbonate in sea sediments and radiocarbon in tree rings Radiocarbon 34(3) 798-805 The extra-tropical Norther Hemisphere temperature in the last two millennia: reconstruction of low-frequency variability. B Chistiansen, F C Ljungqvist, 10.5194/cp-8-765-2012Clim. Past. 8Chistiansen, B., & Ljungqvist, F. C. (2012) The extra-tropical Norther Hemisphere temperature in the last two millennia: reconstruction of low-frequency variability. Clim. Past, 8, 765-786. doi:10.5194/cp-8-765- 2012 The increasing likelihood of temperatures above 30 to 40 o C in the United Kingdom. N Christidis, M Mccarthy, P A Stott, 10.1038/s41467-020-16834-01Nature Comm. 11Christidis, N., McCarthy, M., & Stott, P. A. (2020) The increasing likelihood of temperatures above 30 to 40 o C in the United Kingdom. Nature Comm. 11:3093 https://doi.org/10.1038/s41467-020-16834-01 Predicting solar cycle 24 and beyond. M A Clilverd, E Clarke, T Ulich, H Rishbeth, M J Jarvis, 10.1029/2005SW000207Space Weather. 4Clilverd, M. A., Clarke, E., Ulich, T., Rishbeth, H. & Jarvis, M. J. (2006) Predicting solar cycle 24 and beyond. Space Weather 4, S09005 doi:10.1029/2005SW000207 The impact of CO2, H2O and other "Greenhouse Gases" on equilibrium Earth temperatures. D Coe, F Fabinski, G Wiegleb, 10.11648/j.ijaos.20210502.12Int. J. of Atmos. Oceanic Sci. 52Coe, D., Fabinski, F. & Wiegleb, G. (2021) The impact of CO2, H2O and other "Greenhouse Gases" on equilibrium Earth temperatures. Int. J. of Atmos. Oceanic Sci. 5(2), 29-40. doi:10.11648/j.ijaos.20210502.12 Solar forcing of climate 1. Solar variability. De Jager, C , Space Sci. Rev. 120De Jager, C. (2005) Solar forcing of climate 1. Solar variability. Space Sci. Rev. 120, 197-241 Quantifying and specifying the solar influence on terrestrial surface temperature. De Jager, C Duhau, S Van Geel, B , 10.1016/j.jastp.2010.04.011J. Atmos. Sol-Terr. Phys. 72De Jager, C., Duhau, S., & van Geel, B. (2010) Quantifying and specifying the solar influence on terrestrial surface temperature. J. Atmos. Sol-Terr. Phys. 72 926-937 doi:10.1016/j.jastp.2010.04.011 Chapter 33-Space weather and cosmic ray effects. Climate Change (Third Edition) Observed Impacts on Planet Earth. L I Dorman, 10.1016/B978-0-12-821575-3.00033-5Dorman, L. I. (2021) Chapter 33-Space weather and cosmic ray effects. Climate Change (Third Edition) Observed Impacts on Planet Earth 711-768 https://doi:.org/10.1016/B978-0-12-821575-3.00033-5 The Maunder Minimum. J A Eddy, Science. 1921189Eddy, J.A. (1976) The Maunder Minimum. Science 192, 1189 Revised historical solar irradiance forcing. T Ergorova, W Schmutz, E Rozanov, A I Shapiro, I Usoskin, J Beer, R V Tagirov, T Peter, 10.1051/0004-6361/201731199A&A. 615Ergorova, T., Schmutz, W., Rozanov, E., Shapiro, A. I., Usoskin, I., Beer, J., Tagirov, R. V. & peter, T. (2018) Revised historical solar irradiance forcing. A&A 615, A85 https://doi.org/10.1051/0004-6361/201731199 Low-frequency signals in long tree-ring chronologies for reconstructing past temperature variability. J Esper, E R Cook, F H Schweingruber, Science. 295Esper, J., Cook, E. R., & Schweingruber, F. H. (2002) Low-frequency signals in long tree-ring chronologies for reconstructing past temperature variability. Science 295:2250-2253. Increasing probability of record-shattering climate extremes. E M Fischer, S Sippel, R Knutti, 10.1038/s41558-021-01092-9Nat. Clim. Chang. 11Fischer, E.M., Sippel, S. & Knutti, R. (2021) Increasing probability of record-shattering climate extremes. Nat. Clim. Chang. 11, 689-695. https://doi.org/10.1038/s41558-021-01092-9 Making sense of the early-2000s warming slowdown. J C Fyfe, G A Meehl, M H England, M E Mann, B D Santer, G M Flato, E Hawkins, 10.1038/nclimate2938Nature Climate Change. 6Fyfe, J. C., Meehl, G. A., England, M. H., Mann, M. E., Santer, B. D., Flato, G. M., Hawkins, E. et al (2016) Making sense of the early-2000s warming slowdown. Nature Climate Change 6, 224-228 doi:10.1038/nclimate2938 Anthropogenic CO2 warming challenged by 60-year cycle. F Gervais, Earth-Sci. Rev. 155Gervais, F. (2016) Anthropogenic CO2 warming challenged by 60-year cycle. Earth-Sci. Rev, 155, 129-135 Temporal variations of trends in the Central England Temperature series. J C Gonzalez-Hidalgo, D Pena-Angulo, S Beguria, Geograph. Res. Lett. 462Gonzalez-Hidalgo, J. C., Pena-Angulo, D., & Beguria, S. (2020) Temporal variations of trends in the Central England Temperature series. Geograph. Res. Lett. 46(2) 345-369 Solar influence on climate. L J Gray, J Beer, M Geller, J D Haigh, V Lockwood, K Matthes, Rev. Geophys. 4844001Gray, L. J., Beer, J., Geller, M., Haigh, J. D., Lockwood, V., Matthes, K., et al (2010) Solar influence on climate. Rev. Geophys. 48(4) GR4001. A lagged response to the 11 year solar cycle in observed winter Atlantic/European weather patterns. L J Gray, A A Scaife, D M Mitchell, S Osprey, S Ineson, S Hardiman, N Butchart, J Knight, R Sutton, K Kodera, 10.1002/2013JD020062J. Geophys. Res. Atmos. 118Gray, L. J., A. A. Scaife, D. M. Mitchell, S. Osprey, S. Ineson, S. Hardiman, N. Butchart, J. Knight, R. Sutton,and K. Kodera (2013), A lagged response to the 11 year solar cycle in observed winter Atlantic/European weather patterns, J. Geophys. Res. Atmos.,118, 13,405-13,420, doi:10.1002/2013JD020062. The Sun and Earth's climate. J D Haigh, Living Rev. Sol. Phys. 42Haigh, J. D. (2007) The Sun and Earth's climate. Living Rev. Sol. Phys. 4, 2 Earth's energy imbalance and implications. J Hansen, M Sato, P Kharecha, K Von Schuckmann, 10.5194/acp-11-13421-2011Atmos. Chem. Phys. 119Hansen, J., Sato, M., Kharecha, P. & von Schuckmann, K. (2011) Earth's energy imbalance and implications. Atmos. Chem. Phys. 11(9) doi:10.5194/acp-11-13421-2011 Perception of climate change. J E Hansen, M Sato, R Ruedy, 10.1073/pnas.1205276109P. N. A. S. 109Hansen, J. E., Sato, M. & Ruedy, R. (2012) Perception of climate change. P. N. A. S. 109(37) E2415-E2423 https://doi.org/10.1073/pnas.1205276109 https://arxiv.org/abs/1204.1286 Assessing "Dangerous Climate Change": Required reduction of carbon emissions to protect young people, future generations, and nature. J Hansen, P Kharecha, M Sato, V Masson-Delmotte, F Akerman, 10.1371/journal.pone.0081648PLoS One. 81281648Hansen, J., Kharecha, P., Sato, M., Masson-Delmotte, V., Akerman, F., et al (2013) Assessing "Dangerous Climate Change": Required reduction of carbon emissions to protect young people, future generations, and nature. PLoS One 8(12) e81648. doi:10.1371/journal.pone.0081648 Advanced two-layer climate model for the assessment of global warming by CO2. H Harde, 10.15764/ACC.2014.03001Open J. Atmos. Clim. Change. 13Harde, H. (2014) Advanced two-layer climate model for the assessment of global warming by CO2. Open J. Atmos. Clim. Change 1(3) 2374-3808 doi:10.15764/ACC.2014.03001 Use of models in detection and attribution of climate change. G Hegerl, F Zwiers, Adv. Rev. 2Hegerl, G., & Zwiers, F. (2011) Use of models in detection and attribution of climate change. Adv. Rev. 2, 570-591 Explaining extreme events of 2013 from a climate perspective. S C Herring, M P Hoeling, T C Peterson, Stott, Bull. Amer. Meteor. Soc. 959P. A. Eds.Herring, S. C., Hoeling, M. P., Peterson, T. C., & Stott, P. A. Eds. 2014; Explaining extreme events of 2013 from a climate perspective. Bull. Amer. Meteor. Soc. 95 (9) S1 -S96 Identifying natural contributions to late Holocene climate change. O Humlum, J.-E Solheim, K Stordahl, 10.1016/j.goplacha.2011.09.005Global Planetary Change. 79Humlum, O., Solheim, J.-E., & Stordahl, K. (2011) Identifying natural contributions to late Holocene climate change. Global Planetary Change 79, 145-156 doi:10.1016/j.goplacha.2011.09.005 Spectral analysis of the Svalbard temperature record 1912-2010. O Humlum, J.-E Solheim, K Stordahl, Adv. Meteor. 175296Humlum, O., Solheim, J.-E., & Stordahl, K. (2012) Spectral analysis of the Svalbard temperature record 1912-2010. Adv. Meteor. 2011, ID 175296 Regional climate impacts of a possible future grand solar minimum. S Ineson, A C Maycock, L J Gray, A A Scaife, N J Dunstone, J W Harder, J R Knight, M Lockwood, J C Manners, R A Wood, 10.1038/ncomms853526102364Nat Commun. 237535Ineson, S., Maycock, A. C., Gray, L.J., Scaife, A. A., Dunstone, N. J., Harder, J.W., Knight, J.R., Lockwood, M., Manners, J. C., Wood, R. A. (2015) Regional climate impacts of a possible future grand solar minimum. Nat Commun. 23;6:7535. doi: 10.1038/ncomms8535. PMID: 26102364; Detection and Attribution of Climate Change: from Global to Regional. N L Bindoff, P A Stott, K M Achutarao, M R Allen, N Gillett, D Gutzler, K Hansingo, G Hegerl, Y Hu, S Jain, I I Mokhov, J Overland, J Perlwitz, R Sebbari, X Zhang, Climate Change 2013: The Physical Science Basis. Contribution of Working Group I to the Fifth Assessment Report of the Intergovernmental Panel on Climate Change. Stocker, T.F., D. Qin, G.-K.Plattner, M. Tignor, S.K. Allen, J. Boschung, A. Nauels, Y. Xia, V. Bex and P.M. MidgleyIPCC (2013a) Bindoff, N.L., P.A. Stott, K.M. AchutaRao, M.R. Allen, N. Gillett, D. Gutzler, K. Hansingo, G. Hegerl, Y. Hu, S. Jain, I.I.Mokhov, J. Overland, J. Perlwitz, R. Sebbari and X. Zhang, 2013: Detection and Attribution of Climate Change: from Global to Regional. In: Climate Change 2013: The Physical Science Basis. Contribution of Working Group I to the Fifth Assessment Report of the Intergovernmental Panel on Climate Change [Stocker, T.F., D. Qin, G.-K.Plattner, M. Tignor, S.K. Allen, J. Boschung, A. Nauels, Y. Xia, V. Bex and P.M. Midgley (eds.)]. Long term climate change: Projections, commitments, and irreversibility. M R Collins, J Knutti, J L Arblaster, Dufresene, T Fichefet, P Friedlinstein, Climate Change 2013: The Physical Science Basis. Fifth Assessment Report IPCC. IPCC (2013b) Collins, M. R., Knutti, J., Arblaster, J. L., Dufresene, Fichefet, T., Friedlinstein, P. et al (2013) Long term climate change: Projections, commitments, and irreversibility. In: Climate Change 2013: The Physical Science Basis. Fifth Assessment Report IPCC. Climate Change 2007: The Physical Science Basis. Contribution of Working Group I to the Fourth Assessment Report of the Intergovernmental Panel on Climate Change. E Jansen, J Overpeck, K R Briffa, J.-C Duplessy, R Joos, V Masson-Delmotte, D Olago, B Otto-Bliesner, W R Peltier, S Rahmstorf, IPCC. Cambridge University PressIPCC (2007) Jansen, E., Overpeck, J., Briffa K. R., Duplessy, J.-C., Joos, R., Masson-Delmotte, V., Olago, D., Otto-Bliesner, B., Peltier WR, Rahmstorf S, et al. Palaeoclimate. In:Solomon S, Qin D, Manning M, Chen Z, Marquis M,Averyt KB, Tignor M, Miller HL, eds. Climate Change 2007: The Physical Science Basis. Contribution of Working Group I to the Fourth Assessment Report of the Intergovernmental Panel on Climate Change. Cambridge, United Kingdom and New York, NY, USA: Cambridge University Press; 2007 Contribution of Working Group I to the Sixth Assessment Report of the Intergovernmental Panel on Climate Change. V Masson-Delmotte, P Zhai, A Pirani, S L Connors, C Péan, S Berger, N Caud, Y Chen, L Goldfarb, M I Gomis, M Huang, K Leitzell, E Lonnoy, J B R Matthews, T K Maycock, T Waterfield, O Yelekçi, Climate Change 2021: The Physical Science Basis. R. Yu, and B. ZhouSummary for PolicymakersIPCC (2021): Summary for Policymakers. In: Climate Change 2021: The Physical Science Basis. Contribution of Working Group I to the Sixth Assessment Report of the Intergovernmental Panel on Climate Change [Masson-Delmotte, V., P. Zhai, A. Pirani, S.L.Connors, C. Péan, S. Berger, N. Caud, Y. Chen, L. Goldfarb, M.I. Gomis, M. Huang, K. Leitzell, E. Lonnoy, J.B.R. Matthews, T.K.Maycock, T. Waterfield, O. Yelekçi, R. Yu, and B. Zhou (eds.)]. Anthropogenic climate change for 1860 to 2100 simulated with HadCM3 model under updated emissions scenarios. T C Johns, J M Gregory, W J Ingram, C E Johnson, A Jones, J A Lowe, 10.1007/s00382-002-0296-yClim. Dyn. 20Johns, T. C., Gregory, J. M., Ingram, W. J., Johnson, C. E., Jones, A., Lowe, J. A., et al (2003) Anthropogenic climate change for 1860 to 2100 simulated with HadCM3 model under updated emissions scenarios. Clim. Dyn. 20, 583-612 doi:10.1007/s00382-002-0296-y Detection of a human influence on North American climate. D J Karoly, K Braganza, P A Stott, J M Arblaster, G A Meehl, J Anthony, A J Broccoli, K W Dixon, Science. 302Karoly, D. J., Braganza, K., Stott, P. A., Arblaster, J. M., Meehl, G. A., Anthony J. Broccoli, A. J., & Dixon, K. W. (2003) Detection of a human influence on North American climate. Science 302, 1200-1203 Attribution of recent temperature changes in the Australian region. D J Karoly, K Braganza, J. Clim. 183Karoly, D. J., Braganza, K. (2005) Attribution of recent temperature changes in the Australian region, J. Clim.,18(3), 457-464 Anthropogenic warming of central England temperature. D J Karoly, P A Stott, Atmos. Sci. Let. 7Karoly, D. J. & Stott, P. A. (2006) Anthropogenic warming of central England temperature. Atmos. Sci. Let. 7:81-85 Attribution of the record high Central England temperature of 2014 to anthropogenic influences. A D King, G J Van Oldenborgh, D J Karoly, S C Lewis, H Cullen, Environ. Res. Lett. 1054002King, A. D., Van Oldenborgh, G. J, Karoly, D. J., Lewis, S. C. & Cullen, H. (2015) Attribution of the record high Central England temperature of 2014 to anthropogenic influences. Environ. Res. Lett. 10, 054002 Assessment of twentieth-century regional surface temperature trends using the GFDL CM2 coupled models. T R Knutson, T L Delworth, K W Dixon, I M Held, J Lu, V Ramaswamy, M D Schwarzkopf, G Stechikov, R J Stouffer, J. Climate. 19Knutson, T. R., Delworth, T. L., Dixon, K. W., Held, I. M., Lu, J., Ramaswamy, V., Schwarzkopf, M. D., Stechikov, G., & Stouffer, R. J. (2006) Assessment of twentieth-century regional surface temperature trends using the GFDL CM2 coupled models. J. Climate 19, 1624-1651 Beyond equilibrium climate sensitivity. R Knutti, M A A Rugenstein, G C Hegerl, 10.1038/ngeo3017Nature Geosci. 10Knutti, R., Rugenstein, M. A. A., & Hegerl, G. C. (2017) Beyond equilibrium climate sensitivity. Nature Geosci. 10, 727-736 (2017). https://doi.org/10.1038/ngeo3017 On the observational determination of climate sensitivity and its implications. R S Lindzen, Y.-S Choi, 10.1007/s13143-011-0023-xAsia-Pacific J. Atmos. Sci. 474Lindzen, R. S. & Choi, Y.-S. (2011) On the observational determination of climate sensitivity and its implications. Asia-Pacific J. Atmos. Sci. 47(4) 377-390 doi:10.1007/s13143-011-0023-x NAO implicated as a predictor of Northern Hemisphere mean temperature multidecadal variability. J P Li, C Sun, F F Jin, Geophys. Res. Lett. 40Li, J. P., Sun, C. & Jin, F. F. (2013) NAO implicated as a predictor of Northern Hemisphere mean temperature multidecadal variability. Geophys. Res. Lett. 40: 5497-5502 A new reconstruction of temperature variability in the extratropical northern hemisphere during the last two millennia. F C Ljungqvist, doi.org/10.1111/j.1468-0459.2010.00399.xGeografiska Annaler: Physical Geography. 923Ljungqvist, F. C. (2010) A new reconstruction of temperature variability in the extratropical northern hemisphere during the last two millennia. Geografiska Annaler: Physical Geography 92 A (3), 339-351 doi.org/10.1111/j.1468-0459.2010.00399.x A doubling of the Sun's coronal magnetic field during the past 100 years. M Lockwood, R Stamper, M N Wild, Nature. 399Lockwood, M., Stamper, R. & Wild, M. N. (1999) A doubling of the Sun's coronal magnetic field during the past 100 years. Nature 399, 437-439. Recent oppositely directed trends in solar climate forcings and the global mean surface air temperature. M Lockwood, C Frohlich, doi:1098/rspa.2007.1880Proc. Roy. Soc. A. 463Lockwood, M. & Frohlich, C. (2007) Recent oppositely directed trends in solar climate forcings and the global mean surface air temperature. Proc. Roy. Soc. A 463, 2447-2400 doi:1098/rspa.2007.1880 Climate change attribution using empirical decomposition of climate data. C Loehle, N Scafetta, Open Atmos. J. 5Loehle, C. and Scafetta, N. (2011) Climate change attribution using empirical decomposition of climate data. Open Atmos. J. 5, 74-86 Harmonic analysis of worldwide temperature proxies for 2000 years. H.-J Ludecke, C.-O Weiss, 10.2174/1874282301711010044Open Atmos. Sci. J. 11Ludecke, H.-J., & Weiss, C.-O. (2017) Harmonic analysis of worldwide temperature proxies for 2000 years. Open Atmos. Sci. J. 11, 44-53 doi:10.2174/1874282301711010044 Multi-periodic climate dynamics: spectral analysis of long-term instrumental and proxy temperature records. H.-J Ludecke, H Hempelmann, C O Weiss, 10.5194/cp-9-447-2013Clim. Past. 9Ludecke, H.-J., Hempelmann, H. & Weiss, C.O. (2013) Multi-periodic climate dynamics: spectral analysis of long-term instrumental and proxy temperature records, Clim. Past 9, 447-452 doi:10.5194/cp-9-447-2013 21st century global and regional surface temperature projections. N Ma, J H Jiang, K Hou, Y Lin, T Vu, P E Rosen, 10.1029/2022EA002662Earth and Space Science. 9Ma, N., Jiang, J. H., Hou, K., Lin, Y., Vu, T., Rosen, P. E., et al. (2022). 21st century global and regional surface temperature projections. Earth and Space Science, 9, e2022EA002662. https://doi.org/10.1029/2022EA002662 Thousand-Year Cycle Signals in Solar Activity. L H Ma, 10.1007/s11207-007-9048-9Sol. Phys. 245Ma, L. H. (2007) Thousand-Year Cycle Signals in Solar Activity. Sol. Phys. (2007) 245: 411-414 doi:10.1007/s11207-007-9048-9 Central England temperatures: monthly means 1659-1973. G Manley, Q. J. R. Meteorol. Soc. 100Manley, G. (1974) Central England temperatures: monthly means 1659-1973. Q. J. R. Meteorol. Soc. 100, 389-405 . M E Mann, Z Zhang, M K Hughes, R S Bradley, S K Miller, S Rutherford, F Ni, Mann, M. E, Zhang, Z., Hughes, M. K., Bradley, R. S., Miller, S. K., Rutherford, S., & Ni, F. 2008 Proxy-based reconstructions of hemispheric and global surface temperature variations over the past two millennia. PNAS. 10536Proxy-based reconstructions of hemispheric and global surface temperature variations over the past two millennia. PNAS 105(36) 13252-13257 Global signatures and dynamical origins of the Little Ice Age and the Medieval Climate Anomaly. M E Mann, Z Zhang, S Rutherford, R S Bradley, M K Hughes, D Shindell, C Ammann, G Faluvegi, F Ni, Science. 326Mann, M. E., Zhang, Z., Rutherford, S., Bradley, R. S., Hughes, M. K., Shindell, D., Ammann, C., Faluvegi, G., & Ni, F. (2009) Global signatures and dynamical origins of the Little Ice Age and the Medieval Climate Anomaly. Science 326, 1256-1260 Multidecadal climate oscillations during the past millennium driven by volcanic forcing. M E Mann, B A Steinman, D J Brouillette, S K Miller, 10.1126/science3.abc5810Science. 371Mann, M. E., Steinman, B. A., Brouillette, D. J. & Miller, S. K. (2021) Multidecadal climate oscillations during the past millennium driven by volcanic forcing. Science 371, 6533, 1014-1019 doi:10.1126/science3.abc5810 Solar Influence on Earth's Climate. N Marsh, H Svensmark, 10.1023/A:1025573117134Space Science Reviews. 107Marsh, N., Svensmark, H. (2003) Solar Influence on Earth's Climate. Space Science Reviews 107, 317-325 https://doi.org/10.1023/A:1025573117134 Solar forcing for CMIP6 (v3.2). Geosci. Model Dev. K Matthes, B Funke, M E Andersson, L Barnard, J Beer, P Charbonneau, M A Clilverd, 10.5194/gmd-10-2247-201710Matthes, K., Funke, B., Andersson, M. E., Barnard, L. Beer, J., Charbonneau, P., Clilverd, M. A. et al (2017) Solar forcing for CMIP6 (v3.2). Geosci. Model Dev. 10, 2247-2302 https://doi.org/10.5194/gmd-10-2247-2017 A phenomenological study of the cosmic ray variations over the past 9400 year, and their implications regarding solar activity and the solar dynamo. K G Mccracken, J Beer, F Steinhilber, Sol. Phys. 286McCracken, K. G., Beer, J., & Steinhilber, F. (2013) A phenomenological study of the cosmic ray variations over the past 9400 year, and their implications regarding solar activity and the solar dynamo. Sol. Phys. 286: 609-627 Evidence for planetary forcing of the cosmic ray intensity and solar activity throughout the past 9400 years. K G Mccracken, J Beer, F Steinhilber, Sol. Phys. 289McCracken, K. G., Beer, J., & Steinhilber, F. (2014) Evidence for planetary forcing of the cosmic ray intensity and solar activity throughout the past 9400 years. Sol. Phys. 289, 3207-3229. Highly variable Northern Hemi-sphere temperatures reconstructed from low and high-resolution proxy data. A Moberg, D M Sonechkin, K Holmgren, N M Datsenko, W Karlen, Nature. 433Moberg, A., Sonechkin, D. M., Holmgren, K., Datsenko, N. M., Karlen, W. (2005) Highly variable Northern Hemi-sphere temperatures reconstructed from low and high-resolution proxy data. Nature 433:613-617 The next generation of scenarios for climate change research and assessment. R H Moss, J A Edmonds, K A Hibbard, M R Manning, S K Rose, D P Van Huren, doi:1038/nature08823Nature. 463Moss, R. H., Edmonds, J. A., Hibbard, K. A., Manning, M. R., Rose, S. K., van Huren, D. P., et al (2010) The next generation of scenarios for climate change research and assessment. Nature 463, 747 doi:1038/nature08823 New estimates of radiative forcing due to well mixed greenhouse gases. G Myhre, E J Highwood, K P Shine, F Stordal, Geophys. Res. Lett. 25Myhre, G., E. J. Highwood, K. P. Shine, and F. Stordal, (1998) New estimates of radiative forcing due to well mixed greenhouse gases. Geophys. Res. Lett., 25, 2715-2718. Coupled stratospheric-troposphere-Atlantic multidecadal oscillation and its importance for near-future climate projection. N.-E Omrani, N Keenlyside, K Matthes, L Boljka, D Zanchettin, J H Jungclaus, S W Lubis, 10.1038/s41612-022-00275-1Climate and Atmos. Sci. 559Omrani N.-E., Keenlyside, N., Matthes, K., Boljka, L., Zanchettin, D., Jungclaus, J. H. & Lubis, S. W. (2022) Coupled stratospheric-troposphere-Atlantic multidecadal oscillation and its importance for near-future climate projection. Climate and Atmos. Sci. 5:59 https://doi.org/10.1038/s41612- 022-00275-1 D E Parker, T P Legg, &amp; C K Folland, A new daily Central England Temperature Series. 12Parker, D.E., T.P. Legg, & C.K. Folland (1992) A new daily Central England Temperature Series, 1772-1991. Int. J. Clim., 12, 317-342 . G Plaut, M Ghil, R Vautard, Plaut, G., Ghil, M., & Vautard, R. (1995) Apparent limitations in the ability of CMIP5 climate models to simulate recent multi-decadal change in surface temperature: implications for global temperature projections. S Power, F Delage, G Wang, I Smith, G Kociuba, 53-69doi10.1007/s00382-016-3326-xClim. Dyn. 49Power, S., Delage, F., Wang, G., Smith, I. & Kociuba, G. (2017) Apparent limitations in the ability of CMIP5 climate models to simulate recent multi-decadal change in surface temperature: implications for global temperature projections. Clim. Dyn. 49, 53-69 doi 10.1007/s00382-016- 3326-x W H Press, S A Teukolsky, W T Vetterling, B P Flannery, Numerical Recipes: The Art of Scientific Computing, Third Edition. Cambridge University PressPress, W. H., Teukolsky, S. A., Vetterling, W. T., & Flannery, B. P. (2007) Numerical Recipes: The Art of Scientific Computing, Third Edition, Cambridge University Press. Increase of extreme events in a warming world. S Rahmstorf, D Coumou, 17909doi/10.1073/pnas.1101766108PNAS. 1084417905Rahmstorf, S. & Coumou, D. (2011) Increase of extreme events in a warming world. PNAS 108(44) 17905-17909doi/10.1073/pnas.1101766108 Prediction of solar minimum and maximum epochs on the basis of spectral characteristics for the next millennium. N R Rigozo, D J R Nordemann, E Echer, M P S Echer, H E Silva, Planet. Space. Sci. 58Rigozo, N. R., Nordemann, D. J. R., Echer, E., Echer, M. P. S., & Silva, H. E. (2010) Prediction of solar minimum and maximum epochs on the basis of spectral characteristics for the next millennium. Planet. Space. Sci. 58, 1971-1976 Revised records of atmospheric trace gases CO2, CH4, N2O, and  13 C-CO2 over the last 2000 years from Law Dome. M Rubino, D M Etheridge, D P Thornton, R Howden, C E Allison, R J Francey, 10.5194/essd-11-473-2019Antarctica. Earth Syst. Sci. Data. 11Rubino, M., Etheridge, D. M., Thornton, D. P., Howden, R., Allison, C. E., Francey, R. J. et al (2019) Revised records of atmospheric trace gases CO2, CH4, N2O, and  13 C-CO2 over the last 2000 years from Law Dome, Antarctica. Earth Syst. Sci. Data, 11, 473-492 https://doi.org/10.5194/essd-11- 473-2019 Empirical evidence for a celestial origin of the climate oscillations and its implications. N Scafetta, J. Atmos. Sol. Terr. Phys. 72Scafetta, N. (2010) Empirical evidence for a celestial origin of the climate oscillations and its implications. J. Atmos. Sol. Terr. Phys. 72, 951-970 Multi-scale harmonic model for solar and climate cyclical variation throughout the Holocene based on Jupiter-Saturn tidal frequencies plus the 11-year solar dynamo cycle. N Scafetta, 10.1016/j.jaspt.2012.02.016J. Atmos Sol. Terr. Phys. 80Scafetta, N. (2012) Multi-scale harmonic model for solar and climate cyclical variation throughout the Holocene based on Jupiter-Saturn tidal frequencies plus the 11-year solar dynamo cycle J. Atmos Sol. Terr. Phys. 80 296-311 https://doi.org/10.1016/j.jaspt.2012.02.016 Solar and planetary oscillation control on climate change: hind-cast, forecast and a comparison with the CMIP5 GCMs. N Scafetta, Energy and Environ. 243&4Scafetta, N. (2013) Solar and planetary oscillation control on climate change: hind-cast, forecast and a comparison with the CMIP5 GCMs. Energy and Environ., 24(3&4), 455-496 Reconstruction of the interannual to millennial scale patterns of the global surface temperature. N Scafetta, 10.3390/atmos12020147Atmosphere. 12Scafetta, N. (2021) Reconstruction of the interannual to millennial scale patterns of the global surface temperature. Atmosphere 12, 147 https://doi.org/10.3390/atmos12020147 A mechanism for lagged North Atlantic climate response to solar variability. A A Scaife, S Ineson, J R Knight, L Gray, K Kodera, &amp; D Smith, D M , 10.1002/grl.50099Geophys. Res. Lett. 40Scaife, A. A., Ineson, S., Knight, J. R., Gray, L., Kodera, K., & D. Smith, D. M. (2013), A mechanism for lagged North Atlantic climate response to solar variability. Geophys. Res. Lett., 40, 434-439, doi:10.1002/grl.50099 Prediction of solar activity from solar background magnetic field variations in cycles 21-23. S J Shepherd, S I Zharkov, V V Zharkova, Astrophysical J. 795Shepherd, S. J., Zharkov, S. I., & Zharkova, V. V. (2014) Prediction of solar activity from solar background magnetic field variations in cycles 21-23. Astrophysical J. 795, 46-54 Solar forcing of regional climate change during the Maunder Minimum. D T Shindell, G A Schmidt, M E Mann, D Rind, A Waple, Science. 294Shindell, D. T., Schmidt, G. A., Mann, M. E., Rind, D., & Waple, A. (2001) Solar forcing of regional climate change during the Maunder Minimum. Science 294 2149-2152 Reconstructing Earth's surface temperature over the past 2000 years: the science behind the headlines. J E Smerdon, H N Pollack, Adv. Rev. 7Smerdon, J. E. & Pollack, H. N. (2016) Reconstructing Earth's surface temperature over the past 2000 years: the science behind the headlines Adv. Rev. 7, 746 -771 On the Effects of Mixed and Deep Ocean Layers on Climate Change and Variability. S Soldatenko, 10.3390/jmse10091216J. Mar. Sci. Eng. 10Soldatenko, S. (2022) On the Effects of Mixed and Deep Ocean Layers on Climate Change and Variability. J. Mar. Sci. Eng. 10,1216-1232. https://doi.org/10.3390/jmse10091216 Prediction of solar activity for the next 500 years. F Steinhilber, J Beer, 10.1002/jgra.50210J. Geophys. Res. Space Physics. 118Steinhilber, F. & Beer, J. (2013) Prediction of solar activity for the next 500 years. J. Geophys. Res. Space Physics, 118, 1861-1867, doi:10.1002/jgra.50210 Origins and estimates of uncertainty in predictions of twenty-first century temperature rise. P A Stott, J A Kettleborough, Nature. 416Stott, P. A., & Kettleborough, J. A. (2002) Origins and estimates of uncertainty in predictions of twenty-first century temperature rise. Nature 416, 723-726 Observational constraints on past attributable warming and predictions of future global warming. P A Stott, J F B Mitchell, M R Allen, T L Delworth, J M Gregory, G A Meehl, B D Santer, 10.1175/JCL13802.1J. Clim. 1913Stott, P. A., Mitchell, J. F. B., Allen, M. R., Delworth, T. L., Gregory, J. M., Meehl, G. A. & Santer, B. D. (2006a) Observational constraints on past attributable warming and predictions of future global warming J. Clim. 19(13) 3055-3069 doi:10.1175/JCL13802.1 . P A Stott, J A Kettleborough, M R Allen, 10.1029/2005GL024423Geophys. Res. Lett. 332708Uncertainty in continental scale temperature predictionsStott, P. A., Kettleborough, J. A., & Allen, M. R. (2006b) Uncertainty in continental scale temperature predictions. Geophys. Res. Lett. 33, L02708 doi:10.1029/2005GL024423 Pacific multidecadal (50-70 year) variability instigated by volcanic forcing during the Little Ice Age (1250-1850). W Sun, J Liu, B Wang, D Chen, C Gao, 10.1007/s00382-021-06127-7Clim. Dynam. 59Sun, W., Liu, J., Wang, B., Chen, D. & Gao, C. (2022) Pacific multidecadal (50-70 year) variability instigated by volcanic forcing during the Little Ice Age (1250-1850). Clim. Dynam. 59, 231-244 https://doi.org/10.1007/s00382-021-06127-7 . The Guardian, The Guardian (2022). https://www.theguardian.com/environment/2022/nov/cop27-climate- summit-un-secretary-general-antonio-guterres How hot will the Earth get by 2100?. J Tollefson, Nature. 580Tollefson, J. (2020) How hot will the Earth get by 2100? Nature 580, 444-446 Using data to attribute episodes of warming and cooling in instrumental records. K.-K Tung, J Zhou, PNAS. 1106Tung, K.-K., & Zhou, J. (2013) Using data to attribute episodes of warming and cooling in instrumental records. PNAS 110(6) 2058-2063 Understanding the recent global warming slowdown: A review. K.-K Tung, X Chen, 10.3390/cli6040082682Tung, K.-K., & Chen, X. (2018) Understanding the recent global warming slowdown: A review. Climate 6, 82 doi:10.3390/cli6040082 Solar activity, cosmic rays, and Earth's temperature-A millennial-scale comparison. I G Usoskin, M Schuessler, S K Solanki, K Mursula, 10.1029/2004JA010946J. Geophys. Res. 110Usoskin, I. G., Schuessler, M., Solanki, S. K., & Mursula, K. (2005) Solar activity, cosmic rays, and Earth's temperature-A millennial-scale comparison. J. Geophys. Res. 110, A10102 doi:10.1029/2004JA010946 Does machine learning reconstruct missing sunspots and forecast a new solar minimum?. V M Velasco Herrera, W Soon, D R Legates, Adv. Space Res. 683Velasco Herrera, V. M., Soon, W., & Legates, D. R. (2021) Does machine learning reconstruct missing sunspots and forecast a new solar minimum? Adv. Space Res. 68(3) 1485-1501 On the time varying trend in global-mean surface temperature. Z Wu, N F Huang, J M Wallace, B V Smoliak, X Chen, 10.1007/s00382-011-1128-8Clim. Dyn. 37Wu, Z., Huang, N. F., Wallace, J. M., Smoliak, B. V. & Chen, X. (2011) On the time varying trend in global-mean surface temperature Clim. Dyn. 37, 759-773 doi: 10.1007/s00382-011-1128-8 The influence of solar system oscillation on the variability of the total solar irradiance. H Yndestad, J.-E Solheim, New Astron. 51Yndestad, H. & Solheim, J.-E. (2016) The influence of solar system oscillation on the variability of the total solar irradiance. New Astron. 51, 135-152 . 10.1016/j.newast.2016.08.020https://doi.org/10.1016/j.newast.2016.08.020 The role of solar activity in observed climate changes in the 20th century. G A Zherebtsov, V A Kovalenko, K E Kirichenko, Geomagn. Aeron. 57Zherebtsov, G.A., Kovalenko, V.A. & Kirichenko, K.E. (2017) The role of solar activity in observed climate changes in the 20th century. Geomagn. Aeron. 57, 637-644. . 10.1134/S0016793217060147https://doi.org/10.1134/S0016793217060147 Evidence of solar modulation on the millennial-scale climate change of Earth. X Zhao, W Soon, V M Velasco Herrera, 10.3390/universe60901536Zhao, X., Soon, W. & Velasco Herrera, V. M. (2020) Evidence of solar modulation on the millennial-scale climate change of Earth. Universe 6, 153-162 doi:10.3390/universe6090153 Correlation between solar activity and the local temperature of Antarctica during the past 11,000 years. X H Zhao, X S Feng, J. Atmos. Sol.-Terr. Phys. 122Zhao, X. H. and Feng, X. S., (2015) Correlation between solar activity and the local temperature of Antarctica during the past 11,000 years. J. Atmos. Sol.-Terr. Phys. 122, 26-33 Evidence for solar modulation on the millennial-scale climate change of Earth. X Zhao, W Soon, V Velasco Herrera, 10.3390/unierse60901536Zhao, X., Soon, W. & Velasco Herrera, V. M (2020) Evidence for solar modulation on the millennial-scale climate change of Earth. Universe 6, 153-162 doi:10.3390/unierse6090153
sample_15595
0.9989
arxiv
Don't Trust, Verify: Towards a Framework for the Greening of Bitcoin 2 May 2023 Juan Ignacio Ibañez j.ibanez@ucl.ac.uk Alexander Freier freier@energiequelle.de DLT Science Foundation LondonUK Centre for Blockchain Technologies University College London LondonUK Facultad de Ciencia Política y Relaciones Internacionales Universidad Católica de Córdoba CórdobaArgentina Energiequelle GmbH FeldheimGermany Don't Trust, Verify: Towards a Framework for the Greening of Bitcoin 2 May 2023Version: May 4, 2023Index Terms-BlockchainCarbon FootprintDecarbonizationSustainabilityRenewable Energy Sources For more than a decade, Bitcoin has gained as much adoption as it has received criticism. Fundamentally, Bitcoin is under fire for the high carbon footprint that results from the energy-intensive proof-of-work (PoW) consensus algorithm. There is a trend however for Bitcoin mining to adopt a trajectory toward achieving carbon-negative status, notably due to the adoption of methane-based mining and mining-based flexible load response (FLR) to complement variable renewable energy (VRE) generation. Miners and electricity sellers may increase their profitability not only by taking advantage of excess energy, but also by selling green tokens to buyers interested in greening their portfolios. Nevertheless, a proper "green Bitcoin" accounting system requires a standard framework for the accreditation of sustainable bitcoin holdings. The proper way to build such a framework remains contested. In this paper, we survey the different sustainable Bitcoin accounting systems. Analyzing the various alternatives, we suggest a path forward. I. I Spearheaded by the revolutionary Bitcoin protocol and its cryptocurrency bitcoin, blockchain technology is evolving beyond mere promise and becoming a reality. However, blockchain in general and Bitcoin in particular have been starkly criticized for the high-energy consumption of the PoW consensus algorithm [1], [2]. This is mostly due to concerns that mining could aggravate climate change. Nevertheless, a growing body of literature is beginning to highlight that Bitcoin has the potential to be not only decarbonized, but furthermore to act as a net-negative carbon asset [3], [4]. In short, the contention is that the process of Bitcoin mining has unique characteristics that make it an exceptionally good complement to renewable energy generation, as it provides a load that is flexible, interruptible, non-rival, available, stable and reliable, highly price sensitive, scale agnostic, and portable, while at the same time producing an output whose price is not correlated to electricity prices and provides an additional source of revenue for the renewable energy seller [3]. This complementarity is expected to grow over time as mining profits fall (due to increased competition in the mining market and the Bitcoin halving) and as renewable energy imbalances grow (due to renewable penetration) [3]. Although the argument is plausible, whether such a phenomenon will act as a mere mitigation factor on Bitcoin's carbon footprint or as a true net-decarbonizing force for the energy grid as a whole remains an empirical issue. However, this does not mean that it is merely exogenous, as miners may have the ability to influence the protocol towards becoming the latter. Specifically, if miners manage to monetize the green attributes associated with their activities, this may give them a competitive edge over other miners [4]. In turn, this ¿ could act as a tipping point factor, tilting the scale towards decarbonization. A. State of the art and our contribution Over time, a number of works have been produced seeking to give green Bitcoin miners an additional source of profit. Cross and Bailey [5] systematized the effects of holding and mining bitcoin for sustainability, and suggested an incentive offset scheme on this basis. Martinez [6] outlined a framework for carbon markets in Bitcoin that are consistent with existing environmental, social and governance (ESG) reporting standards, whereas SBP [7] did so by exploring the interplay of Bitcoin with energy attribution certificates (EACs). Nevertheless, no significant analysis systematizes the state of the art. We provide an up-to-date framework that fills this gap. To do so, this paper is structured in the following form. First, we review forms of Bitcoin carbon accounting, comparing different estimation methods. Second, we survey proposed schemes to account for and incentivize Bitcoin greenness, exploring their advantages and disadvantages. We then discuss the findings and extract the key conclusions. II. C B The elaboration of a framework to account for green bitcoin attributes in terms of greenhouse gas (GHG) requires an understanding of carbon accounting for bitcoin emissions in the first place. We identify two sets of systems addressing different aspects of Bitcoin emissions. Firstly, systems that ascertain what percentage of the total emissions of a system are attributable to a particular subsystem (in this case the, Bitcoin protocol). Secondly, systems discussing the event that is causally associated with the emissions and which should act as the denominator for the emissions (emissions per event). A. Estimation methods for total emissions Calculating the total emissions of the Bitcoin protocol in a given grid requires the previous adoption of a philosophical position. Although in some cases of off-grid mining or arrangements between a miner and an energy seller that is putting in place additional generation to meet its obligations (giving rise in turn to external verification issues such as those associated with self-reporting), emissions accounting is not usually straightforward as it requires the prioritization of some emissions over others. To analyze each method, we resort to the 3 carbon accounting constraints identified by Cross [8]: 1) "Compositionality. The sum of carbon footprints of actors in a system must equal the total footprint of the system. 2) "Marginality. The footprint of an action must reflect the difference between that action being taken and (counterfactually) not being taken." 3) "Fungibility. The footprint of any two users of the same energy over the same duration must be equal." a) Marginal emissions accounting: The marginal emissions method is a form of a before-and-after causal inference. If a miner plugged into the grid starts their operations, the difference between the grid emissions after the start of their operations and the emissions before the start is attributable to the miner. This can also be formulated as a hypothetical exante: the additional new emissions that the grid would have, if the miner started operations, are attributable to the miner. This can also be performed in reverse: the difference between the emissions that the grid would have if the miner turned off and the emissions that the grid actually has are the emissions that should be imputed to the miner. This approximation tends to highlight the fact that the baseline energy needs are met with renewable energy and only the net load once renewable energy is exhausted is met with fossil energy. In other words, fossil energy sources are the marginal seller. This approach is intuitive and is usually employed by Bitcoin critics, presumably because Bitcoin is a rather new source of energy demand [9]. However, there are four problems with it. 1) It arbitrarily assigns "green energy" to the old energy consumers and "brown energy" to the new energy consumers, despite they are all consuming fungible electrons from the same energy grid, for no other reason than a first-come-first-served principle. Therefore, it sacrifices the fungibility of load (see discussion below). 2) If applied consistently to all energy buyers, it leads to results where the total emissions of the grid are much smaller than the sum of the individual emissions of all buyers. Therefore, it sacrifices the compositionality of the load. 3) It displays a very significant short-term bias that is inconsistent with how other loads are usually viewed, e.g. batteries. An additional load may create an incentive for renewable buildout (demand leads to investment) resulting in a new equilibrium not considered by the marginal emissions figure. For instance, a battery may have high marginal emissions while at the same time enabling the deployment of additional renewable capacity. 4) Short-run marginal emissions may not coincide with long-run marginal emissions (and increasing marginal emissions may coexist with decreasing average emissions [10]). b) Attributional accounting: Attributional accounting is the form of carbon accounting that takes the totality of a grid's emissions and attributes them to all the energy consumers. By starting from the total grid emissions, it preserves compositionality. The simplest form of attributional accounting is a simple average ("average emissions"), which results in a form of grid mix egalitarianism. Ryan et al [11] have identified numerous variants of attributional accounting. Average emission factors preserve fungibility as well. Overall, their usefulness relative to marginal emission factors depends on the research questions (for instance, average emission factors are considered more appropriate for the attribution of responsibility [11]. However, they do not necessarily account for marginality, which is a useful notion. c) Emissions based on EACs: Using EACs such as Renewable energy certificates (RECs) or guarantees of origin (GOs) could be considered a form of attributional accounting. However, due to their relevance to understanding the functioning of energy markets, we treat them separately. Under an EACs system, whether a miner has mined with green or brown energy is not directly related to miner's share of the grid mix or to the additional effect arising subsequently to the beginning of the miner's operations, but to whether the miner has purchased EACs or not. B. Estimation methods for emissions per event Once the total emissions have been established, it is useful to identify an event that causally leads to the generation of these emissions, so as to establish the emissions per event, and to facilitate cost-benefit analysis based, for instance, on the event's benefits and the emissions' costs. a) Origin accounting: Origin accounting is the perspective that focuses on each "coin", considering the environmental impact of each individual coin as given by the energy expenditures and energy mix used to mine them historically. In a way, it maintains an idea that the energy mix used to mine each given coin eternally accompanies the coin throughout its life, such that "older" coins mined with little electricity will always be much greener than newer, more electricity-intensive coins. Under this paradigm, if tracing each coin to its origin is technically feasible, their economic fungibility is eroded. However, holding bitcoin drives up bitcoin price, incentivizing additional mining. Whether the coin being held is old or new, green or not, has no bearing on this. In other words, even if it were possible to hold green bitcoin, doing so would create an incentive to mine more bitcoin, which may be green or brown. This incentive effect should be accounted for in a green Bitcoin framework. b) Transaction accounting: Transaction accounting is the practice of taking all the emissions (or electricity consumption) in a given time frame and dividing them by the number of transactions in the period, to arrive at a carbon (or electricity consumption) per transaction metric. This is usually framed to imply a causal effect from the transactions to the electricity consumption or emissions, and hence that additional transactions would entail additional emissions. This method has received criticism because it overlooks the fact that, unlike in proof-of-stake (PoS) systems, electricity consumption from transaction processing is minimal in most PoW systems. Instead, the overwhelming majority of the computational effort is derived from the mining process. Furthermore, by sidestepping Bitcoin's functioning as a wholesale payment system that can support a very large number of transactions through layer-2 (L2) solutions, as well as by failing to account for the Bitcoin halvings which regularly reduce incentives for mining, the predictions tying additional emissions with every additional transactions are, as a rule, seriously flawed [12], [13]. c) Maintenance accounting: To address the shortcomings outlined above, Cross and Bailey [5] suggest the maintenance accounting approach, which the Crypto Carbon Ratings Institute denominates "holding-based approach" [14]. This considers that all holding of bitcoin creates a proportional incentive to mine bitcoin for the period of the holding. One may additionally, and in a symmetric manner to the transactionbased approach, divide all the emissions over a time period by the percentage of holding of each holder during the time frame. This method is gaining increasing praise as it reflects the economic reality of Bitcoin mining much more accurately. Nevertheless, it also encounters some limitations. The fact that transaction processing represents a negligible part of the computational effort in the Bitcoin protocol does not mean that transaction processing is only responsible for equally negligible electricity consumption. This is because transaction processing itself may create an incentive to mine that is much more than proportional to the share of computational effort attributed to it. Therefore, the maintenance accounting approach accurately attributes emissions caused by bitcoin holding but fails to account for emissions caused by bitcoin "All the carbon gets mapped to hodlers in proportion to the amount of Bitcoin they own." [15] Note also that although all non-lost bitcoin must be held at any given moment, including for transaction purposes, this is of little relevance from an incentive perspective (see next footnote). transactions. d) Hybrid accounting: For a more integral approach, one may attribute holders emissions derived from the pursuit of the block subsidy (in proportion to their holdings, maintenance accounting) and emissions derived from the pursuit of transaction fees to transactions (transaction accounting). This hybrid approach has been proposed by the CCRI [14] (but also Cross [16]): "From an incentive perspective, miners receive both block subsidies and transaction fees. While transaction fees are paid by entities that execute transactions, it might not be intuitive why the block subsidy is paid by all holders. To understand the relationship between holders and block subsidies, we need to consider the creation of new currency. As miners propose new blocks, they are rewarded with new coins. While the supply of the currency inflates, the value of the overall currency stays the same. Therefore, the value of the individual coin is decreasing; the value of every holding in the respective cryptocurrency gets devalued; the difference in form of new coins is paid to the miner as the block subsidy. This results in an indirect payment of all holders towards the miners which in turn use this money to purchase electricity to run their mining devices. Therefore, all holders are responsible for the share of the block subsidy of the overall reward. The hybrid approach accounts for these phenomena and distributes the total network emissions to both all holders and all entities executing transactions. The share between holders and transactions is weighted by the respective share of both components." [14, p. 14] III. A B Having covered frameworks to address Bitcoin GHG emissions, we turn to frameworks to account for green bitcoin attributes. A. Colored coins A first solution to Bitcoin's energy "problem" is to distinguish between "green", "grey" and "brown" coins [17]- [19]. This amounts to storing a record of the energy type used to mine each particular coin on-chain. The proposal dates back to at least 2013, when the project "Coin Validation" was put forward [18] (and was received with strong criticism [20], Cross and Bailey [5] argue that block rewards and fees are both denominated in bitcoin and thus depend on bitcoin's price, which in turn is influenced by the investors who hold bitcoin. While all of this is true, we do not expect transaction fees to be a function of bitcoin price simply because they are denominated in bitcoin. Rather, transaction fees are determined by the supply and demand of block space, which in turn will be given by the expected utility payers find in Bitcoin as a payment protocol. For practical purposes, it is better to think of block rewards as denominated in bitcoin, but of transaction fees as denominated in fiat. Alternatives include HODLing only green "virgin" coins, see https://www.hiveblockchain.com/. [21]). Similar proposals have been suggested for KYC/AML purposes [22]. Colored coins suffer from two main problems. Firstly, distinguishing between green coins and grey/brown ones comes at the cost of substantially impairing bitcoin fungibility, which is a key element to the cryptocurrency's moneyness [5], [21] (see also [23]). Secondly, usage of colored coins assumes "origin accounting" [5]. B. Incentive offsets In 2021, Cross and Bailey [5] formalized this perspective by suggesting an incentive offset system from a maintenance accounting perspective. Their framework suggests that, in order to completely offset any emissions caused by holding bitcoin, any bitcoin holder should co-invest in sustainable bitcoin mining (however the individual defines sustainable) in proportion to their holdings. Thus, if a person holds 1% of all bitcoin, they should invest in sustainably mining 1% of the total bitcoin hash rate. The mechanism behind this proposal relates to the incentives given by holding and by mining bitcoin. First, holding bitcoin creates an incentive to mine bitcoin, as the price of bitcoin is driven upwards and mining profitability is increased. Second, mining bitcoin creates an incentive not to mine bitcoin, as the hash rate is driven upwards and mining profitability likewise decreases. Hence, Cross and Bailey suggest co-investing in green mining proportion to the holdings so as to neutralize any incentive effect given by the holding of bitcoin. This proposal presents some strong advantages, including its adaptability to each person's own definition of sustainability, the lack of a need to know the global Bitcoin grid mix, and, most importantly, that this proposal is profitable as long as mining is also profitableas well. However, scaling this proposal may present some implementation challenges as it may collide with existing systems leading to double-counting of green attributes (see IV-D). C. Traditional environmental market instruments Insofar bitcoin mining leads to net positive GHG emissions, a miner, holder or payer in bitcoin (depending on the estimation method per event used) may choose to green their bitcoin holdings by purchasing environmental instruments in the market. a) Carbon offsets: Carbon offsets are reductions of GHG emissions or removal thereof. A carbon offset certificate is an instrument (a "token" in the more general sense of the word) that not only certifies the offset but furthermore allows the bearer or owner to claim the offset as their own so as to compensate their emissions. A bitcoin miner with positive GHG emissions may purchase carbon offsets to achieve, for instance, net carbon neutrality. Offset certificates may be considered environmentally beneficial in that the more they are demanded, the higher their price, the higher rewards for offsetors, and, thus, the higher the incentive to continue offsetting. However, carbon offsets have received criticism: 1) That they act as a "free pass" for emitting parties to continue doing so and "greenwash" their activities [24]- [26]. 2) That they are not trustworthy, and that the claimed quantities of "sunk" GHGs are grossly overestimated, would have been sunk irrespective of the offsetor's activity, that the emissions will "bounce back" after a period, or that they suffer from other empirical problems such as double-counting, lack of additionally, etc. [27], [28] 3) That, from a financial perspective at least, they constitute a pure loss for the buyer, who gains no revenue from them [5]. Note also that if a miner with negative GHG emissions wants to sell carbon offsets to create a green premium on their hash rate and thus be incentivized to invest further in renewable mining, it may be unable to do so. This is because one of the main ways in which green miners may achieve net negative emissions is by either driving brown miners out of the market by increasing the global hash rate, or by facilitating additional renewable buildout through FLR [3]. Both of these are second-order effects and subject to uncertainty and many other factors, and hence cannot be verified, audited and certified even if the incentive effect is there. b) Carbon credits: Carbon credits are instruments similar to carbon offsets, except that they are usually the result of regulation and that they do not represent sunk a quantity of GHG but rather a right to legitimately emit such a quantity. For this reason, a miner or holder may purchase them. They share some of the criticism received with carbon offsets, namely that they may enable greenwashing [31] and that they do not produce revenue for the buyer [5]. c) RECs and GOs: If purchasing energy from the grid, where green energy electrons and brown energy electrons are indistinguishable, a miner may purchase EACs to be able to claim that its activities are green. This approach has the benefit that it is in line with how existing energy markets currently operate (i.e. through the commercialization of environmental attributes) and that it provides an incentive for renewable buildout as it effectively provides a "green premium" on electricity from RES. [32] However, EACs have also been criticized under greenwashing pretenses. Specifically, it is argued that the incentive A more charitable perspective may recognize the incentive generated by carbon offset purchases on additional offsetting projects but nevertheless find that offsets partially act as a free pass if low-quality offsets are cheaper than (and thus, prioritized over) highly reliable in-house GHG reductions, in a Gresham's law of sorts [25]. Note that this is not the case for methane miners, who can easily certify an emissions reduction at the only cost of assuming that methane is more "harmful" than carbon dioxide (see [3], [29], [30]). One could also argue that, unlike offset certificates, carbon credits do not produce in themselves any incentive for additional offsetting or renewable buildout as they do not directly reward offsetors or renewable energy sources (RES) producers. However, this is not obviously the case. A high price for carbon credits may incentivize firms to lower or offset emissions so as to avoid having to purchase the credits. created by the green premium is not leading to additional renewable buildout (if there are new renewable investments these would be attributed to other factors, not income). This, the revenue from the sale of EACs would be acting, effectively, as a windfall profit for RES energy sellers whose facilities had already been built. However, an emissions reduction achieved directly by a company in the real world trades on par with an emissions reduction achieved indirectly through the purchase of EACs, in spite of the latter leading to much less of the former. This would result, again, in a Gresham's Law analog of sorts, where bad emissions reductions displace good emissions reductions. [33]- [36] D. Sui generis environmental Bitcoin market instruments We discussed above the difficulties miners face in selling the green attributes of their operations when these are net negative. To address this, proposals to tokenize these attributes have emerged. The Sustainable Bitcoin Protocol and Clean Incentive have designed Sustainable Bitcoin Certificates and Clean Bitcoin Certificates, respectively, each with some differentiating factors. These tokens store on-chain (on the Bitcoin-based Stacks blockchain and on ordinals-based Bitcoin inscriptions, respectively) a record that a coin has been mined sustainably, producing one token for every coin sustainably mined (following a verification process). A portfolio manager may green their bitcoin portfolio by holding one token for every coin held. The benefits of these instruments are that they offer an additional revenue stream for the miner, that they are consistent with existing systems (especially the markets for environmental attributes) but also tailored to the specificities of bitcoin (these tokens may be minted for methane mining, off-grid mining, EACs-based mining, etc.), and that they facilitate ESG reporting. In turn, one of the challenges faced by these projects is the construction of technically sound ecosystems with sufficient buyers to make these tokens liquid. IV. D Throughout this paper, we have surveyed and systematized the various elements composing the systems to green Bitcoin and to account therefor. We have highlighted the pros and cons of different approaches. In the remainder, we interpret these findings and extract our key takeaways. A. Second-order causal effects and incentives Our research shows that properly accounting for the degree of sustainability of Bitcoin requires looking beyond the immediate, proximate short-term effects of a given event. Not doing so obscures important facts, such as how marginal electricity consumption (even if high in marginal emissions), how flexible loads, how carbon offsets and even how carbon credits may incentivize renewable buildout. Similarly, it could be the case that pessimism about the usefulness of carbon credits, carbon These systems includes tokenomic schemes to green not just new coins but also coins already mined. See https://www.sustainablebtc.org/ and https://www.cleanincentive.com/. offsets and EACs is the result of a short-term bias and a neglect of the long-term incentives at play. B. Philosophical presuppositions An additional finding is the often-overlooked relevance of philosophical assumptions in the analysis of Bitcoin's "greenness" or "brownness." If applied to attribute responsibility (instead of other, much more narrowly defined applications of the method), marginal emissions accounting is tied to the philosophical position that the legitimacy of an energy buyer is given by its relative age, a rather heterodox stance. This could suggest that an attributional framework is more adequate for this goal, whether through the egalitarianism of a simple average or the coherence of the EACs-based methods. Overall, it is of paramount importance to apply a philosophical perspective consistently, both in all the dimensions of the analysis of a single industry as well as across industries. C. Coherence with the existing system The initiatives identified in this paper highlight the importance, for any Bitcoin greening scheme, of coherence with existing systems already in place, such as the market for environmental attributes. Frameworks developed that do not take them into account risk implementation obstacles and slower adoption. D. The problem of double-counting These constitute a genre of the former. The overlap of multiple frameworks can generate an ironic consequence for the technology created to solve the double-spending problem: the double-spending of environmental attributes. If a miner claims that their activities are green due to the energy mix of the grid to which they have plugged, but simultaneously EACs have been sold for all the energy in the grid, there is double-counting as the greenness of the energy mix has been spent twice, once in the average attributional scheme and once in the EACs scheme. Similarly, if an individual seeks to neutralize their bitcoin holding with Cross's incentive offset scheme by investing in a miner that claims the grid mix but did not purchase RECs, the greenness of green energy may also be spent twice. E. The need for an ESG reporting framework Carbon-negative second-order effects in Bitcoin must be accounted for in manners that adequately fit existing reporting practices (as per the previous discussion of "coherence"). A potentially fruitful avenue to this end would be the application of the concept of "Scope 4" emissions (avoided emissions) [37], [38]. We previously established that second-order avoided emissions cannot be reliably "verified", but that the incentive effect to avoid is real nonetheless. The additional renewable buildout that is incentivized through existing instruments such as RECs or carbon offsets also cannot be demonstrated, and yet we admit e.g. EACs as a valuable tool in carbon accounting. A similar understanding could guide Scope 4-based instruments. V. C We surveyed and systematized the state of the art pertaining to Bitcoin carbon accounting. As a result, we are inclined to highlight the importance of making philosophical assumptions clear, considering second-order effects, integrating any green Bitcoin frameworks into existing schemes, and avoiding double-counting. A We thank Troy Cross, Casey Martinez, and Elliot David for comments that greatly improved the manuscript. J.I.I. was supported by the DLT Science Foundation and the University College London Centre for Blockchain Technologies. A.F. was supported by the University College London Centre for Blockchain Technologies and Energiequelle GmbH. C I The authors declare that they have no known competing financial interests or personal relationships that could have appeared to influence the work reported in this paper. A EACs energy attribution certificates ESG environmental, social and governance FLR flexible load response GHG greenhouse gas GOs guarantees of origin L2 layer-2 PoS proof-of-stake PoW proof-of-work RECs Renewable energy certificates RES renewable energy sources VRE variable renewable energy This circles back to the original issue of philosophical presuppositions: the attribution of responsibility between the two parties spending an attribute twice is not entirely obvious. The Energy Footprint of Blockchain Consensus Mechanisms Beyond Proof-of-Work. M Platt, J Sedlmeir, D Platt, J Xu, P Tasca, N Vadgama, J I Ibanez, 10.1109/QRS-C55045.2021.00168Proceedings -2021 21st International Conference on Software Quality, Reliability and Security Companion, QRS-C 2021. -2021 21st International Conference on Software Quality, Reliability and Security Companion, QRS-C 2021M. Platt, J. Sedlmeir, D. Platt, J. Xu, P. Tasca, N. Vadgama, and J. I. Ibanez, "The Energy Footprint of Blockchain Consensus Mechanisms Beyond Proof-of- Work," Proceedings -2021 21st International Con- ference on Software Quality, Reliability and Security Companion, QRS-C 2021, pp. 1135-1144, 2021. : 10.1109/QRS-C55045.2021.00168. The energy consumption of Proof-of-Stake systems: A replication and expansion. J I Ibañez, F Rua, Arxiv. J. I. Ibañez and F. Rua, "The energy consumption of Proof-of-Stake systems: A replication and expansion," Arxiv, 2023. Can Bitcoin Stop Climate Change? Proof of Work, Energy Consumption and Carbon Footprint (SoK). J I Ibañez, A Freier, 10.2139/SSRN.4347220SSRN Electronic Journal. J. I. Ibañez and A. Freier, "Can Bitcoin Stop Climate Change? Proof of Work, Energy Consumption and Carbon Footprint (SoK)," SSRN Electronic Journal, Feb. 2023, : 1556-5068. : 10.2139/SSRN.4347220. [Online]. Available: https://papers.ssrn.com/abstract=4347220. Bitcoin mining as a stabilizer for wind energy production: a case study in Germany. A Freier, J I Ibañez, ForthcomingA. Freier and J. I. Ibañez, "Bitcoin mining as a stabilizer for wind energy production: a case study in Germany," Forthcoming, 2023. Greening Bitcoin With Incentive Offsets. T Cross, A M Bailey, T. Cross and A. M. Bailey, Greening Bitcoin With Incentive Offsets, 2021. [Online]. Available: https://www.resistance.money/green/. Clean Bitcoin Whitepaper. C Martinez, Tech. Rep.Clean IncentiveC. Martinez, "Clean Bitcoin Whitepaper," Clean Incentive, Tech. Rep., 2023. [Online]. Available: https://www.cleanincentive.com/. Sustainable Bitcoin Protocol Whitepaper. Sustainable Bitcoin Protocol, Tech. Rep. SBPSBP, "Sustainable Bitcoin Protocol Whitepa- per," Sustainable Bitcoin Protocol, Tech. Rep., Feb. 2023. [Online]. Available: https://www.sustainablebtc.org/news/sbp-white-paper. No system of carbon accounting can satisfy the following 3 constraints. T Cross, T. Cross, No system of carbon accounting can satisfy the following 3 constraints, Mar. 2023. [Online]. Available: https://twitter.com/thetrocro/status/1634634326116831233. The Real-World Costs of the Digital Race for Bitcoin. G J X Dance, G. J. X. Dance, The Real-World Costs of the Digital Race for Bitcoin, Apr. 2023. [Online]. Available: https://www.nytimes.com/2023/04/09/business/bitcoin-mining-electr Why marginal CO2 emissions are not decreasing for US electricity: Estimates and implications for climate policy. S P Holland, M J Kotchen, E T Mansur, A J Yates, https:/www.pnas.org/doi/abs/10.1073/pnas.2116632119Proceedings of the National Academy of Sciences of the United States of America. 119810916490S. P. Holland, M. J. Kotchen, E. T. Mansur, and A. J. Yates, "Why marginal CO2 emissions are not decreasing for US electricity: Estimates and implications for climate policy," Proceedings of the National Academy of Sciences of the United States of America, vol. 119, no. 8, e2116632119, Feb. 2022, : 10916490. : 10.1073/PNAS.2116632119/SUPPL{\_}FILE/PNAS.2116632119.SA [Online]. Available: https://www.pnas.org/doi/abs/10.1073/pnas.2116 Comparative Assessment of Models and Methods to Calculate Grid Electricity Emissions. N A Ryan, J X Johnson, G A Keoleian, 10.1021/ACS.EST.5B05216/ASSET/IMAGES/MEDIUM/ES-2015-05216Q{\_}0010.GIFEnvironmental Science and Technology. 501715205851N. A. Ryan, J. X. Johnson, and G. A. Keoleian, "Comparative Assessment of Models and Methods to Calculate Grid Electricity Emissions," Environmental Science and Technology, vol. 50, no. 17, pp. 8937-8953, Sep. 2016, : 15205851. : 10.1021/ACS.EST.5B05216/ASSET/IMAGES/MEDIUM/ES-2015-0 . https:/pubs.acs.org/doi/full/10.1021/acs.est.5b05216Available: https://pubs.acs.org/doi/full/10.1021/acs.est.5b05 M Paez, T Cross, Response, Climate Implications of Digital Assets -Bitcoin and the Energy Transition. M. Paez and T. Cross, RFI Response: Climate Implications of Digital Assets -Bitcoin and the Energy Transition, 2022. [Online]. Available: https://global-uploads.webflow.com/61d2416d1d63f07ecbfd010c/62 The positive externalities of bitcoin mining. S Imran, S. Imran, The positive externalities of bitcoin mining, Aug. 2018. [Online]. Available: https://drive.google.com/file/d/1dB0aDo__nzhNM8toHclhk9qfFNEN Energy Efficiency and Carbon Footprint of the Polygon Blockchain. CCRITech. Rep.Crypto Carbon Ratings InstituteCCRI, "Energy Efficiency and Carbon Footprint of the Polygon Blockchain," Crypto Carbon Ratings Institute, Tech. Rep., Aug. 2022. Can Bitcoin Mining Save the Environment? with Troy Cross. WBDWBD, Can Bitcoin Mining Save the Environment? with Troy Cross, Feb. 2022. [Online]. Available: https://www.whatbitcoindid.com/wbd463-troy-cross. Far better system of carbon accounting is to divide carbon from pursuit of block subsidy across holders, since that's what incentivized it, and divide tx-incentivized carbon across txs. T Cross, T. Cross, Far better system of carbon accounting is to divide carbon from pursuit of block subsidy across holders, since that's what incentivized it, and divide tx-incentivized carbon across txs, Jul. 2022. [Online]. Available: https://twitter.com/thetrocro/status/1544593741637267457. Will The Energy Crisis Help Clean-Up Bitcoin?. J Green, J. Green, Will The Energy Crisis Help Clean- Up Bitcoin? Jan. 2022. [Online]. Available: https://www.forbes.com/sites/jemmagreen/2022/01/13/will-the-energy-crisis-help-clean-up-bitcoin/?sh=1fdc4e167ed2. This Company Wants To Track 'Clean' Bitcoin Accounts. N Robehmed, Sanitizing Bitcoin, 10.30897/ijegeo.1083921N. Robehmed, Sanitizing Bitcoin: This Company Wants To Track 'Clean' Bitcoin Accounts, Nov. 2013. [Online]. Available: https://www.forbes.com/sites/kashmirhill/2013/11/13/sanitizing-bitcoin-coin-validation/?sh=18b2bb124e0f. Shark Tank's O'Leary Doubles Down on 'Green Bitcoin. C Rothwell-Ferraris, C. Rothwell-Ferraris, Shark Tank's O'Leary Doubles Down on 'Green Bit- coin', Sep. 2021. [Online]. Available: https://www.coindesk.com/business/2021/05/24/kevin-oleary-doubles-down-on-green-bitcoin/. Is It Time to Boycott All US Bitcoin Companies?. Bitcoinism, Bitcoinism, Is It Time to Boycott All US Bitcoin Companies? Nov. 2013. [Online]. Available: http://bitcoinism.blogspot.com/2013/11/is-it-time-to-boycott-all-us-bitcoin.html. Coin Validation misunderstands fungibility and could destroy bitcoin. A Back, A. Back, Coin Validation misunderstands fungibility and could destroy bitcoin, Nov. 2013. [Online]. Avail- able: https://bitcointalk.org/index.php?topic=333882.0. Bitfury Enters Bitcoin Crime-Fighting Business. M Castillo, M. del Castillo, Bitfury Enters Bitcoin Crime- Fighting Business, Jan. 2018. [Online]. Available: https://www.coindesk.com/markets/2018/01/30/bitfury-enters-bitcoin-crime-fighting-business/. The Myths and Realities of 'Green Bitcoin. D Kuhn, D. Kuhn, The Myths and Realities of 'Green Bitcoin', Apr. 2021. [Online]. Available: https://www.coindesk.com/business/2021/04/01/the-myths-and-realities-of-green-bitcoin/. Greenwashing or a net zero necessity? Climate scientists on carbon offsetting. F Harvey, F. Harvey, Greenwashing or a net zero necessity? Climate scientists on carbon offsetting, Jun. 2023. [Online]. Available: https://www.theguardian.com/environment/2023/jan/18/greenwashing-or-net-zero-necessity-climate-scientists-on-carbon-offsetting-ao Is Carbon Offset a Form of Greenwashing?. K Raji, K. Raji, Is Carbon Offset a Form of Greenwashing? Apr. 2022. [Online]. Available: https://earth.org/is-carbon-offset-a-form-of-greenwashing/. We're living in a golden age of greenwash. S Gelmini, S. Gelmini, We're living in a golden age of greenwash, Jun. 2021. [Online]. Available: https://www.greenpeace.org.uk/news/golden-age-of-greenwash/. The inconvenient truth of carbon offsets. K Anderson, 10.1038/484007aNature. 4847392K. Anderson, "The inconvenient truth of carbon offsets," Nature 2012 484:7392, vol. 484, no. 7392, pp. 7-7, Apr. 2012, : 1476- 4687. : 10.1038/484007a. [Online]. Available: https://www.nature.com/articles/484007a. A Realistic Policy on International Carbon Offsets Working Paper #74. M W Wara, D G Victor, M. W. Wara and D. G. Victor, "A Realistic Policy on International Carbon Offsets Working Paper #74," 2008. [Online]. Available: http://pesd.stanford.edu. A solution to the misrepresentations of CO2-equivalent emissions of short-lived climate pollutants under ambitious mitigation. M R Allen, K P Shine, J S Fuglestvedt, R J Millar, M Cain, D J Frame, A H Macey, 10.1038/s41612-018-0026-8Climate and Atmospheric Science. 11M. R. Allen, K. P. Shine, J. S. Fuglestvedt, R. J. Millar, M. Cain, D. J. Frame, and A. H. Macey, "A solution to the misrepresentations of CO2-equivalent emissions of short-lived climate pollutants under ambitious mit- igation," npj Climate and Atmospheric Science 2018 1:1, vol. 1, no. 1, pp. 1-8, Jun. 2018, : 2397-3722. : 10.1038/s41612-018-0026-8. [Online]. Available: https://www.nature.com/articles/s41612-018-0026-8. When you wish upon a (GWP) star: Environmental governance and the reflexive performativity of global warming metrics. G Cusworth, J Brice, J Lorimer, T Garnett, https:/journals.sagepub.com/doi/full/10.1177/0306312722113427510.1177/03063127221134275G. Cusworth, J. Brice, J. Lorimer, and T. Garnett, "When you wish upon a (GWP) star: Environmental governance and the reflexive performativity of global warming metrics," https://doi.org/10.1177/03063127221134275, p. 030 631 272 211 342, Nov. 2022, : 0306-3127. : 10.1177/03063127221134275. [Online]. Available: https://journals.sagepub.com/doi/full/10.1177/03063127221134275. The Neoliberal Initiative of the Aviation Industry to Fight the Climate Crisis: Greenwashing Selçuk GÜRÇAM The Neoliberal Initiative of the Aviation Industry to Fight the Climate Crisis: Greenwashing. S Gürçam, 10.30897/ijegeo.1083921S. Gürçam, "The Neoliberal Initiative of the Aviation In- dustry to Fight the Climate Crisis: Greenwashing Selçuk GÜRÇAM The Neoliberal Initiative of the Aviation Industry to Fight the Climate Crisis: Greenwashing," : 2148-9173. : 10.30897/ijegeo.1083921. Cryptocurrency as guarantees of origin: Simulating a green certificate market with the Ethereum Blockchain. J A F Castellanos, D Coll-Mayor, J A Notholt, 10.1109/SEGE.2017.80528275th IEEE International Conference on Smart Energy Grid Engineering. J. A. F. Castellanos, D. Coll-Mayor, and J. A. Notholt, "Cryptocurrency as guarantees of origin: Simulating a green certificate market with the Ethereum Blockchain," 2017 5th IEEE International Conference on Smart En- ergy Grid Engineering, SEGE 2017, pp. 367-372, Sep. 2017. : 10.1109/SEGE.2017.8052827. Renewable energy certificates threaten the integrity of corporate science-based targets. A Bjørn, S M Lloyd, M Brander, H D Matthews, 10.1038/s41558-022-01379-5Nature Climate Change. 126A. Bjørn, S. M. Lloyd, M. Brander, and H. D. Matthews, "Renewable energy certificates threaten the integrity of corporate science-based targets," Nature Climate Change 2022 12:6, vol. 12, no. 6, pp. 539-546, Jun. 2022, : 1758-6798. : 10.1038/s41558-022-01379-5. [Online]. Available: https://www.nature.com/articles/s41558-022-01379-5. Creative accounting: A critical perspective on the marketbased method for reporting purchased electricity (scope 2) emissions. M Brander, M Gillenwater, F Ascui, 10.1016/J.ENPOL.2017.09.051Energy Policy. 112M. Brander, M. Gillenwater, and F. Ascui, "Creative accounting: A critical perspective on the market- based method for reporting purchased electricity (scope 2) emissions," Energy Policy, vol. 112, pp. 29-33, Jan. 2018, : 0301-4215. : 10.1016/J.ENPOL.2017.09.051. Additionality of wind energy investments in the U.S. voluntary green power market. M Gillenwater, X Lu, M Fischlein, 10.1016/J.RENENE.2013.10.003Renewable Energy. 63M. Gillenwater, X. Lu, and M. Fischlein, "Addi- tionality of wind energy investments in the U.S. voluntary green power market," Renewable Energy, vol. 63, pp. 452-457, Mar. 2014, : 0960-1481. : 10.1016/J.RENENE.2013.10.003. Problematic corporate purchases of clean energy credits threaten net zero goals. N Gautam, N. Gautam, Problematic corporate purchases of clean energy credits threaten net zero goals, May 2021. [Online]. Available: https://www.spglobal.com/esg/insights/problematic-corporate-purch . Scope. 4CDSBCDSB, Scope 4: do we need a new category of emissions to better address corporate climate action? Jan. 2020. [Online]. Available: https://www.cdsb.net/blog/corporate-reporting/1005/scope-4-do-we- Scope 4" is here -Avoided emissions becomes a new way of measuring climate impact. Pwc, PwC, "Scope 4" is here -Avoided emissions becomes a new way of measuring climate impact, Jun. 2022. [Online]. Available: https://www.pwccn.com/en/industries/private-equity/responsible-inv
sample_15820
0.9924
arxiv
Global temperature projections from a statistical energy balance model using multiple sources of historical data May 23, 2022 20 May 2022 Mikkel Bennedsen mbennedsen@econ.au.dk Department of Economics and Business Economics and CREATES Aarhus University Fuglesangs Allé 48210Aarhus VDenmark Eric Hillebrand ehillebrand@econ.au.dk Department of Economics and Business Economics and CREATES Aarhus University Fuglesangs Allé 48210Aarhus VDenmark Jingying Zhou Lykke jzlykke@econ.au.dk Department of Economics and Business Economics and CREATES Aarhus University Fuglesangs Allé 48210Aarhus VDenmark Global temperature projections from a statistical energy balance model using multiple sources of historical data May 23, 2022 20 May 20221two-component energy balance modelstate space methodsnon-stationaritymulti- ple data sourceshistorical observationsscenario analysis This paper estimates the two-component energy balance model as a linear state space system (EBM-SS model) using historical data. It is a joint model for the temperature in the mixed layer, the temperature in the deep ocean layer, and radiative forcing. The EBM-SS model allows for the modeling of non-stationarity in forcing, the incorporation of multiple data sources for the latent processes, and the handling of missing observations. We estimate the EBM-SS model using observational datasets at the global level for the period 1955 -2020 by maximum likelihood. We show in the empirical estimation and in simulations that using multiple data sources for the latent processes reduces parameter estimation uncertainty. When fitting the EBM-SS model to eight observational global mean surface temperature (GMST) anomaly series, the physical parameter estimates and the GMST projection under Representative Concentration Pathway (RCP) scenarios are comparable to those from Coupled Model Intercomparison Project 5 (CMIP5) models and the climate emulator Model for the Assessment of Greenhouse Gas Induced Climate Change (MAGICC) 7.5. This provides evidence that utilizing a simple climate model and historical records alone can produce meaningful GMST projections. Introduction In this paper, we propose a state space representation (EBM-SS model) of the two-component energy balance model (EBM) (or two-layer EBM), which is initially introduced in Paltridge (1981) and subsequently extended in Gregory (2000) and Held et al. (2010). Like other versions of EBMs (e.g., North et al., 1981), the two-component EBM is a simplified mathematical representation of the complicated dynamics underlying temperature changes as energy imbalance between the incoming solar radiation and the outgoing terrestrial radiation for the earth system. It extends the zero-dimensional EBM (e.g., Budyko, 1969;Sellers, 1969;North et al., 1981;Imkeller, 2001) by accounting for the vertical resolution of the Earth system and two distinct time scales of the global temperature response to external perturbations (Hasselmann et al., 1993;Held et al., 2010;Geoffroy et al., 2013). The EBM-SS model enables statistical inference to evaluate parameter estimation uncertainties. Climate modeling is inevitably accompanied with parameter uncertainty (e.g., Winsberg, 2012;Reyer et al., 2016;Gillingham et al., 2018). Accounting for parameter uncertainty plays a crucial role in obtaining reliable evaluations of climate change and conducting robust projection. Other approaches to quantify parameter uncertainty for the two-component EBM include sensitivity analysis (Soldatenko & Colman, 2019;Colman & Soldatenko, 2020), Monte Carlo simulation (Gillingham et al., 2018;Smith et al., 2018;Jiménez-de-la Cuesta & Mauritsen, 2019), and Bayesian estimation (Jonko et al., 2018;Nijsse et al., 2020). The main drawback of sensitivity analysis is its disconnection with any measure of probability, while Monte Carlo simulation assumes the input parameter estimates as the true values. (e.g., Cox & Baybutt, 1981). The performance of Bayesian estimation depends on the prior distributions (e.g., Kim et al., 2020). Alternatively, state space methods obtain maximum likelihood estimators based on the frequentist principle and easily quantify parameter uncertainty using asymptotic properties (Durbin & Koopman, 2012). The EBM-SS model reduces estimation uncertainty by using multiple data sources. There are different datasets available for GMST. All of the GMST anomalies series from separate research groups can be regarded as different measurements for the same variable of interest -the temperature in the mixed layer in the two-component EBM. As we will show, employing different data sources reduces information loss and improves estimation accuracy. The EBM-SS model provides alternatives and extensions to two current contributions by Pretis (2020) and Cummins et al. (2020), who obtain parameter values of the two-component EBM using maximum likelihood. Pretis (2020) shows the mathematical equivalence between the twocomponent EBM and a cointegrated VAR model (EBM-CVAR). Instead of including the temperature in the deep ocean layer, he includes ocean heat content (OHC) in his model. In his discretization, two of the parameters of the two-component EBM, heat capacity in the mixed layer and the coefficient for the heat transfer, are not recovered in the output EBM-CVAR model. In this paper, we maintain the original parametrization by modeling the temperature in the deep layer but also incorporate OHC as an additional measurement for it, which helps constrain the parameters. We maintain a one-to-one mapping relationship between the two-component EBM and our state space model so that all of the physical parameters can be estimated and interpreted accordingly. Cummins et al. (2020) present a state space representation of the k-layer EBM and report parameter estimates for the cases where k = 2 and k = 3. Our paper only considers the case k = 2 and differs from Cummins et al. (2020) in several ways: (1) we employ observational datasets instead of the abrupt 4×CO 2 experiment data from CMIP5; (2) we model radiative forcing as a non-stationary process instead of a stationary red noise process; (3) we use instrumental records of ocean temperature, OHC, and effective radiative forcing instead of top-of-the-atmosphere net downward radiative flux as measurements in the state space model; and (4) we incorporate multiple data sources for the latent states. In this paper, using historical datasets, we obtain estimates for the physical parameter in the two-component EBM that are comparable to the estimates in Cummins et al. (2020) that are obtained from CMIP5 model outputs. Meanwhile, the GMST projection results under RCP 2.6, RCP 4.5, and RCP 6.0 scenarios have a high degree of agreement with the outputs from the climate emulator MAGICC 7.5 and CMIP5 models. These results require two ingredients. One is the inclusion of multiple historical records as different data sources into the EBM-SS model. The other is the inclusion of both ocean temperature and OHC datasets. Our results indicate that utilizing a simple climate model with historical records alone can produce meaningful physical parameter estimates and GMST projections. The remainder of the paper is organized as follows: Section 2 presents the two-component EBM. Section 3 describes the method and technical details on mapping the two-component EBM into a state space representation. Sections 4 presents simulation results on the performance of the EBM-SS model. Sections 5 and 6 introduce the datasets and their use as measurements in the empirical study. Section 7 contains an application of the EBM-SS model to GMST projections using RCP scenarios. Section 8 concludes. Two-component energy balance models The two-component EBM (e.g., Gregory, 2000;Held et al., 2010) divides the earth system into two thermal reservoirs (also referred to as "layer" , "box" , or "component") that are characterized by different heat capacities to measure thermal inertia. Each of the reservoirs contains components of global climate responses with both fast and slow time scales. The first layer is usually called the "mixed layer" and consists of the atmosphere, the land surface, and the upper ocean layer. The second layer is called the "deep ocean layer". The depth of the upper ocean layer varies seasonally and geographically. Hartmann (2015, Chapter 7) argues that the global mean depth of the ocean in the mixed layer is 70 m. Gregory (2000) considers the upper ocean layer as the part that shows consistent temperature variations with the surface temperature. He chooses 150 m as the depth for the upper layer based on the temporal correlation between the heating rates of different ocean layers and that of the surface. In addition, he defines 2,400 m as the lower bound for the deep layer and describes the part beyond this level as an "isolated basin". .1 gives a graphic illustration of the dynamics underlying the two-component EBM. The change in the heat content of the mixed layer is driven by two sources in opposite directions: external and internal. The external source comes from the net heat flux, which is characterized as F − λT m , where the incoming heat radiation is represented by the effective radiative forcing F (measured in Wm −2 ), and the outgoing longwave radiation (OLR) is modeled as a linear function of the temperature in the mixed layer T m with the slope λ (known as the climate feedback parameter, Wm −2 K −1 ). The practice of using λT m to approximate OLR follows a linear approximation widely used in physical science. The linearity between T and OLR is validated by satellite measurements and can be explained in physics by the offsetting of two non-linear processes (Koll & Cronin, 2018). The internal source involves a downward heat transport H (measured in Wm −2 ) from the mixed layer to the deep ocean layer, which changes proportionally to the temperature difference T m − T d between these two layers with a coefficient γ (Wm −2 K −1 ). This term is deemed a reasonable approximation of all of the small perturbations constituting the heat transfer (Gregory, 2000). The heat exchange term, H = γ (T m − T d ), poses the only source of energy for the deep ocean layer. Summarizing the dynamics described in Figure 2.1 into a differential equation system, the two-component EBM is specified as: C m dT m dt = F − λT m − γ (T m − T d ) , C d dT d dt = γ (T m − T d ) ,(2.1) where C m and C d (measured in W year m −2 K −1 ) denote heat capacities of the mixed layer and of the deep ocean layer, respectively. It holds that C m < C d , indicating that the deep ocean requires a greater amount of energy than the upper layer for a unit change in the temperature. The terms C m dTm dt and C d dT d dt describe the rates at which the corresponding temperatures change. In this framework, the radiative forcing F is generated exogenously to the system (e.g., by anthropogenic factors). There are four physical parameters to be estimated: λ, γ, C m , and C d . In the next sections, we map the two-component EBM into a state space model and estimate the values of these physical parameters using maximum likelihood methods. Including ocean heat content in the system Ocean heat content (OHC) (measured in J m −2 ) measures the amount of heat stored in the ocean. Mathematically, ocean heat content O between ocean depths h 1 and h 2 is calculated as: O = ρC h1 h2 T (x)dx, (2.2) where ρ, C, and T (·) denote the seawater density, heat capacity, and the temperature at a specific depth, respectively (Dijkstra, 2008). We denote ρC as C d and h1 h2 T (x)dx as T d , which represents the integrated average ocean temperature between h 1 and h 2 . Then, Equation (2.2) is rewritten as: O = C d T d . (2.3) This relationship implies the heat content expression C d dT d dt = dO dt for the term C d dT d dt in the two- component EBM (2.1). Relating the temperature to heat content in this way is a common practice in energy balance models, and it is motivated by empirical evidence (Schwartz, 2007). In our state space model of the two-component EBM introduced later, we include OHC in the measurement equation using the linear relationship O = C d T d . In our specification, OHC plays the role of a second measurement for the latent state T d , in addition to the direct empirical observations of T d as the first measurement. As shown in Equation (2.2), OHC is a function of the deep ocean temperature, and in practice, the observational OHC series is compiled using the records of ocean temperature data plus salinity information (Levitus et al., 2012). Hence, our choice to include OHC as an additional measurement for T d is grounded on both the theory and the empirical data construction process. In Section 6, we will show that using information of both ocean temperature and OHC helps constrain the parameter estimates to be more realistic compared with using ocean temperature alone. Mapping the two-component EBM into a state space model The objective of this section is a discrete-time state space representation of the two-component EBM that enables estimation using empirical data. Particularly, we focus on the multivariate linear Gaussian state space model. For details on the estimation of these models, see Durbin and Koopman (2012). State space models distinguish unobserved states from observations, where the observations are employed to infer the states. They also allow for using multiple observation series as measures of the latent state of interest. Decomposition of radiative forcing We decompose the state of radiative forcing, F , into two components by source and treat them separately. Total radiative forcing is disaggregated into natural forcing and anthropogenic forcing, where the latter can be further decomposed by the forcing agents. Figure 3.1 shows the decomposition employed in the fifth IPCC assessment report Myhre et al. (2013, Chapter 8). As seen in Figure 3.1, natural forcing is mainly driven by two contributors: solar irradiance and volcanic forcing. Anthropogenic forcing is subject to human influences and consists of forcing from greenhouse gases, land surface changes, and human-made aerosols. We obtain the latest version of the effective forcing dataset from Hansen et al. (2011) as the measurement for F t and show the data in Figure 3.2. It provides information on forcing from different greenhouse gases and summarizes the forcing due to the land surface changes and human-made aerosols into a category "TA+SA" (tropospheric aerosols and surface albedo forcings combined). As seen in Figure 3.2a, the observation-based natural forcing Y N,t is dominated by the volcanic forcing, which appears as negative spikes due to temporary cooling periods lasting approximately three years after major volcanic eruptions, while solar irradiance varies around zero over time and exhibits cyclical behavior. Anthropogenic forcing is attributed to human activities, of which the dominant contributors are the well-mixed greenhouse gases. Figure 3.2b shows the two time series for natural forcing and anthropogenic forcing we use in this paper. Natural forcing exhibits large negative spikes and remains otherwise close to zero, while anthropogenic forcing is upward trending. As natural forcing and anthropogenic forcing have distinct time series characteristics, we treat F t = A t + N t , where A t is anthropogenic forcing and N t is natural forcing. We model A t but we treat N t as an exogenous regressor and use historical data for it. Considering the small magnitude of solar irradiance, we do not introduce extra structure to model its cyclical feature explicitly. Anthropogenic greenhouse gas emissions following industrialization increase anthropogenic forcing (denoted as Y A,t ) and render it non-stationary (Kaufmann et al., 2013;Chang et al., 2020). In the two-component EBM system, the increasing anthropogenic forcing raises temperatures at the surface and in the ocean, thus, temperatures become non-stationary, too. Anthropogenic forcing is external to the system of surface temperature and ocean heat uptake, and, hence, it can be regarded as the major source of non-stationarity in the system. Non-stationarity poses statistical challenges such as spurious regression (e.g., Granger & Newbold, 1974). State space methods can be used to specify systems of non-stationary variates while retaining valid statistical inference (Caines, 1988). As shown in Figure 3.3a, the first-order difference of anthropogenic forcing, ∆Y A,t , appears (a) first-order difference: ∆Y A,t (b) second-order difference: ∆ 2 Y A,t non-stationary with both trends and shifts of trends. The second-order difference in Figure 3.3b exhibits an abrupt increase in variance in the 1950s. The shifts in the trends and the variance are mainly the result of changes in measurement methods. For example, greenhouse gases are initially measured using ice core records and later measured directly from the atmosphere (e.g., Raynaud et al., 1993). This switch applies since the year 1958 for CO 2 and 1978 for CH 4 and N 2 O. These structural shifts may indicate the existence of wide-sense non-stationarity in anthropogenic forcing, which invalidates the method of obtaining a stationary process by taking differences (Castle & Hendry, 2019, 2020). An in-depth analysis of wide-sense non-stationarity is beyond the scope of this paper, but we investigate the integration order of anthropogenic forcing. Unit root test results are reported in Table A.1 in Appendix A.1. As shown in Table A.1, the components of forcing exhibit different integration orders. Total radiative forcing, Y F,t , is an I(1) process, i.e., it becomes stationary after taking first-order difference. This observation is consistent with the statement in Pretis (2020) that the individual forcing components integrate to an I(1) total forcing upon summation. Table A.1 also implies that total anthropogenic forcing, Y A,t , is an I(1) process when no lag or only the first-order lag is included in the unit root test equation, but it is an I(2) process if a higher-order lag is included. Guided by the unit root tests and visual inspection of Y A and its differences, we represent A t using a local linear trend model (Durbin & Koopman, 2012, Chapter 3), where A t is a random walk process with a stochastic trend β t : A t =β t + A t−1 + η A,t , β t =β t−1 + η β,t , (3.1) where η A,t and η β,t are independent Gaussian white noise processes with variances σ 2 η A and σ 2 η β , respectively. The second-order difference ∆ 2 A t is thus a linear function of two white noise processes and hence stationary: 1 ∆ 2 A t = η β,t + η A,t − η A,t−1 . (3.2) As a result, A t is modeled as an I(2) process. Figure 3.3b shows a variance increase and hence suggests the existence of heteroskedasticity in ∆ 2 A t . One method to accommodate such a variance shift is to impose a multiplicative constant on the variance of the measurement error of forcing σ 2 ε,Y F from the year where the measurement scheme shifts onwards, and this constant can be estimated using maximum likelihood. Inclusion of such a constant yielded insignificant estimates on the sample period 1955 -2020, and hence we omit it from the model. EBM-State Space (EBM-SS) model -state equation The state equation in a state space model describes the dynamics of the latent state variables as a first-order autoregressive process. For our EBM-SS model, we define the following five variables as unobservable latent states: the temperature in the mixed layer T m , the temperature in the deep 1 If we set σ 2 η A = 0, Equation (3.2) is reduced to ∆ 2 A t = η β,t , which is called integrated random walk model (Young et al., 1991;Durbin & Koopman, 2012). ocean layer T d , natural forcing N , anthropogenic forcing A, and the stochastic trend β. According to the dynamics in the two-component EBM (differential equation system (2.1)) and the decomposition of F in Section 3.1, we formulate the state equation system as the following system of linear equations: T m,t = 1 − (λ + γ) C m T m,t−1 + γ C m T d,t−1 + 1 C m (N t−1 + A t−1 ) + η Tm,t , T d,t = γ C d T m,t−1 + 1 − γ C d T d,t−1 + η T d ,t , N t =Y N,t , A t =β t + A t−1 + η A,t , β t =β t−1 + η β,t ,(3.3) where η Tm,t , η T d ,t , η A,t , respectively, and η β,t are the state disturbances to the states T m,t , T d,t , A t and β t , and they capture the deviations from the assumed linear relations implied by the two-component EBM and the local linear trend model (Equation (3.1)). We assume the state disturbances to be independent and η ·,t ∼ N (0, σ 2 η,· ). The system of equations (3.3) allows for modeling non-stationarity. It establishes temperature changes as a response to perturbations in radiative forcing and represents the non-stationarity in radiative forcing using a local linear trend model, which is the only source of a stochastic trend in the system, and the stochastic trend propagates to temperatures at the surface and in the ocean through linear relationships. The equation N t = Y N,t captures that we use observational data Y N,t on natural forcing for the latent process N t , i.e., we treat it as exogenous. EBM-SS model -measurement equation The measurement equation in a state space model connects the observational data vector to the latent state vector linearly. We consider the following measurement equations: Y Tm,t =T m,t + ε Tm,t , Y T d ,t =T d,t + ε T d ,t , Y O,t =C d T d,t + ε O,t , Y F,t =N t + A t + ε F,t , (3.4) where Y * ,t denotes the measurement for the latent process * . Following the assumption O = C d T d , the third equation in (3.4) expresses the OHC series, Y O,t , as an alternative measurement for T d . Note that the data for Y O,t and Y T d ,t are retrived from the same institution and cover the same ocean depth. We assume that ε ·,t ∼ N (0, σ 2 Y· ), and the correlation Corr (ε T d ,t , ε O,t ) = ρ, where ρ can be estimated using maximum likelihood like other parameters. Allowing for correlation between the measurement errors of ocean temperature and OHC accounts for the highly correlated data compilation processes for these two series. Incorporation of multiple measurements Cummins et al. (2020) fit a two-box EBM to datasets from 16 Earth System Models (ESMs) in CMIP5 separately and further consider a joint data series that is the average of these 16 datasets. The parameter estimates vary across different datasets due to the heterogeneity of the ESMs. We employ an alternative strategy. We include different data sources simultaneously in the measurement equation as multiple measurements for the latent states. This approach only produces one set of parameter estimates regardless of the number of measurements we include. We focus on using multiple data sources of GMST, ocean temperature, and OHC. 2 The two latent processes T m,t and T d,t are linearly linked to multiple observational measurements. For example, the K (K ∈ N) GMST anomalies Y 1 Tm,t , ..., Y K Tm,t share the same driver -the latent process T m,t . They are distinguished from each other by separate measurement errors ε 1 Tm,t , ..., ε K Tm,t . For ocean temperature and OHC, we include series from the same institution in pairs, as they are correlated measurements for T d . The measurement equations that include J and K (J ∈ N) data sources for GMST and ocean data are formulated as: Y 1 Tm,t = T m,t + ε 1 Tm,t , . . . Y K Tm,t = T m,t + ε K Tm,t , Y 1 T d ,t = T d,t + ε 1 T d ,t , Y 1 O,t = C d T d,t + ε 1 O,t , . . . . . . Y J T d ,t = T d,t + ε J T d ,t , Y J O,t = C d T d,t + ε J O,t , Y F,t = N t + A t + ε F,t . Similar to the one-data-source case, ε k Tm,t ∼ N 0, σ 2 ε,Y k Tm , ε j T d ,t ∼ N 0, σ 2 ε,Y j T d , ε j O,t ∼ N 0, σ 2 ε,Y j O , ε F,t ∼ N 0, σ 2 ε,Y F , and Corr ε j T d ,t , ε j O,t = ρ j . EBM-SS model -matrix form In this section, we integrate Section 3.2 and Section 3.3 and present the matrix form of the EBM-SS model. We only discuss the specification with multiple data sources, which nests the one-data-source case. We denote X t = T m,t T d,t N t A t β t 1 as the state vector and Y t = Y 1 Tm,t · · · Y K Tm,t Y 1 T d ,t · · · Y J T d ,t Y 1 O,t · · · Y J O,t Y F,t as the observational vector. The processes in X t are unobserved, with the exceptions of natural forcing N t and the constant state "1". The latter is a technical way to equate the state N t with observations Y N,t without errors, or in other words, to treat them as an exogenous regressor, as seen in Equation (3.6). The observational vector contains data on the elements of the state vector and on OHC ( Y 1 O,t , ..., Y J O,t ). We write the state disturbances into a vector η t = η Tm,t η T d,t 0 η A,t η β,t 0 and the mearsurement errors into a vector ε t = ε 1 Tm,t · · · ε K Tm,t ε 1 T d ,t · · · ε J T d ,t ε 1 O,t · · · ε J O,t ε F,t , where the two 0's in η t are due to the absence of state disturbances for the natural forcing state and the constant state. The EBM-SS model is written as a standard discrete-time state space form, as defined in, e.g., Durbin and Koopman (2012): X t+1 = TX t + η t , η t ∼ N (0, Q), Y t = ZX t + ε t , ε t ∼ N (0, H). (3.5) The matrices T, Q, H, and Z are time-invariant. The state equation X t+1 = TX t + η t is written explicitly as:           T m,t+1 T d,t+1 N t+1 A t+1 β t+1 1           =           −(λ+γ) Cm + 1 γ Cm 1 Cm 1 Cm 0 0 γ C d − γ C d + 1 0 0 0 0 0 0 0 0 0 Y N,t+1 0 0 0 1 1 0 0 0 0 0 1 0 0 0 0 0 0 1                     T m,t T d,t N t A t β t 1           +           η Tm,t η T d ,t 0 η A,t η β,t 0           , (3.6) and η t ∼ N (0, Q), where Q =           σ 2 η,Tm 0 0 0 0 0 0 σ 2 η,T d 0 0 0 0 0 0 0 0 0 0 0 0 0 σ 2 η,A 0 0 0 0 0 0 σ 2 η,β 0 0 0 0 0 0 0           . (3.7) The measurement equation Y t = ZX t + ε t with multiple data sources is written explicitly as:                       Y 1 Tm,t . . . Y K Tm,t Y 1 T d ,t . . . Y J T d ,t Y 1 O,t . . . Y J O,t Y F,t                       =                       1 0 0 0 0 0 . . . . . . . . . . . . . . . . . . 1 0 0 0 0 0 0 1 0 0 0 0 . . . . . . . . . . . . . . . . . . 0 1 0 0 0 0 0 C d 0 0 0 0 . . . . . . . . . . . . . . . . . . 0 C d 0 0 0 0 0 0 1 1 0 0                                 T m,t T d,t N t A t β t 1           +                       ε 1 Tm,t . . . ε K Tm,t ε 1 T d ,t . . . ε J T d ,t ε 1 O,t . . . ε J O,t ε F,t                       , (3.8) and ε t ∼ N (0, H), where H =                                    σ 2 ε,Y 1 Tm 0 · · · 0 0 0 · · · 0 0 · · · 0 0 0 σ 2 ε,Y 2 Tm . . . 0 0 0 · · · 0 0 · · · 0 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 0 0 . . . σ 2 ε,Y K−1 Tm 0 0 · · · 0 0 · · · 0 0 0 0 · · · 0 σ 2 ε,Y K Tm 0 · · · 0 0 · · · 0 0 0 0 · · · 0 0 σ 2 ε,Y 1 T d . . . 0 ρσ ε,Y 1 T d σ ε,Y 1 O . . . 0 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 0 0 · · · 0 0 0 . . . σ 2 ε,Y J T d 0 . . . ρσ ε,Y J T d σ ε,Y J O 0 0 0 · · · 0 0 ρσ ε,Y 1 T d σ ε,Y 1 O . . . 0 σ 2 ε,Y 1 O . . . 0 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 0 0 · · · 0 0 0 . . . ρσ ε,Y J T d σ ε,Y J O 0 . . . σ 2 ε,Y J O 0 0 0 · · · 0 0 0 · · · 0 0 · · · 0 σ 2 ε,Y F                                    . (3.9) Since the observation vector Y t contains data measurements of the latent states, the measurement equation matrix Z contains 1's on the diagonal with the exception of the equation for OHC, where the heat capacity parameter C d enters. When K = J = 1, the model collapses to the specification with one data source for the latent states. The EBM-SS model with multiple data sources is schematically depicted in Figure 3.4. T m,t T d,t F t Z Z Z η t X t−1 T X t Y 1 Tm,t Y K Tm,t Y 1 T d ,t , Y 1 O,t Y J T d ,t , Y J O,t Y F,t ε 1 Tm,t ε K Tm,t ε 1 T d ,t , ε 1 O,t ε J T d ,t , ε J O,t ε F,t Estimation and simulation of the EBM-SS The parameters to be estimated in EBM-SS model include the four physical parameters λ, γ, C m , and C d ; the parameters in the variance-covariance matrices of the state disturbances, Q, and of the measurement errors, H; and constants µ T d for the observations of T d . These parameters are collected in the parameter vector θ. The estimate of θ is obtained by maximum likelihood, where the log-likelihood function is evaluated using the Kalman filter, see Durbin and Koopman (2012). We implement the EBM-SS model using the R package KFAS (Helske, 2017) and optimize the log-likelihood value using a combination of "solnp" 3 (Ye, 1988) and the Nelder-Mead simplex method (Nelder & Mead, 1965). For initialization, we adopt the "Big K" technique (illustrated in Durbin and Koopman (2012)) to approximate the diffuse initialization, and we set the initial variances of the non-stationary states as 10 6 . We conduct a Monte Carlo simulation to explore the small-sample properties of the EBM-SS model. We choose a sample size of 66, the length of the historical dataset, and perform 1,000 simulation replications. We consider the EBM-SS base model, where there is one data source for each latent state, and the EBM-SS full model, where there are eight GMST series, two pairs of ocean temperature and OHC series, and one radiative forcing series, all of which are simulated in this exercise. We also allows for correlations between each pair of ocean temperature and OHC. For the EBM-SS full model, we employ the empirical estimates reported in panel A in Table 6.1 as the data-generating parameters to simulate the data. First, we simulate the data for the EBM-SS full model, and we chose the first GMST, first ocean temperature, first OHC, and the radiative forcing series from this set of data as the simulated data for the EBM-SS base model. Hence, these two sets of simulated data share the same source of randomness. As shown in Equation (3.2), the anthropogenic forcing state A t is of integration order 2, as it cumulates a stochastic trend β t . Simulating the anthropogenic forcing series unrestrictedly inevitably generates trajectories with downward trends, which contradicts the pronounced upward trends observed in the historical series (Figure 3.2b). To obtain simulated paths that are comparable with the observational records, we apply rejection sampling (Wells et al., 2004) and only retain the ith simulated trajectory Y i,sim A,t T t=1 , if it satisfies that: Y i,sim A, T 2 ≥ 0.75Y A, T 2 and Y i,sim A,T ≥ 0.75Y A,T , (4.1) where Y A, T 2 and Y A,T are the mid-point and the endpoint in the historical anthropogenic forcing series from Hansen et al. (2011). This ensures that the simulated trajectories are consistent with the historical series in trending upward. We calculate equilibrium climate sensitivity (ECS) using the relationship as in, e.g., the IPCC Sixth Assessment Report (AR6) (Forster et al., 2021, Chapter 7 ) : ECS = F 2×CO 2 λ , where F 2×CO 2 is the radiative forcing in response to a doubling of the CO 2 concentrations in the atmosphere. We use the updated best estimate of F 2×CO 2 ≈ 3.93 (±0.47, 5% − 95% CI) W m −2 from the IPCC AR6 (Forster et al., 2021, Chapter 7). Table 4.1 reports data-generating parameter values, estimation biases, standard deviations, root mean squared errors (RMSEs), and mean absolute errors (MAEs) of the simulation exercise. Table 4.1, together with the distributions in Figure 4.1, demonstrate good finite-sample properties of the EBM-SS model. σ 2 ε,Y 1 Tm σ 2 ε,Y 2 Tm σ 2 ε,Y 3 Tm σ 2 ε,Y 4 Tm σ 2 ε,Y 5 Tm σ 2 ε,Y 6 Tm σ 2 ε,Y 7 Tm σ 2 ε,Y 8Tm variances of measurement errors (II) constant of T d ρ T d ,O σ 2 ε,Y 1 T d σ 2 ε,Y 2 T d σ 2 ε,Y 1 O σ 2 ε,Y 2 O σ 2 ε,Y F µ T d ,1 µ T d ,σ 2 ε,Y 1 Tm σ 2 ε,Y 2 Tm σ 2 ε,Y 3 Tm σ 2 ε,Y 4 Tm σ 2 ε,Y 5 Tm σ 2 ε,Y 6 Tm σ 2 ε,Y 7 Tm σ 2 ε,Y 8Tmρ T d ,O σ 2 ε,Y 1 T d σ 2 ε,Y 2 T d σ 2 ε,Y 1 O σ 2 ε,Y 2 O σ 2 ε,Y F µ T d ,1 µ T d , Comparing the simulation results for the base model and for the full model in Table 4.1, we note that estimation biases, standard deviations, RMSEs, and MAEs decrease, as we include more data series. This provides evidence that including multiple data sources helps decrease the estimation uncertainty. Data This section presents the historical records of anomalies employed in the empirical investigation and the synchronization of these anomalies to a common baseline. For the empirical analysis in this paper, we have collected eight observational GMST datasets from separate research groups, three pairs of ocean temperature and OHC data series, and one effective radiative forcing series (summarized in Table 5.1) as the measurements for the latent processes in the state equation (3.3) of the EBM-SS model. (Berrisford et al., 2011), and the Japanese 55-year reanalysis (JRA-55) (Kobayashi et al., 2015). We assume that each of these datasets represents an independent assessment of the global mean temperature variations. All of these eight GMST series are in the form of anomalies, i.e., they measure the departures from an average of the observations over a long period (called "reference period" or "baseline") that usually spans thirty years or longer. It is common practice to record and construct the anomalies rather than the absolute value of the observations (Hawkins & Sutton, 2016). Figure 5.1a indicates that, despite having different lengths, these eight GMST series share similar upward trends and fluctuation trajectories, but the ranges they span vary to some extent, which is mainly due to the different reference periods. The datasets for the ocean (including both ocean temperature anomalies and OHC anomalies) are from two research bodies, NOAA National Centers for Environment Information (NOAA) and Institute of Atmospheric Physics (IAP), and cover 0-700 and 0-2,000 meter, respectively (see Table 5.1 for details). The OHC anomaly series are estimated based on the in-situ subsurface ocean temperature measurements combined with salinity series (Levitus et al., 2012), and they have the same coverage and baseline as their ocean temperature counterparts. The 0-700m ocean series from NOAA (Levitus et al., 2012) is available since 1955, while the IAP (Cheng et al., 2020) series begins in 1940. As we aim to only use the data based on direct observations, we choose 1955 -2020 as the time horizon for the empirical study. While the baseline periods for NOAA ocean temperature and OHC anomalies are not documented, IAP benchmarks the ocean series against the 30-year period from 1981 to 2010. Figure 5.1c shows that all of the OHC series agree on a warming trend but exhibit slightly different yearly variations. According to Von Schuckmann et al. (2020), the global heating rate over the period 1971 -2018 is estimated as 0.47 ± 0.1 Wm −2 , 89% of which is contributed by the global ocean (thereof 52% from the layer 0-700m, 28% from the 700-2,000m, and 9% beyond 2,000m). We test the stationarity properties of the GMST, ocean temperature, and OHC anomalies, and we report the results in Table A.2 in Appendix A.1. They indicate that all of these anomaly series are I(1) processes. As shown in Table A.1, total radiative forcing is also I(1), and therefore all of the measurements we consider share the same integration order. As shown in Table 5.1, the data series have different baselines. The parameter estimates can be distorted if we include several data series with different reference periods simultaneously in a system. Therefore, it is necessary to reconcile these datasets to the same baseline by either synchronizing them before fitting into the model or introducing some structures in the model specification to offset the discrepancies across various baselines. The differences in the baselines across different data sources can be eliminated by synchronizing these anomalies to a common reference period. The simple mathematical arguments for synchronization is given in Appendix A.2. The pre-industrial era is a natural choice for this common baseline, as it is commonly used as a benchmark to measure and evaluate climate change. We follow the IPCC Global Warming of 1.5 • C report (IPCC, 2018) to specify 1850 -1900 as the pre-industrial base period for GMSTs. The synchronized GMST series are exhibited in Figure A.1a in Appendix A.2. The forcing series we employ in the paper is already benchmarked against 1850. To maintain consistency with the pre-industrial benchmark of GMSTs, we synchronize the anthropogenic forcing as anomalies relative to 1850 -1900. It is infeasible to synchronize the ocean series relative to the pre-industrial era, as the ocean information during this period is very sparse. We benchmark the NOAA ocean series against 1981 -2010 for comparability with IAP series, as shown in Figures A.1b and A.1c in Appendix A.2. What remains to be accommodated is the baseline difference between 1981 -2010 and the preindustrial era. A solution we consider here is to introduce a constant µ j T d to the jth measurement equation of ocean temperature and to the jth measurement equation of the corresponding OHC accordingly: Y j T d ,t =µ j T d + T d,t + ε j T d ,t , Y j O,t =C d µ j T d + C d T d,t + ε j O,t , (j = 1, 2, · · · J). (5.1) Empirical results In this section, we fit the EBM-SS model defined in Section 3 to the datasets described in Section 5. The sample period is 1955 -2020. The ERA-Interim and JRA-55 GMST anomalies have a shorter length of 51 years, from 1970 to 2020, but the missing observations during 1955 -1969 are treated in the state space model using the techniques illustrated in Durbin and Koopman (2012). Table 6.1 shows the parameter estimates using all of the eight GMST anomalies presented in Section 5. Using the delta method, we account for the uncertainty of the estimates of both λ and F 2×CO 2 when calculating the standard error for the ECS estimate, where F 2×CO 2 denotes the radiative forcing in response to a doubling of the atmospheric CO 2 concentrations. The estimation results with only one data source for each of the latent states are presented in Table A.4 in Appendix A.3. Of the four physical parameters (λ, γ, C m , and C d ) in the two-component EBM, the estimates . Panel B includes the ocean temperature and OHC series covering 0-2,000m from IAP. All of the GMST anomalies and the ocean series have been synchronized relative to the pre-industrial period and 1981 -2010, respectively, where the constants for the ocean series offset the baseline difference. The standard errors for estimates are obtained using the delta method and presented in parentheses. H andQ denote the estimated variance-covariance matrices of the measurement errors and state disturbances, respectively, andL denotes the maximized log-likelihood. ρ NOAA of the climate feedback parameter λ, of the coefficient of heat transfer γ, and of the heat capacity of the deep ocean layer C d show pronounced increases when 0-2,000m ocean data series are employed, which account for more ocean heat uptake. The last column in Table 6.1 reports the estimated two linear relationships specified by the EBM-SS model, i.e., between the state T m,t and the lag terms of the three latent states T m,t−1 , T d,t−1 , and F t−1 , and between the state T d,t and the lag terms T m,t−1 and T d,t−1 . The estimated coefficients are similar regardless of whether ocean 0-700m or 0-2,000m data are employed. Table 6.2 compares the estimates of the physical parameters from the EBM-SS model with those from other studies. Comparing panel A and panel B reveals that, when fitting the eight GMST series and 0-700m ocean datasets from NOAA and IAP, our estimates are comparable to those obtained by the CMIP 4×CO 2 experiment data (Cummins et al., 2020;Smith et al., 2021, Chapter 7 supplementary material). Our estimate of the ECS is 3.63 • C, which is close to the upper bound of the estimated range of 2.5 • C−3.5 • C using instrumental records in the IPCC AR6 (Forster et al., 2021, Chapter 7). It is also close to the emergent constrained ECS mean estimates from CMIP5 and CMIP6 (Schlund et al., 2020;Smith et al., 2021, Chapter 7 supplementary material). Panel D in Table 6.2 reports heat capacity values indicated by physical relations. As we employ ocean data covering 0-700m and 0-2,000m in this paper, we also examine the physics-implied heat capacities at these two depths to evaluate the estimation accuracy. Here we have two benchmarks that define different depths for the mixed layer. The first benchmark is by Hartmann (2015), who declares the average depth of the mixed ocean layer that interacts with the atmosphere on a scale of one year is 70 m, and the corresponding heat capacity is 9.32 W year m −2 K −14 . Another benchmark considers 150 m as the mean depth (Gregory, 2000) and the heat capacity value for this benchmark is 14.33 W year m −2 K −15 . Our estimates of the heat capacities for the mixed layer and deep ocean layer C m and C d are noticeably close to Hartmann's benchmarks. give graphic summaries of the model fit for the EBM-SS full model to two pairs of 0-700m ocean datasets from NOAA and IAP, and to 0-2,000m ocean series from IAP, respectively. These two figures indicate that the smoothed states of the latent states, which are the estimated states given the entire observational trajectory, closely catch the data. Parameter estimates by fitting historical observations ε Y T d ,ε O and ρ IAP ε Y T d ,ε O denoteT d,t−1 + η T d ,t C d 98.49 (0.26) σ 2 ε,Y NOAA O 1.53 (0.05) σ 2 η,β 0.00001 (0.000006) ECS 3.63 (0.89) σ 2 ε,Y IAP O 1.28 (0.008) σ 2 ε,Y F 1.6 × 10 −11 (1.9 × 10 −17 ) ρ NOAA ε Y T d , As described in Section 3.4, we assume the state disturbances and measurement errors to be serially uncorrelated and normality distributed. Then, ideally, the standardized one-step ahead prediction errors are also serially uncorrelated and follow a standard normal distribution (Durbin & Koopman, 2012). In Figure A.2 and Figure A.3, the residuals after the fit, the standardized onestep ahead prediction errors, appear centered around zero. Diagnostic statistics of the residuals are reported in Table A.5 in Appendix A.5. The residual series have means close to zero and standard deviations close to one. There is no violation of Gaussianity except for the residuals of ocean temperature 0-2,000m and OHC 0-2,000m from IAP due to the outliers in 1958. There are a few standardized prediction error series showing autocorrelation. This can be attributed to using a single state to fit variations from multiple data series. Overall, the EBM-SS model provides a good fit for the data. Empirical evidence for estimation uncertainty reduction by using multiple data sources In Section 4, we have shown in simulations that the multiple-data-source structure in the EBM-SS model is effective in reducing parameter estimation uncertainty. In this section, we examine if the same conclusion can be drawn in the empirical exercise. In the simulation study, we can directly compare the simulation performances of the EBM-SS base model (single data source) and of the EBM-SS full model (multiple data source). This is because the simulated data for these two models are generated from the same simulations and thus have the same parametrization and randomness. However, the standard errors using different empirical datasets are incomparable due to the varying magnitudes of the mean estimates of the parameters. Therefore, we use the coefficient of variation (CV), defined as the standard error divided by the estimate of the mean, to measure the relative estimation uncertainty. In Table 6.3, we compare CVs in the EBM-SS base model with those in the EBM-SS full model. Under the EBM-SS base setting, there are sixteen and eight combinations of different series when ocean data 0-700m and ocean data 0-2,000m are employed, respectively. As shown in Table A.4 in Appendix A.3, both the physical parameter estimates and CVs are diverse across the different combinations of series, and thus we use the median of the CVs for the EBM-SS base model. Table 6.3 shows clearly that the EBM-SS full model with 0-700m and 0-2,000m ocean series produces a lower CV than the medians of CVs for the EBM-SS base model. The last row in Table 6.3 indicates that the majority of individual CVs are equal to or greater than the CV of the EBM-SS full model. One exception isγ when IAP 0-2,000m ocean data is employed. Table 6.3 provides Table 6.3: Comparing coefficients of variation (CVs) of the physical parameters for the EBM-SS full model and the medians of CVs for the EBM-SS base model. CV is calculated as the standard error of the estimate divided by the estimate of the mean. "% CV ≥ *" reports the percentage where the individual CV of EBM-SS base model is not smaller than the CV of the EBM-SS-full model (denoted as * ). empirical evidence that including multiple data sources reduces the estimation uncertainty. Setting Scenario Analysis In this section, we study long-term projections from the EBM-SS full model using the Representative Concentration Pathway (RCP) scenarios of Meinshausen, Smith, et al. (2011). RCPs are adopted by IPCC (2014) tories in the future until 2100. The four scenarios RCP 2.6, RCP 4.5, RCP 6, and RCP 8.5 denote different levels of radiative forcing values (Wm −2 ) 2.6, 4.5, 6, and 8.5, respectively, in 2100. The reduced complexity climate model MAGICC6 was influential in constructing the RCP pathways. The RCP radiative forcing time series during 2021 -2100 are shown in Figure 7.1. Except for RCP 2.6, which shows a peak in around 2030 and then decline, the other three pathways are rising over the period. They exhibit cyclical patterns from solar irradiance. We focus on the projection of GMST for 2021 -2100 conditional on the RCP forcing series. To take parameter uncertainty into account, we assume that the physical parameter vector follows a multivariate normal distribution N (θ * ,Σ * ) and draw 10,000 sets of parameters from this distribution, whereθ * andΣ * denote the estimated mean vector and the estimated variance-covariance matrix of the physical parameter set in the empirical exercise in Table 6.1. We fix the other parameters, such as the variances of measurement errors, at their empirical estimates. We insert each of the parameter sets into the EBM-SS model, which produces point predictions of GMST at T + h (T = 2020, and h = 1, 2, ..., 80). We show the median values and the 90% projection confidence intervals in Figure 7.2 under each of the four RCP scenarios. We produce GMST projections for both the EBM-SS base and the EBM-SS full models. The EBM-SS base model is specified using HadCRUT5 GMST anomalies, together with ocean series (ocean temperature and OHC) from NOAA for 0-700m and from IAP for 0-2,000m. We choose these series because they produce parameter estimates and CVs that are closest to the medians of the values using all combinations of data series (see Table A.4 in Appendix A.3). In Figure 7.2 and Table 7.1, we compare our GMST projections with the outputs from CMIP5 models and the emulator MAGGIC 7.5, where all of the values are relative to 1850 -1900. The global scale averaged time series of CMIP5 projections under various RCP scenarios are aggregated by Nicholls et al. (2021). Considering data availability, we include the projection series from 21, 29, 16, and 28 CMIP5 models for RCP 2.6, RCP 4.5, RCP 6.0, and RCP 8.5 scenarios, respectively. The 2081 -2100 mean results from MAGGIC 7.5 runs use historical observational GHG concentration levels until 2015 and then switch to emission-driven runs (Lee et al., 2021). Figure 7.2 and Table 7.1 show that our GMST projections produced using the EBM-SS full model and eight GMST historical datasets largely agree with those from CMIP5 models and MAG-GIC 7.5. The EBM-SS base model generates both a higher mean projection and a wider confidence band. The wider confidence band is mainly due to the larger estimation uncertainty in the base case. It corroborates the crucial role of multiple data sources in producing more precise projection values. The results are robust to the depth the ocean data (ocean temperature and OHC) covers. Although employing 0-2000m ocean data generates wider confidence bands than using 0-700m, the differences are not large and the medians remain almost unchanged (Table 7.1). Conclusion In this paper, we present a statistical climate model (EBM-SS model), which is a multivariate linear Gaussian state space representation of the two-component EBM. The EBM-SS model provides a framework to quantify the temperature change in response to radiative forcing, while taking the thermal inertia of the ocean into account. We incorporate ocean heat content (OHC) as a second measurement of the temperature in the deep ocean, so that the heat capacity for the deep ocean, C d , can be constrained using both ocean temperature and OHC historical records. We incorporate multiple data sources as measurements for the latent states to reduce estimation uncertainty. To account for the different baseline periods in different anomaly series, we synchronize the eight GMST series and the anthropogenic forcing series with respect to the period 1850 -1900 using the information by IPCC (2018). We include constants for the ocean temperature and OHC series to offset their baseline discrepancies relative to the GMST anomalies and radiative forcing series. Both the empirical and simulation exercises indicate that including eight GMST anomaly series and two pairs of ocean data series as multiple data sources reduces estimation uncertainty of the parameters compared to the models that use only one data source. We obtain physical parameter estimates that are comparable to the ones reported in Cummins et al. (2020) and Smith et al. (2021, Chapter 7 SM). We show that fitting the EBM-SS model to a comprehensive data set of GMST anomalies, ocean temperature, and OHC over the period 1955 -2020 from separate research groups produces projections for GMSTs that are comparable to those of CMIP5 (Nicholls et al., 2021) and MAG-ICC 7.5 (Lee et al., 2021) for RCP 2.6, RCP 4.5, and RCP 6. Our results thus corroborate earlier findings from both complex climate models and reduced-complexity models, where our statistical model exclusively uses historical data. Our model is, in contrast to earlier models, a small-scale statistical model that can be estimated using standard software packages on standard office computers. Its statistical nature allows for the assessment of parameter uncertainty. (Dickey & Fuller, 1979) for unit roots on level and first-order difference of the observational series for different components of anthropogenic forcing, total anthropogenic forcing Y A,t , and total forcing Y F,t during 1955 -2018. The null hypothesis of the ADF test is the existence of a unit root, i.e., non-stationarity. "f + greenhouse gas name" indicates the forcing from a specific greenhouse gas. ** and * mark significance at 1 % and 5 %, respectively. We report the test statistics when lag order k equals to 0, 1, 2, and 3, respectively. The values in bold indicate the optimal lag order selected by Bayesian information criterion (BIC) (Schwarz, 1978). The maximum order of lags considered is 15. γ j ∆y t−j + εt. Under the null hypothesis π = 0, the regression equation is reduced to a random walk process with drift. b ADF test regression with constant and trend: ∆yt = α + βt + πy t−1 + k j=1 γ j ∆y t−j + εt. Table A.2: ADF test for unit roots on level and first-order difference series of different GMST, ocean temperature, and OHC anomalies during 1955 -2020. ** and * denote significance at 1% and 5%. As in Table A.1, we conduct the tests with constant alone or both constant and trend included (the explicit expressions are reported in the footnote for Table A.1). Subtable (a) reports the test statistics for each of these specifications examined under lag order 0, 1, 2, and 3. The values in bold indicate the optimal lag orders selected by Bayesian information criterion (BIC). The maximum order of lags considered is 15. Subtable (b) reports the optimal lag orders and test statistics for NOAA OHC 0-700m, IAP OHC 0-700m, and IAP OHC 0-2,000m, where the optimal lag orders exceed 3. IAP OHC 0-2,000m 0.84 1.24 1.52 2.53 −9.45 * * −7.14 * * −5.76 * * −4.24 * * −9.72 * * −7.50 * * −6.78 * * −5.12 * * A Appendix A.1 Unit root tests on the historical data Level series (b) Level series First-order difference (1). with constant (2). with constant (3). with constant and trend optimal lag order t-stat optimal lag order t-stat optimal lag order t-stat NOAA OHC 0- A.2 Synchronizing anomalies to a common baseline We show that we can directly synchronize anomaly series of different reference periods to a common baseline. Take a yearly global-level anomaly series T anom,1 t T t=1 such that T anom,1 t = f T grid j,τ − T ref1 j , where T grid j,τ is the raw gridded temperature level at time τ and location j, τ is the time index at higher frequency than a year, and T ref1 j is the average of the temperatures at location j over a pre-defined reference period ref1. f (·) is the linear operator that integrates high-resolution data into a yearly global value. Suppose we would like to get the anomalies over another reference period ref2, e.g., 1981-2010. Using linearity of f (·), the new anomaly T anom,2 t at time t can be obtained by: T anom,2 t = f T grid j,τ − T ref2 j = f T grid j,τ − f T ref2 j + f T ref1 j − f T ref1 j = f T grid j,τ − T ref1 j − f T ref2 j − f T ref1 j = T anom,1 t − T ref2 − T ref1 , (A.1) where T ref2 − T ref1 is the difference between the two average global yearly temperatures over the two reference periods ref1 and ref2. Then we can synchronize the anomalies to ref2 by subtracting T ref2 − T ref1 from the original anomalies. We use Equation (A.1) and the information in the IPCC report 1.5 • C report (IPCC, 2018) to get the average GMST values during the pre-industrial era, T pre-ind , for each of the data sources. The results are reported in Table A.3. The downloaded ERA-Interim and JRA-55 datasets are already transformed relative to the pre-industrial level using the same method as in this paper, and hence we leave them as they are. We subtract T pre-ind from other GMST series to get the synchronized series. Figure A.1a shows that these eight GMST anomalies after the synchronization have a substantial agreement, especially since the twentieth century. Figures A.1b and A.1c indicate that, after aligning to the same baseline, the NOAA 0-700m ocean temperature and OHC series are also comparable to their counterparts from IAP. A.4 Fitted estimates and standardized prediction errors using 0-2,000m ocean series Figure A.2: Fit of EBM-SS full model to eight GMST series, two 0-700m ocean temperature, two OHC 0-700m, and one radiative forcing series. Panels (a), (c), (e) show the observational series and the smoothed states from the Kalman filter, which are the estimated states conditional on the entire observational paths. Panel (g) shows the fit to OHC series using the assumption O = C d µ T d . Panels (b), (d), (f), and (g) report the standardized one-step ahead prediction errors. "constant" in the legends of (c) and (g) are the estimated constants for the IAP ocean temperature series. (Jarque & Bera, 1980). The null hypothesis is that the sample is normally distributed. b Portmanteau test statistic for serial correlation by Ljung and Box (1978): Q(k) = n(n + 2) k j=1 ρ 2 j n−j , where k is the order of lag, and ρ j is the sample autocorrelation at lag j. H 0 : the sample exhibits no serial correlation. Figure 2 . 1 :Figure 2 212Dynamics of the two-component EBM Incoming radiation Radiative forcing F Mixed Layer (Net radiative flux: F − λT m ) Outgoing radiation λT m Heat transport H γ (T m − T d ) Deep ocean layer Figure 3 . 1 : 31Components of radiative forcing Figure 3 3separately. In our state space model, we let Figure 3 . 3 : 33First and second-order differences of the time series of anthropogenic forcing Y A,t Wm −2 during 1850 -2018. The two vertical dashed lines mark the year 1958 and 1978 when the measurement scheme method changes. The gray area is the time horizon 1955 -2020 for the empirical study in this paper. Figure 3 . 4 : 34Diagram of the state space model with multiple data sources, i.e., K GMST anomalies, J pairs of ocean temperature and OHC anomalies, and one forcing as measurements. Figure 4 . 1 : 41Simulated distributions of θ i − θ 0 i for the five physical parameters from 1,000 Monte Carlo simulations of the EBM-SS base model and the EBM-SS full model. "d" in the titles denotes the difference between the estimate in the simulation and the data-generating value, i.e., the bias. The red, blue, and yellow vertical lines represent the data-generating parameter values, the means, and the medians of the 1 Figure 4 . 41 shows the distributions of the deviations of the physical parameter estimates in the simulation relative to the true values (denoted as d·), which are centered around zero. Among these physical parameters, dγ and dC d exhibit the feature of normality, and dC d appears much less dispersed for the full model. Under both models, dλ is slightly positive-skewed. Due to the inverse relationship between ECS and λ, the small magnitudes of the estimates of λ produce large ECS estimates, thus the long right tail in dECS. There are positive skewness and a long right tail in dC m as a result of a few large outliers. The small values of the deviations measures in Forcing Effective Radiative Forcing Hansen et al. (2011) 1850 -2018 1850 c,d The ERA 5 and JRA 55 yearly series are downloaded from the Copernicus Climate Change Service (C3S)Climate Data Store, which are processed according toSimmons et al. (2017). These two datasets have already been transformed with respect to the pre-industrial period.Our choice of the eight GMST datasets is in accordance with that in the IPCC Global Warming of 1.5 • C report (IPCC, 2018), which includes: the GISS Surface Temperature Analysis (GIS-TEMP) (GISTEMP Team, 2021; Lenssen et al., 2019), the NOAA Merged Land Ocean Global Surface Temperature Analysis (NOAAGlobalTemp) (NOAA National Centers for Environmental Information, 2021), HadCRUT5 by the Met Office Hadley Centre (Morice et al., 2020), the Berkeley Earth Surface Temperatures Land + Ocean (BEST) (Rohde & Hausfather, 2020), the Cowtan-Way temperature series (CW2014) (Cowtan & Way, 2014), JMA annual anomalies (Japan Meteorological Agency, 2021), ERA-Interim reanalysis Figure 5 5Figure 5.1: GMST, ocean temperature, and OHC anomaly series before synchronization. The light gray area corresponds to the time horizon 1955 -2020 in the empirical study. (a) GMST Anomalies ( • C) (1850 -2020) (b) ocean temperature ( • C) (1940 -2020) Figure Figure A.2 and Figure A.3 in Appendix A.4 give graphic summaries of the model fit for the EBM-SS full model to two pairs of 0-700m ocean datasets from NOAA and IAP, and to 0-2,000m ocean series from IAP, respectively. These two figures indicate that the smoothed states of the latent states, which are the estimated states given the entire observational trajectory, closely catch the data. As described in Section 3.4, we assume the state disturbances and measurement errors to be serially uncorrelated and normality distributed. Then, ideally, the standardized one-step ahead prediction errors are also serially uncorrelated and follow a standard normal distribution (Durbin & Koopman, 2012). In Figure A.2 and Figure A.3, the residuals after the fit, the standardized onestep ahead prediction errors, appear centered around zero. Diagnostic statistics of the residuals are reported in Table A.5 in Appendix A.5. The residual series have means close to zero and standard deviations close to one. There is no violation of Gaussianity except for the residuals of ocean temperature 0-2,000m and OHC 0-2,000m from IAP due to the outliers in 1958. There are a few standardized prediction error series showing autocorrelation. This can be attributed to using a single state to fit variations from multiple data series. Overall, the EBM-SS model provides a good fit for the data. Figure 7 . 1 : 71to represent different possible GHG concentration trajec-Global annual mean radiative forcing (Wm −2 ) constructed under RCP scenarios(Meinshausen, Smith, et al., 2011) during 2021 -2100. Figure 7 7Figure 7.2: Probabilistic projection of GMST during 2021 -2100 conditional on RCP 2.6, RCP 4.5, RCP 6, and RCP 8.5 forcing series from Meinshausen, Smith, et al. (2011). (a) RCP 2.6 -0-700m ocean data (NOAA & IAP) (b) RCP 2.6 -0-2,000m ocean data (IAP) 0.26 0.83 −11.05 * * −8.80 * * −7.64 * * −4.68 * * −10.99 * * −8.85 * * −7.84 * * −4.94 * * NOAAGlobalTemp −1.27 −0.95 −0.07 0.59 −10.59 * * −8.86 * * −7.50 * * −4.70 * * −10.51 * * −8.85 * * −7.64 * * −4.91 * * HadCRUT5 −1.07 −0.57 0.15 0.70 −11.36 * * −8.89 * * −7.70 * * −4.78 * * −11.30 * * −8.93 * * −7.88 * * −5.00 * * BEST −1.17 −0.61 0.16 0.76 −11.53 * * −9.02 * * −7.88 * * −4.83 * * −11.47 * * −9.06 * * −8.09 * * −5.08 * * CW2014 −1.22 −0.66 0.12 0.69 −11.32 * * −9.07 * * −7.82 * * −4.88 * * −11.26 * * −9.11 * * −8.02 * * −5.15 * * JMA −1.59 −1.30 −0.37 0.24 −10.45 * * −8.77 * * −7.76 * * −4.73 * * −10.37 * * −8.73 * * −7.83 * * −4.84 * * ERA-Interim −1.12 −0.85 −0.29 0.02 −9.39 * * −7.69 * * −5.75 * * −4.18 * * −9.30 * * −7.64 * * −5.77 * * −4.12 * JRA-55 −1.22 −0.94 −0.36 0.08 −9.47 * * −7.82 * * −6.01 * * −4.26 * * −9.37 * * −7.76 * * −6.04 * * −4.19 * * NOAA Ocean Temp 0-700m 0.49 1.39 1.52 1.99 −10.97 * * −6.98 * * −5.35 * * −3.05 * −11.50 * * −7.47 * * −6.29 * * −3.81 * IAP Ocean Temp 0-700m 0.24 0.81 1.19 2.35 −10.46 * * −7.51 * * −6.52 * * −4.66 * * −10.60 * * −7.77 * * −7.48 * * −5.52 * * IAP Ocean Temp 0-2,000m 0.91 1.27 1.58 2.62 −9.28 * * −7.05 * * −5.78 * * −4.24 * * −9.56 * * −7.43 * * −6.85 * * −5.16 * * NOAA OHC 0-700m 0.40 1.19 1.56 2.02 −10.75 * * −7.61 * * −5.61 * * −3.11 * −11.19 * * −8.11 * * −6.56 * * −3.86 * IAP OHC 0-700m 0.24 0.87 1.26 2.38 −10.80 * * −7.69 * * −6.45 * * −4.60 * * −10.96 * * −7.97 * * −7.44 * * −5.51 * * Figure A. 1 : 1GMST, ocean temperature, and OHC anomaly series after synchronization. The light gray area corresponds to the time horizon 1955 -2020 in the empirical study. results using one GMST and one pair of ocean temperature and OHC series Figure A. 3 : 3Fit of EBM-SS full model to eight GMST series, one 0-2,000m ocean temperature, one OHC 0-2,000m, and one radiative forcing series. Panels (a), (c), (e) show the observational series and the smoothed states from the Kalman filter, which are the estimated states conditional on the entire observational paths. Panel (g) shows the fit to OHC series using the assumption O = C d µ T d . Panels (b), (d), (f), and (g) report the standardized one-step ahead prediction errors. "constant" in the legends of (c) and (g) are the estimated constants for the IAP ocean temperature series.(a) smoothed state of T m and 8 Well-mixed greenhouse gasses Ozone (O 3 )(tropospheric and stratospheric) Stratospheric water vapourLand surface changes:Total radiative forcing Natural forcing Solar irradiance Volcanic radiative forcing Anthropogenic forcing Greenhouse gases: Land use changes snow albedo changes Human-made aerosols: Reflective aerosols Aerosol Indirect Effect Black carbon in snow and ice Table 4 4.1: Data-generating parameter (DGP) values, estimation biases, standard deviations, and root mean squared errors (RMSEs), and mean absolute errors (MAEs) of the Monte Carlo simulation for the EBM-SS base model and EBM-SS full model. Here, σ 2 denote the variance of measurement error of the kth GMST series, of the jth ocean temperature series, and of the jth OHC series, respectively.ε,Y k Tm , σ 2 ε,Y j T d , and σ 2 ε,Y j O EBM-SS base model physical parameters variances of state disturbance λ γ Cm C d ECS σ 2 η,Tm σ 2 η,T d σ 2 η,A σ 2 η,β DGP value 1.0828 1.3027 9.6376 98.4886 3.6294 0.0122 3.66 × 10 −5 4.73 × 10 −5 9.72 × 10 −6 estimation bias 0.0139 0.0308 0.2696 −0.0279 0.1993 −0.0012 −8.59 × 10 −6 −1.82 × 10 −5 6.51 × 10 −6 standard deviation 0.2745 0.2674 2.6176 0.8397 1.0595 0.00354 3.54 × 10 −5 1.72 × 10 −5 6.67 × 10 −6 RMSE 0.2747 0.2691 2.6301 0.8397 1.0776 0.00375 3.65 × 10 −5 2.5 × 10 −5 9.32 × 10 −6 MAE 0.2137 0.2049 1.9236 0.6438 0.7705 0.00295 2.33 × 10 −5 2.03 × 10 −5 7.2 × 10 −6 variances of measurement errors (I) Table 5 . 1 : 51Summary of the anomaly datasets employed in the empirical analysis. The last column "baseline" indicates the reference period or the year upon which the anomalies are constructed.Variable Acronym/Type Institution/Authors Coverage Baseline GMST Anomalies GISTEMP NASA 1880 -2020 1951 -1980 NOAAGlobalTemp NOAA 1880 -2019 1901 -2000 HadCRUT5 Met Office Hadley Center 1850 -2020 1961 -1990 BEST Berkeley Earth 1850 -2020 1951 -1980 Table 6 . 1 : 61Parameter estimates from fitting the EBM-SS model to eight synchronized GMST and the radiative forcing series fromHansen et al. (2011). Panel A includes two pairs of ocean temperature and OHC series covering 0-700m from NOAA Y NOAAT d , Y NOAA O and IAP Y IAP T d , Y IAP O the correlations between the ocean temperature and OHC series from NOAA and from IAP, respectively.A. ocean temperature and OHC 0 -700m from both NOAA and IAP included phys. para.μ Y T d elements inĤ diagonal ofQ estimated linear relationshipŝ λ 1.08 (0.25)μ Y NOAA T d −0.27 (0.09) σ 2 ε,Y Tm 0.0003 ∼ 0.012 (0.0001) (0.002) σ 2 η,Tm 0.012 (0.002) γ 1.30 (0.34)μ Y IAP T d −0.28 (0.09) σ 2 ε,Y NOAA T d 0.00014 (0.00005) σ 2 η,T d 0.00004 (0.00002) Tm,t = 0.75 (0.09) T m,t−1 + 0.14 (0.06) O t−1 + 0.10 (0.03) F t−1 + η Tm,t Cm 9.64 (2.86) σ 2 ε,Y IAP T d 0.00015 (0.00005) σ 2 η,A 0.00005 (0.00001) T d,t = 0.01 (0.003) T m,t−1 + 0.99 (0.003) Table 6 . 2 : 62Comparison of estimates for the physical parameters between EBM-SS full model and other studies.The standard errors of the estimates are reported in parentheses, while some standard errors are unavailable. "Chapter 7 SM" represents the supplementary material to Chapter 7 in IPCC AR6.A. evaluation of the two-component EBM using historical datamodelλγĈ mĈdÊ CS EBM-SS full, 0-700m ocean data (NOAA & IAP) 1.08 (0.25) 1.30 (0.34) 9.64 (2.86) 98.49 (0.26) 3.63 (0.89) EBM-SS full, 0-2,000m ocean data (IAP) 0.66 (0.31) 1.82 (0.45) 9.35 (2.61) 269.30 (0.42) 5.91 (2.77) B. evaluation of the two-component EBM using 4×CO 2 experiment data modelλγĈ mĈdÊ CS CMIP6 means (Smith et al., 2021, Chapter 7 SM) 0.84 (0.38) 0.64 (0.13) 8.1 (1.0) 110 (63) 3.0 CMIP5 means (Cummins et al., 2020) 1.21 0.77 6.88 97.18 3.41 C. estimates of ECS using different datasets and methods model and dataλγĈ mĈdÊ CS Instrumental records (Forster et al., 2021, Chapter 7) - - - - 2.5 -3.5 CMIP6 means (Schlund et al., 2020; Smith et al., 2021) - - - - 3.78 (1.08) CMIP5 means(Schlund et al., 2020; Smith et al., 2021) - - - - 3.28 (0.74) D. heat capacity by physical relationship literature C m C at 700m C at 2000m Hartmann (2015) 9.32 93.17 266.2 Gregory (2000) 14.33 66.85 191 Table 7 7.1: 5% -95% ranges and medians of GMST ( • C) projections in 2100 under RCP scenarios by EBM-SS full model. 0-700m ocean data (NOAA & IAP) 0-2,000m ocean data (IAP) RCP 2.6 RCP 4.5 RCP 6.0 RCP 8.5 RCP 2.6 RCP 4.5 RCP 6.0 RCP 8.5 Base median 2.10 3.02 3.51 4.90 1.96 2.81 3.28 4.58 5% quantile 1.45 2.17 2.63 3.77 0.91 1.39 1.71 2.49 95% quantile 2.56 3.55 4.05 5.62 2.34 3.34 3.87 5.41 Full median 1.73 2.57 3.08 4.42 1.61 2.37 2.84 4.06 5% quantile 1.34 2.02 2.46 3.56 1.21 1.80 2.20 3.17 95% quantile 2.14 3.14 3.75 5.35 1.97 2.91 3.51 5.02 MAGGIC 7.5 runs 2081 -2100 means CMIP5 outputs RCP 2.6 RCP 4.5 RCP 6.0 RCP 8.5 RCP 2.6 RCP 4.5 RCP 6.0 RCP 8.5 median 1.6 2.35 2.8 4.2 1.78 2.62 3.06 4.27 5% quantile 1.2 1.75 2.2 3.2 0.97 1.95 2.48 2.93 95% quantile 2.0 3.2 3.7 5.6 2.36 3.32 3.95 6.09 Table A . 1 : A1Augmented Dickey-Fuller (ADF) test Table A . 3 : A3Averages of the GMST series over 1986 -2005 T , changes of the averages over 1986 -2005 relative to the pre-industrial era (1850 -1900) ∆T 1986-2005 pre-ind , and averages over 1850 -1900 T pre-ind i ( • C).GISTEMP NOAA HadCRUT 5 BEST CW2014 JMA ERA-Interim JRA-55for the HadCRUT 5 dataset is not avaiable in IPCC (2018), and thus we use that for HadCRUT 4.6 instead.1986-2005 i T 1986-2005 i 0.420 0.445 0.349 0.382 0.305 0.014 0.626 0.635 ∆T 1986-2005 pre-ind (IPCC, 2018) 0.65 0.62 0.60 a 0.73 0.65 0.59 - - T pre-ind i −0.230 −0.175 −0.251 −0.210 −0.345 −0.576 - - a The temperature change ∆T 1986-2005 pre-ind Table A . 4 : A4Mean estimates of the physical parameters from fitting the EBM-SS base model to different GMST and ocean (ocean temperature + OHC) datasets. The numbers in parentheses are the coefficients of variation.One ocean temperature and one OHC series are included -0-700mOne ocean temperature and one OHC series are included -0-2,000mNo. of GMST GMST(s) included NOAA 0-700m IAP 0-700m λγĈ mĈd ECSλγĈ mĈd ECS 1 GMST GISTEMP 0.63 1.45 21.44 96.13 6.24 0.44 1.21 25.52 98.23 8.91 (0.47) (0.2) (0.38) (0.01) (0.47) (1.1) (0.36) (0.59) (0.002) (1.1) NOAA 0.82 1.59 18.29 96.14 4.79 0.63 1.31 22.42 98.23 6.19 (0.34) (0.21) (0.36) (0.01) (0.34) (0.65) (0.35) (0.55) (0.002) (0.66) HadCRUT5 0.74 1.3 20.3 96.15 5.29 0.63 1.15 22.12 98.23 6.29 (0.41) (0.22) (0.37) (0.01) (0.41) (0.61) (0.3) (0.48) (0.002) (0.62) BEST (Berkeley) 0.39 1.56 29.16 96.14 10.09 0.00017 1.13 43.18 98.23 231033.26 (1.18) (0.24) (0.59) (0.01) (1.19) (0.00015) (0.29) (0.2) (0.002) (0.07) CW2014 0.55 1.61 26.52 96.13 7.15 0.07 1.21 42.28 98.23 60.06 (0.64) (0.21) (0.43) (0.01) (0.65) (12.56) (0.33) (0.72) (0.002) (12.56) JMA 1.01 2.28 15.81 96.13 3.88 0.8 1.83 21.38 98.22 4.93 (0.26) (0.21) (0.34) (0.01) (0.27) (0.51) (0.38) (0.61) (0.002) (0.52) ERA5 0.85 1.2 15.8 96.14 4.61 0.87 1.14 14.11 98.22 4.52 (0.32) (0.26) (0.37) (0.01) (0.33) (0.26) (0.27) (0.32) (0.002) (0.27) JRA55 0.85 1.32 17.74 96.15 4.61 0.87 1.26 15.85 98.22 4.51 (0.37) (0.27) (0.43) (0.01) (0.38) (0.3) (0.28) (0.38) (0.002) (0.31) Median of estimate 0.78 1.51 19.30 96.14 5.03 Median of CV (0.39) (0.22) (0.37) (0.01) (0.40) No. of GMST GMST(s) included IAP 0-2000m λγĈ mĈd ECS 1 GMST GISTEMP 0.18 1.84 21.72 269.28 22.36 (1.9) (0.18) (0.37) (0.002) (1.9) NOAA 0.33 2.00 19.04 269.28 12.08 (1.01) (0.19) (0.36) (0.002) (1.01) HadCRUT5 0.25 1.73 20.95 269.28 15.89 (1.40) (0.20) (0.36) (0.002) (1.40) BEST (Berkeley) 0.03 1.93 27.2 269.28 148.48 (14.61) (0.19) (0.48) (0.002) (14.61) CW2014 0.10 1.98 26.16 269.28 39.12 (3.67) (0.19) (0.42) (0.002) (3.67) JMA 0.47 2.65 16.9 269.28 8.44 (0.70) (0.19) (0.35) (0.002) (0.71) ERA5 0.51 1.55 13.58 269.29 7.64 (0.49) (0.21) (0.27) (0.002) (0.49) JRA55 0.53 1.7 14.81 269.3 7.44 (0.49) (0.21) (0.3) (0.002) (0.5) Median of estimate 0.29 1.89 19.99 269.28 13.98 Median of CV (1.20) (0.19) (0.36) (0.002) (1.21) Table A . 5 : A5Diagnostic statistics of the one-step ahead standardized prediction errors for the EBM-SS full model.The upper panel shows the results for 0-700m ocean data. The lower panel shows the results for 0-2,000m ocean data. ** and * denote significance at 1% and 5%.A. ocean temperature and OHC 0-700m from both NOAA and IAP are included GISTEMP NOAA HadCRUT5 BEST CW14 JMA JRA55 ERA5 Y T NOAA B. Ocean temperature and OHC 0-2,000m from IAP is included GISTEMP NOAA HadCRUT5 BEST CW14 JMA JRA55 ERA5 Y T IAP a Test statistic of the Jarque-Bera normality testd,700 m Y O NOAA 700 m Y T IAP d,700 m Y O IAP 700 m forcing mean 0.284 0.004 −0.225 0.753 0.381 −0.138 0.080 0.045 0.053 0.182 −0.074 0.163 0.149 std 0.945 0.989 0.935 0.724 0.944 0.962 1.067 1.052 1.033 0.930 1.044 0.928 0.989 skewness −0.102 0.054 −0.115 −0.079 −0.106 0.072 −0.255 −0.160 0.432 −0.167 0.309 −0.180 0.093 kurtosis 2.720 2.598 2.649 2.651 2.612 2.260 2.689 2.427 2.567 2.731 2.444 2.909 3.860 t JB a 0.325 0.461 0.476 0.399 0.528 1.539 0.759 0.898 2.529 0.498 1.873 0.375 2.034 Q(1) b 4.979 * 3.129 4.707 * 5.591 * 2.533 1.168 2.739 * 4.057 * 6.076 * * 3.703 9.895 * * 2.482 0.000 d,2,000 m Y O IAP 2,000 m forcing mean 0.259 −0.025 −0.251 0.735 0.358 −0.161 0.065 0.028 0.118 0.089 0.148 std 0.949 0.985 0.941 0.720 0.937 0.943 1.078 1.056 1.006 1.005 0.988 skewness −0.109 0.053 −0.126 −0.093 −0.118 0.086 −0.267 −0.168 0.456 0.483 0.095 kurtosis 2.703 2.629 2.641 2.660 2.628 2.282 2.719 2.493 4.222 4.289 3.858 t JB 0.368 0.396 0.520 0.407 0.527 1.478 0.772 0.772 6.290 * 7.020 * 2.026 Q(1) 4.465 * 3.292 4.012 * 5.714 * 2.880 0.737 2.144 3.737 0.234 0.132 0.000 We use one data source for radiative forcing. This is because we could not find an alternative observation-based dataset that provides complete information on the total radiative forcing and its components as the one byHansen et al. (2011). The "solnp" optimizer implements the general nonlinear augmented Lagrange multiplier method. The ocean heat capacity at a specific depth d is:C = d × 0.1331WK −1 m −2 m −1(Hartmann, 2015). 5 According toGeoffroy et al. (2013), C = d × 0.0955WK −1 m −2 m −1 . . P Berrisford, D Dee, P Poli, R Brugge, M Fielding, M Fuentes, Berrisford, P., Dee, D., Poli, P., Brugge, R., Fielding, M., Fuentes, M., . . . 11). The ERA-Interim archive version 2.0. (1), 23. A Simmons, Simmons, A. (2011, 11). The ERA-Interim archive version 2.0. (1), 23. Retrieved from https://www.ecmwf.int/ node/8174 The effect of solar radiation variations on the climate of the Earth. M I Budyko, 10.3402/tellusa.v21i5.10109Tellus. 215Budyko, M. I. (1969). The effect of solar radiation variations on the climate of the Earth. Tellus, 21 (5), 611-619. Linear stochastic systems. P E Caines, John Wiley & SonsCaines, P. E. (1988). Linear stochastic systems. John Wiley & Sons. Modelling our changing world. J Castle, D Hendry, https:/link.springer.com/book/10.1007/978-3-030-21432-6Springer NatureCastle, J., & Hendry, D. (2019). Modelling our changing world. Springer Nature. Climate econometrics: An overview. J Castle, D F Hendry, 10.1561/0800000037Foundations and Trends in Econometrics. 10Castle, J., & Hendry, D. F. (2020). Climate econometrics: An overview. Foundations and Trends in Econometrics, 10 (3-4). Evaluating trends in time series of distributions: A spatial fingerprint of human effects on climate. Y Chang, R K Kaufmann, C S Kim, J I Miller, J Y Park, S Park, Journal of Econometrics. 2141Chang, Y., Kaufmann, R. K., Kim, C. S., Miller, J. I., Park, J. Y., & Park, S. (2020). Evaluating trends in time series of distributions: A spatial fingerprint of human effects on climate. Journal of Econometrics, 214 (1), 274-294. Improved estimates of changes in upper ocean salinity and the hydrological cycle. L Cheng, K E Trenberth, N Gruber, J P Abraham, J T Fasullo, G Li, . . Zhu, J , 10.1175/JCLI-D-20-0366.1Journal of Climate. 3323Cheng, L., Trenberth, K. E., Gruber, N., Abraham, J. P., Fasullo, J. T., Li, G., . . . Zhu, J. (2020). Improved estimates of changes in upper ocean salinity and the hydrological cycle. Journal of Climate, 33 (23), 10357-10381. Understanding the links between climate feedbacks, variability and change using a two-layer energy balance model. R Colman, S Soldatenko, https:/idp.springer.com/authorize/casa?redirect_uri=https:/link.springer.com/article/10.1007/s00382-020-05189-3&casa_token=rYKyz8oiYhcAAAAA:8C2XOPxwPkvd8IpHYuWuxwToTGBvonXa162-eSBQMLoqwbZ5uIBsbCAyXMU7Jhd_60xf6KsFay66XVyVClimate Dynamics. 547Colman, R., & Soldatenko, S. (2020). Understanding the links between climate feedbacks, variabil- ity and change using a two-layer energy balance model. Climate Dynamics, 54 (7), 3441-3459. Coverage bias in the HadCRUT4 temperature series and its impact on recent temperature trends. K Cowtan, R G Way, 10.1002/qj.2297Quarterly Journal of the Royal Meteorological Society. 140683Cowtan, K., & Way, R. G. (2014). Coverage bias in the HadCRUT4 temperature series and its impact on recent temperature trends. Quarterly Journal of the Royal Meteorological Society, 140 (683), 1935-1944. Methods for uncertainty analysis: a comparative survey. D C Cox, P Baybutt, 10.1111/j.1539-6924.1981.tb01425.xRisk Analysis. 14Cox, D. C., & Baybutt, P. (1981). Methods for uncertainty analysis: a comparative survey. Risk Analysis, 1 (4), 251-258. Optimal estimation of stochastic energy balance model parameters. D P Cummins, D B Stephenson, P A Stott, 10.1175/JCLI-D-19-0589.1Journal of Climate. 3318Cummins, D. P., Stephenson, D. B., & Stott, P. A. (2020). Optimal estimation of stochastic energy balance model parameters. Journal of Climate, 33 (18), 7909-7926. Distribution of the estimators for autoregressive time series with a unit root. D A Dickey, W A Fuller, 10.2307/2286348Journal of the American Statistical Association. 74366aDickey, D. A., & Fuller, W. A. (1979). Distribution of the estimators for autoregressive time series with a unit root. Journal of the American Statistical Association, 74 (366a), 427-431. H A Dijkstra, Dynamical oceanography. Berlin HeidelbergSpringer-Verlag1st ed.Dijkstra, H. A. (2008). Dynamical oceanography (1st ed.). Springer-Verlag Berlin Heidelberg. Time series analysis by state space methods. J Durbin, S J Koopman, https:/oxford.universitypressscholarship.com/view/10.1093/acprof:oso/9780199641178.001.0001/acprof-9780199641178Oxford University PressRevised ed.Durbin, J., & Koopman, S. J. (2012). Time series analysis by state space methods (Revised ed.). Oxford University Press. . P Forster, T Storelvmo, K Armour, W Collins, J.-L Dufresne, D Frame, Forster, P., Storelvmo, T., Armour, K., Collins, W., Dufresne, J.-L., Frame, D., . . . Climate change 2021: The physical science basis. Contribution of Working Group I to the sixth assessment report of the Intergovernmental Panel on Climate Change. H Zhang, V. Masson-Delmotte et al.Cambridge University Press. In PressCambridgeThe Earth's energy budget, climate feedbacks, and climate sensitivityZhang, H. (2021). The Earth's energy budget, climate feedbacks, and climate sensitivity. In V. Masson- Delmotte et al. (Eds.), Climate change 2021: The physical science basis. Contribution of Working Group I to the sixth assessment report of the Intergovernmental Panel on Climate Change. Cambridge: Cambridge University Press. In Press. Transient climate response in a two-layer energy-balance model. Part I: Analytical solution and parameter calibration using CMIP5 AOGCM experiments. O Geoffroy, D Saint-Martin, D J Olivié, A Voldoire, G Bellon, S Tytéca, 10.1175/JCLI-D-12-00195.1Journal of Climate. 266Geoffroy, O., Saint-Martin, D., Olivié, D. J., Voldoire, A., Bellon, G., & Tytéca, S. (2013). Transient climate response in a two-layer energy-balance model. Part I: Analytical solution and parameter calibration using CMIP5 AOGCM experiments. Journal of Climate, 26 (6), 1841-1857. Modeling uncertainty in integrated assessment of climate change: A multimodel comparison. K Gillingham, W Nordhaus, D Anthoff, G Blanford, V Bosetti, P Christensen, . . Reilly, https:/www.journals.uchicago.edu/doi/abs/10.1086/698910Journal of the Association of Environmental and Resource Economists. 54J.Gillingham, K., Nordhaus, W., Anthoff, D., Blanford, G., Bosetti, V., Christensen, P., . . . Reilly, J. (2018). Modeling uncertainty in integrated assessment of climate change: A multimodel comparison. Journal of the Association of Environmental and Resource Economists, 5 (4), 791-826. GISS Surface Temperature Analysis (GISTEMP), version 4. NASA Goddard Institute for Space Studies. Gistemp Team, GISTEMP Team. (2021). GISS Surface Temperature Analysis (GISTEMP), version 4. NASA Goddard Institute for Space Studies. (Data retrieved from https://data.giss.nasa.gov/ gistemp/) Spurious regressions in econometrics. C W Granger, P Newbold, Journal of Econometrics. 22Granger, C. W., & Newbold, P. (1974). Spurious regressions in econometrics. Journal of Econo- metrics, 2 (2), 111-120. Vertical heat transports in the ocean and their effect on time-dependent climate change. J M Gregory, 10.1007/s003820000059Climate Dynamics. 167Gregory, J. M. (2000). Vertical heat transports in the ocean and their effect on time-dependent climate change. Climate Dynamics, 16 (7), 501-515. Earth's energy imbalance and implications. J Hansen, M Sato, P Kharecha, K Von Schuckmann, Atmospheric Chemistry and Physics. 11Hansen, J., Sato, M., Kharecha, P., & von Schuckmann, K. (2011). Earth's energy imbalance and implications. Atmospheric Chemistry and Physics, 11 , 13421-13449. D L Hartmann, Global physical climatology. Elsevier Science2nd ed.Hartmann, D. L. (2015). Global physical climatology (2nd ed.). Elsevier Science. On the cold start problem in transient simulations with coupled atmosphere-ocean models. K Hasselmann, R Sausen, E Maier-Reimer, R Voss, https:/link.springer.com/article/10.1007/BF00210008Climate Dynamics. 92Hasselmann, K., Sausen, R., Maier-Reimer, E., & Voss, R. (1993). On the cold start problem in transient simulations with coupled atmosphere-ocean models. Climate Dynamics, 9 (2), 53-61. Connecting climate model projections of global temperature change with the real world. E Hawkins, R Sutton, 10.1175/BAMS-D-14-00154.1Bulletin of the American Meteorological Society. 976Hawkins, E., & Sutton, R. (2016). Connecting climate model projections of global temperature change with the real world. Bulletin of the American Meteorological Society, 97 (6), 963-980. Probing the fast and slow components of global warming by returning abruptly to preindustrial forcing. I M Held, M Winton, K Takahashi, T Delworth, F Zeng, G K Vallis, 10.1175/2009JCLI3466.1Journal of Climate. 239Held, I. M., Winton, M., Takahashi, K., Delworth, T., Zeng, F., & Vallis, G. K. (2010). Probing the fast and slow components of global warming by returning abruptly to preindustrial forcing. Journal of Climate, 23 (9), 2418-2427. KFAS: Exponential family state space models in R. J Helske, Journal of Statistical Software. 1078Helske, J. (2017). KFAS: Exponential family state space models in R. Journal of Statistical Software,, 78 (10). Energy balance models -viewed from stochastic dynamics. P Imkeller, https:/link.springer.com/chapter/10.1007/978-3-0348-8287-3_9Stochastic Climate Models. Imkeller, P and Storch, J.-S.SpringerImkeller, P. (2001). Energy balance models -viewed from stochastic dynamics. In Imkeller, P and Storch, J.-S. (Ed.), Stochastic Climate Models (pp. 213-240). Springer. Climate change 2014: Synthesis report. Contribution of Working Groups I, II and III to the fifth assessment report of the Intergovernmental Panel on Climate Change. Ipcc, Geneva, SwitzerlandIPCCIPCC. (2014). Climate change 2014: Synthesis report. Contribution of Working Groups I, II and III to the fifth assessment report of the Intergovernmental Panel on Climate Change. IPCC, Geneva, Switzerland. Global Warming of 1.5 ℃: An IPCC Special Report on the impacts of global warming of 1.5 ℃ above pre-industrial levels and related global greenhouse gas emission pathways, in the context of strengthening the global response to the threat of climate change, sustainable development, and efforts to eradicate poverty. Ipcc, V. Masson-Delmotte et al.Cambridge University Press. In PressCambridgeIPCC. (2018). Global Warming of 1.5 ℃: An IPCC Special Report on the impacts of global warming of 1.5 ℃ above pre-industrial levels and related global greenhouse gas emission pathways, in the context of strengthening the global response to the threat of climate change, sustainable development, and efforts to eradicate poverty (V. Masson-Delmotte et al., Eds.). Cambridge: Cambridge University Press. In Press. Annual Anomalies of Global Average Surface Temperature. Japan Meteorological Agency. Japan Meteorological Agency. (2021). Annual Anomalies of Global Average Surface Temperature. (Data retrieved on 23 June, 2021 from https://ds.data.jma.go.jp/tcc/tcc/products/ gwp/temp/list/year_wld.html) Efficient tests for normality, homoscedasticity and serial independence of regression residuals. C M Jarque, A K Bera, 10.1016/0165-1765(80)90024-5Economics Letters. 63Jarque, C. M., & Bera, A. K. (1980). Efficient tests for normality, homoscedasticity and serial independence of regression residuals. Economics Letters, 6 (3), 255-259. Emergent constraints on Earth's transient and equilibrium response to doubled CO2 from post-1970s global warming. D Jiménez-De-La Cuesta, T Mauritsen, Nature Geoscience. 1211Jiménez-de-la Cuesta, D., & Mauritsen, T. (2019). Emergent constraints on Earth's transient and equilibrium response to doubled CO2 from post-1970s global warming. Nature Geoscience, 12 (11), 902-905. Towards Bayesian hierarchical inference of equilibrium climate sensitivity from a combination of CMIP5 climate models and observational data. A Jonko, N M Urban, B Nadiga, https:/link.springer.com/article/10.1007/s10584-018-2232-0Climatic Change. 1492Jonko, A., Urban, N. M., & Nadiga, B. (2018). Towards Bayesian hierarchical inference of equi- librium climate sensitivity from a combination of CMIP5 climate models and observational data. Climatic Change, 149 (2), 247-260. Does temperature contain a stochastic trend: Linking statistical results to physical mechanisms. R K Kaufmann, H Kauppi, M L Mann, J H Stock, 10.1007/s10584-012-0683-2Climatic Change. 1183-4Kaufmann, R. K., Kauppi, H., Mann, M. L., & Stock, J. H. (2013). Does temperature contain a stochastic trend: Linking statistical results to physical mechanisms. Climatic Change, 118 (3-4), 729-743. A comparison of Bayesian to maximum likelihood estimation for latent growth models in the presence of a binary outcome. S.-Y Kim, D Huh, Z Zhou, E.-Y Mun, https:/journals.sagepub.com/doi/abs/10.1177/0165025419894730International Journal of Behavioral Development. 445Kim, S.-Y., Huh, D., Zhou, Z., & Mun, E.-Y. (2020). A comparison of Bayesian to maximum likeli- hood estimation for latent growth models in the presence of a binary outcome. International Journal of Behavioral Development, 44 (5), 447-457. The JRA-55 reanalysis: General specifications and basic characteristics. S Kobayashi, Y Ota, Y Harada, A Ebita, M Moriya, H Onoda, 10.2151/jmsj.2015-001Journal of the Meteorological Society of Japan. Ser. II1Kobayashi, S., Ota, Y., Harada, Y., Ebita, A., Moriya, M., Onoda, H., . . . others (2015). The JRA- 55 reanalysis: General specifications and basic characteristics. Journal of the Meteorological Society of Japan. Ser. II , 93 (1), 5-48. Earth's outgoing longwave radiation linear due to H2O greenhouse effect. D D B Koll, T W Cronin, Proceedings of the National Academy of Sciences of the United States of America. the National Academy of Sciences of the United States of America115Koll, D. D. B., & Cronin, T. W. (2018). Earth's outgoing longwave radiation linear due to H2O greenhouse effect. Proceedings of the National Academy of Sciences of the United States of America, 115 (41), 10293-10298. . J Y Lee, J Marotzke, G Bala, L Cao, S Corti, J P Dunne, Lee, J. Y., Marotzke, J., Bala, G., Cao, L., Corti, S., Dunne, J. P., . . . Climate change 2021: The physical science basis. Contribution of Working Group I to the sixth assessment report of the Intergovernmental Panel on Climate Change. T Zhou, V. Masson-Delmotte et al.Cambridge University Press. In PressCambridgeFuture global climate: scenario-based projections and near-term informationZhou, T. (2021). Fu- ture global climate: scenario-based projections and near-term information. In V. Masson- Delmotte et al. (Eds.), Climate change 2021: The physical science basis. Contribution of Working Group I to the sixth assessment report of the Intergovernmental Panel on Climate Change. Cambridge: Cambridge University Press. In Press. Improvements in the GISTEMP uncertainty model. N J Lenssen, G A Schmidt, J E Hansen, M J Menne, A Persin, R Ruedy, D Zyss, https:/agupubs.onlinelibrary.wiley.com/doi/pdfdirect/10.1029/2018JD029522Journal of Geophysical Research: Atmospheres. 12412Lenssen, N. J., Schmidt, G. A., Hansen, J. E., Menne, M. J., Persin, A., Ruedy, R., & Zyss, D. (2019). Improvements in the GISTEMP uncertainty model. Journal of Geophysical Research: Atmospheres, 124 (12), 6307-6326. World ocean heat content and thermosteric sea level change. S Levitus, J I Antonov, T P Boyer, O K Baranova, H E Garcia, R A Locarnini, 10.1029/2012GL051106Geophysical Research Letters. 1039Levitus, S., Antonov, J. I., Boyer, T. P., Baranova, O. K., Garcia, H. E., Locarnini, R. A., . . . others (2012). World ocean heat content and thermosteric sea level change (0-2000m), 1955-2010. Geophysical Research Letters, 39 (10). On a measure of lack of fit in time series models. G M Ljung, G E Box, 10.2307/2335207Biometrika. 652Ljung, G. M., & Box, G. E. (1978). On a measure of lack of fit in time series models. Biometrika, 65 (2), 297-303. Emulating coupled atmosphere-ocean and carbon cycle models with a simpler model, MAGICC6-Part 1: Model description and calibration. M Meinshausen, S C Raper, T M Wigley, 10.5194/acp-11-1417-2011Atmospheric Chemistry and Physics. 114Meinshausen, M., Raper, S. C., & Wigley, T. M. (2011). Emulating coupled atmosphere-ocean and carbon cycle models with a simpler model, MAGICC6-Part 1: Model description and calibration. Atmospheric Chemistry and Physics, 11 (4), 1417-1456. The RCP greenhouse gas concentrations and their extensions from 1765 to 2300. M Meinshausen, S J Smith, K Calvin, J S Daniel, M L Kainuma, J.-F , Lamarque, https:/link.springer.com/article/10.1007/s10584-011-0156-zClimatic Change. 1091Meinshausen, M., Smith, S. J., Calvin, K., Daniel, J. S., Kainuma, M. L., Lamarque, J.-F., . . . others (2011). The RCP greenhouse gas concentrations and their extensions from 1765 to 2300. Climatic Change, 109 (1), 213-241. Emulating atmosphere-ocean and carbon cycle models with a simpler model. M Meinshausen, T Wigley, S Raper, 10.5194/acp-11-1457-2011MAGICC6-Part. 2Meinshausen, M., Wigley, T., & Raper, S. (2011). Emulating atmosphere-ocean and carbon cycle models with a simpler model, MAGICC6-Part 2: Applications. Atmospheric Chemistry and Physics, 11 (4), 1457-1471. An updated assessment of near-surface temperature change from 1850: The HadCRUT5 dataset. C P Morice, J J Kennedy, N A Rayner, J Winn, E Hogan, R Killick, . . Simpson, I , 10.1029/2019JD032361Journal of Geophysical Research. AtmospheresMorice, C. P., Kennedy, J. J., Rayner, N. A., Winn, J., Hogan, E., Killick, R., . . . Simpson, I. (2020). An updated assessment of near-surface temperature change from 1850: The HadCRUT5 dataset. Journal of Geophysical Research: Atmospheres. . G Myhre, D Shindell, F.-M Bréon, W Collins, J Fuglestvedt, J Huang, Myhre, G., Shindell, D., Bréon, F.-M., Collins, W., Fuglestvedt, J., Huang, J., . . . Climate change 2013: The physical science basis. Contribution of Working Group I to the fifth assessment report of the Intergovernmental Panel on Climate Change. H Zhang, T. F. Stocker et al.Cambridge University PressCambridge, UKAnthropogenic and natural radiative forcingZhang, H. (2013). Anthropogenic and natural radiative forcing. In T. F. Stocker et al. (Eds.), Climate change 2013: The physical science basis. Contribution of Working Group I to the fifth assess- ment report of the Intergovernmental Panel on Climate Change (pp. 659-740). Cambridge, UK: Cambridge University Press. A simplex method for function minimization. J A Nelder, R Mead, The Computer Journal. 74Nelder, J. A., & Mead, R. (1965). A simplex method for function minimization. The Computer Journal, 7 (4), 308-313. . Z Nicholls, J Lewis, M Makin, U Nattala, G Z Zhang, S J Mutch, Nicholls, Z., Lewis, J., Makin, M., Nattala, U., Zhang, G. Z., Mutch, S. J., . . . Regionally aggregated, stitched and de-drifted CMIP-climate data, processed with netCDF-SCM. M Meinshausen, 10.5281/zenodo.4536523v2.0.0Geoscience Data Journal. 82Meinshausen, M. (2021). Regionally aggregated, stitched and de-drifted CMIP-climate data, processed with netCDF-SCM v2.0.0. Geoscience Data Journal, 8 (2), 154-198. Emergent constraints on transient climate response (TCR) and equilibrium climate sensitivity (ECS) from historical warming in CMIP5 and CMIP6 models. F J Nijsse, P M Cox, M S Williamson, Earth System Dynamics. 113Nijsse, F. J., Cox, P. M., & Williamson, M. S. (2020). Emergent constraints on transient climate response (TCR) and equilibrium climate sensitivity (ECS) from historical warming in CMIP5 and CMIP6 models. Earth System Dynamics, 11 (3), 737-750. NOAA National Centers for Environmental Information. Climate at a glance: Global time series. publishedNOAA National Centers for Environmental Information. (2021). Climate at a glance: Global time series. (published June 2021, retrieved on June 23, 2021 https://www.ncdc.noaa.gov/cag/) Energy balance climate models. G R North, R F Cahalan, J A CoakleyJr, 10.1029/RG019i001p00091Reviews of Geophysics. 191North, G. R., Cahalan, R. F., & Coakley Jr, J. A. (1981). Energy balance climate models. Reviews of Geophysics, 19 (1), 91-121. Thermodynamic dissipation and the global climate system. G W Paltridge, 10.1002/qj.49710745305Quarterly Journal of the Royal Meteorological Society. 107453Paltridge, G. W. (1981). Thermodynamic dissipation and the global climate system. Quarterly Journal of the Royal Meteorological Society, 107 (453), 531-547. Econometric modelling of climate systems: The equivalence of energy balance models and cointegrated vector autoregressions. F Pretis, 10.1016/j.jeconom.2019.05.013Journal of Econometrics. 2141Pretis, F. (2020). Econometric modelling of climate systems: The equivalence of energy balance models and cointegrated vector autoregressions. Journal of Econometrics, 214 (1), 256-273. The ice record of greenhouse gases. D Raynaud, J Jouzel, J Barnola, J Chappellaz, R Delmas, C Lorius, Science. Raynaud, D., Jouzel, J., Barnola, J., Chappellaz, J., Delmas, R., & Lorius, C. (1993). The ice record of greenhouse gases. Science, 926-934. Integrating parameter uncertainty of a process-based model in assessments of climate change effects on forest productivity. C P Reyer, M Flechsig, P Lasch-Born, M Van Oijen, https:/link.springer.com/article/10.1007/s10584-016-1694-1Climatic Change. 1373Reyer, C. P., Flechsig, M., Lasch-Born, P., & Van Oijen, M. (2016). Integrating parameter uncer- tainty of a process-based model in assessments of climate change effects on forest productivity. Climatic Change, 137 (3), 395-409. The Berkeley Earth land/ocean temperature record. R A Rohde, Z Hausfather, Earth System Science Data. 124Rohde, R. A., & Hausfather, Z. (2020). The Berkeley Earth land/ocean temperature record. Earth System Science Data, 12 (4), 3469-3479. Emergent constraints on equilibrium climate sensitivity in CMIP5: Do they hold for CMIP6?. M Schlund, A Lauer, P Gentine, S C Sherwood, V Eyring, Earth System Dynamics. 114Schlund, M., Lauer, A., Gentine, P., Sherwood, S. C., & Eyring, V. (2020). Emergent constraints on equilibrium climate sensitivity in CMIP5: Do they hold for CMIP6? Earth System Dynamics, 11 (4), 1233-1258. Heat capacity, time constant, and sensitivity of Earth's climate system. S E Schwartz, 10.1029/2007JD008746Journal of Geophysical Research: Atmospheres. D24112Schwartz, S. E. (2007). Heat capacity, time constant, and sensitivity of Earth's climate system. Journal of Geophysical Research: Atmospheres, 112 (D24). Estimating the dimension of a model. G Schwarz, The Annals of Statistics. Schwarz, G. (1978). Estimating the dimension of a model. The Annals of Statistics, 461-464. A global climatic model based on the energy balance of the earth-atmosphere system. W D Sellers, Journal of Applied Meteorology. 83Sellers, W. D. (1969). A global climatic model based on the energy balance of the earth-atmosphere system. Journal of Applied Meteorology, 8 (3), 392-400. A reassessment of temperature variations and trends from global reanalyses and monthly surface climatological datasets. A Simmons, P Berrisford, D Dee, H Hersbach, S Hirahara, J.-N Thépaut, 10.1002/qj.2949Quarterly Journal of the Royal Meteorological Society. 143702Simmons, A., Berrisford, P., Dee, D., Hersbach, H., Hirahara, S., & Thépaut, J.-N. (2017). A reassessment of temperature variations and trends from global reanalyses and monthly surface climatological datasets. Quarterly Journal of the Royal Meteorological Society, 143 (702), 101-119. FAIR v1.3: a simple emissions-based impulse response and carbon cycle model. C Smith, P M Forster, M Allen, N Leach, R J Millar, G A Passerello, L A Regayre, Geoscientific Model Development. 116Smith, C., Forster, P. M., Allen, M., Leach, N., Millar, R. J., Passerello, G. A., & Regayre, L. A. (2018). FAIR v1.3: a simple emissions-based impulse response and carbon cycle model. Geoscientific Model Development, 11 (6), 2273-2297. . C Smith, Z Nicholls, K Armour, W Collins, P Forster, M Meinshausen, Smith, C., Nicholls, Z., Armour, K., Collins, W., Forster, P., Meinshausen, M., . . . Climate change 2021: The physical science basis. Contribution of Working Group I to the sixth assessment report of the Intergovernmental Panel on Climate Change. M Watanabe, V. Masson-Delmotte et al.Cambridge University Press. In PressCambridgeThe Earth's energy budget, climate feedbacks, and climate sensitivity supplementary materialWatanabe, M. (2021). The Earth's energy budget, climate feedbacks, and climate sensitivity supplementary material. In V. Masson-Delmotte et al. (Eds.), Climate change 2021: The physical science ba- sis. Contribution of Working Group I to the sixth assessment report of the Intergovernmental Panel on Climate Change. Cambridge: Cambridge University Press. In Press. Climate variability from annual to multi-decadal timescales in a two-layer stochastic energy balance model: analytic solutions and implications for general circulation models. S Soldatenko, R Colman, https:/www.tandfonline.com/doi/full/10.1080/16000870.2018.1554421Tellus A: Dynamic Meteorology and Oceanography. 71Soldatenko, S., & Colman, R. (2019). Climate variability from annual to multi-decadal timescales in a two-layer stochastic energy balance model: analytic solutions and implications for general circulation models. Tellus A: Dynamic Meteorology and Oceanography, 71 (1). Heat stored in the Earth system: Where does the energy go?. K Von Schuckmann, L Cheng, M D Palmer, J Hansen, C Tassone, V Aich, Earth System Science Data. 123others (2020)Von Schuckmann, K., Cheng, L., Palmer, M. D., Hansen, J., Tassone, C., Aich, V., . . . others (2020). Heat stored in the Earth system: Where does the energy go? Earth System Science Data, 12 (3), 2013-2041. Generalized accept-reject sampling schemes. M T Wells, G Casella, C P Robert, 10.1214/lnms/1196285403A festschrift for herman rubin. Institute of Mathematical Statistics45Wells, M. T., Casella, G., Robert, C. P., et al. (2004). Generalized accept-reject sampling schemes. In A festschrift for herman rubin (Vol. 45, pp. 342-348). Institute of Mathematical Statistics. Values and uncertainties in the predictions of global climate models. E Winsberg, Kennedy Institute of Ethics Journal. 222Winsberg, E. (2012). Values and uncertainties in the predictions of global climate models. Kennedy Institute of Ethics Journal, 22 (2), 111-137. Interior algorithms for linear, quadratic, and linearly constrained convex programming (PhD dissertation). Y Ye, Stanford UniversityYe, Y. (1988). Interior algorithms for linear, quadratic, and linearly constrained convex program- ming (PhD dissertation). Stanford University. Recursive forecasting, smoothing and seasonal adjustment of non-stationary environmental data. P C Young, C N Ng, K Lane, D Parker, 10.1002/for.3980100105Journal of Forecasting. 101-2Young, P. C., Ng, C. N., Lane, K., & Parker, D. (1991). Recursive forecasting, smoothing and seasonal adjustment of non-stationary environmental data. Journal of Forecasting, 10 (1-2), 57-89.
sample_15997
0.945
arxiv
Un discours et un public « Gilets Jaunes » au coeur du Grand Débat National ? Combinaison des approches IA et textométriques pour l'analyse de discours des plateformes « Grand Débat National » et « Vrai débat » Mathieu Brugidou mathieu.brugidou@edf.fr EDF R&D -Boulevard Gaspard Monge 91 120PalaiseauFrance Philippe Suignard philippe.suignard@edf.fr EDF R&D -Boulevard Gaspard Monge 91 120PalaiseauFrance Caroline Escoffier caroline.escoffier@edf.fr EDF R&D -Boulevard Gaspard Monge 91 120PalaiseauFrance Lou Charaudeau lou.charaudeau@edf.fr EDF R&D -Boulevard Gaspard Monge 91 120PalaiseauFrance Un discours et un public « Gilets Jaunes » au coeur du Grand Débat National ? Combinaison des approches IA et textométriques pour l'analyse de discours des plateformes « Grand Débat National » et « Vrai débat » JADT 2020 : 15 es Journées internationales d'Analyse statistique des Données TextuellesWord EmbeddingsTextual Data AnalysisCivic TechPublic DebateYellow Jackets Mots clés : Machine LearningAnalyse des données textuellesCivic TechDébat publicGilets Jaunes 2 MATHIEU BRUGIDOUPHILIPPE SUIGNARDCAROLINE ESCOFFIER ET LOU CHARAUDEAU JADT 2020 : 15 èmes Journées internationales d'Analyse statistique des Données Textuelles (in English)In this contribution, we propose to analyze the statements coming from two "civic tech" platforms -the governmental platform, "Grand Débat National" and, its political and algorithmic response proposed by a Yellow Vest collective, "Vrai Débat" -, by confronting two families of algorithms dedicated to text analysis. We propose to implement, on the one hand, proven approaches in textual data analysis (Reinert/Iramuteq Method) which have recently shown their interest in the analysis of very large corpora and, on the other hand, new methods resulting from the crossroads of the computer worlds, artificial intelligence and automatic language processing. We will examine the methodological solutions for qualifying the social properties of speakers about whom we have little direct information. Finally, we will attempt to present some research questions at the crossroads of the political sociology of public opinion and data science, which such a confrontation opens up.RésuméDans cette contribution, nous nous proposons d'analyser les énoncés issus de deux plateformes de « civic tech »plateforme gouvernementale, le « Grand Débat National » et, sa riposte politique et algorithmique proposée par un collectif de Gilets Jaunes, le « Vrai Débat »-, en confrontant deux familles d'algorithmes dédiées à l'analyse de textes. Nous nous proposons de mettre en oeuvre, d'une part, des approches éprouvées en analyses des données textuelles (Méthode Reinert sous Iramuteq) qui ont montré récemment leur intérêt pour l'analyse de très grand corpus et, d'autre part, des méthodes nouvelles issues du croisement des mondes informatiques, de l'intelligence artificielle et du traitement automatique des langues. Nous nous interrogerons en outre sur les solutions méthodologiques permettant de qualifier les propriétés sociales des locuteurs sur lesquelles nous n'avons que peu d'information directe. Enfin, nous tenterons de présenter quelques questions de recherche au croisement de la sociologie politique de l'opinion publique mais aussi des data science, qu'une telle confrontation ouvre. Introduction Dans cet article, nous nous proposons d'analyser les énoncés issus de deux plateformes de « civic tech » (Benvegnu, 2011 ;Mabi, 2014)la plateforme gouvernementale du « Grand Débat National » (GDN) et sa riposte politique et algorithmique proposée par un collectif de Gilets Jaunes (GJ), le « Vrai Débat » (VD), en combinant deux familles d'algorithmes dédiées à l'analyse de textes. Nous nous proposons de mettre en oeuvre, d'une part, des approches éprouvées en analyse des données textuelles (Méthode Reinert sous Iramuteq) qui ont montré récemment leur intérêt pour l'analyse de très grand corpus (Sebbah et al., 2019 ;Brugidou, 2011) et, d'autre part, des méthodes nouvelles issues du croisement des mondes informatiques, de l'intelligence artificielle et du traitement automatique des langues (Cointet et Parasie, 2018). Nous nous interrogerons notamment sur les solutions méthodologiques permettant de qualifier les propriétés sociales des locuteurs sur lesquelles nous n'avons que peu d'information directe -ce qui constitue pour l'analyse sociologique de ces plateformes mais aussi pour l'analyse des discours recueillis sur le web un obstacle de taille. A partir, du corpus « Entendre la France », issu d'une troisième plateforme proposant un design identique à celui du Grand Débat National, nous disposons d'informations sur les propriétés sociales (âge, sexe notamment) et politiques (soutien aux Gilets Jaunes). Grâce à des algorithmes d'apprentissage, il est possible d'attribuer ces propriétés comme autant de probabilités aux participants du Grand Débat National. L'analyse de ces propriétés réaffectées comme variables illustratives (mots étoilés) au corpus du GDN devrait nous permettre d'avoir une première appréciation sur la pertinence de ces stratégies. Nous chercherons ainsi à préciser la présence spéculaire d'un discours mais aussi d'un public Gilets Jaunes au coeur même du dispositif GDN. Hypothèses et corpus Pour tenter de sortir de la crise politique suscitée par le mouvement des « Gilets Jaunes », le Président de la République a appelé à un « Grand Débat National » comportant notamment des réunions publiques mais aussi une importante phase de débat numérique à travers la mise en place d'une plateforme de délibération en ligne (le « Grand Débat » 1 ). Des représentants des « Gilets Jaunes » ont par ailleurs répliqué en proposant une plateforme de débat alternative intitulée le « Vrai Débat » 2 . Très rapidement, et notamment devant le succès de ces plateformes et l'importance des corpus recueillis (cf. plus bas les corpus), la question de l'analyse et de la synthèse des propositions ou des échanges recueillis sur ces plateformes s'est posée : le recours aux méthodes issues de l'IA ou « Big Data » (Cointet & Parasie, 2018) destinées à traiter de très grands corpus de données est apparu aux différents acteurs 3 comme la seule solution possible pour répondre à la nécessité d'agréger, de hiérarchiser et de classer un très grand nombre de propositions tout en respectant les réquisits de la démocratie participative et/ou délibérative. La conception même du type de démocratie engagée par ces débats et leurs implémentations numériques apparaît en effet comme un enjeu de recherche. 1 https://granddebat.fr/ 2 https://le-vrai-debat.fr/ 3 https://www.lemonde.fr/pixels/article/2019/02/01/grand-debat-en-ligne-et-democratie-l-analyse-et-latransparence-des-donnees-en-question_5417911_4408996.html Les attentes à l'égard de ces approches apparaissent très importantes, peut-être disproportionnées compte-tenu de ce qu'elles sont réellement capables de faire (Boelaert & Ollion, 2018 ;Bellet et al., 2020) et relèveraient ainsi assez classiquement d'une sociologie de la promesse (Joly, 2015 ;Vinck, 2015). Outre l'enjeu politique d'une mise en discussion de ce que les algorithmes font à la démocratie (Cardon, 2015), il y a bien un enjeu scientifique à tenter de cerner ce que peuvent faire (et ce que ne peuvent pas faire) ces méthodes d'analyse automatique. La comparaison du Grand Débat National et du Vrai Débat présente ainsi un intérêt tant du point de vue de la sociologie politique que du point de vue de l'analyse des textes -que l'on considère les approches de textométrie ou de TAL. Il existe d'ores et déjà une très abondante littérature en sciences sociales sur le mouvement des Gilets Jaunes et de nombreux travaux sont en cours 4 . De nombreuses questions portent sur la sociologie des participants à ces débats : les premiers résultats des travaux en cours suggèrent une sociologie très différente de ces deux publics. L'enquête du laboratoire PACTE 5 (Guerra et al. 2019 ;Abrial et al. 2020) réalisée auprès de groupes de Gilets Jaunes sur Facebook décrit un public majoritairement constitué de travailleurs précaires 6 , habitant en territoire rural ou périurbain et refusant majoritairement de se situer sur l'axe gauche-droite. L'enquête CEVIPOF menée sur la population des participants aux réunions (RIL) du Grand Débat National dresse un portrait assez éloigné de ce premier profil : la moyenne d'âge des personnes interrogées est en effet de 57 ans, la moitié sont des retraités, 62% d'entre eux disent posséder un diplôme de l'enseignement supérieur, enfin 54% déclarent s'en « sortir plutôt facilement avec les revenus du ménage ». On note par ailleurs une surreprésentation des personnes habitant les grandes villesnotamment celles ayant placé en tête Macron lors du premier tour de l'élection présidentielle (CEVIPOF, 2019). Ces enquêtes donnent des indications précieuses mais seulement indirectes : rien ne nous permet en effet d'extrapoler à partir de l'enquête sur les RIL ou sur les groupes Facebook GJ aux publics des débats numériques. Nous ne disposons pas de données directes décrivant le profil des participants aux deux plateformes de débat, la seule information disponible est le code postal pour le GDN. Nous avons travaillé sur les corpus consacrés à la transition environnementale extraites de ces deux plateformes et sur un troisième corpus issus de la plateforme « Entendre la France ». Celle-ci a récolté par l'intermédiaire de Facebook les réponses au même questionnaire que celui proposé par le GDN. Il s'agit d'un public qui est probablement nettement plus jeune que celui du GDN -c'est d'ailleurs l'objectif poursuivi par les promoteurs de la plateforme. A la différence du GDN, Entendre la France posait une série de questions sociodémographiques (notamment le sexe, l'âge) mais aussi celle du soutien aux Gilets Jaunes. La moitié des participants à la plateforme environ ont répondu à celles-ci. Elles constitueront des informations précieuses pour tenter de reconstituer les profils sociopolitiques des participants au Grand Débat National. Un discours Gilets Jaunes au coeur du Grand Débat National ? Notre premier objectif consiste à comparer les discours recueillis sur les plateformes GDN et VD à propos de la transition environnementale. Cette comparaison aura toutefois une portée limitée, elle portera sur les thématiques, les lexiques et donnera quelques aperçus sur les formes du discours. Elle se contentera de chercher des indices d'un discours GJ dans le GDN. Nous n'analyserons ni le détail des propositions (Zancarini et Ventresque, 2020), ni ne comparerons les énoncés par thématique (Loubère et Marchand, 2020). D'un point de vue méthodologique, nous adopterons une approche textométrique (spécificités puis classification hiérarchique descendante sous Iramuteq). Analyse des spécificités L'analyse des spécificités fait apparaître une sur-représentation dans le GDN 8 des termes se rapportant au dérèglement climatique et de ses effets (transition, sécheresse, érosion, déforestation) au niveau mondial (global, planète). D'autres enjeux environnementaux sont aussi particulièrement évoqués comme la biodiversité et les causes de ces dérèglements comme la pollution (pollueur, fossile, diesel, charbon mais aussi les pesticides). On notera toutefois qu'une partie de ces problèmes ont été l'objet d'une injection thématique via la question fermée 1 (qui propose comme enjeux le dérèglement climatique (crue, sécheresse), l'érosion du littoral, la pollution de l'air, et la biodiversité et la disparition de certaines espèces). L'analyse des spécificités montre par ailleurs une surreprésentation de certains verbes comme changer, réduire, diminuer voire arrêter ou interdire. Elle met aussi en évidence un lexique propre au registre moral comme prise de conscience, éduquer, éducation, responsable, habitude, effort, courage… Les citoyens étant invités dans nombre de propositions à une prise de conscience des problèmes et à changer de comportement. Des verbes de modalisation comme croire ou falloir relèvent de ce registre déontique -on notera qu'il s'agit d'un registre introduit par le libellé de la question 2 « Que faudrait-il faire… ». Enfin, on note la surreprésentation d'un lexique macro-économique qui développe notamment le thème de la croissance (investir, entreprise…). L'analyse des spécificités du VD fait apparaître une liste d'enjeux sensiblement différents : la question de la vitesse et des radars sur les routes et les autoroutes constitue ainsi un thème qui assez logiquement, compte-tenu de l'histoire du mouvement des Gilets Jaunes caractérise ce corpus 9 . Les questions liées à l'alimentation sont aussi caractéristiques de ces discours (alimentaire, fruit, fruitier, légume, étiquetage, label paysan, producteurs, distributeurs, PAC). Il est vrai que le libellé du thème sur la plateforme VD faisait explicitement allusion aux questions agricoles. La souffrance animale notamment dans les abattoirs (ainsi que les conditions de leur mise à mort) donne lieu à un lexique qui s'avère caractéristique du Vrai Débat par rapport au Grand Débat National. Les conditions de vie notamment économiques (prix, euro, montant, facture, gratuité, vendre, vente), la dénonciation d'un marché et de la spéculation sont également repérables à travers l'analyse des spécificités. Ce thème fait probablement écho à un discours sur des privatisations jugées indues (privé, nationaliser, public, coopératif) dont on sait qu'elles ont constitué un des thèmes de propositions de la plateforme (dénonciation de la privatisation d'Aéroport de Paris etc.). Le lexique se rapportant à la situation de la sncf (ligne, réseau) peut sans doute être rapproché de cette thématique. Enfin, on note une série de termes se référant à des controverses impliquant EDF notamment le compteur Linky mais aussi la question de l'enfouissement des déchets à Bure. Une série de verbes caractérise ces discours (refuser, suspendre exiger mais aussi permettre) dont un verbe de modalisation particulièrement employé : pouvoir. Classification hiérarchique descendante Une classification hiérarchique descendante sur l'ensemble du corpus formé par le GDN et le VD permet d'éclairer les thématiques privilégiées par l'une ou l'autre plateforme de débat. Toutefois compte-tenu de la différence de taille entre les deux sous-corpus (le corpus du GDN consacré aux thématiques environnementales est environ 60 fois plus important que celui du VD 10 ), la structure thématique mise en évidence est clairement celle du GDN. La première coupure de la classification permet de vérifier que c'est bien la structure thématique du GDN qui apparaît dans cette analyse : cette première coupure oppose en effet une vision macroscopique de la transition environnementale à une vision plus microscopique, centrée notamment sur les pratiques. Les questions du GDN invitent le répondant à se focaliser successivement sur ces deux types de visions, invitant à développer un discours en « je », centré sur les changements de comportements individuels (notamment question 38 à 42 11 , puis à JADT 2020 : 15 èmes Journées internationales d'Analyse statistique des Données Textuelles envisager les problèmes sous un angle plus collectif et à produire ainsi un discours en « nous » (33 et 34, puis 43 à 48) 12 . Cette branche de la classification plus « politique » se scinde d'une part, en un groupe de deux classes d'énoncés focalisés sur la biodiversité et l'agriculture et les produits bio et, d'autre part, en un groupe de cinq classes qui se scinde lui-même en deux classes très proches sur le changement climatique et l'énergie, et trois classes à tonalité soit universaliste (monde, planète, humanité etc.), soit discutant les conditions politiquesnotamment au niveau européenou économiques de la transition environnementale. Toutes ces classes à l'exception de la classe sur le changement climatique s'avèrent caractéristiques du VD, i.e. sont caractérisées par la variable illustrative (mot étoilé dans le vocabulaire Reinert /Iramuteq) VD. La branche de discours en « je » portant prioritairement sur un compte-rendu des pratiques réelles ou jugées souhaitables comprend deux sous-groupes d'énoncés : le premier composé de trois classes porte sur le transport (domicile-travail, rural-urbain et transport en commun en ville), le second porte sur des pratiques plus domestiques ou du moins liées au foyer puisqu'il s'agit d'une part de pratiques de tri des déchets ou de compost et d'autre part, d'isolation ou de chauffage. Toutes ces classes, à l'exception de celle développant la thématique du transport domicile/travail sont caractéristiques du GDN 13 . 12 Par exemple Q48. « Que pourrait faire la France pour faire partager ses choix en matière d'environnement au niveau européen et international ? » 13 Cela ne signifie pas que la première personne du singulier soit plus utilisée dans GDN que dans le VD mais que celle-ci, dans le GDN, est assez systématiquement associée à un discours sur les pratiques personnelles, le « nous » étant réservé aux énoncés plus macroscopiques. On recense par ailleurs un emploi important de la première personne du singulier dans les énoncés d'arguments recueillis dans le VD. Ces énoncés sont en outre caractérisés par une surreprésentation de connecteurs de condition et de causeanalyse Tropes. On constate ici d'une part, la congruence de ces résultats avec les premières indications données par l'analyse de spécificités, d'autre part, les effets de cadrage très importants des questions du GDN : en effet toutes les classes portant sur la pratique s'avèrent caractéristique du GDN. Le VD (le sous corpus est rappelons-le beaucoup plus petit) s'avère par contraste caractéristique des énoncés en « nous ». Un public Gilets Jaunes au coeur du Grand Débat National ? Pour caractériser les locuteurs, nous avons utilisé le corpus du site « Entendre la France » 14 . Il s'agit du site d'une association dont « le but est de permettre au plus grand nombre de Français de s'exprimer de la manière la plus simple possible, et d'être entendus ». Les utilisateurs pouvaient répondre aux questions du Grand Débat, directement sur le site Web mais également via Messenger. En plus des questions du Grand Débat, ils pouvaient renseigner les caractéristiques suivantes : code postal, commune, type de commune, sexe, âge, formation, profession, taille de l'organisation et position vis-à-vis des GJ. Nous avons retenu les variables suivantes :  Sexe : 2 catégories homme/femme ;  Age : 7 catégories réorganisées en 4 : « jeune », « jeune actif », « actif » et « senior » ;  Position vis-à-vis des GJ : 3 catégories réorganisées en 2 : « soutient/ne soutient pas ». L'objectif était d'utiliser le contenu textuel des réponses pour prédire ces variables à l'aide de différentes techniques de « Machine Learning ». Machine learning Pour prédire chacune des 3 variables, 3 couples « données d'apprentissage/données de test » ont été constitués 15 , données réparties en 70% pour l'apprentissage et 30% pour le test. Les méthodes suivantes ont ensuite été testées : Bayésien naïf Il s'agit d'une méthode robuste et très rapide qui a fait ses preuves, par exemple dans le cadre de la détection des spams dans les mails. Basée sur le célèbre théorème de Bayes, la méthode calcule la probabilité d'apparition des mots dans les différentes catégories, exemple « soutient » et « soutient pas ». Pour prédire l'appartenance d'un texte à une catégorie, la méthode calcule la probabilité d'appartenance aux différentes catégories et l'affecte à celle dont la probabilité est la plus élevée. Régression logistique La régression logistique vise à prédire les valeurs d'une variable catégorielle binaire (homme/femme ou soutient/soutient_pas). Dans le cas de l'âge, pour lequel il y a 4 catégories, nous entrainons 4 classifieurs binaires de type one against all. Pour prédire l'appartenance d'un texte à une catégorie, les 4 classifieurs sont appliqués, le texte est affecté à la catégorie pour laquelle le score du classifieur est le plus élevé. JADT 2020 : 15 èmes Journées internationales d'Analyse statistique des Données Textuelles Word Embedding + Docov Dans un premier temps, un modèle Word2Vec (Mikolov et al., 2013) est appris sur les données textuelles. Ensuite, les documents vont être transformés en vecteurs à l'aide de l'algorithme DoCoV pour « Document Co Variance » (Torki, 2018) qui calcule une représentation vectorielle du document à partir de la matrice de covariance des embeddings de mots. Ces méthodes ont montré qu'elles pouvaient fournir des représentations vectorielles de qualité . Pour chaque catégorie (2 dans l'exemple du soutien aux Gilets Jaunes), est calculé le barycentre en moyennant les vecteurs des documents de chaque catégorie. Pour prédire la catégorie d'un document, il suffit de calculer sa similarité avec le centre des différentes catégories et de l'affecter à la catégorie pour laquelle la similarité est la plus grande. Bert et CamemBERT Enrichir l'analyse des données textuelles en documentant les propriétés des locuteurs Le corpus « Entendre la France » nous a donc permis d'entrainer des classifieurs à prédire l'âge des répondants, leur sexe et leur soutien ou non à la cause des Gilets Jaunes. Nous avons appliqué les classifieurs ainsi entrainés sur le corpus du Grand Débat, puis un système de vote 16 Les mêmes scores sont obtenus avec CamemBERT. La faiblesse des résultats obtenus avec BERT et CamemBERT est un peu surprenante, étant donné que ces méthodes obtiennent de très bons résultats dans la plupart des tâches de classification. nous a permis de conserver le vote majoritaire entre ces 3 classifieurs et de calculer 3 nouvelles variables étoilées ajoutées au fichier Iramuteq. Il est désormais possible d'attribuer ces propriétés socio-politiques reconstituées aux locuteurs du GDN. Bien sûr, cette attribution est hypothétique : elle suppose notamment de considérer que le public de la plateforme Entendre la France présente les mêmes propriétés sociolinguistiques que les locuteurs s'exprimant sur la plateforme du GDN. Or, nous avons toutes raisons de croire que ces deux publics diffèrent : la plateforme d'Entendre la France ayant été notamment créée pour pallier une participation supposée insuffisante des plus jeunes. Le profil des locuteurs d'Entendre la France est en effet beaucoup plus jeune que celui des participants aux réunions publiques tel que l'enquête CEVIPOF nous le restitue. La reconstitution de l'âge des participants du GDN double ainsi le nombre de jeunes actifs, (mais il divise par deux celui des seniors). Il est possible que le profil des seniors déclarés d'Entendre la France soit assez différent de celui des seniors du GDN. La prédiction de la variable de genre nous révèle par ailleurs un public du GDN sensiblement plus masculin que celui des participants à la plateforme Entendre la France. Enfin, l'algorithme nous donne une proportion de 36% de participants de la plateforme GDN soutenant le mouvement des GJ et de 64% ne le soutenant pas. Cette proportion apparaît vraisemblable, on s'attend en effet à une proportion forte de personnes ne soutenant pas les GJ dans le GDN lancé par le Président Macron et critiqué par ailleurs par les GJ. Toutefois, si cette proposition est minoritaire, elle est loin d'être négligeable ce que nous laissait soupçonner une analyse même superficielle des discours issus du GDN. Cette proportion est par ailleurs comparableenviron 40% de soutien aux GJà celle trouvée par B. Monnery (2020) à partir d'une méthode différente (un modèle de régression construit à partir de l'analyse des réponses aux questions fermées sur Entendre la France pour expliquer le soutien aux Gilets Jaunes). Entendre la France Prédiction Une prédiction interprétable ? L'approche que nous avons adoptée ici, pour mieux connaître les propriétés sociales des locuteurs du GDN, emprunte une voie probabiliste qui permet de qualifier directement le locuteur. Une autre approche « indirecte » mais certaine qui caractérise le contexte sociodémographique du locuteur à partir de son lieu d'habitation via les codes postaux est néanmoins possible. L'approche par réseaux de neurones pose, on le sait, d'importants problèmes d'explicabilité, (notamment Bollaert et Ollion, 2018). A la différence des approches de type régression, il n'est pas possible de construire un modèle et de donner une valeur à différentes variables explicatives. En revanche, dans le cas qui nous occupe, il est possible de vérifier si de « pseudo variables », que l'on peut qualifier encore de « propriétés probabilistes » donnent lieu à des JADT 2020 : 15 èmes Journées internationales d'Analyse statistique des Données Textuelles interprétations intéressantes du point de vue de la sociologie politique. La figure 1 présente la classification analysée plus haut mais caractérise aussi les classes d'énoncés avec les pseudo variables issus du machine learning (lignes en bas de la figure 1). La plupart des classes d'énoncés « en nous », dont nous savons par ailleurs qu'elles sont caractéristiques du VD s'avèrent aussi caractéristiques des locuteurs qui soutiendraient les Gilets Jaunes selon l'algorithme d'apprentissage (à partir d'Entendre le France). Seule la classe sur le changement climatique, dont on sait par ailleurs qu'elle est caractéristique du GDN, serait le fait de locuteurs ne soutenant pas les Gilets Jaunes. Inversement toutes les classes d'énoncés portant sur les pratiques seraient caractéristiques de locuteurs ne soutenant pas les Gilets Jaunes. Ces résultats convergents avec les premières analyses tendent à conforter la qualité des pseudovariablesau moins celle portant sur le soutien au mouvement des Gilets Jaunes. L'analyse de la variable de genre et d'âge donne par ailleurs des résultats que l'on peut qualifier de « vraisemblables », ou de non contre-intuitifs : les femmes seraient ainsi surreprésentées parmi les locuteurs de la classe de discours universaliste (monde/planète), de la classe d'énoncés sur les produits bio et la biodiversité. Elles seraient aussi caractéristiques des classes transport rural-urbain et domicile-travail mais aussi tri des déchets. Les hommes seraient surreprésentés parmi les locuteurs des classes conditions politiques et économiques de la transition environnementale, énergie, transport en commun et isolation/chauffage. Le même type de commentaires pourrait être fait à propos de la pseudo-variable sur les classes d'âge. Conclusions A l'issue de ce parcours, plusieurs conclusions peuvent être tirées et sans doute autant de questions posées. Ces conclusions portent sur les discours, les effets du design des plateformes, la sociologie des participants et enfin les algorithmes et leurs usages. Sur les discours, l'analyse met en évidence des cadrages différents des problèmes (GDN : dérèglement climatique, taxer les transports vs agriculture intensive/alimentation, croissance/décroissance/humanité/démographie, débats scientifiques/lobbys/politique pour le VD) mais aussi des registres plus politiques ou focalisés sur les comportements des individus, favorisant un registre plus moral ou privilégiant des mesures, des actions à entreprendre plutôt que la description des problèmes. Toutefois, une partie importante de ces différences semble relever des effets de cadrage important du design des plateformes. Dans le GDN, des questions ouvertes injectent des thèmes et délimitent des espaces d'action collective et un espace d'actions individuelles, énoncés orientés problème/solution, quand le VD est caractérisé par un sous-ensemble d'énoncés destinés à soutenir ou combattre des propositions par rapport l'objet de vote. Il convient ici de souligner une limite importante de cette analyse qui ne prend pas en compte la dimension délibérative de cette plateforme visant notamment à organiser la hiérarchisation des propositions par l'échange d'arguments et le vote. L'analyse des discours telle qu'elle a été conduite ne reflète pas cette hiérarchisation, la hiérarchie des thèmes et des classes ne reflétant pas la hiérarchie des votes. Une voie possible consisterait à caractériser chacun des énoncés analysés dans le VD par le poids des votes, solution que nous devons à Loubère et Marchand (2020). Malgré ces effets de cadrage non négligeables, l'analyse fait apparaître dans le GDN les marques d'un discours proche des Gilets Jaunes dans la mesure où il reflète les thèmes et le discours analysés sur la plateforme VD. Concernant la sociologie des publics, nous avons proposé une approche par machine learning qui permet d'inférer certaines des propriétés socio-politiques des locuteurs du GDN. Cette analyse sur le fond montre sinon la présence de locuteurs GJ, du moins de soutien à ce mouvement. La question de la sociologie des Gilets Jaunes et de leurs soutiens reste très largement ouverte, on sait par ailleurs qu'elle a probablement varié dans le temps, ce qui plaiderait pour une analyse diachronique du corpus. La question de la reconstitution de données absentes (pseudo variables reconstituant les propriétés sociales et politiques des locuteurs) est aussi un chantier à peine exploré : la plus grande prudence est de mise quant aux conditions de ces inférences. Une des voies possibles nous semble, à défaut d'explicabilité des approches de machine learning de discuter de leur interprétabilité à la lumière notamment des travaux en sociologie politique sur le mouvement des Gilets Jaunes et sur le Grand Débat National. Enfin, ces travaux posent une série de questions sur la comparaison entre des approches de type ADT et IA mais aussi leur combinaison. Sans les détailler ici, on soulignera les vertus des approches Reinert sous Iramuteq qui permettent de hiérarchiser des cadrages, celles plus générales de la textométrie qui propose de calculer le poids des variables lexicales ou des formes de discours (par exemple les marques de l'argumentation). D'autres recherches montrent que les algorithmes de plongement de mots s'avèrent par ailleurs des outils d'exploration à la fois puissants et fins des thématisations par l'identification de champs lexicaux (Brugidou et al., 2019). Figure 1 : 1Dendrogramme de la classification descendante hiérarchique de l'ensemble des deux corpus de débat, pseudo variables et spécificités JADT 2020 : 15 èmes Journées internationales d'Analyse statistique des Données TextuellesTaille Vrai Débat 7 sans arguments Vrai Débat et arguments Grand Débat National Entendre la France Nombre de textes 2 599 6 373 87 552 39 430 Nombre de formes 17 707 22 380 78 829 34 582 Nombre d'occurrences 225 039 351 991 21 764 365 1 273 520 Nombre de lemmes 12 059 15 034 45 267 22 376 Tableau 1 : Taille des corpus consacrés au thème de la transition environnementale Ces méthodes utilisent des architectures neuronales et sont entrainées sur des corpus volumineux et sur plusieurs tâches, une des tâches consistant à prédire un mot aléatoirement masqué. Après cette phase générique, une phase plus spécifique de « transfert learning » par « fine-tuning » est appliquée pour adapter plus finement les données au corpus cible.On constate que les 4 méthodes fournissent sensiblement les mêmes résultats. Néanmoins, BERT est un peu en dessous 16 et a tendance à affecter très majoritairement les documents dans la catégorie « Soutient », ce qui explique son faible score de rappel. Pour cette raison, seules les 3 premières méthodes sont conservées dans la suite.Les méthodes précédentes ne tiennent pas compte de l'ordre des mots dans la phrase et c'est précisément ce qu'apportent les méthodes de type « Masked Language Model ». Nous avons utilisé Bert (Devlin et al., 2018) (pour Bidirectional Encoder Representations from Transformers) et CamemBERT (Martin L et al., 2019), une version de BERT entrainée sur des données françaises. Au final, ces méthodes permettent d'obtenir des représentations vectorielles des documents « au plus près des données » et sont utilisées dans différentes tâches comme la classification supervisée ou non-supervisée. Naive Bayes Regression Docov BERT Précision 0,664 0,648 0,645 0,680 Rappel 0,667 0,645 0,648 0,609 F-Mesure 0,665 0,646 0,641 0,589 Tableau 2 : comparaison des 4 méthodes pour la prédiction du soutien aux GJ Les deux journées d'étude des 16 et 17 janvier 2020, « Quels outils pour l'analyse des Gilets Jaunes », attestent sous l'angle méthodologie de la diversité et inventivité des approches dans les travaux en cours. 5 https://www.pacte-grenoble.fr/programmes/grande-enquete-sur-le-mouvement-des-gilets-jaunes 6 67% peuvent être considérés comme étant dans une « situation précaire » , le double de la moyenne nationale. Corpus disponible sur https://www.le-vrai-debat.fr/syntheses/ 8 Par ailleurs, une analyse des spécificités comparant l'ensemble des thématiques du GDN et du VD montre l'importance du lexique de la transition environnementale pour le GDN, le VD se caractérisant davantage par les thématiques portant notamment sur la réforme de la démocratie (referendum, constitution, etc.). La limitation de la vitesse à 80km/h sur les routes (sans séparation entre les voies) constitue un des éléments déclencheurs de ce mouvement avec la question de la taxe carbone. Toutefois, cela ne signifie pas que les propositions de ce mouvement portent exclusivement, ni même prioritairement sur cet enjeu comme l'ont montré notamment Zancarini et Ventresque (2020).10 Les problèmes posés par la comparaison de ces deux corpus de tailles très différentes sont abordés dans Loubère et Marchand, (2020). 11 Par exemple Q39. « Quelles seraient pour vous les solutions les plus simples et les plus supportables sur un plan financier pour vous inciter à changer vos comportements ? » https://www.entendrelafrance.fr/ 15 Les utilisateurs n'étaient pas tenus de renseigner tous les champs. Ont été gardées les réponses des personnes ayant renseigné leur âge pour prédire la variable « âge ». % calculés sur le nombre de réponses qualifiées (âge : 10 637 ; sexe : 12 398 ; soutien : 6 278). Une approche méthodologique mixte des liens entre populisme et précarité », Journées d'études. Abrial, Sciences Po Paris. 1617« Les Gilets Jaunes sous toutes les couturesAbrial et al. (2020), « Les Gilets Jaunes sous toutes les coutures. Une approche méthodologique mixte des liens entre populisme et précarité », Journées d'études, Sciences Po Paris, 16 et 17 janvier 2020. « Grand débat et IA : quelle transparence pour le traitement des données ? Une tentative de rétro-ingénierie de la synthèse. A Bellet, M Keller, N Vauquier, P Denis, Journées d'études. 16Bellet A., Keller M., Vauquier N. & Denis P., (2020), « Grand débat et IA : quelle transparence pour le traitement des données ? Une tentative de rétro-ingénierie de la synthèse » -Journées d'études, Sciences Po Paris, 16 et 17 janvier 2020. La politique des netroots La démocratie à l'épreuve d'outils informatiques de débat public. N Benvegnu, CSI, Ecole des Mines, Directeur de thèse : M. CallonBenvegnu N. (2011). La politique des netroots La démocratie à l'épreuve d'outils informatiques de débat public. CSI, Ecole des Mines, Directeur de thèse : M. Callon The Great Regression -Machine Learning, Econometrics, and the Future of Quantitative Social Sciences. J Bolaert, E Et Ollion, Revue Française de Sociologie. 593Bolaert J. et Ollion E. (2018), "The Great Regression -Machine Learning, Econometrics, and the Future of Quantitative Social Sciences" Revue Française de Sociologie, 2018/3 Vol. 59, pp.475-508 M Brugidou, Le Grenelle de l'environnement : corpus et dispositif d'écriture. » Corpus. 1Brugidou M. (2011). « Le Grenelle de l'environnement : corpus et dispositif d'écriture. » Corpus, 1 (10), pp.155-178. Une promesse technologique et démocratique : Analyser les énoncés recueillis sur les plateformes du « grand débat » et du « vrai débat» avec les outils de l'analyse des données textuelles et des algorithmes issus de l'IA. AFS Classer Déclasser Reclasser 8 congrès de l'association française de sociologie RT20 Méthodes. M Brugidou, P Suignard, P Escoffier, L Charaudeau, Aix en Provence, FranceBrugidou M., Suignard P., Escoffier P., Charaudeau L. (2019), Une promesse technologique et démocratique : Analyser les énoncés recueillis sur les plateformes du « grand débat » et du « vrai débat» avec les outils de l'analyse des données textuelles et des algorithmes issus de l'IA. AFS Classer Déclasser Reclasser 8 congrès de l'association française de sociologie RT20 Méthodes, Aug 2019, Aix en Provence, France. A quoi rêvent les algorithmes. Nos vies à l'heure des big data. D Cardon, Seuil, la république des idéesCardon D. (2015) A quoi rêvent les algorithmes. Nos vies à l'heure des big data, Seuil, la république des idées. « Ce que le big data fait à l'analyse sociologique des Textes, Un panorama critique des recherches contemporaines ». Revue française de sociologie. J.-P Cointet, S Et Parisie, 3Cointet J.-P. et Parisie S. (2018). « Ce que le big data fait à l'analyse sociologique des Textes, Un panorama critique des recherches contemporaines ». Revue française de sociologie, 2018/3 vol. 59, pages 533 à 557 Bert: Pre-training of deep bidirectional transformers for language understanding. J Devlin, arXiv:1810.04805JADT 2020 : 15 èmes Journées internationales d'Analyse statistique des Données Textuelles. arXiv preprintDevlin J. et al. (2018). Bert: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805, 2018. JADT 2020 : 15 èmes Journées internationales d'Analyse statistique des Données Textuelles Populist Attitudes Among the French Yellow Vests. T Guerra, F Gonthier, C Et Alexandre, In pressGuerra T., Gonthier F. et Alexandre C. (2019), "Populist Attitudes Among the French Yellow Vests." Populism, no 2. In press. Joly P.-B , Le régime des promesses technoscientifiques ». in Marc Audétat (éd.). Sciences et technologies émergentes : pourquoi tant de promesses ? Paris : Éditions Hermann. Joly P.-B. (2015). « Le régime des promesses technoscientifiques ». in Marc Audétat (éd.). Sciences et technologies émergentes : pourquoi tant de promesses ? Paris : Éditions Hermann, 31-47. L Loubère, P Et Marchand, Les thématiques du Grand Débat et du Vrai Débat : approche textométrique », Journées d'études. 16Loubère L. et Marchand P., (2020), « Les thématiques du Grand Débat et du Vrai Débat : approche textométrique », Journées d'études, Sciences Po Paris, 16 et 17 janvier 2020. Le débat CNDP et ses publics à l'épreuve du numérique : entre espoirs d'inclusion et contournement de la critique sociale, thèse en science de l'information et de la communication. C Mabi, Sous la direction de Laurence Monnoyer-Smith et de Serge BouchardonMabi C. (2014). Le débat CNDP et ses publics à l'épreuve du numérique : entre espoirs d'inclusion et contournement de la critique sociale, thèse en science de l'information et de la communication. Sous la direction de Laurence Monnoyer-Smith et de Serge Bouchardon. CamemBERT: a Tasty French Language Model. L Martin, arXiv:1911.03894arXiv preprintMartin L. et al. (2019). "CamemBERT: a Tasty French Language Model." arXiv preprint arXiv:1911.03894 Distributed representations of words and phrases and their compositionality. T Mikolov, Advances in neural information processing systems. Mikolov T. et al., (2013). "Distributed representations of words and phrases and their compositionality". In : Advances in neural information processing systems. p. 3111-3119. « Qui a participé au GrandDébat.fr ? Prédiction du soutien aux Gilets Jaunes chez les contributeurs à partir d'une deuxième plateforme. B Monnery, Journées d'études. Po Paris16Monnery B. (2020), « Qui a participé au GrandDébat.fr ? Prédiction du soutien aux Gilets Jaunes chez les contributeurs à partir d'une deuxième plateforme », Journées d'études, Sciences Po Paris, 16 et 17 janvier 2020. « Les gilets jaunes, des cadrages médiatiques aux paroles citoyennes. B Sebbah, 26Sebbah B. et al. (2018), « Les gilets jaunes, des cadrages médiatiques aux paroles citoyennes », 26 novembre 2018 : https://www.lerass.com/wp-content/uploads/2018/01/Rapport-Gilets-Jaunes-1.pdf Participation d'EDF R&D à DEFT 2019: des vecteurs et des règles! P 17. Suignard Ph, Suignard Ph. et al. (2019) Participation d'EDF R&D à DEFT 2019: des vecteurs et des règles! P 17. « A document descriptor using covariance of word vectors. M Torki, Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics. the 56th Annual Meeting of the Association for Computational LinguisticsShort Papers2Torki, M. (2018). « A document descriptor using covariance of word vectors ». In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 2 : Short Papers), pp. 527-532. « Les digital humanities comme promesse pour et par les sciences humaines. D Vinck, Marc Audétat (éd.). Sciences et technologies émergentes : pourquoi tant de promesses ? Paris : Éditions Hermann. Vinck D. (2015). « Les digital humanities comme promesse pour et par les sciences humaines ». in Marc Audétat (éd.). Sciences et technologies émergentes : pourquoi tant de promesses ? Paris : Éditions Hermann, 131-145.
sample_16109
0.9595
arxiv
Anti-positivismo, ciencias teóricas y relatividad en la Argentina de la década de 1920 Anti-positivism, theoretical sciences and relativity in the Argentina of the 1920s Alejandro Gangui Instituto de Astronomía y Física del Espacio Conicet Eduardo L Ortiz Universidad de Buenos Aires Imperial College Londres Anti-positivismo, ciencias teóricas y relatividad en la Argentina de la década de 1920 Anti-positivism, theoretical sciences and relativity in the Argentina of the 1920s relativity -positivism -theoretical physics -theoretical sciences -Einstein RESUMENHacia principios de la década de 1920 es posible detectar una fractura en la percepción de la relatividad en la Argentina, caracterizada por la aparición de una serie de estudios de índole estrictamente teórica en paralelo con otra enfocada hacia la cultura general. En este trabajo tratamos de relacionar esa fractura con los avances de la crítica anti-positivista al nivel de la cultura superior en la Argentina. Esos nuevos enfoques configuraron una visión igualmente nueva de la ciencia, que cuestionaba la metodología tradicional de las ciencias experimentales y atribuía a las ciencias teóricas una posición más destacada que en el pasado. En este trabajo se hace un análisis detallado de un estudio teórico sobre la relatividad publicado en 1923 por José B. Collo y Teófilo Isnardi, dos físicos argentinos que unos años antes habían estudiado en Alemania, y que constituye una de las contribuciones emblemáticas de este nuevo enfoque.Palabras clave relatividadpositivismo -Física teóricaciencias teóricas -Einstein.ABSTRACTObserving the early years of the 1920's, it is possible to detect a fracture in the perception of relativity theory in Argentina, characterized by the publication of a series of strictly scientific studies on this theory, in parallel with presentations aimed at a generalculture level. In this work, we attempt to relate this fracture with the advances made by Anti-Positivist ideas in the higher echelons of Argentine culture. The new philosophical approach configured a new vision of science that questioned the traditional methodology of the experimental sciences and attributed to the theoretical sciences a more prominent role than they had in the past. In this work, we present a detailed account of a 1923 paper by José B. Collo and Teófilo Isnardi, two young Argentine physicists trained in Germany, which is a representative contribution to this new trend. INTRODUCCIÓN Estudios sobre el espaciotiempo y la radiación comenzaron a aparecer en la Argentina hacia fines del siglo XIX, en trabajos de Valentín Balbín, Jorge Duclout y de otros autores. En la primera década del siglo XX se publicaron también notas sobre la materia y la radiación y sobre la nueva teoría de la relatividad. Esta última parecía ofrecer una visión unificada de la materia y la energía e introducía concepciones nuevas sobre la estructura del espacio físico. Esos estudios tenían un carácter informativo serio y se difundieron en medios de prestigio científico local: revistas universitarias, revistas de ingeniería, y en los Anales de la Sociedad Científica Argentina. Sus autores eran, principalmente, miembros acreditados del sector académico; argentinos unos, extranjeros otros. A partir de las observaciones astronómicas de Arthur S. Eddington, en 1919, que parecían comprobar la veracidad de la teoría de Einstein, los trabajos relacionados con esa teoría se multiplicaron. En este punto del proceso de introducción de la teoría de la relatividad en la Argentina se produjo una bifurcación de intereses, que no es tampoco ajena al proceso de introducción de la relatividad en otros países de la América Latina. Por una parte, y como había ocurrido con otras grandes teorías en el pasado-el transformismo darwinista, por ejemplo-se pensaba en esos años que la teoría de la relatividad podría abrir panoramas que iban más allá de la estricta innovación científica, y que podrían afectar nuestra concepción de la naturaleza. A esta vertiente pertenece un grupo de trabajos, notas y conferencias, entre las que se destacan las del erudito poeta Leopoldo Lugones i . En ellas se tocaron problemas con un contenido cultural y a veces filosófico, en las que el nivel científico fue muy variable. De estos trabajos se hicieron eco publicaciones periódicas de un carácter más amplio que las estrictamente científicas. Por ejemplo, prestigiosas revistas culturales, como la Revista de Filosofía, lo mismo que las ediciones dominicales de los principales periódicos, particularmente La Nación y La Prensa de Buenos Aires, entonces decanos de la prensa argentina. En paralelo con ese creciente aporte de explicaciones de la teoría a un nivel popular culto, hacia principios de la década de 1920 se robusteció una vertiente científica teórica que, con mayor o menor suerte, pretendió explicar las teorías de Einstein con un mínimo de concesiones a las dificultades que presentaba su tecnicismo original. Esos trabajos, que pertenecen a un interesante intento de aproximación a las ciencias teóricas, pretendían ser claros, pero no eran de lectura fácil. Debido a su naturaleza, y al público al que estaban enfocados, esos estudios buscaron nuevamente el amparo de revistas científicas, o el de aquellas que aspiraban a cubrir parcelas muy cercanas a la ciencia como, por ejemplo, las de ingeniería. En una serie de trabajos muy recientes ii se ha intentado relacionar el interés de esos años por la teoría de la relatividad con un interesante giro hacia las ciencias teóricas que tuvo lugar dentro de las capas más aquilatadas de la cultura argentina y que se relaciona con la llamada polémica anti-positivista. Entre las corrientes más significativas de esa polémica cabe citar la postura epistemológica que encabezaban los filósofos Coriolano Alberini y Alejandro Korn en la Facultad de Filosofía de la Universidad de Buenos Aires, donde iniciaron una dura y sistemática campaña contra el llamado positivismo argentino, que había dominado en los círculos intelectuales locales desde aproximadamente la última década del siglo diecinueve. Hemos usado positivismo como una etiqueta conveniente para indicar una forma local del positivismo francés a la que se incorporaron elementos provenientes de doctrinas asimiladas anteriormente en la Argentina, del cientificismo y del pragmatismo. Las nuevas tendencias filosóficas de corte anti-positivista comenzaron a desarrollarse en la Argentina hacia mediados de la década de 1910 y culminaron a principios de la de 1920, cuando virtualmente habían adquirido ya control de la escena cultural local y de la enseñanza universitaria de la filosofía. El impacto de esta polémica sobre el concepto contemporáneo de ciencia, aunque poco estudiado, fue considerable y se hizo visible a través de un marcado giro del interés hacia el estudio de las ciencias teóricas. Los problemas contemporáneos de la matemática pura iii y la teoría de la relatividad fueron dos áreas de particular impacto. La nueva percepción de la ciencia que apoyaban las corrientes anti-positivistas permeó hacia las instituciones nacionales encargadas de dictar las políticas científicas y, hacia principios de la década de 1920, precipitó un cambio importante que se caracteriza por una desaceleración del antiguo soporte dado por el estado a las ciencias experimentales y un nuevo interés por las ciencias teóricas iv . Efectivamente, hacia 1920 comenzó a debilitarse el apoyo a los grandes proyectos nacionales de ciencia experimental que habían sido iniciados a principios de siglo en Buenos Aires, Córdoba y La Plata v . Dentro de las diversas manifestaciones que adquirió ese interés nuevo por las ciencias teóricas podría mencionarse la decisión de invitar al joven y brillante matemático puro español Julio Rey Pastor, graduado en Alemania, y luego al físico teórico Albert Einstein, a visitar la Argentina y disertar sobre temas avanzados de las ciencias teóricas vi . Lo mismo puede decirse del pedido de autorización que la Revista del Centro de Estudiantes de Ingeniería hizo a Einstein para publicar en sus páginas una traducción de su memoria fundamental sobre la teoría de la relatividad general, originalmente publicada en Annalen der Physik en 1916. Dentro de esa nueva atmósfera cultural se sitúa un interesante estudio teórico sobre la teoría de la relatividad escrito por dos jóvenes físicos argentinos, José B. Collo y Teófilo Isnardi que, con anterioridad, habían hecho estudios avanzados de física en Alemania. Debido a la calidad de su factura este trabajo es paradigmático, dentro de las ciencias físicas, de un nuevo e importante giro intelectual hacia las ciencias teóricas al que acabamos de aludir y que se operaba en la Argentina de esos años. El trabajo de Collo e Isnardi incluía una tercera parte, escrita por el astrónomo argentino Félix Aguilar vii , entrenado también en Europa, donde discutió las implicaciones astronómicas de la relatividad. De este último estudio, que hemos analizado separadamente viii , no nos ocuparemos en este trabajo. Esta nota está dedicada, precisamente, a hacer un análisis puntual de la memoria de Collo e Isnardi, intentando situarla más precisamente en el contexto intelectual de su época. Si bien ese trabajo ha sido citado con frecuencia en la literatura sobre la relatividad en la Argentina, no lo ha sido siempre con un conocimiento claro de su contenido. No faltan en esa literatura referencias en las que se critica a aquella memoria, por ejemplo, por errores y ligerezas en su manejo del cálculo tensorial, cuando los autores indican explícitamente que no van a abordar el cálculo tensorial en su estudio y, efectivamente, ese cálculo no aparece jamás en ella. Lamentablemente éste y otros puntos de similar carácter sobre el trabajo de Collo e Isnardi han permeado a la literatura secundaria sobre la relatividad en la Argentina, pasando de un autor a otro por un período que se extiende hasta el presente, justificando un análisis más preciso de esa interesante memoria. Una breve noticia acerca de las publicaciones sobre la teoría de la relatividad anteriores a 1922 Entre la multitud de trabajos publicados en la Argentina sobre temas relacionados con la relatividad entre 1909 y 1922 se destacan el del matemático italiano Ugo Broggi , aparecido en 1909, que es un estudio de la materia, la radiación y el tiempo con un contenido científico preciso ix . Su autor se había doctorado con una tesis sobre temas de probabilidad en Alemania bajo la supervisión de David Hilbert. Cuando apareció aquel trabajo Broggi era profesor contratado en la Universidad de La Plata, universidad que había sido creada en 1905 en un período de fuerte influencia positivista, y que se caracterizó por su consistente estimulo al desarrollo de las ciencias experimentales x . Un año más tarde el conocido físico-matemático y senador italiano Vito Volterra visitó Argentina como delegado oficial de Italia a las celebraciones del primer centenario de la independencia argentina. Una vez en Buenos Aires fue invitado a pronunciar una conferencia ante la Sociedad Científica Argentina, una institución fundada en 1872 en Buenos Aires que, por un período considerable de tiempo, fue la caja de resonancia de las novedades e intereses científicos de esa ciudad. En su conferencia Volterra se ocupó del espaciotiempo y la materia e hizo referencia explícita al trabajo de Einstein xi . Entre 1910 y 1915 el físico-matemático francés Camilo Meyer (1854Meyer ( -1918, condiscípulo y amigo de Henri Poincaré, dictó una serie de cursos libres sobre físicamatemática en la Universidad de Buenos Aires y en el último de ellos, que ha sido publicado, introdujo por primera vez en América Latina una exposición detallada de la teoría cuántica xii . En ese curso hizo referencias explícitas a trabajos de Einstein, pero no a aquellos que se relacionan directamente con la teoría de la relatividad. A fines de la década de 1900 el prestigioso astrónomo estadounidense Charles Dillon Perrine , del Observatorio Lick de California, fue contratado como director del Observatorio de Córdoba, el observatorio nacional de la Argentina, creado a comienzos de la década de 1870 y re-activado hacia 1910 dentro del nuevo esquema de orientación positivista que propiciaba el desarrollo de las ciencias experimentales. Perrine renovó los talleres de óptica y las facilidades de observación de esa institución y en 1912, respondiendo a un pedido de colegas suyos en Alemania asociados con Einstein, inició una serie de observaciones durante eclipses de Sol tendientes a detectar una posible deflexión de la luz. Esas observaciones comenzaron en Brasil en 1912 y continuaron luego en Rusia y Venezuela pero, debido a condiciones meteorológicas desfavorables, Perrine y sus colaboradores no pudieron ofrecer una respuesta concluyente xiii . A principios de la década de 1910 la Universidad de La Plata contrató al físico Jacobo Juan Laub xiv (1884-1962) como profesor de física. A partir de 1912 Laub comenzó a publicar en la Argentina una serie de trabajos sobre la teoría de la relatividad en Anales de la Sociedad Científica. Laub había tenido un contacto personal con Einstein xv y había colaborado con él en trabajos de investigación sobre la teoría de la relatividad xvi , sobre los que volveremos más adelante. Las suyas fueron las contribuciones de un científico que conocía las ideas de Einstein y su teoría en detalle. Sus notas sobre relatividad comenzaron en revistas científicas de prestigio pero, a medida que la década avanzaba y el interés público por la relatividad crecía, se movieron hacia calificados medios de difusión general, por ejemplo la Revista de Filosofía que entonces dirigía el prestigioso médico y filósofo positivista José Ingenieros, pero que estaba orientada hacia un público con un interés cultural mucho más amplio que el de la física teórica. Las conferencias universitarias sobre relatividad del físico español Blas Cabrera durante su visita a la Argentina en 1920 xvii y el trabajo del astrónomo Jesuita José Ubach (también español, profesor en el Colegio del Salvador de Buenos Aires) sobre los resultados de la expedición astronómica de 1919 xviii fueron contribuciones detalladas, orientadas a los intereses de un público culto, que apuntan ya hacia la vertiente técnica del trabajo de Collo, Isnardi y Aguilar. Otros físicos, astrónomos o ingenieros contribuyeron también con trabajos que sugieren familiaridad con la obra de divulgación de Einstein xix , traducida al castellano en 1921 xx . Los físicos José B. Collo y Teófilo Isnardi José B. Collo, cuyo padre era diseñador de jardines, nació en Córdoba en 1887 y más tarde su familia se mudó a la provincia de Santiago del Estero. Allí una beca privada le permitió trasladarse a la ciudad de La Plata para continuar allí sus estudios. Teófilo Isnardi nació en Buenos Aires en 1890 pero hizo sus estudios secundarios en La Plata, donde su padre dirigía obras de ingeniería. Collo e Isnardi inicialmente ingresaron a la Universidad de La Plata como estudiantes de ingeniería, pero al llegar al tercer año, poco después de que el físico alemán Emil Bose fuera invitado a organizar un Instituto de Física xxi en esa universidad pasaron a la nueva carrera de Física, egresando en 1911. En 1912 obtuvieron su doctorado en física trabajando en temas experimentales sugeridos por Bose. En paralelo con sus estudios de Física Collo e Isnardi hicieron estudios de pedagogía, que entonces era una de las áreas de mayor modernidad en la Universidad de La Plata. Luego de una visita que Walter Nernst hizo a la Argentina en 1912 ambos graduados recibieron una beca externa que les permitió trasladarse a Berlín; allí estudiaron bajo la supervisión de Nernst y de Max Planck. Más tarde Isnardi trabó relación con Einstein en París. A su regreso a la Argentina ambos físicos se reincorporaron a la Universidad de La Plata y a la Escuela Naval, donde enseñaban ya desde antes de su partida al exterior. Una vez terminada la guerra, en 1920, trataron de obtener apoyo oficial para continuar perfeccionándose en física en Alemania, pero no tuvieron éxito. Más tarde ambos pasaron a la Facultad de Ciencias de la Universidad de Buenos Aires donde tuvieron a su cargo el dictado de los cursos de física general. Isnardi enseñó también físico-química y, luego de crearse la Licenciatura en Física, en 1926, fue encargado de dictar los cursos de físicamatemática; fue también designado director del nuevo Departamento de Física de esa facultad. Collo, por su parte, se orientó hacia la mecánica teórica, especializándose en problemas avanzados de balística exterior, mecánica de fluidos y estabilidad mecánica. Además de la Escuela Naval y las universidades del área del Río de la Plata, estos dos excelentes pedagogos tuvieron una extensa actuación como profesores de física en la Escuela Militar y, en la década de 1930, también en la recientemente creada Escuela Superior Técnica del Ejercito xxii lo que les abrió sólidos canales de comunicación con las fuerzas armadas, las que tuvieron una posición hegemónica en la vida política de la Argentina durante el medio siglo que va de 1930 a 1983. Collo e Isnardi escribieron un tratado de física general para los estudiantes de la Escuela Naval que se utilizó también en las universidades. En la segunda mitad de la década de 1950, luego de la caída del gobierno del general Juan D. Perón, ambos físicos participaron en la reorganización de la Comisión Nacional de Energía Atómica, de la que Isnardi fue designado director. Isnardi falleció en Buenos Aires en 1966 y Collo dos años más tarde. La vertiente teórica en la física En 1922-23 la Sociedad Científica Argentina, que con anterioridad había publicado en las páginas de sus Anales notas que indistintamente cuestionaban o favorecían la teoría de la relatividad, organizó un ciclo de conferencias sobre esa teoría xxiii . Hemos señalado más atrás que el comienzo de la década de 1920 coincide con una crisis severa del positivismo que, en una buena parte de los dos últimos decenios, había dinamizado considerablemente las ciencias experimentales, favoreciendo la creación de laboratorios experimentales, primero en la Universidad de Buenos Aires xxiv , luego en la de La Plata, y finalmente en el Observatorio de Córdoba. La corriente de pensamiento anti-positivista no desestimaba en principio la importancia del conocimiento experimental, pero favorecía decididamente el avance de las ciencias teóricas. Fue precisamente en este período, la primera mitad de la década de 1920, cuando la matemática, y más tarde la física teórica, comenzaron a desarrollarse con cierto vigor en la Argentina xxv . El propósito de las conferencias organizadas por la Sociedad Científica era contribuir a retornar el debate sobre la relatividad al ámbito estrictamente científico y enfocarlo desde el punto de vista de la teoría. Ese debate, como hemos indicado más atrás, tenía ya una vertiente de interés cultural general que corría por un cauce paralelo. Para el dictado de esas conferencias aquella institución invitó a los principales físicos y matemáticos de que entonces disponía la Argentina: los matemáticos Broggi y Rey Pastor, el físico-químico Horacio Damianovich (un discípulo de Meyer) y el físico alemán Ricardo Gans (sucesor de Bose en la dirección del Instituto de Física de la Universidad de La Plata hasta 1925, cuando retornó a Alemania). También se invitó a participar a los físicos Collo e Isnardi y al astrónomo Aguilar, tres de los investigadores argentinos jóvenes más destacados en ese momento en el campo de las ciencias exactas. Los dos primeros contribuyeron con un análisis de la teoría de la relatividad restringida y de la general, respectivamente, mientras que Aguilar se ocupó de la reciente verificación astronómica. En paralelo con el debate anti-positivista, la Argentina vivía en esos años un proceso de modernización cultural y política que había alcanzado también a las universidades a través de la Reforma Universitaria de 1918. Con ella los estudios científicos superiores recibieron un estimulo considerable. Se crearon cátedras y carreras en disciplinas nuevas a la vez que se actualizaron los planes de estudios de otras. Para implementar esos cambios se hizo necesario incorporar nuevamente a profesores extranjeros de gran prestigio. Entre ellos se destacan el fisiólogo y pacifista alemán Jorge Federico Nicolai y el economista Alfonso Goldschmidt. También se promovió la creación de centros de excelencia, como el de fisiología liderado por el argentino Bernardo A. Houssay, que más tarde alcanzó reconocimiento internacional. Dentro de ese mismo proceso, en 1922 se incorporó a Rey Pastor definitivamente a la Universidad de Buenos Aires, lo que hizo posible el dictado de cursos a un nivel considerablemente más avanzado que en el pasado inmediato. En esos cursos se discutieron también temas de interés para la comprensión de la matemática de la teoría de la relatividad generalizada y, más generalmente, se crearon condiciones favorables para el surgimiento de la física matemática y, más tarde, de la física teórica. Aparentemente, debido a que la mayoría de los conferenciantes había publicado sus ideas sobre la relatividad con anterioridad en otras revistas, Anales no publicó los textos de las conferencias dictadas en la Sociedad Científica. Aguilar, Collo e Isnardi, que no habían publicado su trabajo, recurrieron a una revista profesional: el Boletín del Centro Naval, editado por la institución social de los oficiales de la marina de guerra. En esos años ese Boletín había dado cabida a notas sobre temas de electricidad, telecomunicaciones, aviación, química, meteorología y astronomía, pero en general esos artículos tenían una referencia directa a cuestiones navales. El artículo de Aguilar, Collo e Isnardi sobre la teoría de la relatividad sin duda ensanchaba el abanico de intereses del Boletín como ninguno antes que él (en la introducción a su trabajo los autores hicieron referencia a este hecho) pero, como hemos señalado más atrás, el profesorado de Collo e Isnardi en la Escuela Naval es posiblemente una razón de mayor peso para esa elección. Para ellos la Escuela Naval era una fuente estable e importante de recursos económicos. Justamente en esos años Collo e Isnardi habían comenzado a desplazar el centro de gravedad de sus actividades docentes fuera de la Universidad de La Plata, buscando perspectivas nuevas en una combinación de tareas docentes compartidas entre aquella, la Escuela Naval y la Universidad de Buenos Aires. También habían comenzado a mover sus intereses científicos desde la física experimental hacia aspectos teóricos de esa ciencia. Los tres autores declararon que su artículo había sido redactado con la expresa idea de que no fuese ni excesivamente técnico, ni que tomase la forma de los típicos "resúmenes de divulgación". En la Introducción xxvi los autores precisaron que sus contribuciones eran exposiciones sintéticas "para quienes sin ser especialistas poseen conocimientos suficientes para poder interesarse por algunos detalles del desarrollo de la teoría". Efectivamente, éste no es un trabajo científico original. En cambio, es un artículo serio, bien armado, aunque con concesiones al complejo aparato matemático que requería la teoría de la relatividad, sobre todo en la formulación generalizada. En el lugar adecuado Isnardi hizo explícita esa limitación en su trabajo y remitió al lector a fuentes bibliográficas precisas. Aunque consciente de que era un camino más largo el autor xxvii prefirió seguir la ruta indicada por Einstein en la obra conjunta de Lorentz, Einstein y Minkowski xxviii . Sin embargo, a pesar de sus esfuerzos el trabajo no es de fácil lectura, difícilmente podría cumplir el cometido de ser de alguna utilidad para "nuestros marinos", como los autores habían sugerido en la introducción. En cambio, podía dar a aquellos una idea clara de que los dos profesores de física contratados por la Escuela Naval eran personas excepcionalmente idóneas y que seguían su materia con asiduidad. Como hemos señalado en otros trabajos xxix , esos estudios contribuyeron a crear un clima favorable para la recepción de la teoría de la relatividad en la Argentina a un nivel científico más satisfactorio que el que ofrecían las obras generales de divulgación que proliferaban en diferentes idiomas, incluso en castellano. Muy poco después, en 1926 y dentro de la misma línea de intereses teóricos, apareció la primera nota original sobre un tema de relatividad, que fue escrita por un joven graduado de la Plata, Enrique Loedel Palumbo, alumno de Gans. Loedel Palumbo había nacido en Uruguay y se educó en la Universidad de La Plata, radicándose luego en la Argentina. En una discusión organizada por la Academia de Ciencias en Buenos Aires en 1925 xxx tuvo oportunidad de comunicar personalmente su trabajo a Einstein y luego lo publicó en Alemania xxxi y en la Argentina. En las secciones que siguen nos ocuparemos de estudiar, con un cierto detalle, el contenido del trabajo conjunto de Collo e Isnardi sobre la teoría de la relatividad, su relevancia, su originalidad y las fuentes bibliográficas que les sirvieron de apoyo. El tercer artículo de la serie publicada en el Boletín del Centro Naval, escrito por Aguilar, que versa sobre la verificación astronómica de la relatividad general como una nueva teoría de la gravitación, ha sido considerado en otro trabajo de estos mismos autores xxxii . La relatividad restringida Los trabajos de Collo, Isnardi y Aguilar aparecieron en tres números consecutivos del volumen 41, a partir del número 442, de septiembre-octubre de 1923. En el primero de ellos se publicó la nota de Collo que cubre veintiún páginas xxxiii . Collo se ocupó de explicar los preliminares de la teoría especial (o restringida) de la relatividad y comenzó su trabajo analizando el proceso de abstracción que condujo a Galileo a formular las leyes de la mecánica, completadas luego por Newton y, finalmente, revisitadas por Einstein con el aporte de nuevas ideas acerca del tiempo y la simultaneidad, que le sirvieron para formular los postulados de la relatividad especial. Esta sección concluye con un estudio de las transformaciones introducidas por Hendrik Antoon Lorentz y la representación geométrica del espaciotiempo debida a Hermann Minkowski xxxiv , temas que Isnardi luego retoma y desarrolla en relación con la teoría generalizada. Collo agudamente señala que la evolución de la física muestra diferentes escalas de dimensión que van de lo terrestre a lo planetario y finalmente a lo cósmico, y que las primeras transiciones son visibles en la problemática considerada por Galileo y Newton. A continuación define la mecánica, el estudio del movimiento de los cuerpos, y subraya las observaciones sobre las que se edificó esa ciencia, insistiendo en que sus postulados y principios básicos se dedujeron a partir de abstracciones, de cuya formulación matemática se deducen consecuencias que deben ser sometidas al veredicto de la experiencia. Es decir, una construcción abstracta que debe ser finalmente validada por la experiencia. Collo enuncia la ley de inercia de los cuerpos (la primera ley de Newton de la mecánica clásica), también conocida como la ley de inercia de Galileo, como uno de esos principios fundacionales y luego se ocupa de la segunda ley de Newton, otro principio básico en el que se trata del efecto de una fuerza externa aplicada sobre un cuerpo y capaz de modificar, con el transcurso del tiempo, su cantidad de movimiento. Sus citas son el reciente e importante libro histórico-crítico de la evolución de la mecánica de Mach xxxv , que aparece citado ya en la primera página de su trabajo y que continúa orientando la exposición, y el libro de Max von Laue xxxvi . Collo se refiere inmediatamente a las críticas que se han encontrado a la obra de Newton, tanto en lo que concierne a sus axiomas principales como a sus conceptos sobre el espacio y el tiempo. Una de estas objeciones tiene que ver con la necesidad newtoniana del espacio absoluto. Recordemos que, por una parte, la expresión matemática de las leyes de Newton requiere definir un sistema de coordenadas y que la mecánica pretende, a la vez, formular sus leyes en la forma más simple posible. En el caso de las fuerzas que actúan sobre cuerpos ubicados en un sistema rotante, como por ejemplo la Tierra, se hizo necesario introducir en el esquema de Newton ciertas fuerzas no inerciales, como la fuerza centrífuga, cuya descripción requiere interpretar el movimiento con respecto a un espacio absoluto. Collo menciona luego la conocida experiencia del péndulo de Foucault como clave, según la teoría de Newton, para constatar el movimiento de rotación de la Tierra en el espacio absoluto de las estrellas lejanas. Luego vuelve a considerar las dos primeras leyes de Newton, escribiendo la segunda explícitamente para un sistema de coordenadas inercial (donde vale la ley de inercia de Galileo) y se pregunta si esa expresión será solo posible en un único sistema inercial o si, por el contrario, habrá más de un referencial en donde tenga validez. Demuestra entonces que en todo sistema de coordenadas, dotado de un movimiento rectilíneo y uniforme (es decir, sin aceleraciones) con respecto al primero, valdrá la misma expresión para la segunda ley. Su principal referencia es el libro de mecánica de Max Planck xxxvii autor por el que Collo, que había sido su alumno, conservó especial respeto a lo largo de su carrera. En otra palabras, Collo muestra que "existen infinitos sistemas inerciales (animados de traslaciones uniformes uno respecto de los otros) y entre ellos no existe ninguno privilegiado para el estudio de los fenómenos mecánicos". Este enunciado, conocido como el principio de relatividad para la mecánica clásica nos dice que un observador confinado a un sistema que se mueve uniformemente (por ejemplo, un vagón de ferrocarril sin ventanas que se mueve con movimiento rectilíneo y uniforme) no podrá jamás decidir, por medio de experimentos mecánicos realizados en su sistema, cual es su propio estado de movimiento. Aun si existiese un espacio absoluto como el propuesto en la teoría newtoniana, nunca se podría afirmar que un punto del universo se halla en reposo absoluto. En este punto de su exposición Collo señala que hasta ahora no ha introducido conceptos nuevos, y pasa a considerar la posición de los fenómenos electromagnéticos en esta teoría. Si bien hasta ahora no ha sido posible descubrir el reposo absoluto mediante experimentos mecánicos, se pregunta si "¿no será posible constatar el reposo absoluto por experiencias electromagnéticas (ópticas)?", a lo que responde, adelantando resultados que ha de desarrollar en las páginas siguientes, que "a raíz del fracaso de las tentativas hechas con este fin ha nacido la teoría de la relatividad". Pasando revista a las diferentes concepciones del éter, el supuesto medio por el cual se propagaría la luz, Collo señala que esa hipótesis ha dado lugar a opiniones contradictorias. Hacia 1818 Augustin-Jean Fresnel, y más tarde, en 1851, Armand Fizeau, imaginaban que el éter es parcialmente arrastrado por los cuerpos mientras que Heinrich Hertz, hacia 1890, adaptando un modelo de George Stockes de 1845, suponía que el éter era efectivamente arrastrado por los cuerpos en movimiento. Al giro del siglo, Lorentz postuló que el éter es completamente inmóvil, es decir que no es arrastrado por los cuerpos y, aunque lo supone rígido, lo cree incapaz de presentar resistencia alguna al movimiento. La referencia principal de Collo en esta discusión es el libro del último autor mencionado xxxviii . Con palabras claras y esquemas detallados Collo describe las delicadas experiencias ópticas realizadas por Fresnel y Fizeau para estudiar el comportamiento del éter; su referencia aquí es el libro de Werner Bloch xxxix . Finalmente, Collo describe otro grupo importante de experiencias, basadas nuevamente en los fenómenos de interferencia de la luz y llevadas a cabo por una cadena de investigadores: Michelson en 1881, Michelson y Morley en 1887, y Morley y Miller en 1904. Mientras que Fizeau estudiaba el posible efecto de arrastre de la velocidad de la luz utilizando una corriente de agua a una velocidad relativamente baja, los nuevos experimentadores estudiaron el efecto de arrastre, o viento de éter, que podría inducir la velocidad de traslación de la Tierra alrededor del Sol, que es mucho más significativa que las velocidades de comparación utilizadas hasta entonces. Sin embargo, esas experiencias, en las que se introdujo un elemento de naturaleza astronómica, no acusaron "nunca el efecto esperado". Luego de comentar brevemente algunas interpretaciones alternativas de los resultados de experiencias interferométricas de los autores recién citados, entre ellas la que propuso Walther Ritz, y la introducción de la llamada contracción de Lorentz-FitzGerald, Collo señala que si bien explican algunos resultados, a la vez introducen elementos que conducen a contradicciones. En este punto comienza a presentar las novedades propuestas por Einstein en 1905, señalando que en su enfoque del problema se hace un análisis más profundo y detenido tanto de los conceptos fundamentales de la mecánica como de los de espacio y tiempo. Esos estudios llevaron a Einstein a desechar la idea de un espacio absoluto y a postular que el principio de relatividad, aceptado ya en la mecánica, vale también para los fenómenos electromagnéticos y, en particular, para los de la óptica; nos dice Collo que "en todos los sistemas de coordenadas respecto de los cuales valen las ecuaciones de la mecánica valen las mismas leyes electromagnéticas y ópticas" xl . Llegado a este punto Collo sigue de cerca el texto de Einstein de 1917 xli , y de él se vale para repasar las nociones de reposo y movimiento relativo, de simultaneidad y el concepto, que ahora no es absoluto, de tiempo. Toma las palabras de Einstein para convencer al lector de que el concepto de simultaneidad, por ejemplo entre dos relojes, es algo sutil, pues "nada puede asegurarnos que un reloj siga teniendo la misma marcha cuando se lo lleve a otro punto (los relojes de péndulo, por ejemplo, andan más rápidamente cerca del Polo que en el Ecuador)" xlii . Plantea luego los dos axiomas de la relatividad restringida: el principio de relatividad, ya mencionado anteriormente, y la constancia de la velocidad de la luz en el vacío. Este último afirma que "todo rayo luminoso se propaga respecto de cualquier sistema inercial de coordenadas con la misma velocidad, independientemente de si el cuerpo que lo emite está en movimiento o en reposo". Luego se ocupa de formular una definición axiomática de la teoría de la relatividad y de demostrar que esos axiomas no contradicen los resultados de la experiencia y ofrece ejemplos que lo llevan a mostrar la "relatividad del tiempo y la longitud". Para ello se vale del típico ejemplo de los haces de luz emitidos en el interior de un vagón de ferrocarril en movimiento relativo a la estación. Al cabo de unos pocos pasos deduce que acontecimientos simultáneos para un sistema de coordenadas no lo serán para otro sistema, y por lo tanto enuncia que "podremos definir un tiempo en cada sistema, pero no un tiempo común a todos ellos", concepto fundamental que distingue la antigua teoría newtoniana de la nueva relativista. Considerando las distancias involucradas en un experimento pensado (experimento ideal lo llama Collo) deduce que "las longitudes de los cuerpos dependen de la velocidad que tengan respecto del sistema en que se las mide". Estas dos conclusiones llevan directamente a las ecuaciones de transformación de Lorentz, las cuales, dadas las coordenadas espaciotemporales de un evento en un sistema de coordenadas, permiten calcularlas en cualquier otro sistema. En una larga nota al pié incluye una deducción elemental de las ecuaciones de Lorentz dada por Einstein en la obra de divulgación antes citada. Volviendo a la idea de "escalas" en el desarrollo de la física, Collo señala que las leyes de transformación de Lorentz se reducen a las transformaciones de Galileo cuando la velocidad entre los sistemas de coordenadas es mucho menor que la velocidad de la luz: "la mecánica relativista introducirá una modificación en las relaciones de la mecánica clásica especialmente cuando se estudien las leyes de movimientos muy rápidos", aclarando que esto sucede, por ejemplo, en el caso del movimiento de los electrones xliii . Pasa luego a dar un sentido claro al resultado de las experiencias de Fizeau mostrando que la nueva teoría relaciona íntimamente dos principios de la física clásica: el de conservación de la masa y el de conservación de la energía. A continuación se ocupa de las consecuencias cinemáticas y dinámicas de la teoría de la relatividad, es decir, su impacto sobre las nociones de movimiento y fuerza, formulando la famosa relación E = mc 2 , donde m es la masa relativista de la partícula en movimiento (que, en notación moderna, se relaciona con la masa en reposo a través de la relación m = γ m 0 , donde γ depende de la velocidad de la partícula y tiende a infinito a medida que esta velocidad se aproxima a c, la velocidad de la luz). El autor entonces señala que "los dos principios, de conservación de la masa y conservación de la energía [...] se refunden en uno sólo para la mecánica relativista", un cambio conceptual fundamental, pues "la masa que fue tenida siempre como absoluta (constante) es un valor relativo, dependiente de la velocidad del cuerpo". Collo concluye su artículo con algunas consideraciones sobre la representación geométrica que Minkowski propuso en 1908 para las transformaciones de Lorentz, que permite pasar de un sistema espaciotemporal a otro, cuyas coordenadas estén definidas por la transformación de Lorentz, mediante una simple rotación angular. La relatividad general En el número siguiente del Boletín del Centro Naval, correspondiente a los meses de noviembre-diciembre de 1923, apareció un artículo denso de Isnardi, que ocupa treinta y siete páginas xliv . En este se desarrollan elementos teóricos necesarios para llegar a la teoría general de la relatividad, incluyendo los conceptos de masa gravitacional e inerte (o inercial) y el principio de equivalencia. En la primera parte de su contribución se ocupa de las predicciones de la nueva teoría en lo referente a la deflexión de la luz en presencia de un campo gravitacional homogéneo y al corrimiento al rojo gravitacional resultante de la propagación de la luz en un campo inhomogéneo, como el del Sol. En la segunda parte calcula explícitamente las geodésicas del espaciotiempo de Schwarzschild y obtiene tanto el clásico valor de 43 segundos de arco por siglo para el avance anómalo del perihelio de la órbita del planeta Mercurio como la deflexión de 1,74 segundos de arco en los rayos de luz de las estrellas del fondo del cielo que pasan en cercanías del limbo solar. Isnardi comienza con una discusión sobre las nociones de "reposo" y de "movimiento" absolutos. La primera había perdido toda realidad física con la introducción del principio especial de la relatividad de 1905 mientras que la segunda quedaba aún vigente ya que, incluso en la mecánica newtoniana en experiencias como la del péndulo de Foucault y en otras análogas en las que intervienen las llamadas fuerzas de inercia, se admite el movimiento absoluto del sistema de referencia. Resurgía así el espacio absoluto, que se creía ya olvidado por la física: no se podría ya más constatar el reposo del sistema (por el principio de relatividad), pero sí se podría constatar su movimiento cuando este sistema fuese acelerado (un movimiento rotatorio, por ejemplo). Ese estado de cosas era claramente insatisfactorio. La relatividad restringida había dejado de lado a la interacción gravitatoria, pero unos pocos años más tarde Einstein propuso la equivalencia entre las fuerzas gravitatorias y las fuerzas de inercia en base a la conocida igualdad entre las masas gravitacional e inercial, es decir, el hecho de que el movimiento de los cuerpos en un campo gravitatorio es independiente de sus propiedades o, de acuerdo con Galileo, que "todos los cuerpos caen con la misma aceleración g". El objeto era unificar el problema y buscar una nueva teoría de la gravitación. Isnardi discutió estos temas haciendo referencia a los libros de Arthur Erich Haas xlv , de Eddington xlvi , de von Laue xlvii , de Hertz xlviii , de Ludwig Boltzmann xlix , de August Föppl l y, muy especialmente, a las monografías recopiladas en la obra de Lorentz, Einstein, Minkowski li . De este último libro extrae la siguiente afirmación, atribuida a Einstein: "Este hecho, de la igual caída de todos los cuerpos en un campo gravitacional, es uno de los más generales que nos ofrece la observación de la naturaleza; y, sin embargo, esta ley no ocupa ningún lugar en los fundamentos teóricos de nuestra imagen física del mundo". Isnardi explica entonces cómo Einstein fue capaz de derivar de estos conceptos el llamado Principio de Equivalencia, eslabón fundamental en la cadena de desarrollos teóricos que lo llevaron a formular la teoría general de la relatividad. Enuncia ese Principio de la siguiente manera: "Para la descripción de los fenómenos mecánicos, son equivalentes un sistema inercial supuesto fijo en un campo gravitacional homogéneo, y un sistema libre de campo gravitacional, pero animado de movimiento uniformemente acelerado con respecto a un sistema inercial" y a continuación menciona el clásico ejemplo del ascensor de Einstein: "el caso de un ascensor que cayera libremente; para un observador en su interior los cuerpos carecerían de peso, y valdría la ley de inercia". En otras palabras, si estudiamos fenómenos mecánicos en un sistema inercial en presencia de un campo gravitacional homogéneo, cuando referimos nuestra descripción a un sistema de referencia que está animado de una aceleración constante igual al campo gravitacional, estos fenómenos se producen en este sistema como si se tratase de un sistema sin campo gravitacional. No deja de lado las opiniones críticas a este Principio enunciadas por autores como Philipp Lenard lii y da respuestas a cada una de ellas basándose, entre otros, en el libro de Max Born liii . En una comparación entre la teoría de Newton y la de Einstein, de la que Isnardi se hace eco, indica que la teoría de la relatividad no intenta mostrar que la física de Newton es ilógica, mientras que la relatividad es lógica, sino que ambas son posibles, pero para que la primera tenga validez sería necesario poder "constatar movimientos absolutos; aún cuando el espacio absoluto conservara realidad metafísica". Sin embargo, Einstein había reiterado prudentemente en varias ocasiones que "los problemas metafísicos son ajenos a la teoría". Isnardi señala que la experiencia ha mostrado que no hay manera de detectar el espacio absoluto, es decir que éste "carece de realidad física" liv . A continuación Isnardi se pregunta si no sería posible extender el Principio de Equivalencia, que hasta ahora sólo se había discutido para los fenómenos mecánicos, a todos los fenómenos de la física, en particular para los electromagnéticos, afirmando que: "es ahí que reside la originalidad de las ideas de Einstein y la fecundidad del principio". En su riguroso trabajo, esta referencia a la originalidad y fecundidad del autor de la teoría de la relatividad es lo más cerca que Isnardi llega de dar una opinión subjetiva. Siguiendo el libro de Alexander von Brill lv , menciona que extendiendo este Principio se puede llegar, no a una teoría explicativa de los fenómenos producidos en un campo gravitacional, pero sí a una teoría descriptiva de esos fenómenos; Isnardi estima que "este es el núcleo central de la teoría general de la relatividad" lvi . Aprovechando el Principio de Equivalencia es posible deducir algunas consecuencias observables de cierto interés que, además, son "susceptibles de ser sometidas a la prueba experimental". Una de estas es la deflexión de la luz por la presencia de campos gravitacionales (homogéneos, como en el caso del ascensor, o inhomogéneos, como en el caso del Sol); a esta discusión Isnardi dedica un párrafo muy detallado junto a un par de gráficos. Plantea entonces el problema de la propagación de un rayo de luz en cercanías del Sol, donde el campo gravitatorio es suficientemente intenso como para afectar su trayectoria, y lo relaciona con un rayo que se propaga en un sistema acelerado en dirección perpendicular a la de propagación de la luz. En este último caso, un observador que se mueve con el sistema acelerado verá que el haz se curva en dirección contraria a su dirección de aceleración. Ahora bien, por el Principio de Equivalencia el sistema de este observador es localmente equivalente a un sistema de referencia no acelerado, pero ahora en presencia de un campo gravitacional (el del Sol). En consecuencia, en este último sistema de referencia la luz también se curvará y "la concavidad de la curva [estará] vuelta hacia el lado indicado por el sentido de la intensidad del campo". En resumen, la luz sufre una deflexión por la gravitación de cuerpos masivos como el Sol. La verificación experimental de este efecto, cuya existencia Perrine, director del Observatorio de Córdoba, fue el primero en tratar de verificar en 1912, fue finalmente detectada durante el eclipse total de Sol de 1919 (el llamado Eclipse de Einstein). Esta referencia y su comentario en el artículo de Félix Aguilar lvii las hemos discutido separadamente lviii . Otra de las consecuencias del Principio de Equivalencia susceptible de ser sometida a experimentación es el llamado corrimiento al rojo gravitacional. Cuando la luz se propaga de un punto a otro de un campo gravitacional (no-uniforme), al alejarse de la fuente del campo (un cuerpo masivo) y por lo tanto disminuir el potencial gravitacional de la fuente, la luz sufre un corrimiento en frecuencia, virando hacia frecuencias menores, vale decir que la luz "se corre al rojo". Isnardi menciona que este efecto puede "someterse a la prueba experimental" mediante la comparación de las líneas espectrales del Sol o de las estrellas, con las de los mismos elementos producidas por una fuente en un laboratorio de la Tierra. Y enuncia que "aquellas aparecerán desplazadas hacia el rojo" lix . Discute luego la diferente marcha de los relojes cuando éstos se hallan en zonas distintas de un campo gravitacional, equiparando "cada átomo vibratorio con un reloj". En resumen, dos relojes exactamente iguales, "cuyas marchas coinciden si se los sitúa en el mismo lugar", dejarán de hacerlo si se los separa: aquel ubicado más cerca de la fuente del campo gravitacional (donde el potencial gravitacional es grande) retrasará con respecto al otro en un valor proporcional a la diferencia del potencial entre los dos lugares. Para esta discusión se basa en la obra de August Kopff lx . Este efecto, en general de valor ínfimo en la física cotidiana, fue solo medido por Robert Pound y Glen Rebka lxi casi cuatro décadas luego de que Isnardi escribiese su artículo. El resto del artículo de Isnardi se centra en describir en cierto detalle el formalismo matemático de la teoría. Comienza con el espaciotiempo tetradimensional de Minkowski y discute la invariancia del intervalo entre dos eventos espaciotemporales (magnitud que él llama "segmento" pero en un espacio general de cuatro dimensiones) frente a transformaciones entre sistemas inerciales de referencia. Una oportuna cita de Minkowski, que Isnardi recoge, dice: "Desde hoy en adelante el espacio en sí mismo y el tiempo en sí mismo, se hundirán en las sombras y solamente una forma de unión entre ambos conservará existencia propia" lxii . En este punto de su exposición establece contacto con la última parte del artículo de Collo, cuando éste comenzaba a describir la representación geométrica de Minkowski para las transformaciones de Lorentz por medio de rotaciones sobre variables adecuadamente elegidas en un espacio de cuatro dimensiones. En una aguda nota señala que este espacio es inaccesible a nuestra intuición, pero que también lo es la electricidad, y sin embargo razonamos sobre ella. Isnardi se detiene a señalar al lector que las propuestas de Minkowski, contrariamente a lo que se infiere de las obras de von Laue lxiii y Kopff lxiv no son una mera forma de representación en cuatro dimensiones sino que es precisamente su interpretación física lo que les atribuye un importante contenido conceptual; sin duda se refiere a la geometrización de la física. Esta observación tiene cierto interés si se la contrasta con una referencia que haremos más adelante a un trabajo de Einstein y Laub de 1908. Isnardi se acerca a los puntos de vista de Eddington lxv , a quién cita, e ilustra esas transformaciones con un gráfico. Introduce enseguida el concepto de "línea de universo" y la locución de Eddington que, en su libro, llama a este espacio relativista, un "universo a 3 + 1 dimensiones", para destacar el diferente carácter de la dimensión temporal. En la sección siguiente de su exposición Isnardi introduce geometrías más generales que la Minkowskiana y señala su relevancia para el desarrollo de la relatividad general lxvi , dedicando una extensa sección a repasar "el origen y el valor de las nociones de la geometría Euclídea" como motivación al posterior desarrollo de las geometrías (curvas) de Bernhard Riemann lxvii . Hace referencia a la idea de Gauss, de usar una estrella para construir un triángulo geodésico inmenso que permita decidir si también en la geometría espacial los ángulos interiores suman 180°. Según Einstein los lados de ese triángulo pueden ser curvados por la influencia de, por ejemplo, la masa del Sol, lo que nos indicaría que la geometría del espacio no es necesariamente Euclídea. Concluye que la relatividad aconseja adoptar una geometría que se ajuste a las determinaciones experimentales, sin postular de antemano que ésta deba o no ser la geometría Euclídea: desde el ángulo de la física una geometría "no es ni más ni menos lógica, ni más ni menos experimentalmente cierta que la otra; puede ser, solamente, más o menos adecuada" lxviii . En la sección que sigue Isnardi deja de lado las conjeturas sobre la naturaleza de la geometría y pasa a discutir un caso en el que, aceptando el Principio de Equivalencia y la teoría especial de la relatividad, efectivamente se encuentra que la geometría de base no es la Euclídea. En este punto de su exposición Isnardi se ve obligado a introducir algunas nociones sobre variedades n-dimensionales cuyos diferenciales obedecen a una forma cuadrática, es decir, a introducir elementos de la teoría de los espacios de Riemann y luego nociones de la teoría de la medida en esos espacios; sus referencias principales son ahora las Oeuvres mathématiques de Riemann de 1898, el trabajo geométrico de Gauss, republicado en la colección de clásicos de la ciencia dirigida por Wilhelm Ostwald, y las obras más específicas para las aplicaciones físicas debidas a Henri Galbrun lxix y a Hermann Weyl lxx . Da luego algunos ejemplos aclaratorios del rol que juegan los coeficientes variables de la forma cuadrática diferencial asociada con un elemento diferencial de arco en la definición de la geometría de una superficie y la posibilidad de aproximar la superficie en regiones infinitamente pequeñas utilizando trozos de planos tangentes, cuya forma cuadrática asociada tiene coeficientes constantes. Aplicando esas ideas a diferentes superficies introduce la noción de género. A continuación introduce el concepto de geodésica (que generaliza la propiedad de la línea recta como distancia mínima en el caso Euclídeo) en un espacio arbitrario, no necesariamente Euclídeo, como la curva de longitud límite, señalando que esta curva especial queda definida con independencia del sistema de coordenadas. Este es, precisamente, el formato en el cual sería deseable formular las leyes de la física en la nueva teoría einsteiniana de la gravitación. Para no salir "fuera de los límites de este resumen" Isnardi deja de lado el uso del cálculo tensorial, capítulo especial del cálculo diferencial absoluto, que es la herramienta matemática que permite estudiar las relaciones métricas de las superficies de varias dimensiones. Isnardi remite al lector a fuentes especializadas que hace explícitas. Destaca entre ellas la parte teórica que Eddington agregó a la traducción francesa de su obra lxxi , y hace también referencia a la obra de Gustave Juvet lxxii y a la obra ya citada de Galbrun lxxiii . En la sección siguiente se ocupa de los postulados fundamentales de la teoría general de la relatividad, recordando que la teoría especial exige que el espacio y el tiempo formen una multiplicidad (una variedad) riemanniana tetradimiensional; su geometría será la del espacio de Minkowski. Más atrás había dado la forma cuadrática de sus diferenciales para el caso de sistemas inerciales exentos de gravitación lxxiv ; el objetivo ahora es imponer a la variedad la forma cuadrática adecuada para definir sus relaciones métricas en un sistema de coordenadas arbitrario que describa el campo gravitacional en cada punto del sistema considerado. Recuerda Isnardi que el objeto de la teoría es que sea posible hallar en cada punto del espaciotiempo sistemas de coordenadas localmente inerciales, donde valga la relatividad especial; es decir, se trata aquí de una reformulación del Principio de Equivalencia. Por último enuncia la llamada ley de inercia, que exige que la línea de universo de todo punto material libre sea "una geodésica en el espacio de Minkowski, curvado por la presencia de masas materiales". En el caso de la propagación de la luz, esta afirmación puede ser enunciada diciendo que "la línea de universo de la propagación luminosa es también una geodésica" aunque, más precisamente, se trata de una geodésica nula del espaciotiempo, donde el intervalo calculado a partir de la métrica vale cero. Resumiendo, señala la diferencia entre el espacio newtoniano y el relativista: mientras que el primero es "un espacio absoluto Euclídeo [con] fuerzas absolutas entre los cuerpos, en la teoría de la relatividad tenemos un espacio a priori totalmente informe, cuyas propiedades métricas y mecánicas quedan determinadas en absoluto por la presencia de masas materiales". Así, una partícula material, por su sola presencia, modifica el universo que la circunda de una manera absoluta lxxv . Como consecuencia de esta observación resulta que las comprobaciones más seguras de la teoría deberán basarse en el estudio de las trayectorias de puntos materiales libres o de rayos luminosos, ya que ellos permiten investigar el género del espacio. El trabajo de Isnardi concluye con algunas aplicaciones importantes de la relatividad general, como son las que surgen de resolver las ecuaciones para una distribución de masa esféricamente simétrica, es decir, calcular las geodésicas en el espaciotiempo de una única partícula, de masa M, que puede ser una buena aproximación para el Sol o incluso para un agujero negro (y que hoy conocemos como la solución de Schwarzschild, aunque este nombre no es mencionado explícitamente por Isnardi). A partir de la métrica, Isnardi hace los cálculos in extenso y deduce dos de los efectos nuevos de la teoría de Einstein: el movimiento, o avance anómalo, del perihelio de Mercurio (en su desplazamiento alrededor de la partícula Sol, fuente del campo gravitacional) y la deflexión de un rayo de luz que pasa en las inmediaciones de un objeto esférico de masa M (que nuevamente representa a nuestro Sol). En ambos casos da valores numéricos precisos, los que el mismo Einstein calculó a partir de su novedosa teoría de la gravitación. Einstein, Laub y la complejidad del espaciotiempo de Minkowski Más atrás nos hemos referido a Laub como un propulsor de la relatividad en la Argentina. El interés de Laub por esa teoría había surgido mucho antes de su emigración a ese país. Muy tempranamente, hacia 1906, percibió la originalidad de las ideas de Einstein y en 1907 publicó sus primeros trabajos en esa área, ocupándose de la óptica relativista de los cuerpos en movimiento lxxvi . Un año más tarde se vinculó directamente con Einstein y, aun sin tener una posición remunerada, se trasladó a Berna por algunos meses para trabajar bajo la supervisión de Einstein. Posiblemente a causa de las dificultades que se le presentaron para obtener su Habilitation, hacia 1910 comenzó a buscar trabajo fuera de Alemania considerando entre otras posibilidades la de trasladarse a los Estados Unidos. Al no ser viable esta posibilidad Laub se puso en contacto con Bose, entonces en la Universidad de La Plata, dando a Einstein como una de sus referencias. Luego de algunas alternativas aceptó una cátedra en el Instituto de Física de aquella universidad, a la que se incorporó en 1911. Una vez en La Plata Laub dictó un curso superior sobre la teoría de la relatividad que, si bien no fue el primero lxxvii sobre ese tema dictado en las Américas, como se ha sugerido, se cuenta entre los primeros y muy posiblemente fue el primer curso sobre esa teoría dictado en América Latina. Esto tuvo lugar cuando Collo e Isnardi estaban al final de sus carreras universitarias y se preparaban para dejar la Argentina e iniciar estudios avanzados en Alemania. Ese primer contacto con la relatividad, anterior a su viaje, puede haber activado el interés y la sensibilidad de Collo e Isnardi frente a aquella teoría. Volvamos a la relación científica de Laub con Einstein en Europa y a un aspecto interesante de ese contacto. Si bien el concepto de espaciotiempo y la posibilidad de vincular las geometrías no-Euclídeas con la física había atraído la atención de diversos autores desde el giro del siglo XIX al XX, el concepto de espacio de Minkowski fue un primer y difícil intento de tratar el espacio y el tiempo como una unidad conceptual, aplicándolo a una situación concreta de la física. Sin embargo, algunos especialistas europeos, incluyendo al mismo Einstein, exploraron la posibilidad de conciliar la teoría de la relatividad con posibles alternativas que simplificaran su exposición. Una de ellas fue tratar de separar de alguna manera el espacio y el tiempo, lo que traería simplificaciones considerables en la formulación de la teoría. Uno de esos primeros intentos tuvo realidad material en dos trabajos que Einstein publicó en 1908 precisamente en colaboración con Laub. En su trabajo Einstein y Laub lxxviii estudiaron las teorías pre-relativistas del electromagnetismo desde el punto de vista relativista, dejando de lado el complejo formalismo espaciotemporal o tetradimensional que Minkowski había propuesto para la electrodinámica, y reemplazándolo por una versión más elemental. Esa versión, que no era estrictamente tetradimensional, daba la posibilidad de operar con algunas de sus componentes en sólo tres dimensiones, lo que permitía a los autores utilizar el análisis vectorial en lugar del más complejo análisis tensorial como herramienta matemática. El análisis vectorial era, por otra parte, un área que Laub dominaba con seguridad y de la que se había ocupado con anterioridad lxxix . Einstein y Laub utilizaron ese esquema para deducir las ecuaciones de los cuerpos en movimiento. Desde luego que en esta búsqueda se puede también encontrar, implícitamente, una sorprendente afirmación acerca de la visión que Einstein y Laub tendrían en 1908 acerca de cuál podría ser la geometría de la física. Sin embargo, poco más tarde Einstein comprendió la necesidad de abandonar ese enfoque. No obstante, algunos aspectos de ese trabajo conjunto no han sido totalmente olvidados. Poco después de su arribo a la Argentina Laub publicó dos trabajos sobre la teoría de la relatividad, que aparecieron en Anales de la Sociedad Científica Argentina en 1912 y 1915. Los artículos de Laub no sólo continuaban los temas de su anterior colaboración con Einstein sino que nos informan de su estrecha relación con Einstein, quién hasta por lo menos 1915 parece haberle enviado manuscritos de sus trabajos. En el primero de esos estudios lxxx , que también publicó en Physical Review lxxxi , Laub consideró modificaciones a la electrodinámica de Einstein propuestas por Max Abraham (el rechazo de la constancia de la velocidad de la luz) y de su análisis, en el que utiliza vectores, deduce consecuencias de interés directo para la verificación experimental de la teoría. De su segundo trabajo, publicado en 1915 lxxxii se desprende que ha abandonado la idea de discutir la teoría con un cálculo vectorial tridimensional y una buena parte de este segundo trabajo está dedicada, precisamente, a introducir lo que él llama el cálculo tetradimensional. Los trabajos de Laub sobre la teoría de la relatividad han quedado en un cierto remanso, aunque Cornelius Lanczos, discípulo y colaborador de Einstein en Berlín en la década de 1920, se ha ocupado de la colaboración científica que Laub tuvo con Einstein en 1908 en Alemania en su clásico estudio sobre los trabajos científicos de Einstein lxxxiii . Por su parte, Seelig lxxxiv y Pyenson lxxxv han historiado en detalle la relación personal entre esos dos científicos, mientras que Karin Reich ha observado con singular agudeza la estructura geométrica que encierra la propuesta de Einstein y Laub de 1908 lxxxvi . Laub comprendió cabalmente que su colaboración con Einstein había sido un punto culminante en su carrera científica; esa colaboración fue un justo motivo de crédito para él durante el resto de su vida. Una vez en Argentina su anterior contacto directo con Einstein, y más tarde su pacifismo durante la Primera Guerra Mundial, jugaron un papel central en el establecimiento de relaciones estrechas entre Laub y un grupo destacado de intelectuales y políticos argentinos que lo apoyaron en su vida académica. Más tarde, ellos contribuyeron a facilitar su transición desde la docencia hacia cargos en la diplomacia argentina en Europa y, consecuentemente, a su alejamiento de la física por muchos años. CONCLUSIONES A diferencia de un buen número de divulgadores contemporáneos de la teoría de la relatividad, Collo e Isnardi se identificaron claramente con las ideas de Einstein. En 1922 estos físicos tenían un dominio técnico considerablemente más refinado y fluido de esa teoría que la gran mayoría de sus colegas argentinos. En su trabajo no encontramos referencias anecdóticas o biográficas sobre Einstein o sobre sus colegas, las cuales eran frecuentes entonces en sectores amplios de la prensa relativista, tanto en la Argentina como fuera de ella. El trabajo de Collo e Isnardi se enfoca hacia las ideas y no hacia las personalidades o hacia la historia de la teoría que consideran. Hemos señalado más atrás que originalidad y fecundidad son los adjetivos más fuertes que Isnardi usó al referirse a Einstein. Isnardi no ocultó las limitaciones, sin duda serias, de su trabajo. En particular, el hecho de que no presupuso en el lector el dominio del análisis tensorial, una disciplina que entonces estaba totalmente fuera de la formación matemática que se daba en los cursos universitarios en la Argentina, y hubiera reducido el círculo de sus lectores a unos pocos. No buscó tampoco la ruta de las simplificaciones, al estilo del ensayo de Einstein y Laub de 1908 que hemos mencionado y que, aunque no lo cita, difícilmente pudo haber ignorado. En cambio ofreció una gama amplia de referencias graduadas donde el lector interesado podía ganar acceso al análisis tensorial y avanzar hacia un estudio riguroso de la teoría de la relatividad generalizada. Las referencias de Collo e Isnardi de 1922-23 muestran familiaridad con la literatura contemporánea sobre el tema considerado. Aproximadamente tres cuartos de sus referencias se refieren a obras publicadas entre 1920 y 1923. Teniendo en cuenta las fechas de esas publicaciones resulta claro que Collo e Isnardi las obtuvieron y estudiaron con posterioridad a su viaje de estudios a Europa el cual, desde luego, fue hecho antes de la publicación de la teoría generalizada de la relatividad. Otra característica interesante de los trabajos de estos dos autores es su riqueza en contenidos conceptuales y su apertura a una discusión contemporánea de los fundamentos de la física, tema que continuó preocupando a ambos, particularmente a Isnardi, a lo largo de su carrera. Hemos visto que consideraciones muy particulares pueden haber influido en la elección del Boletín del Centro Naval como vehículo para la difusión del trabajo de Aguilar, Collo e Isnardi, ya que en esos años los dos últimos comenzaban a mover el centro de sus actividades docentes fuera de la Universidad de La Plata, buscando perspectivas nuevas en una combinación de tareas entre aquella, la Escuela Naval y la Universidad de Buenos Aires. Remarquemos, finalmente, que la reunión organizada por la Sociedad Científica Argentina, la contribución de Collo e Isnardi a ella, y su publicación en el Boletín del Centro Naval, marcan un punto de fractura en la discusión local de la teoría de la relatividad. Esos dos físicos, junto con el astrónomo Aguilar, contribuyeron a reposicionar el discurso estrictamente científico sobre esta teoría fuera del espacio de discusión culta general, aproximándolo a un área más técnica y específica. Hemos señalado más atrás que el impacto intelectual de la polémica anti-positivista en la Argentina alcanzó a las ciencias hacia 1920. Con él podemos asociar tanto una nueva valoración de las ciencias teóricas como interesantes cambios que se sucedieron rápidamente en el panorama de las ciencias exactas en la Argentina a principios de esa década, que no han encontrado aún una justificación clara. Hemos dado algunos ejemplos de la nueva postura de la Universidad de Buenos Aires frente a las ciencias teóricas: la contratación del matemático puro Julio Rey Pastor y la invitación del físico teórico Albert Einstein para que disertara sobre su nueva teoría en sus claustros, son dos de los más sobresalientes. Hemos señalado también que en esos años es posible detectar a nivel nacional una desaceleración en el tradicional soporte atribuido por el estado a las ciencias experimentales lxxxvii . El espacio natural para el desarrollo de la física teórica era, sin duda, la universidad y muy especialmente la Universidad de La Plata donde la física había ocupado hasta entonces una posición de singular privilegio. Allí surgió, por iniciativa de Gans, la primera investigación original sobre la teoría de la relatividad: la breve nota antes citada de Loedel Palumbo. Sin embargo, en la segunda mitad de la década de 1920, cuando la superación del positivismo clásico era una realidad en las capas más significativas de la cultura argentina, la comunidad platense, que era predominantemente experimentalista y que había perdido la guía de Gans, tuvo dificultades internas para afianzar un movimiento firme hacia la teoría, en paralelo con la labor experimental. Si bien la Universidad de Buenos Aires hizo esfuerzos, difícilmente podría argumentarse que el desarrollo de la teoría de la relatividad avanzó en la universidad Argentina de la década de 1920 en proporción con el esfuerzo inicialmente empleado en promoverla lxxxviii . Estas circunstancias permiten apreciar más cabalmente la complejidad y las dificultades con las que estuvo asociado el proceso de transmisión e inserción de teorías científicas nuevas en la Argentina de esa década. Notas y referencias bibliográficas Alejandro Gangui é doutor em Astrofísica (Instituto de Astronomía y Física del Espacio, Conicet y Universidad de Buenos Aires). E-mail: gangui@iafe.uba.ar. Eduardo L. Ortiz é doutor em Matemática (Imperial College, Londres). E-mail: e.ortiz@imperial.ac.uk xix EINSTEIN, Albert. Über die spezielle und allgemeine Relativitätstheorie(Gemeinverständlich).Braunschweig: Vieweg, 1920. (Primera edición fechada en 1917, publicada en diciembre de 1916.) xx EINSTEIN, Albert. Teoría de la relatividad especial y general.Madrid, 1921. xxiPYENSON, op, cit., 1985. xxiiORTIZ, Eduardo L. Science and army in Argentina. In: FORMAN, Paul; SÁNCHEZRON, José Manuel (Ed.). National military establishments and the advancement ofScience and Technology. Boston: Kluwer,1996. p. 153-184. xxiiiORTIZ, op. cit., 1995, p. 96. xxivORTIZ, op. cit., 2011b, p. 6-7. xxvORTIZ, op. cit., 2012, p. 13-34. xxviCOLLO, José B.;ISNARDI, Teófilo;AGUILAR, Félix. Teoría de la Relatividad. Boletín del Centro Naval, Buenos Aires, v. 41, n. 442, p. 263-284, 1923;n. 443, p. 413-449, 1923y n. 445, p. 747-762, 1924, p. 263. xxvii ISNARDI, Teófilo. Teoría de la Relatividad. Boletín del Centro Naval, Buenos Aires, v. 41, n. 443, 1923LORENTZ, Hendrik Antoon;EINSTEIN, Albert;MINKOWSKI, Hermann. Das Relativitätsprinzip. Leipzig: Teubner, 1920. p. 79. (Primera edición, 1913xxixORTIZ, op. cit., 1995, p. 96-97; GANGUI, Alejandro; ORTIZ, Eduardo L. Einstein's unpublished opening lecture for his course on Relativity Theory inArgentina, 1925. Science in Context, v. 21, n. 3, 2008GANGUI;ORTIZ, op. cit., 2009. xxxORTIZ, op. cit., 1995, p. 106-107. xxxi, v. 41, n. 442, p. 263-284, 1923. xxxivCOLLO, op. cit., 1923, p. 277-284. xxxvCOLLO, op. cit., 1923, p. 273. xliEINSTEIN, op. cit., 1920. xliiEINSTEIN, op. cit., 1920. xliiiCOLLO, op. cit., 1923, p. 280. xliv ISNARDI, op. cit., 1923Letters, v. 4, n. 7, p. 337-341, 1960. lxii LORENTZ;EINSTEIN;MINKOWSKI, op. cit., 1920, p. 54. lxiii LAUE, op. cit., 1921KNOPFF, op. cit., 1921, p. 35. lxvEDDINGTON, op. cit., 1921. lxvi ISNARDI, op. cit., 1923GALBRUN, op. cit., 1923. lxxiv ISNARDI, op. cit., 1923, p. 425. lxxv ISNARDI, op. cit., 1923. lxxvi LAUB, Jakob. Zur Optik der bewegten Körper. Annalen derPhysik, v. 23, p. 738-744, 1907, una segunda parte en Annalen derPhysik, v. 25, P. 175-184, 1908; LAUB, Jakob. Die Mitführung des Lichtes durch bewegte Körper nach dem Relativitätstheorie. Annalen derPhysik. v. 23, p. 989-990, 1907. lxxviiGilbert Lewis habría dictado el primero en las Américas, en Harvard en 1909, ver WALTER, Scott A. Hermann Minkowski et la mathématisation de laThéorie de la Relativité restreinte, 1905-1915. Tesis de doctorado en ciencias (Ph.D.) -Paris: Université de Paris 7, 1996. Esteban Terradas y Cabrera dictaron cursos sobre la Teoría de la Relatividad en España con anterioridad a 1912, que tuvieron también impacto en la visión de la relatividad en la Argentina. lxxviii EINSTEIN, Albert; LAUB, Jakob. Über die elektromagnetischen Grundgleichungen für bewegte Körper. Annalen derPhysik v. 26, p. 532-540, 1908. (Seguido de una corrección: Bemerkungen zu unseren Arbeit: Über die elektromagnetischen Grundgleichungen für bewegte Körper. Annalen derPhysik v. 28, p. 445-447, 1909) y EINSTEIN, Albert; LAUB, Jakob. Die im elektromagnetischen Felde auf ruhende Körper ausgeübten ponderomotorischen Kräfte. Annalen derPhysik. v. 26, p. 541-550, 1908. lxxix LAUB, Jakob. Krótki zarys analizy wektorów. WiadmosciMatematyczne. v. 9, p. 135-179, 1905. lxxx LAUB, Jakob. Noticia sobre los efectos ópticos en medios en movimiento. Anales de la Sociedad Científica Argentina. BuenosAires. v. 73, p. 38-46, 1912. lxxxi LAUB, Jakob. Optical effects in moving media. PhysicalReview, v. 34, p. 268-274, 1912. lxxxii LAUB, Jakob. Propagación de la luz en los cuerpos en movimiento. Anales de la Sociedad CientíficaArgentina, Buenos Aires, v. 79, p. 5-23, 1915. lxxxiii LANCZOS, Cornelius. The Einstein decade, 1905-1915. New York: Academic Press, 1974SEELIG, op. cit., 1954. lxxxvPYENSON, op. cit., 1976. lxxxvi REICH, Karin. Die Entwicklung des Tensorkalküls. Von absoluten Differentilkalkül zur Relativitätstheorie. Basle:Birkhausen, 1994. p. 174-175. lxxxviiORTIZ, op. cit., 2011b, p. 13-34. lxxxviiiORTIZ, op. cit., 1995, p. 69-76. Buenos Aires: El Ateneo, 1915. ii ORTIZ, Eduardo L. Julio Rey Pastor, su posición en la escuela matemática argentina. Leopoldo Lugones, El tamaño del espacioi LUGONES, Leopoldo. El tamaño del espacio. Buenos Aires: El Ateneo, 1915. ii ORTIZ, Eduardo L. Julio Rey Pastor, su posición en la escuela matemática argentina. The emergence of theoretical physics in Argentina. ; Revista De La Unión Matemática Argentina, Eduardo L Ortiz, Remembering Héctor Rubinstein (Proceedings of the Symposium: Quarks, strings and the cosmos). BRINK, L y MUCHANOV, V.Buenos Aires52Revista de la Unión Matemática Argentina, Buenos Aires, v. 52, p. 143-188, 2011a; ORTIZ, Eduardo L., The emergence of theoretical physics in Argentina. En: BRINK, L y MUCHANOV, V. (Eds.). Remembering Héctor Rubinstein (Proceedings of the Symposium: Quarks, strings and the cosmos), Trieste: International School of Advanced Studies, p. 13-34, 2011b; Historia de la Física en la Argentina. Eduardo L Ortiz, Julio Rey Pastor Y Los Físicos, Matemática, Física Física-Matemática, Argentina Teórica En La, iv ORTIZ, op. citBuenos AiresAsociación Física Argentina y Editorial de la Universidad de Córdobaen prensa) 2012. iii ORTIZ, op. citORTIZ, Eduardo L. Julio Rey Pastor y los físicos. Matemática, Física-Matemática, Física teórica en la Argentina: 1925-1935. En: HURTADO, D. (Ed.). Historia de la Física en la Argentina. Buenos Aires: Asociación Física Argentina y Editorial de la Universidad de Córdoba, (en prensa) 2012. iii ORTIZ, op. cit, 2011a, p. 173-185. iv ORTIZ, op. cit, 2011b, p. 13-34. v ORTIZ, op. cit, 2012, p. 20-23. A convergence of interests: Einstein's visit to Argentina in 1925. Ibero-Americanisches Archiv. Eduardo L Ortiz, Gangui ; Viii, Alejandro ; Ortiz, Eduardo L , Boletín del Centro Naval. ROMERO, G.CORA, S.CELLONE, S. (Ed.). Historia de la Astronomía argentina20ix BROGGIFirst echoes of relativity in Argentine astronomy. Sobre el principio electrodinámico de relatividad y sobre la idea de tiempovi Sobre la visita de Einstein a la Argentina ver: ORTIZ, Eduardo L. A convergence of interests: Einstein's visit to Argentina in 1925. Ibero-Americanisches Archiv, Berlin, v. 20, p. 67-126, 1995. vii AGUILAR, Félix. Teoría de la Relatividad. Boletín del Centro Naval, Buenos Aires, v. 41, n. 445, p. 747-762, 1924. viii GANGUI, Alejandro; ORTIZ, Eduardo L. First echoes of relativity in Argentine astronomy. In: ROMERO, G.; CORA, S.; CELLONE, S. (Ed.). Historia de la Astronomía argentina. La Plata: Argentinean Astronomical Association Book Series. 2, 2009. p. 31-37. ix BROGGI, Ugo. Sobre el principio electrodinámico de relatividad y sobre la idea de tiempo. La Física en la Argentina en los dos primeros tercios del siglo veinte: algunos condicionantes exteriores a su desarrollo. Revista Brasileira de História da Ciência. Revista Politécnica, Buenos Aires ; X Ortiz, Eduardo L ; Rubinstein, Héctor , Anales de la Sociedad Científica Argentina. Buenos Aires. v. 8610xi VOLTERRA, Vito. Espacio, tiempo i masaRevista Politécnica, Buenos Aires, v. 10, n. 86, p. 41-44, 1909. x ORTIZ, Eduardo L.; RUBINSTEIN, Héctor. La Física en la Argentina en los dos primeros tercios del siglo veinte: algunos condicionantes exteriores a su desarrollo. Revista Brasileira de História da Ciência, Rio de Janeiro, v. 2, n. 1, p. 40-81, 2009. xi VOLTERRA, Vito. Espacio, tiempo i masa. Anales de la Sociedad Científica Argentina. Buenos Aires. v. 70, 1910. p. 223-243. Anales de la Sociedad Científica Argentina. Camilo Meyer, 153-245 y 281-371.Buenos Aires. v. 80La radiación y la teoría de los quanta. Publicado separadamente como libro con el mismo título.xii MEYER, Camilo. La radiación y la teoría de los quanta. Anales de la Sociedad Científica Argentina. Buenos Aires. v. 80, 1915. p. 5-103, 153-245 y 281-371. (Publicado separadamente como libro con el mismo título.) Contribution to the history of attempts to test the Theory of Relativity by means of astronomical observations. Perrine Xiii, D Charles, Astronomische Nachrichten. v. 219ver GANGUIxiii PERRINE, Charles D. Contribution to the history of attempts to test the Theory of Relativity by means of astronomical observations. Astronomische Nachrichten. v. 219, p. 281-284, 1923; ver GANGUI; Las relaciones científicas entre Argentina y España a principios de este siglo: La Junta para Ampliación de Estudios y la Institución Cultural Española. Lewis ; Pyenson, Eduardo L Ortiz, La junta para ampliación de estudios e investigaciones científicas 80 años después. Madrid: Consejo Superior de Investigaciones Científicas. SÁNCHEZ RON, José ManuelNew YorkPeter LangORTIZEinstein's early scientific collaboration. Historical Studies in the Physical SciencesORTIZ, 2009, p. 32-33. xiv Su nombre era Jakub Jan Laub. xv SEELIG, Carl. Albert Einstein. Eine dokumentarische Biographie. Zurich: Europa-Verlag, 1954. xvi PYENSON, Lewis. Einstein's early scientific collaboration. Historical Studies in the Physical Sciences, v. 7, p. 83-123, 1976 y PYENSON, Lewis. Cultural imperialism and Exact Sciences: German expansion overseas 1900-1930. New York: Peter Lang, 1985. xvii ORTIZ, Eduardo L. Las relaciones científicas entre Argentina y España a principios de este siglo: La Junta para Ampliación de Estudios y la Institución Cultural Española. In: SÁNCHEZ RON, José Manuel (Ed.). La junta para ampliación de estudios e investigaciones científicas 80 años después. Madrid: Consejo Superior de Investigaciones Científicas, 1988. p. 119-158. La Teoría de la Relatividad en la Física moderna: Lorentz, Minkowski. Ubach Xviii, S J José, AmorrortuEinstein. Buenos Airesxviii UBACH, S.J., José, La Teoría de la Relatividad en la Física moderna: Lorentz, Minkowski, Einstein. Buenos Aires: Amorrortu, 1920.
sample_16418
0.9969
arxiv
ETUDE THEORIQUE ET EXPERIMENTALE DES CORRELATIONS QUANTIQUES OBTENUES PAR MELANGE A QUATRE ONDES DANS UNE VAPEUR ATOMIQUE devant la commission d'examen composée de Soutenue, le 19 novembre 2010 26 Jan 2011 Quentin Glorieux LABORATOIRE MATÉRIAUX ET PHÉNOMÈNES QUANTIQUES CNRS UMR 7162 Université Paris Diderot M Ennio LABORATOIRE MATÉRIAUX ET PHÉNOMÈNES QUANTIQUES CNRS UMR 7162 Université Paris Diderot Arimondo Membre LABORATOIRE MATÉRIAUX ET PHÉNOMÈNES QUANTIQUES CNRS UMR 7162 Université Paris Diderot M Philippe LABORATOIRE MATÉRIAUX ET PHÉNOMÈNES QUANTIQUES CNRS UMR 7162 Université Paris Diderot Bouyer Examinateur LABORATOIRE MATÉRIAUX ET PHÉNOMÈNES QUANTIQUES CNRS UMR 7162 Université Paris Diderot M Vincent LABORATOIRE MATÉRIAUX ET PHÉNOMÈNES QUANTIQUES CNRS UMR 7162 Université Paris Diderot Boyer Rapporteur LABORATOIRE MATÉRIAUX ET PHÉNOMÈNES QUANTIQUES CNRS UMR 7162 Université Paris Diderot M Thomas LABORATOIRE MATÉRIAUX ET PHÉNOMÈNES QUANTIQUES CNRS UMR 7162 Université Paris Diderot Coudreau Directeur De Thèse LABORATOIRE MATÉRIAUX ET PHÉNOMÈNES QUANTIQUES CNRS UMR 7162 Université Paris Diderot M Cristiano LABORATOIRE MATÉRIAUX ET PHÉNOMÈNES QUANTIQUES CNRS UMR 7162 Université Paris Diderot Ciuti Président LABORATOIRE MATÉRIAUX ET PHÉNOMÈNES QUANTIQUES CNRS UMR 7162 Université Paris Diderot M Claude LABORATOIRE MATÉRIAUX ET PHÉNOMÈNES QUANTIQUES CNRS UMR 7162 Université Paris Diderot Fabre Rapporteur LABORATOIRE MATÉRIAUX ET PHÉNOMÈNES QUANTIQUES CNRS UMR 7162 Université Paris Diderot ETUDE THEORIQUE ET EXPERIMENTALE DES CORRELATIONS QUANTIQUES OBTENUES PAR MELANGE A QUATRE ONDES DANS UNE VAPEUR ATOMIQUE devant la commission d'examen composée de Soutenue, le 19 novembre 2010 26 Jan 2011Spécialité : Physique Quantique présentée par Ce travail de thèse se consacre à l'étude théorique et expérimentale de la génération de corrélations quantiques dans le régime des variables continues par mélange à 4 ondes dans une vapeur atomique.Deux approches théoriques complémentaires sont développées. D'une part, nous étudions le mélange à 4 ondes sous le point de vue de l'optique non-linéaire "classique" afin d'obtenir les équations d'évolution d'un amplificateur idéal pour un milieu de susceptibilité diélectrique χ (3) . D'autre part, nous présentons un modèle microscopique à 4 niveaux en double-Λ permettant de calculer le coefficient χ (3) pour une vapeur atomique en présence de laser, et ainsi obtenir théoriquement les spectres de bruit en intensité des grandeurs observées.La mise en oeuvre expérimentale de ce processus sur la raie D1 du rubidium 85 est ensuite détaillée. Nous présentons notamment un taux de compression sous la limite quantique standard de -9.2dB, ainsi qu'un régime original permettant la génération de corrélations quantiques sans amplification. L'ensemble de ces résultats a des applications très importantes dans le domaine de l'optique quantique multimode. Citons par exemple l'imagerie quantique ou les mémoires quantiques multimodes.Mots clés fluctuations quantiques, réduction du bruit quantique, corrélations quantiques, vapeur atomique, mélange à 4 ondes, variable continue, intrication. 4 Abstract We study both theoretically and experimentally the generation of quantum correlations in the continuous variable regime by way of four-wave mixing in a hot atomic vapor.Two theoretical approaches have been developed. On one side, we study the four-wave mixing under the "classical" non-linear optics point of view. In such a way we obtain the evolution equation for an ideal linear amplifier in a χ (3) medium. On the other side, we present a microscopic model with 4 levels in the double-Λ configuration to calculate the χ (3) coefficient in a atomic vapor dressed with a laser. This calculation allows us to derive the spectra of intensity noise for interesting parameters.The experimental part of this work describes the demonstration of this effect on the D1 line of rubidium 85. We present a measurement of relative intensity squeezing as high as -9.2dB below the standard quantum limit, and an original regime where quantum correlations have been measured without amplification.These results have broad applications in the field of multimode quantum optics, e.g. quantum imaging or the multimode quantum memories. Keywords quantum fluctuations, squeezing, quantum correlations, atomic vapor, four wave mixing, continuous variable, entanglement. qu'à tout ceux et celles qui m'y ont accompagné (Marie, Lucien et son karaoké, John et son méga, Giulia, Morgane, Léa et les jicreux, Manue R, Démos, Damien, Caroline, Kyan, Lucile, Nadir et même Vincent B.)Enfin, il me semble évident que l'ensemble de mes amis ont contribué par leur présence à la réussite de ce travail de thèse et je les en remercie très sincèrement. Il serait difficile d'essayer de les citer tous et toutes ici mais je pense qu'ils ou elles se reconnaitront dans ces quelques lignes et notamment les courageux spectateurs de ma soutenance qui se sont consciencieusement concentrés pour comprendre ce dont je parlais.Je voudrais dire enfin un grand merci à Julien pour être comme il est, à Marine et son degré d'abstraction pour m'avoir inscrit de force en prépa (et pour tout le reste) ainsi qu'à Eve à qui mon moral durant la fin de ma thèse doit beaucoup.Je ne peux pas finir sans remercier tout particulièrement toute ma famille pour son soutien durant ces trois ans et les 24 années qui les ont précédées avec trois petites pensées spéciales à ma maman qui a toujours été là quand il fallait, à Olivier et à ses voisins, ainsi qu'à ma grand mère qui s'est même mise à internet pour pouvoir communiquer avec son petit fils... And last but not least : un immense MERCI à Elise pour m'avoir supporté avant, pendant et après cette thèse (et même durant la rédaction !) 8 Introduction Contexte général L'information quantique [Bennett 00, Bouwmeester 01, Cerf 07] est un domaine de recherche qui a pour but d'utiliser les propriétés quantiques de la lumière et de la matière afin de développer une nouvelle approche dans le traitement de l'information. Dès 1982, Richard Feynman propose d'utiliser des systèmes quantiques simples et contrôlés pour simuler des propriétés de systèmes plus complexes [Feynman 82]. A la même période, les premiers protocoles de distribution de clé publique sont publiés [Bennett 84]. Ces travaux ont ouvert la voie à une nouveau domaine, qui s'est développé de manière très importante durant les 25 dernières années : les communication quantiquesLe domaine des communications quantiques regroupe les travaux visant à transmettre des états quantiques entre deux points ou plus [Kimble 08]. Basés sur la nature quantique du champ électromagnétique, des protocoles de cryptographie quantique ont été proposés afin de garantir la confidentialité des communications, non pas grâce à la complexité du cryptage mais grâce aux lois de la physique quantique. Un état intriqué est défini par la présence de corrélations non locales entre deux sous-systèmes qui le constituent. Par conséquent, la fonction d'onde d'un tel état ne pourra pas s'écrire comme le produit tensoriel de chacun des deux sous-systèmes. Cette propriété a été mise en évidence dans un article de Einstein, Podolsky et Rosen en 1935 et porte le nom de paradoxe EPR [Einstein 35]. En effet, le caractère non-local de l'intrication s'oppose au principe de réalisme local adopté par les auteurs, qui suggèrent que la description en terme de fonction d'onde de la physique quantique est incomplète. En 1964, le mathématicien John Bell, utilise l'hypothèse de l'existence de variables cachées pour dériver les inégalités qui portent son nom. Ainsi, pour tout état décrit par une théorie respectant le réalisme local, ces inégalités doivent être respectées[Bell 64]. Les premières preuves de la violation des inégalités de Bell a été obtenues dans les années 1970 [Freedman 72, Kasday 75]. Quelques années plus tard, en 1981, les expériences d'Orsay démontrent la violation de ces inégalités en utilisant les photons 15 Etats comprimés en variables continues En mécanique quantique, les états cohérents ont été introduits par Erwin Schrödinger pour définir les états propres de l'oscillateur harmonique. Les travaux de Roy Glauber ont permis d'appliquer ce formalisme au domaine de l'optique quantique, où chaque mode du champ électromagnétique est assimilé à un oscillateur harmonique[Glauber 63]. Dans un régime impliquant un très grand nombre de photons, le champ électromagnétique est décrit dans le formalisme des variables continues par deux observables conjuguées que l'on appelle des quadratures du champ. Le produit des variances de deux quadratures est donc naturellement borné par la relation d'inégalité d'Heisenberg. Pour un état cohérent, aussi appelé état quasi-classique, le rôle de chacune des quadratures est identique, ce qui signifie que les fluctuations de chacune des observables possèdent une borne inférieure que l'on appelle la limite quantique standard. Au prix de l'augmentation des fluctuations sur l'une des quadratures, il est possible de réduire sous la limite quantique standard les fluctuations de la quadrature conjuguée. On appelle ces états, des états non-classiques de la lumière. Ces états permettent notamment d'améliorer la sensibilité des interféromètres dans la perspective de la détection des ondes gravitationnelles [Mehmet 10]. Depuis une trentaine d'années de nombreux travaux se sont concentrés sur la production de ce type d'état. Pour des modes non-vides du champ électromagnétique, nous allons distinguer deux catégories d'états non-classiques en fonction du nombre de modes mis en jeu (un ou deux modes). Les états non-classiques à un mode du champ sont appelés états comprimés. Les états non-classiques à deux modes du champ peuvent être mis en évidence par la mesure de corrélations quantiques de l'une des quadratures, entre les deux modes. Généralement le champ directement produit par un laser peut être assimilé à un état cohérent. Pour produire des états non-classiques du champ, il est nécessaire d'utiliser des phénomènes de l'optique non-linéaire. La première démonstration expérimentale de la production d'états non-classiques (état comprimé à un mode) a été réalisée en 1985 dans une expérience de mélange à 4 ondes à l'aide d'un jet atomique de sodium [Slusher 85a]. Plus récemment, le mélange à 4 ondes dans un système à trois niveaux en Λ a été étudié théoriquement en vue de produire des états comprimés [Shahriar 98, Lukin 99]. De plus le phénomène de transparence électromagnétiquement induite (Electromagnetically Induced Transparency ou EIT) s'est révélé un atout utile afin de permettre un gain paramétrique important, pour les expériences de mélange à 4 ondes dans un système atomique modélisé par des atomes à quatre niveaux en double-Λ [Zibrov 99]. En effet, le phénomène d'EIT permet d'observer la transparence, en présence d'un champ de contrôle, d'un milieu initialement opaque en l'absence de champ [Harris 90, Boller 91, Harris 97]. Suite à Contexte dans l'équipe IPIQ C'est dans ce contexte que l'équipe IPIQ du laboratoire Matériaux et Phénomènes Quantiques s'intéresse à la réalisation d'une mémoire quantique en variables continues dans un nuage d'ions strontium refroidis par laser. Ce projet qui a débuté fin 2004 par la construction d'un piège à ions de dimensions centimétriques, s'est poursuivi durant le thèse de Sebastien Rémoville qui a mis en évidence le piégeage et le Le chapitre 2, nous permet de décrire les différentes techniques expérimentales utilisées dans la suite de ce manuscrit. Nous commençons par une revue de la littérature sur les méthodes de production des états non-classiques de la lumière. Nous présentons plus en détails le mélange à 4 ondes qui est la technique qui a été utilisée durant cette thèse. Dans ces expériences, un faisceau pompe interagit avec un faisceau sonde dans une vapeur de rubidium et permet de générer un faisceau conjugué. Nous détaillons donc les caractéristiques des sources utilisées pour produire les différents faisceaux et nous décrivons le milieu atomique, afin d'établir une loi empirique permettant de déterminer la densité de rubidium en phase vapeur dans la cellule utilisée. Enfin, nous donnons les caractéristiques des différents éléments de la chaine de photodétection (photodiodes, analyseur de La troisième partie de ce manuscrit est consacrée aux résultats expérimentaux obtenus durant mon travail de thèse. Dans le chapitre 5, nous présentons la génération d'états comprimés à deux modes du champ à 795 nm sur la transition D1 du 85 Rb. Après avoir détaillé le dispositif expérimental, nous donnons une caractérisation du milieu atomique en présence d'un champ pompe. Puis, nous effectuons une étude des différents paramètres 28 Chapitre 1. Optique quantique en variables continues Avant tout, je tiens à remercier très sincèrement Thomas Coudreau, mon directeur de thèse, pour son soutien constant et sa grande disponibilité en dépit de ses nombreuses activités. J'ai été particulièrement touché par son aide dans les moments de doute ainsi que par son ouverture. Je garde un souvenir ému de la nuit de manip à chercher le signal de mélange à 4 ondes "bleu", ainsi que des nombreuses discussions extra-scientifiques que nous avons pu avoir. Je remercie également très chaleureusement Luca Guidoni dont la patience et la grande rigueur scientifique m'ont fait énormément progresser durant ces trois années. Le travail présenté dans ce manuscrit doit beaucoup à Thomas et à Luca qui ont relu avec opiniâtreté les versions successives (malgré les mauvaises blagues de la Poste) et je leur en suis profondément reconnaissant. Je remercie également l'ensemble des membres permanents de l'équipe IPIQ, Samuel Guibal avec qui j'ai partagé les joies et les peines du travail de recherche ainsi que les soirées au siège du CNRS et Jean-Pierre Likforman qui m'a initié à la physique expérimentale des lasers femto et avec qui je partage une passion commune pour la gastronomie, qu'elle soit universitaire ou valdôtaine. Un grand merci également à Nicolas Sangouard et Perola Milman avec qui j'ai pu discuter de nombreuses questions théoriques de ce travail. Mes remerciements les plus sincères vont aussi aux membres du jury qui ont accepté la lourde tache de relire ce manuscrit et en premier lieux à Claude Fabre et Vincent Boyer qui ont bien voulu rapporter ce travail. Je remercie également Philippe Bouyer pour avoir traverser l'Atlantique pour cette soutenance ainsi que Cristiano Ciuti qui a accepté de présider le jury. Je tiens à remercier particulièrement chaleureusement Ennio Arimondo, qui accepté de participer à ce jury en tant que membre et avec qui j'ai pu collaborer de manière 5 6 très fructueuse durant ma thèse. Durant ces trois ans j'ai été amené à travailler avec un certain nombre d'autres thésards au sein de l'équipe et je me dois de commencer par remercier Romain Dubessy dont le calme et la très (très) grande compétence scientifique, m'ont permis de me sortir de situations qui semblaient parfois désespérées. J'ai eu beaucoup de plaisir à travailler avec lui, que ce soit durant "la nuit de calculs" au mois d'août dans un labo vide ou en salle de manip à confronter nos goûts musicaux. Je tiens à remercier également Sebastien Rémoville (ou "sremo2") et Brice Dubost qui, dans des styles très différents, ont su me faire profiter de leurs qualités et de leur rigueur de normaliens. Simon Pigeon a aussi le droit à une ligne (ou deux) de remerciement dans la catégorie travail pour avoir pris patiemment le temps d'écouter mes plaintes contre les forces de Langevin et autres bêtes sauvages de l'optique quantique et m'avoir même parfois donné des pistes pour en découdre ! Je remercie aussi les nombreux stagiaires ont fait partie de l'équipe : Marie-Blandine, Pu, Olivier, Daria, Benjamin, Quentin qui m'a donné un coup de main sur le réglage des acoustos et Aurélie qui a passé ses soirées à prendre des données avec moi sur les expériences d' EIT. Une pensée également pour tous les thésard-e-s que j'ai pu croiser durant ces trois années dans le laboratoire MPQ [Aspect 81]. En parallèle de ces travaux sur la non-localité de la physique quantique, de nombreux travaux se sont concentrés sur la production d'états non-classiques de la lumière. Introduction 17 ces travaux, le mélange à 4 ondes a été utilisé expérimentalement pour produire des corrélations quantiques (état comprimé à deux modes) dans une vapeur atomique de rubidium [McCormick 07, Boyer 08, McCormick 08, Pooser 09]. Dans ces expériences, un faisceau pompe intense interagit avec un faisceau sonde en présence d'une vapeur atomique de 85 Rb. Cette interaction permet de générer un faisceau conjugué, qui peut posséder des corrélations quantiques avec le faisceau sonde. Dans cette situation, aucune cavité optique n'est nécessaire pour amplifier le phénomène et le processus est par conséquent intrinsèquement multimode, ce qui ouvre la voie à la production de corrélations point à point entre des images quantiques [Marino 09]. Bien que la plupart des propositions théoriques en information quantique aient été initialement écrites dans le régime des variables discrètes (polarisation d'un photon, spin individuel d'un atome ou d'un ion unique par exemple), une large majorité de ces propositions a été étendue aux variables continues [Braunstein 05]. Par exemple, le protocole de téléportation quantique en variable discrète de [Bennett 93] a été presque immédiatement adapté aux variables continues [Vaidman 94]. Le principal intérêt de travailler avec des variables continues vient de la dimension de l'espace de Hilbert sous-jacent qui est de dimension infinie : il contient bien plus d'information potentielle qu'un état dans un espace de dimension deux. De plus, ces états sont plus faciles à exploiter expérimentalement. Par exemple, la mesure des quadratures d'un état en variables continues repose simplement sur une détection homodyne réalisée à l'aide d'une lame séparatrice et de photodiodes commerciales relativement peu couteuses. En comparaison des détecteurs de photons individuels sont nécessaire pour travailler dans le régime des variables discrètes avec des photons uniques. Cependant, les états comprimés en variables continues sont très sensibles aux pertes (sur le chemin optique ou lors de la détection). Alors que dans le cas des variables discrètes, les pertes ne diminuent que le débit des transmissions, dans ce régime elles réduisent le caractère quantique des états non-classiques utilisés. Ainsi, à cause des pertes, il est souhaitable de disposer de sources d'états très intriqués pour distribuer une grande quantité d'information sur de longues distances. De plus, ces états doivent être susceptibles d'interagir avec des mémoires quantiques, qui sont la brique de base pour accroitre les distance de transmission par la méthode des "répéteurs quantiques" [Duan 01]. La diversification des sources d'états non-classiques, et notamment la recherche de sources à des longueurs d'onde compatibles avec les mémoires quantiques (proche de résonnance des transitions atomiques) est un domaine de recherche très actif. Introduction refroidissement des ions 88 Sr + [Rémoville 09]. Dans le but final de disposer d'une source de photons corrélés à la longueur d'onde de la transition 5S 1/2 → 5P 1/2 du 88 Sr + , j'ai travaillé sur la mise en place d'une expérience de mélange à 4 ondes dans une vapeur de rubidium. En effet, il existe une quasi-coïncidence entre la transition 5S 1/2 → 5P 1/2 du Sr + et la transition 5S 1/2 → 6P 1/2 du 85 Rb [Madej 98]. De plus, l'utilisation du mélange à 4 ondes dans une vapeur atomique est une voie pour contourner les problèmes techniques de mise en oeuvre des méthodes utilisant la conversion paramétrique. Le mélange à 4 ondes n'ayant jamais été observé sur cette transition, la première partie de mon travail de thèse a consisté à mettre en évidence les corrélations quantiques sur la raie D1 du 85 Rb à 795 nm, en mettant en place une expérience basée sur le montage décrit dans [McCormick 07]. En parallèle, j'ai étudié théoriquement les phénomènes mis en jeu dans cette expérience en utilisant un modèle microscopique à quatre niveaux. Cette étude m'a permis de mettre en évidence théoriquement un régime original permettant la production de corrélations quantiques entre le faisceau sonde et conjugué sans amplification, que nous avons pu observer expérimentalement pour la première fois durant cette thèse. Enfin, l'étude théorique ayant montré qu'il n'était pas envisageable de transposer à l'identique ces expériences sur la raie 5S 1/2 → 6P 1/2 du 85 Rb, nous avons utilisé les ressources expérimentales disponibles pour mettre en évidence l'effet de transparence électromagnétiquement induite sur cette transition, ce qui, à notre connaissance, n'avait jamais été étudié auparavant. Organisation du manuscrit Ce manuscrit est composé de trois parties. La première partie permet d'introduire les éléments théoriques et expérimentaux qui seront utilisés au cours des chapitres suivants. Dans le premier chapitre, nous donnons une description quantique du champ électromagnétique en présentant deux catégories d'états : les états cohérents et les états comprimés. Nous introduisons ensuite, le formalisme de la représentation de Wigner et les notions de bruit quantique et de photodétection. Les corrélations quantiques en variables continues sont ensuite décrites de façon synthétique. Enfin nous présentons brièvement les équations de Heisenberg-Langevin, qui permettent de traiter de l'interaction lumière-matière de façon entièrement quantique. Introduction 19 spectres) et nous étudions l'effet des imperfections expérimentales sur la mesure de corrélations quantiques. La seconde partie de ce manuscrit est consacrée à l'étude théorique du mélange à 4 ondes. Dans le chapitre 3, nous en présentons une approche phénoménologique. Dans un premier temps, nous écrivons les équations de l'optique non-linéaire qui décrivent le processus de mélange à 4 ondes. Puis, nous étudions le phénomène d'amplification paramétrique dans deux situations : d'une part l'amplification des faisceaux sonde et conjugué dans une configuration insensible à la phase du faisceau pompe, d'autre part l'amplification ou la déamplification du faisceau sonde dans une configuration sensible à la phase des faisceaux de pompe. Dans un second temps, nous utilisons le modèle de l'amplificateur linéaire idéal pour calculer les valeurs moyennes de l'intensité ainsi que les fluctuations quantiques associées aux différents faisceaux (intensité du faisceau pompe ou différence d'intensité entre le faisceau sonde et conjugué, selon le cas). La susceptibilité non-linéaire χ (3) , introduite dans le chapitre 3 de manière phénoménologique, trouve son contenu physique dans le modèle microscopique que nous développons dans le chapitre 4. Après avoir décrit brièvement le phénomène de transparence électromagnétiquement induite dans un système à 3 niveaux en Λ, nous étudions le processus de mélange à 4 ondes à l'aide d'un système à quatre niveaux en double-Λ [Lukin 00b]. Nous présentons, la méthode de résolution des équations de Heisenberg-Langevin qui nous a permis de dériver l'expression des corrélations quantiques d'intensité et des anti-corrélations de phase dans ce type de système en présence de deux champs pompes et d'un champ sonde. A l'aide de ce modèle, nous mettons en évidence pour la première fois la possibilité de générer un haut niveau de corrélations quantiques dans un milieu constitué d'atomes froids par mélange à 4 ondes. Dans une seconde partie, nous discutons de l'extension de ce modèle à une vapeur atomique "chaude" ce qui permet de comparer les prédictions à nos résultats expérimentaux. C'est dans cette section également que nous présentons un régime qui a été proposé pour la première fois durant cette thèse, permettant de réaliser une lame séparatrice quantique, c'est-à-dire générer deux faisceaux corrélés quantiquement à partir d'un état cohérent et sans amplification. Enfin, nous étudions théoriquement la possibilité de transposer ces expériences sur la transition 5S 1/2 → 6P 1/2 du 85 Rb et nous pouvons conclure que dans les régimes que nous avons étudiés, une telle expérience n'est pas réalisable. expérimentaux qui affectent le gain du processus et les corrélations obtenues. Chacune de ces expériences comparée aux prédictions théoriques. Enfin, nous présentons la mise en évidence expérimentale du régime de la lame séparatrice quantique, que nous avons proposé théoriquement. Pour finir, le chapitre 6, est consacré à lune étude expérimentale préliminaire du phénomène de transparence électromagnétiquement induite (EIT) sur la transition 5S 1/2 → 6P 1/2 du 85 Rb. Il s'agit de la première démonstration expérimentale du phénomène d'EIT observée sur cette transition. Première partie Outils théoriques et expérimentaux 21 CHAPITRE 1 Optique quantique en variables continues L'objectif de ce chapitre est de présenter les outils théoriques utilisés dans ce manuscrit au cours de l'étude théorique qui sera détaillée dans les chapitres 3 et 4. Au cours du texte, la traduction anglaise des notions les plus souvent utilisées est donnée en italique. Après une présentation générale de la notion de variable continue (continuous variable), nous étudions comment cette notion s'applique dans le cas d'un champ électromagnétique quantifié. Différents états faisant intervenir un seul mode du champ sont ensuite présentés, notamment nous introduisons deux types d'états gaussiens : les états cohérents (coherent states) et les états comprimés de la lumière (squeezed states). Nous étendons notre étude aux états du champ à deux modes et nous décrivons les propriétés de corrélations quantiques entre ces modes. En présence de corrélations en intensité entre les deux modes, les états sont appelés états comprimés à deux modes (twin beams). Si dans le même temps, on observe des anti-corrélations sur l'observable conjuguée, on parlera alors d'états intriqués (entangled states). Dans le régime des variables continues, 23 24 Chapitre 1. Optique quantique en variables continues il s'agit de l'analogue des états intriqués introduits dans le célèbre article EPR de 1935 [Einstein 35, Zeilinger 99, Reid 09]. A Quantification du champ et états quantiques de la lumière. Historiquement les variables dites "discrètes" ont joué un rôle prédominant dans l'étude des propriétés quantiques de la lumière. En effet il s'agit d'un très bon système modèle car un grand nombre de phénomènes peuvent être décrits dans un espace de Hilbert de faible dimension et plus particulièrement dans un espace de dimension deux. De nombreuses propositions théoriques et démonstrations expérimentales utilisant ces systèmes ont été réalisées ces dernières années. On peut citer notamment : la réalisation de portes logiques destinée à l'ordinateur quantique, la cryptographie quantique ou les protocoles de téléportation quantique [ où les quadratures s'écrivent : X = α e ikz + α * e −ikz , (1.4a) Y = i α e ikz − α * e −ikz . (1.4b) On s'intéresse à l'évolution temporelle du champ. Pour une position donnée on pourra écrire simplement les quadratures sous la forme : X = 2 cos φ, (1.5a) Y = 2 sin φ. (1.5b) avec φ = tan −1 Y X (1.6) Cette description classique du champ peut être représentée dans le repère de Fresnel par une flèche de longueur |E 0 | et une phase φ comme le montre la figure 1.1 a). A.2 Description quantique du champ Par analogie avec la description de l'oscillateur harmonique, où la position et l'impulsion peuvent être quantifiées, on peut donner une description quantique du champ électromagnétique qui devient alors une observable notéeÊ(t) [Fabre 08]. Pour une onde plane, monomode de fréquence ω et d'amplitude E 0 , on exprime le champ en un point donné de l'espace sous la forme [Meystre 07] : E(t) = E 0 X cos ωt +Ŷ sin ωt , (1. 7) où l'on a introduit la constante de normalisation E 0 qui correspond au champ électrique associé à un photon et qui a pour expression : E 0 = ω 2 0 V , (1.8) où V est le volume de quantification. A l'aide de la relation (1.7), on définit les opérateurs de création et d'annihilation d'un photon à la fréquence ω : a ω =X + iŶ 2 ,â † ω =X − iŶ 2 , (1.9) ce qui nous permet d'écrire la relation (1.7) sous la forme : E(t) = E 0 âe −iωt +â † e iωt . (1.10) Réciproquement pour les quadraturesX etŶ on a : X =â ω +â † ω ,Ŷ = −i â ω −â † ω . (1.11) A.3 Inégalité d'Heisenberg et fluctuations quantiques du champ D'après la définition que nous venons de donner des quadratures d'un champ électromagnétique quantifié, nous pouvons faire l'analogie avec les opérateurs position et impulsion de l'oscillateur harmonique. Au même titre que ces opérateurs, les opérateursX etŶ sont un couple d'opérateurs conjugués, par conséquent ils ne commutent pas : X ,Ŷ = 2i. (1.12) 26 Chapitre 1. Optique quantique en variables continues Cette non-commutation signifie que l'on ne peut pas mesurer simultanément avec une précision arbitraire ces deux observables. Elle se traduit par la relation d'inégalité d'Heisenberg qui donne la borne inférieure du produit des variances de ces deux observables ∆X 2 ∆Ŷ 2 ≥ 1, (1. 13) où l'on a défini la variance par : ∆X 2 = X 2 − X 2 . (1.14) La mesure de ces quadratures ne pourra donc pas se faire simultanément avec une précision infinie et nous allons nous intéresser aux fluctuations des valeurs obtenues par des réalisations successives, que l'on va qualifier de bruit quantique de la lumière (quantum noise). Comme le choix d'un couple de quadratures est arbitraire, on étend la notation de quadrature (relation (1.11)) à celle de quadrature généralisée que l'on note pour une phase θ quelconque :X θ =â e −iθ +â † e iθ ,Ŷ θ = −i â e −iθ −â † e iθ . (1. 15) On peut écrire la valeur moyenne de l'opérateurâ sous la forme â = |α|e iφ . Dans le cas particulier où l'on choisit θ = φ, avec φ la phase du champ moyen de valeur moyenne non nulle (α 0), alors les quadraturesX θ etŶ θ sont respectivement appelées les quadratures d'intensité et de phase du champ. La figure 1.1b) donne une représentation du champ dans un repère de Fresnel. On a ajouté sur cette figure, par rapport à la description classique, une surface a priori quelconque autour de la valeur moyenne qui correspond à l'aire des fluctuations, car ces quadratures doivent respecter la relation (1.13). L'aire des fluctuations sera définie rigoureusement dans la section B.3. On peut la voir, pour l'instant, comme la zone où l'écart par rapport à la valeur moyenne du champ est inférieure à une certaine valeur (l'écart quadratique moyen par exemple). A.4 Etats nombres, états cohérents et états comprimés Dans la théorie quantique de la lumière, il existe plusieurs façons de décrire l'état d'un champ électromagnétique. Nous présentons ici celles qui nous serons utiles dans ce manuscrit [Knight 95]. A.4 .1 Etats nombres Les états nombres sont utilisés en optique quantique dans le régime des variables discrètes. Un état nombre |n , aussi connu sous le nom d'état de Fock, est vecteur propre de l'opérateur nombreN =â †â . La valeur propre associée à ce vecteur propre est n : N|n = n|n . ( H = ω N + 1 2 . (1.18) Les états de Fock sont donc des vecteurs propres du Hamiltonien du champ et les valeurs propres associées valent (n + 1 2 ) ω. L'énergie du vide pour un mode de fréquence ω vaut donc 1 2 ω. D'autre part l'action des opérateurs d'annihilationâ ou de créationâ † sur un état de Fock permet respectivement de diminuer ou d'augmenter d'une unité la valeur propre de l'opérateur nombre associé à l'état qui en résulte : a|n = √ n|n − 1 ,â † |n = √ n + 1|n + 1 . (1.19) De plus, on peut décrire un état nombre à l'aide d'un produit de l'opérateur de créationâ † appliqué au vide sous la forme : |n = (â † ) n √ n! |0 . (1.20) Dans le cas des états de Fock, on connait avec une précision infinie le nombre de photons dans le mode, et donc l'intensité. Par conséquent la phase est connue avec une précision nulle, ou plus simplement la phase n'est pas définie pour un état de Fock. Actuellement, les plus grands états de Fock qui peuvent être générés sont de l'ordre de la dizaine de photons [Haroche 98]. Pour un très grand nombre de photons, la description en terme d'état de Fock devient compliquée dès lors que le système subit des pertes. Ainsi, ces états ne sont pas adaptés pour la description de faisceaux relativement intenses. A.4.2 Etats cohérents Les états cohérents ou états quasi-classiques ont été introduits en optique quantique par Glauber [Glauber 63] pour décrire des modes contenant un très grand nombre de photons. Ils sont utilisés pour rendre compte des états générés par un laser. Un état cohérent que l'on notera |α est vecteur propre de l'opérateur d'annihilation associé à la valeur propre α :â |α = α|α . (1. 21) Ces états sont normés : α|α = 1,(1.|α = ∞ n=0 α n √ n! exp − 1 2 |α| 2 |n . (1.25) Cette forme donne immédiatement la probabilité de trouver n photons dans un état cohérent : p n = | n|α | 2 = exp −|α| 2 α 2n n! (1.26) Cette probabilité est appelée une distribution de Poisson. Une propriété importante des états cohérent réside dans ses fluctuations autour de sa valeur moyenne. Nous l'avons vu précédemment, la limite ultime de la précision sur la mesure d'observables conjugués, en mécanique quantique, est donnée par l'inégalité d'Heisenberg. Un état cohérent est un état minimal, c'est à dire, qu'il sature la relation d'Heisenberg : ∆X 2 θ ∆Ŷ 2 θ = 1. (1.27) De plus, il n'y a pas de quadrature privilégiée et donc pour tout angle θ : ∆X 2 θ = ∆Ŷ 2 θ = 1. (1. 28) Il s'agit de ce que l'on appelle la limite quantique standard. (standard quantum limit, SQL). Les fluctuations seront représentées par un disque de rayon 1 autour de la valeur moyenne (figure 1.2). Le bruit associé à une mesure de ces quadratures sera donc fixé par ces fluctuations autour de la valeur moyenne. On appelle ce bruit, le bruit quantique standard, ou bruit de grenaille (shot-noise). La seconde appellation est dûe à la vision corpusculaire du photon, dans laquelle la présence de fluctuations sur la mesure d'une quadrature revient à décrire le flux de photons par une statistique poissonienne, qui se caractérise par une variance du nombre de photons égale à la valeur moyenne : ∆N 2 = N . (1.29) Une des conséquences de la nature poissonienne du flux de photons est que si l'on sépare en deux parties à l'aide d'une lame séparatrice un état cohérent, les deux états produits A.4.3 Etats gaussiens Un état gaussien est un état pour lequel la distribution de probabilité de deux quadratures orthogonales sont des gaussiennes. De plus, pour ces états, l'inégalité de Heisenberg est saturée de telle manière que les états gaussiens soient des états minimaux. Les états cohérents respectent ces deux conditions et par conséquent sont des états gaussiens. Par ailleurs, on peut noter que des états gaussiens sont entièrement caractérisés par la donnée du moment d'ordre un (la valeur moyenne) et du moment d'ordre deux (la variance). La valeur moyenne sera identifiée à une grandeur classique, et les propriétés purement quantiques de ces états seront donc contenues dans la description en terme de variance. Tout au long de ce manuscrit, lorsque l'on étudiera les propriétés quantiques d'états gaussiens, on s'intéressera donc aux moments d'ordre deux. A.4 .4 Etats comprimés Un autre type d'état gaussien, sont les états comprimés à un mode du champ (single mode squeezed states). Pour ce type d'état, les fluctuations autour de la valeur moyenne du champ ne se décrivent pas par un disque mais par une ellipse. Dans ce cas, toutes les quadratures ne sont plus équivalentes, et tout en respectant l'inégalité d'Heisenberg, la variance de l'une des quadratures peut être inférieure à 1 au prix d'une augmentation de la variance sur la quadrature conjuguée. Sur la figure 1.3, deux cas particuliers des ces états sont représentés. La figure a) décrit une compression des fluctuations en intensité c'est-à-dire : ∆X 2 θ < 1, et ∆Ŷ 2 θ > 1. (1.30) Tandis que la figure b) montre une compression des fluctuations en phase c'est-à-dire : Différentes représentations graphiques permettent de décrire les états du champ en variables continues [Lam 98]. Nous donnons ici ces multiples représentations ainsi qu'un critère quantitatif pour mesurer le niveau de compression d'une quadrature. Sur la figure 1.4, nous avons simulé les fluctuations d'un flux de photons suivant une statistique poissonienne de valeur moyenne 1000 (état cohérent), d'un second suivant une statistique sub-poissonienne de même valeur moyenne (état comprimé en intensité) et d'un troisième suivant une statistique sur-poissonienne (état comprimé en phase) . Une autre représentation des états du champ, consiste à en donner la valeur moyenne et les fluctuations dans l'espace des phases. A cette description dans l'espace des phases, on peut mettre en regard l'évolution temporelle du champ électrique. Sur la figure 1.5, on donne ces deux représentations dans le cas d'un état cohérent et dans celui de deux états comprimé (en intensité et en phase). ∆X 2 θ > 1, et ∆Ŷ 2 θ < Pour déterminer l'importance de la compression sur une des quadratures, il faut définir une référence. Ce sont les fluctuations de l'état cohérent, c'est à dire la limite quantique standard, qui sont choisies pour jouer ce rôle. Ainsi, les mesures de bruit décrites dans ce 32 Chapitre 1. Optique quantique en variables continues manuscrit seront toujours comparées à cette limite. Dans la littérature, deux échelles sont utilisées pour quantifier le niveau de compression. Une échelle linéaire, qui définit le taux de compression S par le rapport entre la variance d'une quadrature donnée de l'état étudié et la variance dans le cas d'un état cohérent : S θ = ∆X 2 θ ∆X 2 coherent . (1.33) Comme la statistique d'un flux de photon pour un état cohérent est poissonienne, cette définition est identique à celle du facteur de Fano de l'état étudié [Fano 47]. Ce paramètre vaut donc 1 pour un état cohérent et 0 pour un état infiniment comprimé selon la quadrature θ. On peut définir une seconde échelle basée sur le logarithme de ce rapport : S dB = 10 log       ∆X 2 θ ∆X 2 coherent       . (1.34) Cette représentation a l'avantage de décrire avec une meilleure dynamique les taux de compression entre 0.5 (-3 dB) et 0.1 (-10 dB), c'est-à-dire les niveaux que l'on observe typiquement dans la littérature [ Il existe des états qui ne sont pas des états purs, c'est-à-dire qui ne peuvent pas être décrits par un vecteur d'état |ψ , contrairement à ceux que nous venons d'étudier. Pour les décrire il est nécessaire d'utiliser une somme statistique de plusieurs états purs. On appelle ces états, des états mixtes du champ. Pour décrire un état mixte de façon générale, on utilise l'opérateur densité, qui s'écrit sous la forme : ρ = ψ P ψ |ψ ψ|, (1. 35) où P ψ est la probabilité d'être dans l'état |ψ de telle sorte que l'on ait : P ψ = 1. Nous l'avons déjà mentionné, les états de Fock forment une base de l'espace des états. On peut donc écrire une décomposition sur les états de Fock de l'opérateur densité : Pour un opérateur quelconqueÂ, la valeur moyenne dans un état pur |ψ est donnée par :  = ψ|Â|ψ . (1. 37) Pour un état mixte, décrit par l'opérateur densité ρ, on peut écrire la moyenne d'ensemble sous la forme :  = Tr(ρÂavec d 2 α = d Re(α)d Im(α). On a introduit à l'équation (1.39), la fonction P(α). On appelle cette fonction la représentation P. Cette fonction contient toutes les informations sur l'état du système. L'intérêt d'une telle fonction est de pouvoir passer d'un calcul difficile sur des opérateurs quantiques qui ne commutent pas à un calcul simple sur des nombres complexes à l'aide de la méthode qui suit. Dans un premier temps il faut, grâce aux règles de commutation, écrire l'opérateur étudié A sous la forme d'une combinaison linéaire de terme en (â † ) nâm . Cette écriture, où les opérateurs de création sont à gauche des opérateurs d'annihilation, est appelée l'ordre normal [Glauber 63]. Sous cette forme, le calcul de la valeur moyenne de l'opérateur se réduit à un calcul avec des nombres complexes :  = Tr(ρÂ) = n n| P(α)|α α|Â|n d 2 α = P(α) n α|Â|n n|α d 2 α = P(α) α|Â|α d 2 α = P(α) α * n α m d 2 α. (1.40) Par exemple, si l'on s'intéresse à l'opérateur nombre, c'est-à-dire le cas n = 1 et m = 1 on a : â †â = P(α) α * α d 2 α = P(α) |α| 2 d 2 α (1.41) On retrouve ainsi un résultat de l'optique classique : le nombre moyen de photons est égal à la valeur moyenne du module carré de l'amplitude. P(α) peut être vu comme l'analogue d'une distribution de probabilité pour les valeurs de α. Comme nous l'avons souligné, les états cohérents ne sont pas orthogonaux. Ainsi dans le cas général, P(α) n'est pas une véritable distribution de probabilité. Par exemple, pour certains états du champ, P(α) pourra prendre une valeur négative. Dans ce cas la distribution P(α) ne pourra évidemment pas être interprétée comme une probabilité classique et ce sera la signature d'un état non classique. On appellera donc P(α) une quasi-probabilité. B.3 Représentation de Wigner Nous venons de le voir, la représentation P est adaptée au calcul des produits d'opérateurs de création et d'annihilation dans l'ordre normal. Lorsque l'on étudie les quadra-turesX etŶ du champ, chaque terme produit (â † ) nâm dans l'ordre normal est couplé à un terme similaire dans l'ordre anti-normalâ m (â † ) n . Dans ce cas, il est plus simple d'utiliser la représentation de Wigner qui est adaptée à cet ordre dit "symétrique" [Tatarskiȋ 83, Gardiner 91, Fabre 08]. Dans un premier temps, nous allons introduire l'opérateur déplacementD pour un champ monomodeâ :D (η) = e ηâ † −η * â . (1.42) En séparant la partie réelle et la partie imaginaire de η = u + iv, l'opérateur déplacement peut s'écrire à l'aide des quadraturesX etŶ sous la forme : D(u, v) = e i(vX−uŶ) . (1.43) La fonction de Wigner est la transformée de Fourier de la valeur moyenne de l'opérateur déplacement : Jusqu'à présent, nous avions utilisé, pour décrire le champ dans le repère de Fresnel, l'image classique d'un segment pour décrire la valeur moyenne de l'amplitude (sa longueur) et d'un disque pour décrire les fluctuations 1.2. A l'aide de la représentation de Wigner, on peut donner une définition rigoureuse de ce disque. Il peut être décrit comme une ligne de niveau de la fonction de Wigner (par exemple 1/e). La figure 1.7 illustre cette définition. Il est intéressant de noter au sujet de la fonction de Wigner que toute fonction de Wigner positive est une fonction gaussienne (par conséquent associée à un état gaussien). Elle peut alors être assimilée à une distribution de probabilité classique. W(α) = 1 π 2 Tr[ρD(η)] e ηα * −η * α d 2 η,(1. B.4 Linéarisation des opérateurs d'annihilation Les méthodes de résolution des problèmes d'optique quantique sont décrites de manière détaillée dans de nombreuses références, notamment [ C Photodétection La plupart des mesures en optique quantique se concentrent sur une détection de photons à l'aide de photodétecteurs, typiquement une ou plusieurs photodiodes. En effet, la détection d'un photon passe, la plupart du temps, par sa conversion en un photo-courant qui sera alors analysé. La lumière visible est une onde électromagnétique oscillante à plusieurs centaines de THz. Il est clair qu'aucune photodiode ne peut répondre suffisamment vite pour rendre compte de ces oscillations de façon directe. La mesure la plus simple sera donc une mesure de l'intensité lumineuse c'est-à-dire de l'enveloppe lentement variable du champ. Évidemment cette description ne contient aucune information sur la phase du champ mais uniquement sur son amplitude. Pour décrire certains phénomènes, il peut être intéressant de disposer d'une mesure sensible à la phase du champ. Dans ce cas, il sera nécessaire d'utiliser des techniques dites de détection homodyne ou hétérodyne. C.1 Densité spectrale de bruit On définit l'opérateur photocourantî proportionnel à l'opérateur nombreN a =â †â . On définit la fonction d'auto-corrélation pour l'opérateur photocourant, comme la variance à deux temps de celui-ci : C i (t, t ) = î (t)î(t ) − î (t) î (t ) . (1. 47) En linéarisant l'opérateurî c'est-à-dire en écrivantî(t) = î + δî(t), on peut montrer aisément que : C i (t, t ) = δî(t)δî(t ) . (1. 48) Pour un processus stationnaire, C i dépend uniquement de la différence temporelle τ = t − t : C i (τ) = δî(t)δî(t + τ) . (1. 49) D'après le théorème de Wiener-Khintchine, la densité spectrale de bruit S i (ω) est donnée par la transformée de Fourier de la fonction d'auto-corrélation [Fabre 97] : S i (ω) = ∞ −∞ C i (τ) e iωτ dτ. (1.50) Dans le cas particulier où le système de détection peut être modélisé par un filtre passebande très fin de bande passante δ f et de fréquence centrale ω c , on peut montrer [Fabre 97] que la variance du photocourant ∆ 2 i est reliée à la densité spectrale de bruit par : ∆ 2 i = 2 δ f S i (ω c ) (1.51) Or, comme nous le verrons au chapitre 2, un analyseur de spectre se comporte comme tel un filtre. On peut donc avoir accès expérimentalement à la grandeur S i (ω c ) qui pourra être comparée aux prédictions théoriques. C.2 Photo-courant Le photo-courant est proportionnel au flux d'électrons F el produit par une photodiode en réponse à un flux de photons incident F ph . Dans le cas idéal, une photodiode a un taux de conversion, que l'on nomme efficacité quantique (quantum efficiency) de 1 : chaque photon incident génère un électron. On introduira le paramètre η pour quantifier cette efficacité : F el = ηF ph . (1.52) Le flux d'électrons possède la même statistique que le flux de photons uniquement dans le cas η = 1. Une efficacité quantique inférieure à 1 sera donc interprétée comme un terme de pertes dans l'analyse du signal. Ces pertes, comme celles qui interviennent sur le flux de photons, sont des phénomènes aléatoires et par conséquent font tendre, dans la limite des pertes importantes, toute statistique vers une statistique poissonienne (voir paragraphe C.6). Le flux de photons est donné, de manière générale, par la puissance optique P incidente sur le détecteur : Comme on peut écrire n e = i∆t/e, on a : F ph = P hν ,(1.∆i(t) 2 = ie ∆t . (1.57) Le terme ∆t est relié au processus de détection, il correspond à l'intervalle de temps durant lequel dure la détection. En termes fréquentiels, il s'agit de la bande passante B = 1/2∆t, la plus étroite de l'ensemble des appareils de mesure. Typiquement, on peut confondre 40 Chapitre 1. Optique quantique en variables continues B avec la bande-passante de résolution (RBW, resolution bandwidth) de l'analyseur de spectre, comme nous le verrons au chapitre 2. On pourra écrire : ∆i(t) 2 = 2ieB. (1.58) La variance du photocourant pour un état cohérent dépend donc uniquement de sa valeur moyenne ainsi que de la bande passante de l'appareil de mesure. Ce bruit sera étudié et mesuré expérimentalement dans le chapitre 2. C.3 Détection d'intensité La détection d'intensité est le cas le plus simple de photodétection. Dans cette situation, on mesure le flux de photons qui arrivent sur un photodétecteur et on l'analyser pour connaitre la valeur moyenne du nombre de photons ainsi que les fluctuations associées. On étudie donc l'opérateur nombre :N a =â †â . En linéarisant les opérateurs à l'aide de la relation (1.46) on peut écrire l'opérateur nombre sous la forme :N a = â † â + â † δâ + â δâ † + δâδâ † . (1.59) Au premier ordre en δâ et en notant les valeurs moyennes â et â † respectivement |α|e iφ et |α|e −iφ on a : N a = |α| 2 (1.60a) δN a = |α|e iφ δâ † + |α|e −iφ δâ = |α| δX φ a . (1.60b) Les fluctuations sur l'opérateur nombre sont directement reliées aux fluctuations de la quadratureX φ a où φ est la valeur moyenne de la phase du champâ. Le taux de compression est alors donné d'après la relation (1.33) par : S = δN a δN a N a (1.61) C.4 Détection balancée La détection balancée (voir figure 1.9.a) est utilisée pour s'affranchir du bruit classique, c'est-à-dire du bruit technique, souvent présent expérimentalement. Dans ce type de montage, on sépare sur une lame semi-réfléchissante le faisceau que l'on souhaite étudier et on observe la somme et la différence d'intensité à l'aide de deux photodiodes dans les deux voies de sortie de la lame. D'un coté, sur la sortie "somme", on mesure le bruit total du faisceau. De l'autre, sur la sortie "différence", on ne mesure que le bruit quantique. En effet le bruit technique du faisceau est corrélé entre les deux voies de sortie de la lame séparatrice et l'opération de différence (dans le cas d'un montage parfaitement balancé) va donc supprimer la contribution de ce bruit. Pour un état cohérent sans excès de bruit technique, on mesure donc le même niveau de bruit sur les deux voies. On peut ainsi mesurer le bruit quantique standard sur la voie différence et détecter tout excès de bruit technique sur la voie somme. Ce montage peut être considéré comme une détection homodyne pour le vide. En effet, le champ du vide (notéb) qui intervient dans le processus de photodétection par la deuxième face de la lame est "homodyné" par un champ relativement intense (notéâ). On obtient donc après la lame sur les deux voiesĉ etd : En utilisant les mêmes notations que dans l'équation (1.60), on peut écrire l'opérateur différence d'intensité sous la forme : c = 1 √ 2 ( â + δâ + δb) (1.62a) d = 1 √ 2 ( â + δâ − δbN − = 1 √ 2 (|α|e −iφ a + δâ † + δb † )(|α|e iφ a + δâ + δb) − 1 √ 2 (|α|e −iφ a + δâ † − δb † )(|α|e iφ a + δâ − δb) = |α|e iφ a δb † + |α|e −iφ a δb = |α| δX φ a b . Le vide étant un état cohérent, toutes les quadratures sont identiques et la phase ne joue aucun rôle. La différence d'intensité mesurée dans une détection balancée est donc égal au bruit quantique standard du vide multiplié par l'amplitude du champ incident. Comme nous l'avons dit, cette méthode permet donc de calibrer la valeur de la limite quantique standard pour une intensité donnée. C.4.2 Somme d'intensité Si désormais on s'intéresse à la somme de l'intensité mesurée dans les deux bras on obtient le bruit du champâ. En effet, on peut écrire au premier ordre : N + = 1 √ 2 (|α|e −iφ a + δâ † + δb † )(|α|e iφ a + δâ + δb) + 1 √ 2 (|α|e −iφ a + δâ † − δb † )(|α|e iφ a + δâ − δb) = |α| 2 + |α|e iφ a δâ † + |α|e −iφ a δâ = |α| 2 + |α|δX φ a a . Ainsi la variance deN+ s'exprime par : (∆N + ) 2 = |α| 2 (δX φ a a ) 2 = |α| 2 (∆X φ a a ) 2 ,(1.63) Lorsque l'on mesure les fluctuations deN + , on obtient un signal proportionnel à la valeur moyenne du champ et aux fluctuations de la quadratureX φ a a . Dans ce cas, la phase est fixée par la valeur moyenne de la phase du champ φ a . On mesure donc directement par cette méthode la quadrature intensité du champâ. C.5 Détection homodyne Pour connaitre les fluctuations d'un champ non vide noté (notéâ), on doit réaliser un montage de détection homodyne avec un oscillateur local intense (noté E LO ). On peut alors écrire sous forme linéarisée ces deux champs :â = α + δâ et E LO = |E LO | e iφ + δE LO . Le montage de détection homodyne est représenté sur la figure 1.9.b. La phase du champ intense pourra être modifiée, ce qui permet d'explorer toutes les quadratures du champâ (on choisit par exemple le champâ comme référence de phase, soit α réel). On se place alors dans les conditions telles que l'oscillateur soit suffisamment intense et que ses .10 -Puissance de bruit par rapport à la limite quantique standard détectée dans une détection homodyne pour un état comprimé. La courbe pointillée représente le bruit quantique standard (vide en entrée de la détection homodyne), les courbes rouges et noires sont le bruit sur les deux quadraturesX φ a etŶ φ a en fonction de la phase de l'oscillateur local. On notera que lorsque l'on a une réduction du bruit sous le bruit quantique standard (ici -5dB), on observe simultanément un excès de bruit sur la quadrature conjuguée (ici +11dB). Ce n'est donc pas un état minimal. fluctuations ne soient pas grandes devant la valeur moyenne du champâ : αδE LO E LO δâ. On obtient alors : N − = 1 √ 2 (α + δâ † + |E LO | e −iφ + δE LO )(α + δâ + |E LO | e iφ + δE LO ) − 1 √ 2 (α + δâ † − |E LO | e −iφ − δE LO )(α + δâ − |E LO | e iφ − δE LO ) |E LO |(α e iφ + α e −iφ ) + |E LO |(δâ † e iφ + δâ e −iφ ) |E LO | X φ a + |E LO | δX φ a . (1.64) On voit donc que le signal de la détection homodyne peut se décomposer en deux termes : d'une part la valeur moyenne proportionnelle à la valeur moyenne de la quadratureX φ a et d'autre part les fluctuations qui sont proportionnelles aux fluctuations de cette même quadrature. En pratique c'est la méthode qui sera utilisée pour mesurer le niveau de bruit d'une quadrature arbitraire. Expérimentalement, on comparera les fluctuations deâ aux fluctuations du vide. Le vide étant un état cohérent, son aire de fluctuations est circulaire et aucune direction φ n'est privilégiée. Une mesure des fluctuations du vide par détection homodyne donnera donc un niveau de bruit identique pour toutes les phases de l'oscillateur local. Par contre, lorsque l'on observe une compression sur une quadratureX φ a , on pourra vérifier la présence d'un excès de bruit sur la quadrature conjuguéeŶ φ a (voir figure 1.10). On notera que lorsque l'on se place dans les conditions αδE LO E LO δâ, alors le bruit sur l'oscillateur local n'entre pas en compte lors de la mesure de bruit par détection homodyne. Lorsque l'on mesure les fluctuations d'un champ électromagnétique, une attention toute particulière doit être portée aux pertes introduites par le système de détection. Ces pertes ont principalement deux origines : les pertes optiques sur la propagation du faisceau et l'efficacité quantique inférieure à 1 de la photodiode. Ces deux sources peuvent être traitées de la même façon, c'est-à-dire modélisées par une lame séparatrice ayant un coefficient de transmission T = 1 − P, où P quantifie les pertes de la chaine de détection [Bachor 04]. Dans ce cas on a la relation entrée-sortie suivante pour la lame : a out = √ Tâ in + √ 1 − Tb (1.65) Le champb étant le vide, sa valeur moyenne est nulle. On va donc écrireâ out de manière linéarisée : â out = √ T |α| , δâ out = √ T δâ in + √ 1 − T δb (1.66) On peut donc donner à l'aide de la relation (1.63) la valeur moyenne et les fluctuations du champâ en présence de pertes P : N +,out = (1 − P)|α| 2 , δN +,out = √ 1 − P δX a,in + √ P δX b,in (1.67) Ainsi, on obtient le spectre de bruit en intensité après la lame en fonction du spectre entrant sous la forme : SN +,out = (1 − P) SN +,in + P (1.68) 46 Chapitre 1. Optique quantique en variables continues Pour un état comprimé en intensité, l'effet des pertes dépend du niveau de compression initial. Par exemple, 10 % de pertes pour un état infiniment comprimé le ramènera à une compression de -10 dB, tandis que pour un état de -3 dB les mêmes pertes le ramèneront à une compression de -2.6 dB (voir figure 1.12). D Corrélations quantiques en variables continues. N − = (|α| e −iφ + δâ † )(|α| e iφ + δâ) − (|β| e −iψ + δb † )(|β| e iψ + δb) = |α| 2 − |β| 2 + (|α| δX φ a − |β| δX ψ b ). (1.69) La valeur moyenne N − = |α| 2 − |β| 2 nous renseigne sur la différence d'intensité moyenne entre les deux faisceaux. Dans le cas balancé, c'est-à-dire si cette différence est nulle, on pourra écrire les fluctuations de la différence sous la forme : δN − = |α|(δX φ a − δX ψ b ) (1.70) Dans ce cas on peut faire l'analogie avec les fluctuations de l'état à un mode, décrites par l'équation (1.63) en remplaçant la quadrature intensité du champ par la différence des deux quadratures intensité associées à chacun des deux modes. Le cas où N − [V(ω)]2π δ(ω + ω ) = |Â(ω)][ † (ω )| (1.71) où |Â(ω)] = â(ω) a † (ω) et [ † (ω )| = â † (ω )â(ω ) .δâ(t)δâ(t ) = â(t)â(t ) − α 2 (1.73a) δâ † (t)δâ † (t ) = â † (t)â † (t ) − α * 2 (1.73b) δâ(t)δâ † (t ) = â(t)â † (t ) − |α| 2 (1.73c) δâ † (t)δâ(t ) = â † (t)â(t ) − |α| 2 . (1.73d) Nous avons vu à l'équation (1.41) que l'on pouvait calculer les valeurs moyennes des moments d'ordre 2 des opérateursâ etâ † en les remplaçant par des nombres complexes lorsque ceux-ci sont exprimés dans l'ordre normal (c'est-à-dire dans la représentation P). Après avoir passé l'équation (1.73c) dans l'ordre normal à l'aide de la relation de commutation [â(t),â † (t )] = δ(t − t ), on obtient à l'aide de (1.41) les relations suivantes δâ(t)δâ(t ) = 0 (1.74a) δâ † (t)δâ † (t ) = 0 (1.74b) δâ(t)δâ † (t ) = δ(t − t ) (1.74c) δâ † (t)δâ(t ) = 0. ( E Interaction lumière-matière. Pour rendre compte des phénomènes d'interaction entre la lumière et la matière étudié dans ce manuscrit, il est nécessaire d'utiliser le formalisme de la mécanique quantique, aussi bien pour les atomes que pour le champ. Le début de ce chapitre nous a permis d'introduire ce formalisme pour le champ électromagnétique. Pour une description quantique des atomes, nous suivons dans ce chapitre l'approche présentée par exemple dans [Foot 05] E.1 Hamiltonien de Jaynes Cummings Le Hamiltonien de Jaynes Cummings permet de décrire les interactions lumière-matière entre des systèmes dont les niveaux d'énergie et les modes du champ électromagnétique sont quantifiés [Scully 97]. Nous allons rappeler ici les points essentiels de ce modèle dans le cas d'un atome à deux niveaux |g (fondamental) et |e (excité d'énergie ω 0 ) couplé avec un seul mode du champ a de fréquence ω L . Le Hamiltonien total du systèmeĤ se décompose en trois termes : H =Ĥ at +Ĥ ch +Ĥ int ,(1.d dt (t) = 1 i [Â(t),Ĥ]. (1.80) E.3 Equations de Heisenberg Langevin Comme le système qui nous intéresse n'est pas un système isolé mais un système quantique couplé à l'environnement (réservoir), on observe des phénomènes de relaxation du système vers l'extérieur. Un des effets du réservoir est donc de produire des événements aléatoires sur le système et ainsi y introduire des fluctuations. Ce phénomène est une des facettes du phénomène de "fluctuation-dissipation" [Cohen-Tannoudji 01] et peut être décrit par les équations d'Heisenberg-Langevin que nous présentons ici à partir de la référence [Davidovich 96]. En mécanique classique, les équations de Langevin ont été introduites pour décrire une force fluctuante de valeur moyenne nulle de même type que celle que l'on retrouve dans le cas du mouvement Brownien. Prenons l'exemple d'une particule de masse m soumis à une force de frottement fluide −γ v, son mouvement sera décrit par : m d v dt = m g − γ v + F L (t). (1.81) L'interaction de la particule avec le réservoir (le liquide qui l'entoure) est la résultante de deux contributions. D'une part la force moyenne qui s'applique sur le système (la force de friction) et d'autre part une force F L (t) de valeur moyenne nulle qui va induire des fluctuations sur le système et que l'on appellera force de Langevin. Cette force aléatoire est caractérisé par une "mémoire" qui tend vers zéro 2 et par le coefficient de diffusion D : En effet, dans ce cas, lorsque deux opérateurs quelconques vérifient cette équation, leur commutateur tend vers zéro pour des temps longs, ce qui n'a pas de sens physique. Pour conserver les commutateurs au cours de l'évolution il faut ajouter un termeF A (t) de valeur moyenne nulle qui est l'analogue quantique du terme de Langevin de l'équation (1.81). La forme correcte de l'équation qui décrit l'évolution des fluctuations d'un opérateur quelconque, dite de Heisenberg-Langevin, s'écrit donc : F L (t) = 0, (1.82a) F L (t) F L (t ) = 2D δ(t − td dt  = 1 i [Â,Ĥ] − Γ Â ,(1.d dt δ = 1 i [δÂ,Ĥ] − Γδ +F A (t). (1.85) Comme dans le cas classique la valeur moyenne deF A (t) est nulle et on définit le coefficient de diffusion D A,A : F A (t) = 0, (1.86a) F A (t)F A (t ) = 2D A,A δ(t − t ) (1.86b) La méthode de calcul de ces coefficients de diffusion dépend du système atomique. Elle est explicitée dans [Cohen-Tannoudji 01] et sera détaillée au chapitre 4 dans un cas particulier. E.4 Equations de Maxwell Langevin Pour décrire l'interaction d'un état du champ au cours de sa propagation dans le formalisme de Heisenberg, nous devons introduire les équation de Maxwell Langevin. En effet en utilisant l'équation de Heisenberg, on peut démontrer [Cohen-Tannoudji 96] que les équations d'évolution des opérateurs champs s'obtiennent en remplaçant les champs classiques par des opérateurs quantiques dans les équations de Maxwell. On obtient alors : ∂ ∂t + c ∂ ∂z â(z, t) = 1 i â(z, t),Ĥ . (1.87) Le terme de droite dans cette équation est un terme de source qui va modifier l'opérateurâ au cours de la propagation. Cette contribution des atomes à la propagation du champ peut être un simple effet linéaire (absorption) ou un effet non linéaire qui peut être à l'origine de la production d'état non classiques comme nous le verrons dans le chapitre 2. Lorsque le terme de droite tend vers zéro, les atomes n'interagissent plus avec le champ et la lumière se propage à la vitesse c. Conclusion du chapitre Dans ce chapitre nous avons introduit le formalisme permettant d'étudier les interactions lumière-matière dans le domaine des variables continues. Les différents états à un mode du champ, et en particulier les états cohérents et les états comprimés ont été présentés. Une extension pour les états comprimés à deux modes du champ, c'est-à-dire les corrélations quantiques entre deux modes a aussi été discutée. La question de la photodétection a été abordée d'un point de vue théorique et sera détaillée pour les questions expérimentales dans le chapitre suivant. Nous avons donné les bases qui nous permettront de faire une étude théorique du mélange à 4 ondes comme source d'état comprimés aux chapitres 3 et 4. CHAPITRE 2 Techniques expérimentales Sommaire A Revue des méthodes de production des états non classiques de la lumière . 52 B Source laser et asservissement . La génération d'états non-classiques intenses de la lumière est un domaine de recherche expérimentale très actif depuis le début des années 80 [Polzik 08]. Si on étudie l'histoire de ce domaine, des expériences pionnières de 1984 [Slusher 85b] au récent record de -12.7 dB sous la limite quantique [Mehmet 10], on peut noter deux éléments principaux. Dans un premier temps on assiste à une diversification des techniques expérimentales employées, puis par la suite on peut constater les nombreux progrès dans les outils expérimentaux disponibles. Au cours de ce chapitre nous allons, dans un premier temps, donner un panorama des méthodes les plus couramment utilisées pour produire des états non-classiques du champ. La configuration choisie pour les expériences réalisées dans le cadre de ce travail de thèse sera présentée. A Revue des méthodes de production des états non classiques de la lumière Depuis les trois dernières décennies de très nombreuses méthodes de production d'états non-classiques ont été proposées et réalisées expérimentalement [Bachor 04]. Nous revenons ici sur les principaux systèmes expérimentaux qui permettent d'obtenir des états comprimés. On peut distinguer deux catégories pour les états comprimés, selon qu'ils mettent en jeu un ou deux modes du champ. La plupart des méthodes utilisées sont basées sur une interaction non-linéaire avec un milieu de susceptibilité non-linéaire χ (2) ou χ (3) qui permet de briser la symétrie entre les quadratures du champ 1 . Pour donner un aperçu de cette histoire la figure 2.1 présente un grand nombre de résultats expérimentaux depuis 1984, en séparant les expériences de compression à un et deux modes du champ. 56 Chapitre 2. Techniques expérimentales An example of the model is a shift in cavity resonance frequency (at a frequency downshifted four cavity resonances from the pump frequency) of 2 MHz when Na is introduced into the cavity and A is near 400. In this case expression (24) yields an a 0 of 25 cm-'. The measured absorption at the center of the weaker Doppler-broadened hyperfine group is 3 cm-' for this case. Since the Doppler width is roughly 10 times the natural linewidth, there is qualitative agreement between the effective c 0 and the directly measured absorption. The calculated a(A) for the squeezed-cavity resonance component downshifted toward the atomic resonances from the pump frequency is 0.0003 for this example. This agrees with a measurement of the cavity finesse at that cavity mode. This small absorption results in a decrease in the fraction of probe light transmitted through the cavity of 5%. This small absorption reduces the net single-pass gain (0.005) but does not degrade the squeezing effects, in the sense that it allows for generation of states within a few percent of minimum-uncertainty states. As a consequence of the unequally spaced cavity resonances, the pump is tuned to the side of one of the cavity resonances between the two cavity resonances that enhance the two-mode squeezed state. One expects that the pump must be located exactly halfway between the two cavity resonances located at nearly four free spectral ranges (±595 MHz) on either side of the pump frequency for the experiments described here. Maximum squeezing is, in fact, measured to correspond to a symmetrically tuned pump frequency. For example, for an a 0 1 of 25 and A of 300, the maximum squeezed noise is measured at 594.3 MHz relative to the pump. In this case, for optimum squeezing the pump light is tuned 0.4 MHz to the high side of a cavity resonance (resonant width of 0.42 MHz FWHM in intensity) lying nearly midway between the squeezing-cavity resonances. This model of the cavity resonances permits the use of a computer program to compute the lock-in-oscillator frequency and optimum squeezing frequency when any pair of cavity resonant mode frequencies is measured. EXPERIMENTAL RESULTS We begin at a point where there is good agreement between the experiment and the full quantum theory described in Section 2. The frequency detuning from the atomic resonance is A = -400, corresponding to a 2-GHz shift of the pump from the effective center of the Na absorption line. The two-mode squeezing is observed at cavity resonances shifted above and below the pump frequency by approximately four cavity resonances, corresponding to 6 60. The effective line-center absorption measured from the cavity resonance spacing is a 0 l 1 21, corresponding to C 1050. The pump-beam power of 0.5 W is focused to a beam waist wo 530 ttm. This implies a modestly uniform pump intensity I _ 90 W/cm' over the squeezing-cavity mode, with w 0 300 pm. Using Is (1 + A'2) 8 , with I, of 10 tuned to the cavity resonance is used to calibrate the efficiency of this matching as 7h = 0.81. In combination with the detection efficiency nd = 0.8, the net detection efficiency is = 0.65. The detector amplifier noise contributes a component equal to 0.11 times vacuum-fluctuation noise, i.e., PA/PO = 0.11 in Eq. (20). With the cavity unblocked and the pump on, the noise is squeezed below and amplified above the vacuum-fluctuation level as a function of the local-oscillator phase LO, as is shown by the experimental data plotted in Fig. 8 (solid line). The points of minimum noise are separated by a phase shift LO of ir, as expected. The smooth solid curve in Fig. 8 is predicted by the theory (see Fig. 4 A.1 Mélange à 4 ondes Le mélange à 4 ondes (four-wave-mixing) a été identifié très tôt comme une technique intéressante pour la production d'états non-classiques de la lumière [Bondurant 84]. Les expériences pionnières de Slusher au Bell Labs en 1984 ont été la première démonstration expérimentale d'un état comprimé sous le bruit quantique standard [Slusher 85b]. L'expérience était basée sur un jet atomique de sodium éclairé de façon transverse par un laser de pompe désaccordé de 2 GHz par rapport à la transition atomique. Ce faisceau était rétro-réfléchi de manière à interagir une seconde fois avec les atomes. Un faisceau sonde interagissait avec les mêmes atomes, mais avec un léger angle par rapport à la pompe. Un faisceau conjugué était alors généré, colinéaire et co-propageant avec la sonde. Pour augmenter l'importance de l'effet, une cavité résonnante avec les deux faisceaux (sonde et conjugué) était placée autour du jet atomique. Le faisceau sortant de la cavité présentait des fluctuations sous le bruit quantique standard (voir figure 2.2) ; il s'agit du premier état non-classique intense observé expérimentalement. Plus récemment, cette technique a connu un regain d'intérêt grâce aux expériences dé- En effet -8.8 dB de corrélations sous la limite quantique standard ont été observées entre deux modes du champ à 795 nm. Dans ces expériences, le jet atomique de sodium est remplacé par une vapeur atomique de rubidium 85 dans une cellule chauffée à une centaine de degrés. Un faisceau pompe de plusieurs centaines de mW polarisé linéairement et désaccordé d'environ 1 GHz par rapport à la transition est superposé au sein de la cellule avec un angle faible à un faisceau sonde de polarisation orthogonale et décalé en fréquence de 3GHz par rapport au faisceau pompe. Cet écart correspond à l'écart hyperfin entre les deux niveaux fondamentaux du rubidium 85. Un faisceau conjugué, de même polarisation que le faisceau sonde, est alors généré durant la propagation dans le milieu. En sortie, le faisceau pompe est filtré par un cube séparateur de polarisation (voir figure 2.3) et les deux faisceaux sonde et conjugué sont détectés sur les deux voies d'une détection balancée. La sortie différence d'intensité est étudiée à l'analyseur de spectre afin d'observer les éventuelles corrélations sous la limite quantique standard. L'expérience que nous avons développée durant ce travail de thèse reprend cette configuration. Ainsi, les différents outils qui sont nécessaires pour ce montage expérimental vont être décrits dans la seconde partie de ce chapitre. Il s'agit d'un faisceau pompe asservi sur la transition D1 du rubidium 85, un faisceau sonde décalé de 3 GHz par rapport à la pompe, une cellule de rubidium, un montage de photodétection ainsi qu'un analyseur de spectre. 58 Chapitre 2. Techniques expérimentales A.2 Amplificateur paramétrique Dans un milieu de susceptibilité non-linéaire χ (2) , une onde incidente que l'on appelle faisceau pompe de valeur moyenne α P peut donner naissance à deux ondes appelées "signal" et "complémentaire". Dans le cas dégénéré, la fréquence de la pompe est égale au double des fréquences du signal et du complémentaire. Le processus paramétrique qui va donner naissance au champ signal de valeur moyenne α S va s'écrire sous la forme : ∂ ∂z α S = −g (2) α P α * S , (2.1) où g (2) est une constante, a priori complexe, qui quantifie la réponse non-linéaire du milieu. On voit que le champ signal pourra être amplifié ou desamplifié selon sa phase par rapport au champ pompe. Ainsi, certaines quadratures vont donc pouvoir être amplifiées tandis que d'autres seront atténuées. Pour un choix de phase tel que α P soit réel positif, on voit que le champ moyen et la quadratureX S sont désamplifiés tandis que la quadratureŶ S est amplifiée : ∂ ∂zX S = −g (2) α PXS , ∂ ∂zŶ S = +g (2) α PŶS .(2. A.3 Génération de seconde harmonique La génération de seconde harmonique dans un milieu de susceptibilité non-linéaire χ (2) a aussi été utilisée pour produire des états comprimés. On peut donner un description qualitative du phénomène dans le cas d'un simple passage à travers le milieu. En effet pour un flux de photons incident suivant un statistique poissonienne, c'est à dire un état cohérent, l'écart temporel entre deux photons est aléatoire. Si le processus de génération de seconde harmonique était indépendant de l'intensité incidente, le flux de photons produit aurait lui aussi la statistique poissonienne d'un état cohérent. Or ce processus a une probabilité de conversion, non pas constante, mais proportionnelle à I 2 , où I est l'intensité du faisceau de pompe. Ainsi la probabilité de conversion augmente avec le nombre de photons par unité de temps. La statistique du flux de photons générés sera donc fortement influencée par la statistique des paires de photons dans le faisceau incident, c'est à dire une statistique sub-poissonienne. De la même manière la statistique des photons restants dans la pompe ne sera plus affectée par les paires de photons et sera par conséquent plus régulière que la statistique initiale. Dans les réalisations expérimentales, il est souvent nécessaire d'amplifier le phénomène en ajoutant une cavité autour du milieu pour le mode de la pompe [Pereira 88, Kürz 93, Paschotta 94]. A.4 Effet Kerr L'effet Kerr est un effet non-linéaire que l'on observe dans les milieux de susceptibilité non-linéaire χ (3) . L'indice de réfraction d'un tel milieu dépend de l'intensité lumineuse I qui l'éclaire : n = n 0 + n 2 I. (2.3) On peut comprendre comment l'effet Kerr permet de briser la symétrie entre les quadratures en considérant un état cohérent à l'entrée de ce milieu. Lors de la propagation, les fluctuations d'intensité de cet état vont induire une modulation de l'indice, qui va en retour introduire des fluctuations supplémentaires sur la phase du champ. La phase φ accumulée lors de la propagation sur une longueur L, pour une longueur d'onde λ, s'exprime sous la forme : φ milieu = 2πL λ (n 0 + n 2 I). (2.4) Ainsi les fluctuations en sortie de la quadratureŶ vont être modifiées par la non-linéarité du milieu. La propagation dans un milieu Kerr transforme donc le disque de fluctuations La seconde approche est basée sur une interaction avec des milieux atomiques à résonance ou proche de résonance. Dans ce cas la linéarité peut être très forte, mais le taux d'absorption par le milieu introduit des pertes qui diminuent fortement la compression attendue. Cette méthode a été largement employée pour produire des états comprimés avec des atomes froids [Lambrecht 96] 2 . B Source laser et asservissement Lorsque nous avons présenté les expériences de mélange à 4 ondes dans une vapeur atomique, nous avons vu qu'elles nécessitaient deux faisceaux laser proches d'une résonance atomique (la transition D1 du 85 Rb à 795 nm dans les expériences présentées dans ce manuscrit). Il s'agit d'une part, d'un faisceau intense (P 1W) appelé faisceau pompe et d'autre part d'un faisceau de plus faible intensité (P < 0.5mW) stabilisé en phase avec le premier et décalé en fréquence de l'équivalent de l'écart hyperfin entre les niveaux fondamentaux de l'atome utilisé (3GHz pour le rubidium 85). Ce second faisceau est appelé faisceau sonde. Nous allons voir comment ces deux champs sont générés expérimentalement. Le laser utilisé pour générer le faisceau pompe est un laser titane-saphir continu de la société Coherent 3 . Il s'agit du modèle MBR-110 sans la cavité de référence pour la stabilisation. Le modèle commercial a donc été légèrement modifié pour permettre une stabilisation sur une référence externe, à savoir une raie d'absorption du rubidium. Nous présentons ici ce laser et nous donnons les détails techniques qui permettent de l'asservir sur une transition atomique. 3+ . Ce cristal est pompé par un laser Nd :YVO 4 doublé à 532nm de 18W (Verdi V18 de la société Coherent). Selon le jeu de miroirs utilisé pour la cavité laser, il est possible d'obtenir l'effet laser une gamme de longueurs d'onde allant de 700 nm à 990 nm grâce à la très grande plage de gain du milieu amplificateur. Dans cette thèse, nous avons utilisé les miroirs dits "mid-wave" ou "MW" qui permettent l'émission laser mono-mode de 780 à 870 nm. Le laser de pompe est focalisé dans le cristal à l'aide d'un système de deux lentilles dont la position peut être réglée finement afin d'optimiser les performances du laser (voir la zone de focalisation sur la figure 2.6). Afin de s'assurer du fonctionnement mono-mode longitudinal du laser, il faut supprimer les effets de "hole burning" dans le milieu amplificateur présents, par exemple, pour une cavité linéaire. Pour ce faire, la cavité du MBR est une cavité en noeud-papillon dotée d'un isolateur optique afin de ne supporter qu'une seule direction de propagation (voir figure 2.6). La cavité est donc composée de quatre miroirs. Les miroirs M1 et M2 sont des miroirs sphériques de rayon 100 mm, couverts d'un traitement R max (réflectivité maximale), Ainsi, un très grand nombre de modes longitudinaux de la cavité peuvent vérifier la condition d'un gain supérieur ou égal aux pertes de la cavité. Pour permettre au laser de fonctionner de manière mono-mode, c'est à dire sur un seul mode longitudinal, il est nécessaire de placer des filtres dans la cavité. Dans le cas du MBR, deux filtres sont utilisés. Un filtre biréfringent (filtre de Lyot) permet un premier réglage grossier du mode par sauts de 225 GHz, tandis qu'une fine lame de verre (étalon Fabry Perot de 500 microns d'épaisseur) permet des réglages plus fins à l'intérieur de cette gamme. L'asservissement de l'angle de l'étalon permet de maintenir le fonctionnement mono-mode du laser en suivant un mode de la cavité (voir figure 2.8). Pour faire varier continûment la longueur d'onde du laser, on 64 Chapitre 2. Techniques expérimentales Fréquence Gain -Transmission Figure 2.8 -Schéma de principe du fonctionnement mono-mode du laser titane saphir. Le gain de la cavité est donné en rouge. Il couvre plusieurs centaines de THz. le peigne de mode longitudinaux de la cavité est représenté en gris. Notons que l'échelle horizontale n'est pas respectée et que le nombre de modes longitudinaux dans la zone de gain devrait être bien plus important (typiquement 10 5 ). Le filtre de Lyot (courbe de transmission en noir) effectue une première sélection d'un nombre réduit de modes dans ce peigne. Enfin la transmission de l'étalon (courbe en pointillés) dont la position est asservie, assure le fonctionnement mono-mode du laser. dispose de deux lames de verre à l'angle de Brewster placées à l'intérieur de la cavité et montées sur des moteurs galvanométriques. La rotation de ce bilame permet de modifier le chemin optique sans modifier le trajet du faisceau dans la cavité. La longueur d'onde du laser peut être ajustée de manière contrôlée par ce biais. Cette méthode peut être utilisée pour compenser les dérives lentes du laser (typiquement inférieures au GHz par seconde), alors que le PZT permet, en principe, de compenser des dérives à plus haute fréquence. Dans la configuration décrite dans cette thèse le miroir M3 est fixe et seules les dérives lentes sont compensées par l'asservissement. B.1.3 Électronique Afin de pouvoir stabiliser le laser sur une référence externe, nous avons dû modifier légèrement l'électronique de contrôle du MBR. En effet, dans sa version commerciale, il est conçu pour être asservi sur une cavité de référence interne. Pour asservir la fréquence du laser sur une référence atomique, nous avons utilisé l'entrée External Scan Input du boitier de contrôle. Cette entrée accepte une tension entre -10 V et +10 V. Sur cette plage, la fréquence du laser est modifiée à l'aide du bilame. La gamme de fréquence est réglée sur le boitier de contrôle externe du laser (Scan Width), ainsi que la fréquence centrale (Scan offset). La plage maximale de balayage est de 40 GHz à une vitesse de 8 GHz/s. B.2 Asservissement Afin d'asservir en fréquence le laser et d'éviter les sauts de modes, deux techniques sont utilisées conjointement. L'asservissement de l'étalon a déjà été présenté dans la section précédente et permet d'éviter les sauts entre les différents modes longitudinaux de la cavité. Par contre, les dérives de la cavité laser elle-même ne sont pas compensées par cet asservissement. Pour ce faire il est nécessaire d'asservir la cavité sur une référence atomique. Dans ce manuscrit, il s'agit selon les cas, de la raie D1 ou de la raie 5S 1/2 → 6P 1/2 du 85 Rb. B.2.1 Élargissement inhomogène par effet Doppler Pour la stabilisation du laser nous utilisons une vapeur de 85 Rb dans une cellule en verre chauffée à 60 • C. A cette température, l'élargissement Doppler doit être pris en compte. La valeur moyenne de la projection du module de la vitesse des atomes sur l'axe de propagation du faisceau laser est donnée par : v D = k B T m , (2.5) où k B est la constante de Boltzmann, T la température des atomes et m leur masse . On peut en déduire simplement l'élargissement en fréquence par effet Doppler d'une raie atomique infiniment étroite à la longueur d'onde λ : ∆ Dop = 2 λ k B T m . (2.6) A 60 • C pour le 85 Rb sur la raie D1, la largeur Doppler de la transition est de 450 MHz, ce qui est plus large que les 5.7 MHz de la largeur naturelle (détails de la raie D1 en annexe C). Cette largeur est aussi plus grande que l'écart hyperfin des niveaux excités F=2 et F=3 (360 MHz). Ainsi le signal observé en sortie d'une cellule de rubidium chaude ne permet pas de séparer les deux niveaux excités et on observe un creux d'absorption unique large d'environ 700 MHz. Il n'est donc pas possible d'asservir le laser précisément sur ce signal. B.2.2 Absorption saturée Une méthode bien connue pour résoudre ce problème est d'utiliser un montage d'absorption saturée [Siegman 86]. Un premier faisceau est utilisé pour saturer la transition (l'intensité de saturation vaut I sat = 4.4 mW/cm 2 , voir annexe C). Un second faisceau contra-propageant vient sonder le milieu ainsi préparé. Seuls les atomes, dont la projection de la vitesse sur l'axe de propagation des lasers est nulle, interagissent sans décalage Doppler avec les deux faisceaux laser. On observe alors un pic de transmission pour chaque fréquence correspondant à l'écart d'énergie entre un niveau de l'état fondamental et un niveau de l'état excité. S'il existe plusieurs niveaux hyperfins dans l'état excité (deux dans le cas de la raie D1 du 85 Rb), des pics ne correspondant pas à une transition atomique, dits signal. Un correcteur PID (proportionnel, intégrateur, différentiel) est utilisé afin de fermer la boucle de l'asservissement. Dans ces conditions, le laser peut être asservi sur l'une des raies du rubidium, et l'excursion en fréquence résiduelle du laser est inférieure à la largeur naturelle de la transition. B.3 Bruit technique du laser Pour caractériser les performances du laser nous avons réalisé des mesures de bruit en intensité. Ces mesures sont réalisées à l'aide d'une photodiode d'efficacité quantique η = 0.85 en atténuant le laser de 3 W à 3 mW. Le photocourant est ensuite observé sur l'analyseur de spectre décrit à la section G.1, réglé sur une bande passante de résolution RBW = 100 kHz et une bande passante vidéo VBW = 10 Hz. Le bruit du laser est comparé au bruit quantique standard, mesuré à l'aide d'une détection équilibrée. Lors de ces mesures, nous avons pu vérifier les données du constructeur, à savoir qu'au delà de 500 kHz, le bruit technique du laser est négligeable devant le bruit quantique standard. C Génération de seconde harmonique Il existe une quasi-coïncidence (environ 500 MHz d'écart [Madej 98]), entre la transition 5S 1/2 → 5P 1/2 de l'ion 88 Sr + et la transition 5S 1/2 , F = 2 → 6P 1/2 du 85 Rb. Afin de réaliser des expériences d'optique quantique dans un nuage d'ions Sr + refroidis par laser, qui est une des thématiques de l'équipe dans laquelle j'ai réalisé ce travail de thèse, il est utile de disposer d'une source laser à cette longueur d'onde. De plus, dans le chapitre 6 de ce manuscrit, nous décrivons des expériences de transparence électromagnétiquement induite sur la transition 5S 1/2 → 6P 1/2 du 85 Rb à 422 nm. Nous donnons ici les informations relatives à la réalisation expérimentale d'une telle source laser. C.1 Principe de la génération de seconde harmonique Nous avons utilisé la génération de seconde harmonique (doublage de fréquence) à partir du laser titane saphir réglé à 844 nm, pour produire un champ laser intense à 422 nm. La génération de seconde harmonique est un processus d'optique non-linéaire dans les milieux de susceptibilité non-linéaire χ (2) [Armstrong 62]. Nous en rappelons ici brièvement l'idée générale. Pour des raisons de simplicité, nous faisons l'hypothèse que le champ électrique ainsi que la polarisation dans le milieu sont des quantités scalaires. Ainsi la susceptibilité non-linéaire χ (2) , qui dans un traitement vectoriel est un tenseur d'ordre 3, devient simplement une grandeur scalaire [Boyd 08]. Lors de l'interaction d'un champ électrique E(z, t) avec un tel milieu, la polarisation P(z, t) induite par ce champ s'écrit dans l'approximation que nous venons de faire : P(z, t) = 0 χ (1) E(z, t) + χ (2) E(z, t) 2 . (2.7) 68 Chapitre 2. Techniques expérimentales La polarisation induite dans le milieu agit comme un terme source dans l'équation de propagation : ∂ 2 ∂z 2 E(z, t) − n 2 c 2 ∂ 2 ∂t 2 E(z, t) = 1 0 c 2 ∂ 2 ∂t 2 P NL (z, t), (2.8) avec P NL (z, t) = 0 χ (2) E(z, t) 2 la polarisation non-linéaire du milieu et n l'indice linéaire usuel. Ainsi, la polarisation non-linéaire permet de faire apparaitre des termes à la fréquence angulaire 2ω dans l'équation de propagation, caractéristiques de la génération de seconde harmonique, . Un traitement plus complet [Shen 03], permet de donner une condition nécessaire pour obtenir une efficacité de conversion importante : l'accord de phase. Pour des vecteurs d'onde k ω et k 2ω respectivement associés au champ à la fréquence ω et 2ω, cette condition impose : 2k ω − k 2ω = 0. (2.9) C.2 Quasi accord de phase et mise en oeuvre expérimentale Expérimentalement, la mise en oeuvre d'un doublage de fréquence nécessite un cristal ayant un tenseur de susceptibilité non-linéaire χ (2) non nul et un laser de pompe intense (plusieurs centaines de mW), à la fréquence du fondamental. De plus, un processus de génération de seconde harmonique n'est efficace que si la condition d'accord de phase est satisfaite. Pour réaliser la condition d'accord de phase dans les cristaux, il n'est pas toujours possible d'utiliser l'accord de phase par biréfringence [Boyd 08]. Dans ce cas, sans annuler complètement le désaccord, une des techniques employées 10. Un asservissement en température de ce four permet de stabiliser sa température à 0.05 K de précision autour de 310 K. Il est important de noter que la température de consigne du four doit être ajustée en fonction de la puissance du faisceau pompe. En effet, le faisceau incident est focalisé sur une taille de 400 microns de rayon (waist à 1/e 2 ) au centre du cristal, ce qui provoque des effets thermiques non négligeables. En ajustant la température de consigne pour chaque point, on peut obtenir un signal généré à 2ω, proportionnel au carré de la puissance du faisceau pompe incident, et donc un rendement de conversion proportionnel à la puissance du faisceau incident. On peut constater sur la figure 2.11, que les valeurs de conversion et de rendement pour des puissances de pompe grandes (supérieures à 1.5W) sont légèrement plus basses que celles attendues pour les courbes théoriques. En effet, à de telles puissances de pompe, le signal généré devient important (près de 200 mW pour 2.4 W de pompe) et l'hypothèse de non-dépletion de la pompe (qui a permis d'établir la dépendance quadratique de la puissance du signal en D Génération du faisceau sonde Pour réaliser l'expérience de mélange à 4 ondes décrite précédemment, il est nécessaire de disposer d'un faisceau de faible intensité décalé de 3 GHz par rapport à la pompe et stabilisé en phase avec la pompe. La méthode que nous avons choisie pour cela est d'utiliser un modulateur acousto-optique (MAO) à 1.5 GHz dans une configuration de double passage. Nous allons détailler dans cette section le principe de fonctionnement d'un MAO et les mesures de bruit que nous avons effectuées sur le faisceau ainsi généré. D.1 Principe de fonctionnement d'un modulateur acousto-optique Un MAO est un composant opto-électronique qui utilise l'effet acousto-optique pour diffracter et décaler en fréquence un faisceau laser. Un PZT collé sur un cristal de TeO 2 permet de générer une onde acoustique progressive (de fréquence 1.5 GHz dans notre cas) dans ce cristal. Une modulation sinusoïdale de l'indice est ainsi produite dans le cristal et un faisceau laser peut être diffracté par diffraction de Bragg dans les différents ordres m, à l'angle θ m donné par : sin θ m = mλ 2Λ , (2.10) avec λ la longueur d'onde optique et Λ la longueur d'onde acoustique. Dans notre cas, on obtient un angle de diffraction de 140 mrad à 800 nm et 75 mrad à 422 nm pour le premier ordre diffracté (la vitesse de propagation de l'onde dans le TeO 2 est de 4200 m.s −1 ). Contrairement à la diffraction de Bragg classique, la modulation d'indice due à l'onde acoustique, se propage dans le milieu. La fréquence de l'onde diffractée dans l'ordre +1 sera donc décalée par effet Doppler de l'équivalent de la fréquence acoustique. C'est cette propriété qui nous intéresse, en vue de générer un faisceau sonde décalé de 3 GHz par rapport au faisceau pompe. D.2 Efficacité de diffraction Pour augmenter l'efficacité de diffraction, il est nécessaire de focaliser le faisceau incident sur la zone active du cristal (onde acoustique). Dans notre cas, pour le modèle TEF-1500-200-422 de la société Brimrose 6 , cette zone mesure 75 microns. Le cristal est traité anti-reflet et le traitement ne supporte pas une intensité lumineuse supérieure à 5 W.mm −2 . La puissance maximale incidente est donc limitée au seuil de dommage : 50 mW. A 800 nm, nous avons obtenu un maximum de 10% d'efficacité de diffraction en simple passage pour un total de 1% en double passage. On dispose donc d'un maximum de 0.5 mW pour 6 le faisceau sonde, ce qui sera amplement suffisant. A 422 nm, nous avons obtenu un maximum de 15% d'efficacité de diffraction en simple passage pour un total de 2% en double passage. Les courbes de calibration du MAO à 800 nm sont présentées sur la figure 2.12. D.3 Mesure du bruit technique sur le faisceau diffracté Pour produire une modulation d'indice importante dans le cristal, il est nécessaire d'utiliser une puissance élevée (ici de l'ordre de 1W) pour alimenter le PZT. Deux étages sont nécessaires pour produire un signal radio fréquence (RF) de cette puissance : une source RF suivie d'un amplificateur. Nous allons comparer différentes méthodes de génération et d'amplification par rapport à un paramètre très important : le bruit en intensité introduit sur le faisceau diffracté. Comme nous le verrons dans le chapitre 5, l'excès de bruit sur le faisceau diffracté doit être minimisé pour mesurer des fluctuations sous la limite quantique standard dans les expériences de mélange à 4 ondes dans une vapeur atomique. D.3.1 Source RF Pour synthétiser un signal RF à 1.5 GHz nous avons testé deux dispositifs : un oscillateur contrôlé par une tension électrique (VCO) et un synthétiseur de signaux. Un VCO est un oscillateur électronique dont la fréquence d'oscillation dépend de la tension de contrôle appliquée à ses bornes. Le modèle que nous avons utilisé est le ZX95-2150VW-S+ de la société Mini-circuits 7 . Ce modèle permet de générer un signal de +4 dBm entre 800 et 2300 MHz (voir la figure 2.13 pour la calibration en fréquence). 7. http ://www.minicircuits.com/ La seconde méthode que nous avons utilisée, est basée sur le synthétiseur de signaux SMBV100 de la marque Rohde & Schwarz 8 . Ce générateur délivre des signaux jusqu'à 3.2 GHz pour une puissance maximale de +18 dBm. Ces deux générateurs ne délivrent pas assez de puissance pour piloter le PZT du MAO et un amplificateur est donc nécessaire. D.3.2 Amplificateur RF L'amplificateur dont nous disposons au laboratoire est un Mini-circuits ZHL-5W-2GX. Cet amplificateur a un gain nominal de 50 dB et une puissance de sortie de maximale de +37 dBm. La puissance d'entrée maximale acceptable par l'amplificateur est de +1 dBm. Dans le cas d'un fonctionnement en mode saturé, nous devons atténuer le signal de sortie de l'amplificateur pour ne pas endommager le MAO. Nous utilisons un atténuateur de -6 dB avec un radiateur pour dissiper la chaleur (Mini-circuits MCL BW-S6W5). Nous ajoutons un filtre passe haut Mini-circuits VHF-1200+, dont la bande passante à 2 dB est 1200-4600 MHz, afin de couper le bruit basse fréquence éventuellement présent sur la sortie de l'amplificateur. A 1.5 GHz, la sortie de ce filtre est atténuée de 0.8 dB environ par rapport à l'entrée. Les courbes de gain de l'amplificateur sont données sur la figure 2.14 avec et sans atténuation, c'est à dire dans le régime saturé et non saturé (respectivement). E Cellule de Rubidium Le milieu dans lequel nous avons réalisé les expériences de mélanges à 4 ondes décrites dans ce manuscrit est une vapeur de 85 Rb isotopique. Cette vapeur est contenue dans une cellule en verre dont les facettes ont étés traitées anti-reflet 9 . La cellule est placée dans une bague qui supporte une résistance chauffante, alimentée en 220 V. La bague est montée sur un pied en laiton qui est isolé de son support et de la table par une rondelle de 1 cm de Macor (isolant thermique). Un capteur de température (PT-100) est placé sur le queusot de la cellule et un contrôleur de température permet de stabiliser l'ensemble avec une précision de l'ordre de ±3K. A chaud (T > 100 • C), les pertes optiques sur les faces de la cellule à 795 nm sont mesurées en incidence normale à 2.5% ±0.5% pour chacun des deux hublots. Cette relation fait l'hypothèse d'un gaz parfait à l'équilibre thermodynamique, ce qui n'est pas nécessairement le cas ici. Pour affiner cette estimation, nous avons donc évalué quantitativement la densité d'atomes en phase vapeur dans la cellule. Pour cela, nous avons étudié le profil d'une raie d'absorption d'un faisceau laser (de 100 µW focalisé sur 5 mm 2 ) dans la cellule de rubidium chauffée à différentes températures. La mesure de l'absorption permet de déduire la fraction des atomes dans la cellule qui sont en phase vapeur par rapport à l'estimation donnée par la relation 2. 11. Aux températures que nous étudions (au delà de 100 • C), il n'est pas simple de mesurer précisément l'absorption tant elle est importante. En effet, on peut le voir sur la figure 2.18, si à 100 • C la mesure est encore aisée, à 145 • C, le spectre est plat sur près de 1 GHz et la valeur du maximum d'absorption ne peut pas être mesurée simplement. Pour résoudre ce problème et afin de déterminer la densité d'atomes, nous avons utilisé non pas la valeur du maximum d'absorption mais un ajustement sur l'ensemble du profil en prenant en compte l'élargissement Doppler. Dans une vapeur atomique, la densité d'atomes dn dans la classe de vitesse dv est donnée par la distribution de Maxwell-Boltzmann : dn = n √ 2πσ v e −v 2 /σ 2 v dv, (2.12) avec σ 2 v = k B T/m, où k B est la constante de Boltzmann, m la masse d'un atome et T la température de la cellule. En présence d'élargissement inhomogène l'intensité I, transmise à travers un milieu de longueur L s'exprime sous la forme : I(L) = I(0) e −κL , (2.13) avec κ = hνN Γ/I sat 2σ v π 2 e −(ν−ν 0 ) 2 /2σ 2 ν et σ ν = ν 0 k B T/mc 2 (2.14) En utilisant ce résultat, nous avons pu faire un ajustement de chacun des spectres d'absorption (pour différentes températures de la cellule) et déterminer la densité d'atomes en phase vapeur dans chaque cas. Ces mesures ont été réalisées sur la raie 5S 1/2 → 6P 1/2 du 85 Rb, dont le dipôle est plus faible que pour la raie D, afin d'obtenir des absorptions plus faibles. Nous avons ensuite comparé ces données à la densité prévue par le modèle thermodynamique (relation (2.11)) afin de définir un coefficient x(T ) tel que l'on ait : n at = x(T ) 1 k B T 10 A−B/T (2.15) La figure 2.19 présente cette comparaison et permet de déterminer le coefficient x(T ) qui dépend de la température : x(T ) = 20.7 − 0.11 T ( • C) (2.16) On notera que plus la température augmente, plus la densité mesurée s'éloigne de la densité calculée par la relation (2.11). On notera de plus que la relation (2.16) est une relation empirique valable uniquement pour la cellule considérée et dans la gamme de températures étudiée. Cette formule permet de tracer la densité atomique en fonction de la température pour cette cellule de rubidium (voir figure 2.20) pour le modèle thermodynamique d'une part et en prenant en compte ce coefficient d'autre part. L'épaisseur optique αL est définie par la relation : αL = n at σL, (2.17) où L est la longueur du milieu et σ la section efficace de la transition (voir annexe C). Dans la gamme de températures étudiée, nous pouvons donc constater qu'il y a à peu près un ordre de grandeur entre la densité estimée par la thermodynamique et la valeur mesurée expérimentalement. E.2 Auto-focalisation par effet Kerr optique Dans les milieux présentant une susceptibilité non-linéaire χ (3) , on peut observer le phénomène d'auto-focalisation par effet Kerr. L'effet Kerr décrit une modification de l'indice dans un milieu χ non-linéaire) est proportionnelle à l'intensité du champ excitateur. Pour un faisceau laser TEM00, le profil d'intensité est gaussien, et l'intensité au centre du faisceau est plus grande que sur les bords. L'indice sera donc différent entre le centre du faisceau et ses bords. Le milieu agit alors comme une lentille pour le faisceau laser excitateur, c'est pour cela que l'on parle d'auto-focalisation. Nous avons observé expérimentalement l'auto-focalisation dans une vapeur atomique de rubidium 85 proche de résonance (800 MHz de désaccord) et étudié l'effet de la densité d'atomes (i.e. de la température de la cellule) sur ce phénomène (voir figure 2.21). Le faisceau laser utilisé a une puissance de 1.5 W et il est focalisé sur un rayon de 650 microns au niveau de la cellule, ce qui correspond à une distance de Rayleigh de 1.6 m. En plaçant la caméra qui nous permet de mesurer la taille du faisceau à 1.3 m, on peut considérer que le faisceau est collimaté en l'absence d'effet d'auto-focalisation. On peut alors noter qu'au delà de 145 • C, l'auto-focalisation n'est plus négligeable et que le profil transverse du faisceau est modifié. Cela nous donne donc une borne supérieure de la température (et donc de la densité atomique) que l'on pourra explorer dans les expériences de mélange à 4 ondes décrites dans ce manuscrit au chapitre 5. D'après les résultats de la section précédente, cette limite correspond à une épaisseur optique autour de 5000 pour la raie D1 du 85 Rb. 82 Chapitre 2. Techniques expérimentales F Photodétection Nous avons décrit au chapitre 1 le champ électromagnétique à l'aide de ses quadratures. Nous avons associé à ces quadratures des observables, ainsi que des états du champ. L'objectif de cette section est de comprendre comment sont mesurées, expérimentalement, ces observables. F.1 Efficacité quantique Les photodétecteurs qui nous permettent de mesurer les quadratures décrivant le champ dans le régime des variables continues, sont des photodiodes. Deux montages vont concentrer notre attention : d'une part la détection équilibrée qui va permettre de mesurer le bruit quantique standard en s'affranchissant du bruit technique et d'autre part la mesure de corrélations d'intensité que nous allons utiliser pour caractériser le caractère non-classique des faisceaux générés par mélange à 4 ondes. Comme nous l'avons vu au chapitre 1, le courant généré par une photodiode i(t) dépend du nombre de photons N ph incidents par intervalle de temps ∆t. En effet, les photons incidents sont convertis en électrons avec un rendement η inférieur à 1 que l'on appelle efficacité quantique. On obtient : i(t) = ηN ph (t)e ∆t = ηP(t)e ω , (2.18) où l'on a introduit P(t) la puissance optique du faisceau étudié, ω l'énergie d'un photon à la fréquence ω et e la charge de l'électron. F.1.1 Détection équilibrée Le montage de détection équilibrée permet de mesurer le bruit quantique standard en s'affranchissant du bruit technique du laser. Le formalisme de ce système de détection a été introduit au paragraphe C.4.1 du chapitre 1. Le faisceau laser que l'on souhaite étudier est envoyé sur une lame séparatrice semi-réfléchissante. Les deux faisceaux en sortie de la lame sont détectés dans deux photodiodes indépendantes. On mesure ensuite la différence et la somme d'intensité. Comme nous l'avons vu, la différence donne directement accès au bruit quantique standard pour une puissance moyenne donnée. La somme permet de mesurer un éventuel excès ou réduction de bruit par rapport au bruit quantique standard. F.1.2 Corrélation d'intensité Le montage pour la détection de corrélation d'intensité est très proche du précédent (voir paragraphe D.1 du chapitre 1). Cette fois les deux faisceaux qui sont détectés par les photodiodes ne proviennent pas d'un même faisceau scindé en deux par une lame 50/50, mais du processus non linéaire de conversion par mélange à 4 ondes. La différence d'intensité, nous renseigne donc sur les corrélations entre les deux modes du champ détectés par les deux photodiodes. Pour connaitre le bruit individuel d'un des deux faisceaux, il suffit de bloquer la deuxième voie et de mesurer le bruit détecté par une seule des deux photodiodes. F.2 Caractérisation des photo-détecteurs utilisés Les photo-détecteurs que nous avons utilisés sont basés sur le montage de détection équilibrée PDB150 de la société Thorlabs 10 . Il s'agit d'un montage électronique d'amplification et de deux photodiodes en silicium ayant un rendement théorique donné par le constructeur de 0.53 A/W à 795 nm, ce qui correspond à une efficacité quantique de 83%. Les deux photodiodes sont montées de façon inversée l'une par rapport à l'autre (voir figure 2.22) de manière à ce que l'électronique n'amplifie que la différence de courant entre les deux voies 11 . Le gain transimpédance de la voie haute fréquence (HF) du montage est réglable par décades entre 10 3 et 10 7 V/A. Il est important de noter que le gain transimpédance fourni par le fabricant est réduit d'un facteur 2 lorsque la sortie est terminée sur 50 Ohms. Le gain des voies de contrôle basse fréquence (BF) est donné par le constructeur et 10. http ://www.thorlabs.de/ 11. Dans ce montage, il n'est donc pas possible de mesurer la somme des photo-courants entre les deux voies. Lorsque nous avions besoin de cette mesure, nous avons utilisé deux photodiodes S3883 de la société Hamamatsu vaut 10V/mW à 800 nm. Un des paramètres importants pour quantifier les performances d'une détection équilibrée est le taux de rejection (common mode rejection). Nous avons mesuré ce taux en appliquant une modulation sur le laser, et on obtient une valeur de 34 dB de rejection à 1.5 MHz. La fréquence de coupure basse de la voie HF dépend du gain utilisé. Typiquement pour un gain de 10 3 V/A la fréquence de coupure à -3 dB vaut 100 MHz et pour un gain de 10 5 V/A que nous utiliserons par la suite la fréquence de coupure est de 8 MHz. Le bruit électronique en l'absence de champ (bruit de fond des détecteurs) à 1.5 MHz a une valeur de -80 dBm (pour une bande passante de résolution RBW = 100 kHz). Ce montage a donc de bonnes propriétés de bruit de fond et de taux de rejection mais l'efficacité quantique des photodiodes est insuffisante pour mesurer avec précision des niveaux importants de compression sous le bruit quantique standard. En effet, nous l'avons vu au chapitre 1, les pertes font tendre les mesures de bruit vers la limite quantique standard. Nous avons donc changé les photodiodes de série pour les remplacer par des photodiodes S3883 produites par la société Hamamatsu, dont nous avons de plus retiré le verre de protection. En plaçant ces photodiodes à l'incidence de Brewster et en rétro-réfléchissant les réflexions résiduelles (voir figure 2.23), nous avons estimé leur efficacité quantique totale à 95 % ±2% en comparant les valeurs mesurées à celles données par un détecteur calibré. F.3.1 Effet des pertes sur la mesure de compression L'effet des pertes sur les mesures en optique quantique a été introduit au paragraphe C.6 du chapitre 1. On rappelle que la densité spectrale de bruit mesuré S m pour une efficacité globale du processus η T est donné par : F.3 Effet des imperfections expérimentales S m = η T S + (1 − η T ). (2.19) où S est la densité spectrale de bruit idéale (c'est à dire en l'absence de pertes). Dans les expériences décrites dans ce manuscrit, les pertes sont de plusieurs origines : -les réflexions sur la face de sortie de la cellule de rubidium mesurées à 2.5 % ±0.5% ; -les pertes introduites par la transmission d'un cube séparateur de polarisation (de la société Fichou) mesurée à 2.5 % ±0.5% ; -l'efficacité quantique de la photodiode S3883 à l'incidence de Brewster, avec rétroréflexions des réflexions résiduelles, estimée à η = 95 % ±2% L'efficacité globale de collection est donc estimée à η T = 90 ± 3%. Cette efficacité va donc limiter notre détectivité à 90 ± 3% de compression soit entre −9 dB et −12 dB mesuré pour une compression parfaite. F.3.2 Effet des pertes sur la mesure de corrélations Lorsque l'on mesure les corrélations entre deux modes, les pertes ne sont pas nécessairement identiques sur les deux voies. Dans ce cas, il faut décomposer le problème en deux étapes. Dans une premier temps, on identifie les pertes qui sont présentes sur les deux faisceaux et non corrélées (typiquement l'efficacité quantique des photodiodes inférieure à 1). A l'aide de l'équation (1.70), on peut démontrer que ces pertes modifient la mesure du bruit de la même façon que celles décrites dans la section F.3.1. On traitera donc ces pertes de manière séparée. Le problème se résume alors à une situation déséquilibrée, où les pertes se concentrent sur l'un des deux faisceaux et peuvent être considérées comme nulles sur l'autre. Une étude détaillée de ce problème est faite au chapitre 3. Nous donnons ici un résultat simple dans le cas où l'intensité moyenne des deux champs est identique (avant les pertes). Dans ce cas, on peut montrer que la densité spectrale de bruit mesurée est égale à : S m = 1 1 + η η 2 S a + S b − 2η δX a δX b + η (1 − η ) ,(2.S m = (1 − η ) 2 1 + η S a + (1 − η )η 1 + η . (2.21) On voit donc, que la mesure du spectre de bruit, dans ce cas, va dépendre du bruit sur les deux champs pris individuellement. La figure 2.24 donne l'effet de la transmission du modeâ sur la densité spectrale de bruit pour la différence d'intensité de deux modes pour différentes valeurs de bruit individuel sur les modesâ etb. Pour des corrélations supposées parfaites, S m tend vers 0 lorsque la transmission est proche de 1. Si les modesâ etb sont considérés comme étant individuellement à la limite quantique standard (courbe rouge de la figure 2.24), alors le spectre S m tend vers 1 lorsque les pertes augmentent. De manière générale, S m tend vers S a lorsque la transmission du champâ devient faible. Expérimentalement, on sait [McCormick 07] qu'il est possible d'observer des corrélations entreâ etb sous la limite quantique standard malgré un bruit individuel sur les faisceaux supérieur à cette limite. On donne donc sur la figure 2.24 (courbe en pointillés) le cas qui correspond à un excès de bruit de 10 dB sur chacun des faisceauxâ etb par rapport à la limite quantique standard. On peut voir sur cette courbe qu'une diminution de la transmission du champâ va dégrader les corrélations mesurées, et qu'en dessous de 65% de transmission on ne mesure plus de corrélations sous la limite quantique standard dans ce cas. F.3.3 Effet du bruit électronique sur la mesure de compression Le signal des mesures de corrélations que nous souhaitons détecter et mesurer est souvent très faible et donc difficile à discriminer d'autres sources de bruit. Les bruits des différents appareils électroniques de la chaine de détection s'ajoutent au signal (le bruit du faisceaux lumineux) et peuvent fausser sa détection. Les deux bruits que nous devons prendre en compte sont le bruit de l'analyseur de spectre, et le bruit de l'électronique de détection (photodiode et amplificateur). Le bruit de l'analyseur de spectre est très bas (typiquement inférieur à -100 dBm). Le bruit électronique est mesuré à -80 dBm pour une bande passante de résolution de l'analyseur de spectre, RBW=100 kHz Ces bruits sont indépendants et décorrélés des observables du champ, ils vont simplement s'ajouter au signal pour donner S global la densité spectrale de bruit globale réellement mesurée : S global = S m + S elec ,(2. G Calibration du bruit quantique standard Comme nous l'avons déjà introduit, les mesures de bruit (corrélations) doivent être rapportées au bruit quantique standard. Il est donc essentiel de calibrer de manière très précise ce bruit. Pour cela nous avons utilisé une détection balancée introduite au chapitre 1 et décrite expérimentalement à la section F.1.1 de ce chapitre. G.1 Analyseur de spectre L'appareil de mesure que nous avons utilisé est un analyseur de spectre N1996A de la société Agilent 12 . Généralement, les gammes de fréquence que nous avons étudiées se situent entre 500 kHz et 6 MHz. La limite basse est la limite au delà de laquelle le bruit technique du laser devient important. La limite haute, quant à elle correspond à la bande passante à -3dB des photodiodes pour un gain de 10 5 A/W. Il est important de donner quelques précisions sur le fonctionnement d'un analyseur de spectre. Comme nous l'avons souligné au chapitre 1, la puissance de bruit mesurée dépend de la bande passante de l'appareil de détection. La bande passante est fixée par le réglage de la bande passante de résolution (RBW) sur l'analyseur de spectre. Une modification de la RBW va donc induire une modification sur le niveau de bruit mesuré. Il est donc impératif de toujours donner la RBW lorsque l'on présente des spectres de bruit. D'autre part, la bande passante vidéo (VBW) permet de moyenner (à l'affichage) les spectres, mais n'influe pas, en principe, sur la valeur mesurée. Il faut néanmoins faire attention au type d'opération effectué, à savoir si la moyenne est réalisée avant ou après la conversion de la puissance en échelle logarithmique. 12 G.2 Mesures Le bruit quantique standard est un un bruit blanc, c'est à dire qu'il ne dépend pas de la fréquence à laquelle on le mesure. Théoriquement, il pourrait donc suffire de faire une mesure pour une fréquence fixée afin de déterminer la densité spectrale de bruit pour le bruit quantique standard. En pratique, la chaîne de détection n'a pas une réponse plate en fréquence et l'on devra acquérir un spectre (et non juste un point) pour déterminer la valeur du bruit quantique standard à toutes les fréquences. Nous avons donc réalisé une série de spectres de bruit entre 0 et 1.2 mW (le gain des photodiodes était réglé sur 10 5 A/W, la RBW = 100 kHz et la VBW= 10 Hz). De là, il a donc été possible d'extrapoler les points pour obtenir carte 2D du bruit quantique standard en fonction de la puissance et de la fréquence d'analyse (voir figure 2.25). Dans la suite lorsque nous comparons nos données au bruit quantique standard, c'est à l'ajustement 2D de cette carte que nous nous referons. Conclusion du chapitre Dans ce chapitre nous avons présenté les différents outils expérimentaux permettant de générer des états non-classiques du champ. A l'aide une brève revue de la littérature, nous avons introduit les différentes techniques utilisées, et principalement la technique que nous avons retenue, c'est à dire le mélange à 4 ondes dans une vapeur atomique. Dans un second temps nous avons donné les caractéristiques techniques des différents instruments utilisés au cours de ce travail de thèse, à savoir un laser titane saphir, un modulateur acoustooptique, une cellule de rubidium, un système de photodétection ainsi qu'un analyseur de spectres. Deux résultats nouveaux ont été obtenus. - 93 Cela nous permettra de simplifier les expressions obtenues, afin de donner une description simple des phénomènes mis en jeu et d'introduire dans une seconde partie le modèle de l'amplificateur linéaire idéal. A l'aide de ce modèle, nous pourrons alors écrire les relations qui relient l'état quantique d'entrée à l'état de sortie pour les deux processus. Alors qu'une approche classique permet de déterminer uniquement des grandeurs telles que le gain sur la valeur moyenne, ce modèle nous permettra d'étudier les fluctuations d'intensité. Ce sont alors les corrélations en intensité entre les deux faisceaux qui vont nous intéresser. Ce phénomène est associé à un processus d'amplification insensible à la phase. L'autre impliquera deux champs intenses (pompes) et un champ faible (sonde). On étudiera dans ce cas le bruit d'une des quadratures du faisceau sonde qui pourra être réduit sous la limite quantique standard. Ce phénomène est observé en présence d'une amplification sensible à la phase. A.2 Amplification insensible à la phase Nous nous intéressons à la géométrie décrite sur la figure 3.1. Un champ pompe intense E p à la fréquence angulaire ω p et un champ sonde peu intense E a à la fréquence angulaire ω a sont injectés à l'abscisse z = 0 d'un milieu de longueur L caractérisé par une susceptibilité non-linéaire d'ordre 3 (χ (3) ). Dans cette configuration un champ conjugué E b à la fréquence angulaire ω b peut être généré par le processus de mélange à 4 ondes. Ce processus peut intervenir si la conservation d'énergie est assurée. Ainsi, ω b doit respecter L O Figure 3.1 -Géométrie du mélange à 4 ondes décrite dans l'amplification insensible à la phase. Le champ pompe est se propage sur l'axe à z. Le champ sonde est dans le plan xOz. Le champ conjugué généré par mélange à 4 ondes respecte l'accord de phase (2k p − k a − k b = 0). la relation suivante sur les fréquences angulaires : 2ω p − ω a − ω b = 0. (3.1) Pour des raisons de simplicité, nous prenons les champ E p , E a et E b polarisés linéairement et parallèlement. De plus, on suppose qu'ils se propagent tous selon z et qu'ils sont stabilisés en phase (c'est-à-dire qu'il n'y pas d'évolution temporelle de la phase relative entre les lasers). Les champs peuvent alors s'écrire sous la forme : E j (z, t) = 1 2 E j (z)e i(k j z−ω j t) + c.c., (3.2) où j ∈ {a, b, p}, E j (z) est l'enveloppe lentement variable du champ à priori complexe et k j la projection du vecteur d'onde du champ E j sur l'axe Oz. Pour étudier les champs sonde et conjugué dans le milieu non-linéaire, on écrit l'équation de propagation ∂ 2 E(z, t) ∂z 2 − 1 c 2 ∂ 2 E(z, t) ∂t 2 = 1 0 c 2 ∂ 2 P(z, t) ∂t 2 , (3.3) où E(z, t) est le champ total dans le milieu : E(z, t) = E p (z, t) + E a (z, t) + E b (z, t),(3.P(z, t) = χ (3) E(z, t) 3 . (3.5) 96 Chapitre 3. Approche phénoménologique A l'aide de l'approximation sur l'enveloppe lentement variable, on peut écrire l'équation de propagation (3.3) sous la forme : i k j ∂E j (z) ∂z e i(k j z−ω j t) = 1 0 c 2 ∂ 2 P(z, t) ∂t 2 . (3.6) En ne prenant en compte que la polarisation non-linéaire dans l'équation de propagation, on a omis le terme lié à l'indice linéaire n du milieu. Comme nous avons supposé le milieu non dissipatif (n réel), cela revient simplement à redéfinir la référence de phase en prenant en compte la phase acquise au cours de la propagation sur une longueur L : e ik j L . Au vu de l'équation (3.5), le terme de polarisation dans le membre de droite de l'équation de propagation va contenir dix termes. Parmi ceux-ci, on cherche les termes qui contiennent une dépendance spatio-temporelle identique au membre de gauche e i(k j z−ω j t) . On définit alors les deux polarisations P a (z, t) et P b (z, t), dont les dépendances spatiale et temporelle respectives sont e i(k a r−ω a t) et e i(k b r−ω b t) . En ne conservant que les termes qui vérifient la condition d'accord de phase (2k p − k a − k b = 0), on peut alors écrire les équations de propagation à l'aide de l'équation (3.5) sous la forme : k a ∂E a (z) ∂z e i(k a z−ω a t) = iω 2 a 0 c 2 P a (z, t), (3.7a) k b ∂E b (z) ∂z e i(k b z−ω b t) = iω 2 b 0 c 2 P b (z, t), (3.7b) avec P a (z, t) = 3χ (3) 8 E 2 a E * a + 2E a E b E * b + 2E a E p E * p + 2E p E p E * b e i(k a z−ω a t) , (3.8a) P b (z, t) = 3χ (3) 8 E 2 b E * b + 2E b E a E * a + 2E b E p E * p + 2E p E p E * a e i(k b z−ω b t) . (3.8b) Pour un champ pompe intense, on peut simplifier les expressions précédentes en négligeant les termes d'ordre 2 en champ sonde et conjugué devant les termes de champ pompe. On ne conserve donc que les deux derniers termes de ces équations. Par souci de simplicité on suppose que ω a = ω b = ω ; on peut ainsi écrire l'équation (3.6) sous la forme : k a ∂E a (z) ∂z = i ω c κE a (z) + ηE * b (z) , (3.9a) k b ∂E b (z) ∂z = i ω c κE b (z) + ηE * a (z) , (3.9b) avec κ = 3χ (3) ω 4 0 c |E p | 2 , (3.10a) η = 3χ (3) ω 4 0 c E 2 p . (3.10b) On a donc obtenu un jeu de deux équations non-linéaires couplées qui peuvent être résolues exactement en précisant les conditions aux limites. Afin de ne pas compliquer le formalisme, on fera l'hypothèse d'une pompe très intense et de non déplétion, pour que l'on puisse considérer son amplitude comme constante au cours de la propagation. Dans cette approximation les coefficients κ et η sont alors indépendants de z. On effectue alors le changement de variables suivant :Ẽ j = E j e −iκz . (3.11) Comme nous avons supposé χ (3) (et donc κ) réel, cela revient simplement à un changement de référence de phase pour les champs a et b. On peut alors écrire les équations (3.9) sous forme matricielle : ∂ ∂z Ẽ ã E * b = 0 iη −iη * 0 Ẽ ã E * b . (3.12) Les solutions de ce système s'écrivent sous la forme : Ẽ a (z) E * b (z) =       cosh |η|z i η |η| sinh |η|z −i η * |η| sinh |η|z cosh |η|z       Ẽ a (0) E * b (0) . (3.13) Avec les conditions initiales suivantesẼ a (0) =Ẽ in etẼ b (0) = 0, on obtient : E a (z) =Ẽ in cosh |η|z, (3.14a) E b (z) = i η |η|Ẽ * in sinh |η|z. (3.14b) Nous étudions l'intensité moyenne des champs sonde et conjugué en sortie du milieu. L'étude des fluctuations sera faite dans la section B.1.2. Comme le changement de variable (3.11) n'influe pas sur l'intensité car il ajoute uniquement un terme de phase, on peut écrire en sortie d'un milieu de longueur L : |E a (L)| 2 = |E in | 2 cosh 2 (|η|L) , (3.15a) |E b (L)| 2 = |E in | 2 sinh 2 (|η|L) , (3.15b) que l'on peut mettre sous la forme : |E a (L)| 2 = G|E in | 2 , (3.16a) |E b (L)| 2 = (G − 1)|E in | 2 . (3.16b) avec G = cosh 2 (|η|L) (3.17) Ainsi, on obtient à la sortie du milieu une amplification du champ sonde et la génération du champ conjugué. Le coefficient |η|L qui quantifie le gain est piloté par trois paramètres qui 98 Chapitre 3. Approche phénoménologique sont la longueur du milieu L, le coefficient non-linéaire χ (3) et l'intensité |E p | 2 du champ pompe. Pour un gain élevé, c'est-à-dire des valeurs de |η|L 1, on a : |E a (L)| |E b (L)| |E in | e |η|L . (3.18) Ce calcul d'optique non-linéaire décrit l'amplification du champ sonde et la génération d'un champ conjugué dans un milieu de susceptibilité non-linéaire χ (3) . Ce processus sera décrit dans la suite comme une amplification insensible à la phase (PIA). Dans la section B.1, on verra que l'on retrouve les équations (3.16) dans un modèle d'amplificateur parfait insensible à la phase. Les fluctuations quantiques dans le cas de la PIA seront étudiées dans cette section. A.3 Amplification sensible à la phase Une autre configuration intéressante pour le mélange à 4 onde est à l'origine de l'amplification sensible à la phase [Marhic 91, Hansryd 02, Tang 08, Marino 10]. Dans cette configuration dégénérée, deux pompes intenses E p1 et E p2 , de fréquence angulaire respective ω p1 et ω p2 , interagissent avec un champ sonde E a de fréquence angulaire ω a . Deux photons sonde sont mis en jeu pour un photon de la pompe E p1 et un photon de la pompe E p2 . C'est la configuration qui échange le rôle des faisceaux intenses et faibles par rapport à celle de la section précédente. On peut écrire la conservation de l'énergie sous la forme : ω p1 + ω p2 − 2ω a = 0. (3.19) Nous reprenons les notations et les hypothèses de la section A.2 pour les champs pompe et sonde. Le formalisme pour déterminer l'évolution du champ sonde est identique à celui développé dans la section A.2. Notamment, les équations de propagation (3.6) restent valables pour le champ sonde. Le champ total E dans le milieu est donné par : E(z, t) = E p1 (z, t) + E p2 (z, t) + E a (z, t). (3.20) Ainsi l'équation de propagation donnée à l'équation (3.7a) reste valable, en définissant la polarisation P a (z, t) par : P a (z, t) = 3χ (3) 8 E 2 a E * a + 2E a E p1 E * p1 + 2E a E p2 E * p2 + 2E p1 E p2 E * a e i(k a z−ω a t) . (3.21) En négligeant dans l'équation (3.21) les termes qui ne contiennent pas de champs pompe, on obtient l'équation de propagation du champ sonde sous la forme : ∂E a (z) ∂z = i(κE a (z) + ηE * a (z)), (3.22) avec κ = 3χ (3) ω 4 0 c (|E p1 | 2 + |E p2 | 2 ), (3.23a) η = 3χ (3) ω 4 0 c E p1 E p2 . (3.23b) Pour résoudre cette équation différentielle (et l'équation conjuguée), on peut les écrire sous forme matricielle 2 : ∂ ∂z E a (z) E * a (z) = i κ η −η * −κ E a (z) E * a (z) . (3.24) On utilise la condition initiale E a (0) = E in afin de résoudre cette équation sous la forme : E a (z) E * a (z) = e Mz E in E * in . ( 3.25) Le matrice M est définie par : M = i κ η −η * −κ . (3.26) On a donc à l'abscisse z = L : e ML = 1 ∆ ∆ cos∆L + i κ sin∆L i η sin∆L −i η * sin∆L ∆ cos∆L − i κ sin∆L ,(3.27) où l'on a posé ∆ = |κ| 2 − |η| 2 . On pourra noter d'après les équations (3.23), que le coefficient |κ| 2 − |η| 2 est réel positif. Ainsi, on décrit l'évolution du champ E a par son enveloppe lentement variable : E a (L) = (cos∆L + i κ ∆ sin∆L) E in + i η ∆ sin∆L E * in . (3.28) On peut écrire cette équation sous la forme suivante : E a (L) = √ G e iφ 1 E in + √ G − 1 e iφ 2 E * in ,(3.29) où le gain G s'écrit sous la forme : G = cos 2 ∆L + κ 2 ∆ 2 sin 2 ∆L = 1 + |η| 2 ∆ 2 sin 2 ∆L. (3.30) Les phases φ 1 et φ 2 peuvent être dérivées à partir de l'expression (3.28). L'expression est alors de la forme de celle que nous utiliserons pour décrire le modèle de l'amplificateur parfait sensible à la phase dans la section B.2 (Eq. 3.43). On peut écrire l'intensité du champ en sortie du milieu sous la forme suivante : |E a (L)| 2 = (cos 2 ∆L + κ 2 ∆ 2 sin 2 ∆L + |η| 2 ∆ 2 sin 2 ∆L)|E in | 2 +2Re κη ∆ 2 sin 2 ∆L E * 2 in + i η ∆ cos∆L sin∆L E * 2 in . (3.31) Cette expression nous montre que l'intensité en sortie est sensible à la phase. En effet le terme de la seconde ligne de l'équation (3.31) va dépendre de la phase de η et de celle du champ d'entrée E in . Comme nous n'avons pas fixé de référence de phase, c'est donc la différence entre ces deux phases qui va jouer un rôle. B Modèle phénoménologique de l'amplificateur linéaire idéal Nous reprenons ici en le détaillant un modèle introduit dans [McCormick 08]. On considère ici le mélange à quatre ondes comme un processus d'amplification idéale. Dans le cas d'un amplificateur idéal insensible à la phase, chaque photon généré dans le mode de la sonde aura son homologue dans le mode du conjugué. Ainsi le taux de compression sur la différence d'intensité peut être évalué quantitativement en connaissant le gain du processus. Pour l'amplificateur idéal sensible à la phase, selon sa phase chaque quadrature pourra être amplifiée ou desamplifiée. Ainsi il existe une situation où la valeur moyenne du champ est amplifiée et une des quadratures est desamplifiée sans ajout de bruit, ce qui permet une réduction du bruit sous la limite quantique standard. Dans un second temps, une approche phénoménologique des pertes au cours de la propagation va permettre d'améliorer ce modèle. Enfin nous nous intéressons au processus d'amplificateur idéal sensible à la phase pour mettre en évidence la capacité d'un tel système à produire des états comprimés à un mode du champ. Les équations entrée-sortie qui décrivent ces processus sont compatibles avec les relations (3.13) pour le PIA et (3.29) pour le PSA, obtenues dans le cadre de l'optique non-linéaire. √ Gâ in + √ G − 1b † in , (3.32a) b † out = √ Gb † in + √ G − 1â in .N +,out = (2G − 1) |α| 2 , (3.34a) N −,out = |α| 2 . (3.34b) On peut constater que la différence d'intensité n'est pas modifiée par la propagation dans le cas d'un amplificateur idéal. B.1.2 Spectres de bruit Dans un processus d'amplification linéaire idéale, le spectre de bruit de la différence d'intensité est donné par : S (N − ) = 1 2G − 1 . (3.35) On peut démontrer ce résultat, en appliquant les relations (1.60b et 1.70) à l'état de sortie. En effet, on peut écrire des relations entrée-sortie pour les fonctions de corrélations : δX a δX a out = G δX a δX a in + (G − 1) δX b δX b in + 2 G(G − 1) δX a δX b in (3.36a) δX b δX b out = (G − 1) δX a δX a in + G δX b δX b in + 2 G(G − 1) δX a δX b in (3.36b) δX a δX b out = G(G − 1) δX a δX a in + δX b δX b in + (2G − 1) δX a δX b in . (3.36c) Les spectres de bruit en intensité du modeâ et de la différence d'intensité, normalisés par le bruit quantique standard, sont donnés par : corrélations pour les quadratures des champs entrants s'écrivent donc : S (N a ) = δX a δX a out , (3.37a) S (N − ) = G δX a δX a out + (G − 1) δX b δX b out − 2 √ G(G − 1) δX a δX b out 2G − 1 .δX a δX a in = 1, (3.38a) δX b δX b in = 1, (3.38b) δX a δX b in = 0. (3.38c) Les expressions (3.37) pour les spectres de bruit en sortie, normalisés par le bruit quantique standard s'écrivent alors : S (N a ) = 2G − 1, (3.39a) S (N − ) = 1 2G − 1 . (3.39b) On voit donc que le bruit d'intensité du champâ est amplifié par rapport au bruit quantique standard, alors que le bruit de la différence d'intensité est comprimé sous la limite quantique standard pour G > 1 ce qui est caractéristique d'une amplification linéaire parfaite [Caves 82, Gigan 04]. Dans ce modèle, des paires de photons parfaitement corrélées entre les deux modes sont générées. C'est pourquoi les fluctuations sont alors inférieures à la limite quantique standard comme le montre la figure 3.2. Sur cette figure on a tracé en échelle logarithmique la relation (3.39b). B.1.3 Effet des pertes Pour rendre le modèle de l'amplificateur linéaire plus réaliste, on peut ajouter, de manière phénoménologique, des pertes sur un ou deux des modes du champ. Ce type d'approche a été introduit dans [ a out = √ tâ in + √ 1 − tĉ, (3.40a) b † out =b † in . (3.40b) On souhaite étudier les corrélations en sortie du milieu entre les modesâ etb. On peut simuler la propagation dans ce milieu pour un nombre fini de zones. On obtient la formule de récurrence suivante pour passer d'une tranche n à la suivante : a n+1 = √ t √ g a n + g − 1b † n + √ 1 − tĉ, (3.41a) b n+1 = √ gb n + g − 1â n . (3.41b) On écrit les relations entrée-sortie pour chaque tranche pour les fonctions de corrélation. On obtient les relations de récurrence suivantes : δX a δX a n+1 = gt δX a δX a n + (g − 1)t δX b δX b n + 2t g(g − 1) δX a δX b n , (3.42a) +(1 − t) δX c δX c n δX b δX b n+1 = (g − 1) δX a δX a n + g δX b δX b n + 2 g(g − 1) δX a δX b n , (3.42b) δX a δX b n+1 = tg(g − 1) δX a δX a n + δX b δX b n + (2g − 1) √ t δX a δX b B.2 Amplification idéale sensible à la phase Il est intéressant de comparer l'amplification insensible à la phase que nous venons d'étudier au cas de l'amplification sensible à la phase. On utilise de même un modèle d'amplificateur linéaire idéal. L'amplification sensible à la phase a été largement étudiée pour le mélange à 4 ondes dans le régime classique [Abrams 78]. Nous présentons ici un modèle simple pour décrire les propriétés de bruit du faisceau généré dans un tel processus. B.2.1 Modèle et valeurs moyennes Le processus d'amplification sensible à la phase peut être décrit, dans le cas idéal, par les relations entrée-sortie suivantes : a out = √ G e iφ 1â in + √ G − 1 e iφ 2â † in ,(3.a = â + δâ. La valeur moyenne deâ en entrée sera notée â in = |α| in e iϕ pour faire apparaître spécifiquement la phase ϕ du champ incident. L'intensité du champ en sortie est donc donnée par : N a,out = |α in | 2 2G − 1 + 2 G(G − 1) cos[2ϕ + (φ 1 − φ 2 )] . (3.44) On définit la phase θ = 2ϕ + (φ 1 − φ 2 ). On peut alors écrire le gain G de ce processus en fonction de θ : G = 2G − 1 + 2 G(G − 1) cos θ. B.2.2 Spectres de bruit On souhaite déterminer les spectres de bruit pour les différentes quadraturesX θ LO , où θ LO est la phase variable d'un oscillateur local utilisé pour une détection homodyne (voir chapitre 1). On rappelle que : δX θ LO = δâe −iθ LO + δâ † e iθ LO . A l'aide de la relation (3.43), on obtient en sortie : δX θ LO out = √ G δX (θ LO −φ 1 ) in + √ G − 1 δX (φ 2 −θ LO ) in . ( 3.46) On peut alors calculer le spectre de bruit de cette quadrature : S (X θ LO out ) = 2G − 1 + 2 G(G − 1) δX (θ LO −φ 1 ) in δX (θ LO −φ 1 ) in . ( 3.47) On rappelle que pour un état cohérent on a : δX φ a in δX φ b in = cos(φ a − φ b ). (3.48a) On en déduit que l'on peut écrire le spectre de la quadratureX θ LO sous la forme : S = 2G − 1 + 2 G(G − 1) cos Θ, (3.49) avec Θ = 2θ LO − (φ 1 + φ 2 ). Pour une phase Θ = 0, on voit que le bruit est maximum et vaut : A l'inverse pour une phase Θ = π/2, le bruit est minimum : S max = 2G − 1 + 2 G(G − 1).(3S min = 2G − 1 − 2 G(G − 1). (3.51) Pour étudier les fluctuations, il est intéressant de normaliser les spectres de bruit par le bruit quantique standard. Dans ce cas, il faut diviser l'expression (3.49) par le gain donné par l'expression (3.45). On obtient donc le spectre de bruit normalisé S N : S N = 2G − 1 + 2 √ G(G − 1) cos Θ 2G − 1 + 2 √ G(G − 1) cos θ . (3.52) Revenons brièvement sur les différentes phases que nous avons introduites. Nous prenons comme référence de phase le champ sonde. Dans ce modèle simple, on a donc deux phénomènes sensibles à la phase, que l'on peut piloter indépendamment. D'une part, l'amplification ou la déamplification de la valeur moyenne du champ, qui est contrôlée par le paramètre θ et qui dépend de la différence de phase relative entre les deux pompes. Et d'autre part, le spectre de bruit de la quadrature effectivement mesurée via la détection ho-modyneX θ LO qui dépend de la phase de l'oscillateur local et de la somme de la phase des deux pompes donnée par le paramètre Θ. Ces deux paramètres (θ et Θ) peuvent être modifiés de façon indépendante (même s'il est important de noter que les phase que nous avons introduites φ 1 et φ 2 ne sont pas les phases des pompes 1 et 2, elles peuvent être obtenues à l'aide du formalisme de l'optique non-linéaire présenté au début de ce chapitre. ) On peut donc atteindre un grand nombre de régimes différents (voir figures 3.7 et 3.8). D'après ce modèle la différence de phase θ peut prendre n'importe quelle valeur et on obtient donc au choix une amplification ou une déamplification de la valeur moyenne du champ associée à une réduction du bruit sous la limite quantique standard. C Conclusion du chapitre Dans ce chapitre nous avons tout d'abord rappelé le formalisme de l'optique nonlinéaire pour le mélange à 4 ondes. Dans ce formalisme, nous avons utilisé la susceptibilité non-linéaire χ (3) sans détailler l'origine de ce terme. Deux configurations ont été étudiées qui conduisent d'une part à l'amplification idéale insensible à la phase et d'autre part à l'amplification/déamplification idéale sensible à la phase. Nous avons détaillé comment ces processus permettent de générer des états comprimés de la lumière, respectivement à deux et un mode du champ. A l'aide d'un modèle discret d'amplificateurs linéaires idéaux et de pertes linéaires nous avons pu donner un ordre de grandeur des taux de compression atteignables dans ces milieux. Nous verrons au chapitre 4 qu'une structure atomique en double Λ permet d'envisager la réalisation de ces deux processus par mélange à 4 ondes. La susceptibilité non-linéaire χ (3) , introduite dans ce chapitre de manière phénoménologique, trouvera alors son contenu physique. CHAPITRE 4 Modèle microscopique et traitement quantique Dans ce chapitre, nous présentons en détail le modèle théorique qui permet de rendre compte des résultats expérimentaux qui seront présentés dans la partie III. Dans un premier temps, nous rappelons des résultats sur la transparence électromagnétiquement induite (EIT) pour un schéma de niveaux atomiques en Λ. γ i3 désigne le taux de relaxation du niveau |3 vers le fondamental |i . On prendra : γ 13 = γ 23 = Γ 2 avec Γ la largeur du niveau excité. Par souci de simplification, nous faisons ici l'hypothèse qu'il n'y a pas de désexcitation depuis le niveau |3 vers d'autres niveaux. -On note γ le taux de décohérence de la cohérence atomique entre les niveaux |1 et |2 . Dans ce modèle simple il n'y a pas de taux de relaxation ni de pompage des populations pour les niveaux |1 et |2 depuis l'extérieur. Il s'agit d'un modèle microscopique fermé à trois niveaux. A.2 Equations d'Heisenberg-Langevin Pour décrire l'évolution de ce système atome-champ et les fluctuations quantiques des observables du champ, nous avons utilisé le formalisme des équations dites de Heisenberg-Langevin. Le milieu atomique considéré est un ensemble de N atomes contenus dans un volume cylindrique V défini par la surface transverse S du faisceau laser et la longueur du milieu L selon l'axe de propagation z. Le champâ (respectivementb) s'écrit dans une description quantique : Les termesσ 11 ,σ 22 ,σ 33 sont appelés des populations. Les termesσ 13 ,σ 23 ,σ 12 sont appelés des cohérences. E a (z, t) = E a â(z, t)e i(k a z−ω a t) +â † (z, t)e −i(k a z−ω a t) ,(4.σ uv (z, t) = 1 N z N z j=1 |u j v j |e (−iω uv t+ik uv z) . Dans l'approximation de l'onde tournante, c'est-à-dire en négligeant les termes évoluant à une fréquence de l'ordre de 2ω a , le hamiltonien dipolaire électrique s'écrit : H int = − N L L 0 ∆σ 33 (z, t) + δσ 22 (z, t) + g aâ (z, t)σ 31 (z, t) + g bb (z, t)σ 32 (z, t) + H.c. dz, (4.3) avec g i = ℘ i E i pour i ∈ {a, b}, H.c. désignant l'hermitien conjugué et ℘ i l'élément de dipôle de la transition concernée. On peut alors écrire l'évolution hamiltonienne de la manière suivante : ∂ ∂tσ uv = i [H int ,σ uv (z, t)].∂ ∂t + c ∂ ∂z â(z, t) = ig aσ13 (z, t), (4.6a) ∂ ∂t + c ∂ ∂z b (z, t) = ig bσ23 (z, t). (4.6b) A.3 Régime stationnaire Nous allons désormais nous placer dans la situation où le champâ est très intense devant le champb. Le champâ sera appelé champ de contrôle et sera traité classiquement ; le champb sera appelé champ sonde. Comme nous nous intéressons, pour l'instant, aux valeurs moyennes du champ sonde, il pourra lui aussi être traité comme un champ classique. On remplacera donc dans les équations (4.5) les termes g aâ par Ω c 2 et g bb par Ω s 2 , où Ω c est la pulsation de Rabi du champ pompe et Ω s la pulsation de Rabi du champ sonde. Ce système s'écrit alors dans le régime stationnaire : 0 = −i Ω c 2σ 31 − Ω * c 2σ 13 + Γ 2σ 33 (4.7a) 0 = −i Ω s2σχ = N℘ 2 23 0 2(γ + iδ) 2(γ + iδ)(2(δ − ∆) − iΓ) − iΩ 2 c . (4.9) La partie réelle de la susceptibilité, que l'on note χ r , détermine l'indice de réfraction du milieu pour le faisceau sonde. La partie imaginaire, notée χ i , donne accès à la dissipation du champ sonde par le milieu c'est-à-dire à l'absorption [Fleischhauer 05]. Les profils théoriques, en présence et en absence de champ de contrôle, de χ r et χ i sont présentés dans la figure 4.2. Ces courbes sont donnés pour la ligne D1 des atomes de Rb 85 , dont les grandeurs importantes sont rappelées dans l'annexe C. A.5 Influence des paramètres sur la fenêtre de transparence Le phénomène dit de transparence électromagnétiquement induite correspond à l'annulation de χ i en présence de pompe pour un désaccord à 2 photons nul. On définit la fenêtre de transparence comme l'écart entre les deux pics de la partie imaginaire en présence de pompe (voir figure 4.2.b). C'est la zone du spectre où l'absorption est significativement modifiée par rapport à la situation en absence de champ de contrôle. Il est intéressant de regarder l'effet des différents paramètres sur la largeur et le contraste de cette fenêtre. A.5.1 Effet de la pulsation de Rabi du champ de contrôle La figure 4.3 présente la modification de la largeur de la fenêtre de transparence en fonction de la pulsation de Rabi du champ de contrôle. Dans le cas simple de trois niveaux non élargis par effet Doppler (atomes froids), on peut noter que la fenêtre de transparence est donnée la valeur de Ω c . A.5.2 Effet du taux de décohérence Un paramètre important pour l'observation du phénomène d'EIT et plus généralement de tous les phénomènes reposant sur la préparation cohérente d'un milieu atomique est le taux de décohérence [Lukin 00a, Lukin 99]. Dans le cas étudié ici, il s'agit du taux de décohérence de l'opérateurσ 12 , noté γ. La figure 4.4 présente l'effet de ce paramètre sur la valeur de l'absorption à résonance. L'augmentation de γ va avoir tendance a réduire, voire à supprimer totalement, l'effet de transparence lorsqu'il devient grand devant Γ. Cet effet de la décohérence sera donc une différence importante entre les différentes configurations pour ce genre d'expérience. Les paramètres qui influents sur la valeur de γ seront discutés dans la partie C. A.5.3 Autres effets Nous verrons, au chapitre 6, une démonstration expérimentale de l'EIT dans une vapeur atomique. Dans ce cas, outre la pulsation de Rabi et le taux de décohérence, l'élargissement inhomogène va jouer un rôle sur la largeur de la fenêtre de transmission [Field 91, Li 04]. De même, comme cela a été démontré dans [Ortalo 09], la prise en compte de la structure hyperfine de l'atome en dépassant le modèle de l'atome à 3 niveaux, permet de rendre compte plus précisément des profils de transmission observés expérimentalement. B Mélange à 4 ondes. Modèle microscopique en double-Λ Nous avons montré dans le chapitre précédent qu'il est possible de produire des états non classiques du champ à l'aide d'amplificateurs sensible ou insensible à la phase. Ce type d'amplification peut, entre autres, être réalisées dans un milieu atomique. Nous venons de voir comment la susceptibilité d'un milieu atomique était modifiée en présence de champ électromagnétique dans le cas simple d'atomes décrit par un modèle à trois niveaux. Nous allons nous intéresser maintenant au modèle microscopique qui permet de rendre compte de ces phénomènes. Les atomes seront décrits par un modèle à 4 niveaux en double-Λ en présence de deux champs de contrôle. Cette étude sera réalisée tout d'abord pour des atomes froids, puis pour une vapeur atomique en prenant en compte les effets de l'élargissement inhomogène. ω 0 est la différence en fréquence entre les niveaux |1 et |2 . Il s'agira typiquement de l'écart hyperfin entre deux niveaux fondamentaux. -Ω est la pulsation de Rabi du champ pompe définie par Ω = 2℘E , avec ℘ l'élément de dipôle pris identique pour les transitions |1 ↔ |3 et |2 ↔ |4 et E le champ électrique. -∆ est le désaccord à un photon qui correspond à ∆ = ω p − ω 13 , c'est-à-dire la différence entre la fréquence du champ pompe et celle de la transition |1 ↔ |3 . δ est le désaccord à deux photons qui s'écrit : δ = ω 23 +∆−ω b , avec ω 23 la fréquence de la transition |2 ↔ |3 et ω b celle du champb. γ k désigne le taux de relaxation du niveau |k . Pour k = 3, 4 ce taux vaut γ k = Γ la largeur du niveau excité. Pour k = 1, 2 ce taux est supposé nul : nous faisons ici l'hypothèse qu'il n'y a pas de désexcitation vers l'extérieur du système ni de phénomène de relaxation des populations entre les deux niveaux de l'état fondamental. On considère de plus que la desexcitation spontanée depuis les niveaux de l'état excité se réalise de manière isotrope vers les deux niveaux fondamentaux, ce qui implique que les taux de relaxation de |3 à |1 et de |4 à |2 soient identiques et égaux à Γ 2 -On note γ le taux de décohérence de la cohérence atomique entre les niveaux |1 et |2 . Dans ce modèle il n'y a pas de taux de relaxation ni de pompage des populations pour les niveaux |1 et |2 depuis l'extérieur. Il s'agit d'un modèle microscopique fermé à quatre niveaux. De plus, seul les couplages représentés sur la figure 4.5 sont pris en compte. Par exemple, on négligera le couplage du champâ avec la transition |2 → |4 pour des raisons de règles de sélection qui seront détaillées dans l'annexe D. B.2 Equations d'Heisenberg-Langevin L'évolution des opérateurs atomiques est décrite par les équations d'Heisenberg. Pour prendre en compte les termes de fluctuations introduits par la dissipation, il est nécessaire d'ajouter à l'évolution hamiltonienne des équations d'Heisenberg des termes dit de forces de Langevin. L'ensemble de ces deux contributions est décrit par les équations de Heisenberg-Langevin que nous allons obtenir dans cette section dans le cadre de notre modèle [Lezama 08]. B.2.1 Hamiltonien d'interaction De manière similaire au paragraphe A.2, on établit le hamiltonien effectif d'interaction dans sa forme continue pour le système étudié : On définit les coefficients de diffusionD uv,u v de ces opérateurs sous la forme : H int = − N L L 0 ∆ 0σ44 + ∆σ 33 + δσ 22 + g aâσ32 + g bbσ41 + Ω 2 (σ 31 +σ 42 ) + H.c. dz,F † uv (z, t)F u v (z , t ) = 2D uv,u v δ(t − t )δ(z − z ). (4.13) B.2.2 Solutions stationnaires pour les populations On cherche les solutions de ce système, en négligeant la contribution des champs sonde et conjugué devant le champ pompe supposé beaucoup plus intense. Dans ce cas, pour ob-tenir un système fermé d'équations, il faut ajouter les équations d'évolution des cohérences σ 31 etσ 42 (ainsi que celle des opérateurs adjoints) : ∂ ∂tσ 31 = −i g * aâ †σ 21 − g * bb †σ 34 + Ω 2 (σ 11 −σ 33 ) − Γ 2 + i∆ σ 31 +f 31 , (4.13a) ∂ ∂tσ 42 = −i g * bb †σ 12 − g * aâ †σ 43 + Ω 2 (σ 22 −σ 44 ) − Γ 2 + i∆ + iω 0 σ 42 +f 42 . (4.13b) La conservation du nombre d'atomes dans le système donne la relation de fermeture : σ 11 +σ 22 +σ 33 +σ 44 = 1. (4.14) Si le temps d'interaction des atomes avec le laser de pompe est suffisamment long par rapport aux temps caractéristiques d'évolutions du système 1 , alors le système (4.11) peut être résolu en supposant qu'il a atteint l'état stationnaire. Pour simplifier la lecture, nous allons désormais utiliser un formalisme matriciel pour décrire ce système d'équations linéaires. En effet, on peut réécrire le système (4.11) en négligeant les termes proportionnels aux champs sonde et conjugué, sous la forme suivante : i[1] ∂ ∂t + [M 0 ] |Σ 0 ] = |S 0 ] + i|F 0 ], (4.15a) avec [M 0 ] =                                  i Γ 2 i Γ 2 0 − Ω 2 Ω 2 0 0 i Γ 2 i Γ 2 0 0 0 − Ω 2 Ω 2 0 0 iΓ Ω 2 − Ω 2 0 0 − Ω 2 0 Ω 2 −∆ + i Γ 2 0 0 0 Ω 2 0 − Ω 2 0 ∆ + i Γ 2 0 0 − Ω 2 −Ω − Ω 2 0 0 −∆ − ω 0 + i Γ 2 0 Ω 2 Ω Ω 2 0 0 0 ∆ + ω 0 + i Γ 2                                  , |Σ 0 ] = σ 11 σ 22 σ 33 σ 31 σ 13 σ 42 σ 24                              , |S 0 ] = 1 2 iΓ iΓ 0 0 0 −Ω Ω                              , |F 0 ] = f 11 f 22 f 33 f 31 f 13 f 42 f 24                               . (4.15b) 1. Ce point sera étudié plus en détail dans la section E. B. Mélange à 4 ondes. Modèle microscopique en double-Λ 125 On obtient alors la solution stationnaire de ce système sous la forme : | Σ 0 ] = [M 0 ] −1 |S 0 ]. (4.16) On introduit le coefficient D = Γ 2 +2(Ω 2 +∆ 2 +(∆+ω 0 ) 2 ). On trouve alors les solutions suivantes pour les valeurs moyennes des populations : | Σ 0 ] = 1 2D Γ 2 + Ω 2 + 4∆ 2 Γ 2 + Ω 2 + 4(∆ + ω 0 ) 2 Ω 2 −Ω(2∆ + iΓ) −Ω(2∆ − iΓ) −Ω(2(∆ + ω 0 ) + iΓ) −Ω(2(∆ + ω 0 ) − iΓ)                              . (4.17) La figure présente l'effet de la pulsation de Rabi Ω et du désaccord à un photon ∆ dans le cas de la raie D1 du rubidium 85. Les données de cette transition sont détaillées dans l'annexe C. On vérifie aisément que dans les conditions expérimentales décrites dans ce manuscrit (Ω ≤ 2π × 2GHz et 0 ≤ ∆ ≤ 2π × 1.5GHz) la population dans l'état stationnaire est essentiellement dans le niveau |2 . On schématise ce résultat sur la figure 4.5 par la taille des points dans les niveaux |1 et |2 . B.2.3 Evolution des cohérences A l'aide de la relation (4.4), on obtient simplement l'évolution des cohérencesσ 23 ,σ 41 ,σ 43 etσ 21 : i ∂ ∂tσ 23 = (δ − ∆ − i Γ 2 )σ 23 − Ω 2 (σ 21 −σ 43 ) + gâ(σ 0 33 −σ 0 22 ) + if 23 (4.18a) i ∂ ∂tσ 41 = (δ + ∆ + ω 0 − i Γ 2 )σ 41 − Ω 2 (σ 43 −σ 21 ) − gb † (σ 0 44 −σ 0 11 ) + if 41 (4.18b) i ∂ ∂tσ 43 = (δ + ω 0 − iΓ)σ 43 − Ω 2 (σ 41 −σ 23 ) + g(b †σ0 13 −âσ 0 42 ) + if 43 (4.18c) i ∂ ∂tσ 21 = (δ − iγ)σ 21 − Ω 2 (σ 23 −σ 41 ) − g(b †σ0 24 −âσ 0 31 ) + if 21 , g. Nous allons écrire ces équations sous forme matricielle : i[1] ∂ ∂t + [M 1 ] |Σ 1 (z, t)] = g[S 1 ]|Â(z, t)] + i|F 1 (z, t)] (4.19a) avec [M 1 ] =                i Γ 2 + (∆ − δ) 0 − Ω 2 Ω 2 0 i Γ 2 − (∆ + δ + ω 0 ) Ω 2 − Ω 2 − Ω 2 Ω 2 iΓ − (δ + ω 0 ) 0 Ω 2 − Ω 2 0 iγ − δ                , |Σ 1 (z, t)] = σ 23 (z, t) σ 41 (z, t) σ 43 (z, t) σ 21 (z, t)               , [S 1 ] =              σ 0 33 −σ 0 22 0 0σ 0 11 −σ 0 44 −σ 0 42σ 0 13 σ 0 31 −σ 0 24               , (4.19b) |F 1 (z, t)] = f 23 (z, t) f 41 (z, t) f 43 (z, t) f 21 (z, t)                , |Â(z, t)] = â(z, t) b † (z, t) .− → k p − − → k a − − → k b = − → 0 . On définit l'axe z comme la direction de propagation. Les équations de Maxwell pour les champs sonde et conjugué donnent les équations de propagation : ∂ ∂t + c ∂ ∂z â(z, t) = igNσ 23 (z, t), (4.20a) ∂ ∂t + c ∂ ∂z b † (z, t) = −igNσ 41 (z, t). (4.20b) Les équations (4.20) s'écrivent sous forme matricielle : En effet pour des longueurs d'interaction inférieures à 10 cm, le terme ∂ ∂t est négligeable devant c ∂ ∂z pour des évolutions à des fréquences inférieures à 1 GHz. Les grandeurs qui nous intéressent, c'est-à-dire les spectres de bruit dans la bande passante des détecteurs usuels, sont à des fréquences très inférieures au GHz. ∂ ∂t + c ∂ ∂z |Â(z, t)] = igN[T ]|Σ 1 (z, t)], B.3 Résolution Afin de résoudre l'équation de propagation (4.20), nous allons dans un premier temps passer dans l'espace des fréquences par transformée de Fourier, puis extraire des équations d'évolution des cohérences (4.18) les solutionsσ 23 etσ 41 [M(ω)] = i κ a (ω) η a (ω) η b (ω) κ b (ω) . (4.25) En effet, le modèle microscopique que nous venons de détailler permet d'obtenir le coefficient χ (3) que nous avions introduit pour modéliser l'interaction lumière matière. Il est intéressant de noter que les coefficients κ a et κ b ne sont pas identiques a priori, ce qui complique notablement la résolution. On peut donner une image physique des différents termes de la matrice [M]. Sous la forme de la relation (4.25), la partie réelle des éléments de la matrice est reliée à la dispersion du milieu, tandis que la partie imaginaire est reliée à la dissipation ou à l'amplification dans le milieu. Sur la figure 4.7, on présente les profils de κ a et κ b en fonction de δ. Pour δ ∆, on observe un pic positif sur la partie imaginaire de κ a (absorption). Cela correspond à l'absorption du faisceau sonde lorsqu'il passe à résonance avec la transition. La largeur de ce pic dépend donc principalement de Γ. La position du pic qui est exactement à la valeur δ = ∆ en l'absence de pompe, est modifiée par déplacement lumineux pour Ω 0. Dans ce cas, le pic sera déplacé vers δ > ∆. Le second terme de la parenthèse est un terme de dissipation. Il s'agit des forces de Langevin atomiques intégrées sur la longueur de zone d'interaction. Ce terme fera donc apparaitre les coefficients de diffusion lors de l'étude des fonctions de corrélations à deux points. B.4 Valeurs moyennes Dans un premier temps, nous allons étudier les résultats à fréquence nulle, c'est-à-dire les valeurs moyennes des opérateurs. On définit alors le gain pour les champsâ etb comme une quantité classique de la manière suivante : On peut écrire de façon simple cette équation dans le formalisme entrée-sortie : Le gain sur les modesâ etb se déduisent donc simplement du module carré des termes A et C de l'exponentielle de la matrice de transfert à fréquence nulle. G a = â † (L)â(L) â † (0)â(0) = |α out | 2 |α in | 2 , G b = b † (L)b(L) â † (0)â(0) = |β out | 2 |α in | 2 .|  out ] = A(0) B(0) C(0) D(0) |  in ],(4. B.4.2 Phase On souhaite déterminer la valeur moyenne de la phase φ a out et φ b out des champâ etb en sortie du milieu. Comme pour le gain, il s'agit d'une quantité classique. Ainsi en utilisant la relation 4.31, on peut voir que la phase du champâ va s'écrire : φ a out = arctan Im A(0) Re A(0) . (4.33) De même pourb : φ b out = arctan Im C(0) Re C(0) . (4.34) B.5 Fluctuations quantiques Nous venons de dériver les équations entrée-sortie pour obtenir l'expression des valeurs moyennes de l'amplitude et de la phase des champs quantiquesâ etb. Pour des champs quantiques, toute l'information ne réside pas dans les valeurs moyennes des opérateurs et on peut s'intéresser également aux fluctuations de ces opérateurs autour des valeurs moyennes, notamment à leur variance (ce qui est suffisant pour les états gaussiens). Les fluctuations doivent être étudiées à fréquence non nulle. Comme nous l'avons introduit au chapitre 2, les mesures des fluctuations sont donc réalisées à l'aide d'un analyseur de spectre. La fréquence ω telle que nous l'avons définie dans ce manuscrit correspond la fréquence d'analyse de l'appareil de mesure. B.5.1 Fluctuations quantiques d'intensité à un mode Étudions dans un premier temps les fluctuations quantiques d'intensité à un mode pour le champ sonde. On rappelle que l'on note la valeur moyenne de l'opérateur annihilation de la manière suivante : α = |α|e iφ . (4. 35) On cherche à déterminer les fluctuations δN a de l'opérateur nombreN a , défini à l'équation (4.27). En linéarisant son expression on trouve au premier ordre : δN a = |α| δâe −iφ + |α| δâ † e iφ = |α|δX φ , (4. 36) avec les fluctuations δX φ de la quadratureX φ définie dans le chapitre 1 par : δX φ = δâ e −iφ + δâ † e iφ . (4.37) La quantité mesurée expérimentalement est la densité spectrale de bruit S N a (ω), c'est-àdire la transformée de Fourier de la fonction d'auto-corrélation. On définit la transformée de Fourier deâ(t) par :â (ω) = ∞ −∞â (t) e iωt dt. (4.38) La notation pour la transformée de Fourier deâ † (t) est plus ambiguë. On définitâ † (ω) de la manière suivante 2 :â † (ω) = On peut donc écrire la densité spectrale de bruit sous la forme : S N a (ω) 2π δ(ω + ω ) = δN a (ω) δN † a (ω ) . (4.40) A l'aide de (4.36) et (4.37) on peut alors l'exprimer à partir de la fonction de corrélation de la quadrature X φ : S N a (ω) 2π δ(ω + ω ) = |α| 2 δX φ (ω) δX † φ (ω ) .|F † (L, ω)] = F a † (L, ω) F b (L, ω) = L 1 0 e −[M * (−ω)]Lz [M * F (−ω)]|F † 1 (z, ω)]dz, (4.43b) où |F † 1 (z, ω)] = f † 23 (z, ω) f † 41 (z, ω) f † 43 (z, ω) f † 21 (z, ω)                 = f 32 (z, ω) f 14 (z, ω) f 34 (z, ω) f 12 (z, ω)                . La densité spectrale de bruit en intensité à la sortie du milieu en fonction des fluctuations des champsâ etb en entrée s'écrit alors : S N a,out (ω) 2π δ(ω + ω ) = |α out | 2 [A(ω)(δâ in (ω) + F a (L, ω))e −iθ + B(ω)(δb † in (ω) + F b † (L, ω))e −iθ +A * (−ω)(δâ † in (ω) + F a † (L, ω))e iθ + B * (−ω)(δb in (ω) + F b (L, ω))e iθ ] ×[A * (−ω )(δâ † in (ω ) + F a † (L, ω ))e iθ + B * (−ω )(δb in (ω ) + F b (L, ω ))e iθ +A(ω )(δâ in (ω ) + F a (L, ω ))e −iθ + B(ω )(δb † in (ω ) + F b † (L, ω ))e −iθ ] . (4.44) On a donc obtenu une expression qui relie la densité spectrale de bruit en sortie aux fonctions de corrélation à deux points du champ en entrée ainsi qu'aux coefficients de diffusion des forces de Langevin. Pour calculer une grandeur scalaire à partir d'opérateurs, on est amené à choisir un ordre pour les termes des équations matricielles. Nous allons voir dans ce qui suit, comment obtenir les coefficients de diffusion des forces de Langevin dans le système atomique que nous avons considéré. Notons que les fluctuations du champ ainsi que les termes de force de Langevin étant indépendamment nuls en valeur moyenne, leur produit l'est aussi. S N a,out (ω) 2π δ(ω + ω ) = (4.46) δâ(ω)δâ † (ω ) S = δâ † (ω)δâ(ω ) S = 1 2 δâ(ω)δâ † (ω ) + δâ † (ω)δâ(ω ) (4.45a) = 1 2 2π δ(ω + ω ).|α out | 2 2 A(ω)A * (−ω ) + A * (−ω)A(ω ) + (B(ω)B * (−ω ) + B * (−ω)B(ω ) × 2π δ(ω + ω ) + |α out | 2 (A(ω)A * (−ω ) F a (L, ω)F a † (L, ω ) S + A * (−ω)A(ω ) F a † (L, ω)F a (L, ω ) ) S + |α out | 2 (B(ω)B * (−ω ) F b † (L, ω)F b (L, ω ) S + B * (−ω)B(ω ) F b (L, ω)F b † (L, ω ) S ) + |α out | 2 (A(ω)B * (−ω ) F a (L, ω)F b (L, ω ) S + B(ω)A * (−ω ) F b † (L, ω)F a † (L, ω ) S +A * (−ω)B(ω ) F a † (L, ω)F b † (L, ω ) S + B * (−ω)A(ω ) F b (L, ω)F a (L, ω ) S ). L'utilisation de l'ordre symétrique garantit, par sa structure même, la parité en fonction de ω du terme : A(ω)A * (−ω )+ A * (−ω)A(ω )+ B(ω)B * (−ω )+ B * (−ω)B(ω ). Cela veut dire que S N a,out (ω) est une grandeur paire, même si l'on néglige les contributions des forces de Langevin. B.5.1.3 Coefficient de diffusion des forces de Langevin dans l'ordre symétrique A priori, les forces de Langevin ne peuvent pas être négligées dans (4.46). Voyons comment calculer les termes qui apparaissent dans cette équation. On peut exprimer la valeur moyenne d'un produit de deux forces de Langevinf uv (z, t) etf u v (z , t ) à l'aide du coefficient de diffusion D uv,u v défini par : f uv (z, t)f u v (z , t ) = 2D uv,u v δ(t − t )δ(z − zF a (ω)F a † (ω ) = L 2 [1 0| 1 0 e −[M(ω)]Lz [M F (ω)]|F 1 (Lz, ω)]dz × [1 0| 1 0 e −[M * (−ω )]Lz [M * F (−ω )]|F † 1 (Lz , ω )]dz , (4.48) que l'on peut écrire aussi : F a (ω)F a † (ω ) = L 2 [1 0| 1 0 1 0 e −[M(ω)]Lz [M F (ω)]|F 1 (Lz, ω)] × [F † 1 (Lz , ω )| t [M * F (−ω )]e − t [M * (−ω )]Lz dzdz |1 0]. (4.49) La delta-corrélation en z des forces de Langevin permet de réduire le problème de la propagation à une seule intégrale sur z : On peut alors écrire l'équation (4.50) sous la forme : F a (ω)F a † (ω ) = L 2 [1 0| 1 0 e −[M(ω)]Lz [M F (ω)]|F 1 (Lz, ω)] × [F † 1 (Lz, ω )| t [M * F (−ω )]e −F a (ω)F a † (ω ) = D aa † (ω, −ω )2π δ(ω + ω ), (4.52a) avec D aa † (ω, −ω ) = L 2 [1 0| 1 0 e −[M(ω)]Lz [M F (ω)][D] t [M * F (−ω )]e − t [M * (−ω )]Lz dz |1 0]. (4.52b) On écrit de la même manière les termes F a † (L, ω)F a (L, ω ) , Le spectre de bruit en intensité pour un champâ s'écrit donc de façon simplifiée sous la forme : F b † (ω)F b (ω ) et F b (ω)F b † (ω ) sous la forme : F a † (ω)F a (ω ) = D a † a (−ω, ω )2π δ(ω + ω ), (4.53a) F b † (ω)F b (ω ) = D b † b (ω, −ω )2π δ(ω + ω ), (4.53b) F b (ω)F b † (ω ) = D bb † (ω, −ω )2π δ(ω + ω ). (4.53c) où l'on a défini D a † a (−ω, ω ), D b † b (ω, −ω ) et D bb † (−ω, ω ) par : D a † a (−ω, ω ) = L 2 [1 0| 1 0 e −[M * (−ω)]Lz [M * F (−ω)][D] t [M F (ω )]e − t [M(ω )]Lz dz |1 0], (4.54a) D b † b (ω, −ω ) = L 2 [0 1| 1 0 e −[M(ω)]Lz [M F (ω)][D] t [M * F (−ω )]e − S N a,out (ω) = |α out | 2 2 |A(ω)| 2 (1 + 2D aa † (ω, ω)) + |A(−ω)| 2 (1 + 2D a † a (−ω, −ω)) + |B(ω)| 2 (1 + 2D b † b (ω, ω)) + |B(−ω)| 2 (1 + 2D bb † (−ω, −ω)) + |α out | 2 2 (A(ω)B * (ω)2D ab (ω, ω) + A * (ω)B(ω)2D b † a † + (ω, ω) +A * (−ω)B(−ω)2D a † b † (−ω, −ω) + B * (−ω)A(−ω)2D ba (−ω, −ω)) . (4.55) Notons que l'on peut vérifier numériquement que dans les cas traités dans ce manuscrit, cette équation peut être évaluée de manière simplifiée sous la forme suivante : S N a,out (ω) |α out | 2 2 |A(ω)| 2 (1 + D aa † (ω, ω)) + |A(−ω)| 2 (1 + D a † a (−ω, −ω)) + |B(ω)| 2 (1 + D b † b (ω, ω)) + |B(−ω)| 2 (1 + D bb † (−ω, −ω)) . On utilise alors cette expression pour écrire les fluctuations de manière linéarisée : e i φ a e iδφ a = (α + δâ) (α * + δâ † )(α + δâ) − 1 2 . (4.59a) En utilisant un développement limité au premier ordre en δa α , on a : e i φ a (1 + iδφ a ) = α α * 1 + 1 2 δâ α 1 − 1 2 δâ † α * . (4.59b) Cela nous permet d'écrire les fluctuations de la phase en fonction de la quadratureŶ φ a : δφ a = −i 2|α| δâ e −iφ a − δâ † e iφ a = δŶ φ a 2|α| . (4.60) La densité spectrale de bruit est ainsi donnée par : S φ a (ω) 2π δ(ω + ω ) = δφ a (ω) δφ † a (ω ) . (4.61) En utilisant les équations (4.60) et (4.61), on trouve le spectre de bruit de phase : S φ a (ω) 2π δ(ω + ω ) = 1 4|α| 2 δŶ φ a (ω)δŶ † φ a (ω ) . (4.62) On retrouve donc un résultat connu, à savoir le bruit sur la phase est donné par la fonction de corrélations de la quadratureŶ associée à la phase moyenne du champ c'est-à-dire la quadrature :Ŷ φ a . Calcul du spectre de bruit de phase à un mode On peut calculer la relation (4.61), avec la même méthode que pour les spectres de bruit en intensité, ce qui donne pour le spectre en sortie du milieu : S φ a,out (ω) 2π δ(ω + ω ) = −1 4|α out | 2 [A(ω)(δâ in (ω) + F a (L, ω))e −iθ + B(ω)(δb † in (ω) + F b † (L, ω))e −iθ −A * (−ω)(δâ † in (ω) + F a † (L, ω))e iθ + B * (−ω)(δb in (ω) + F b (L, ω))e iθ ] ×[A(ω )(δâ in (ω ) + F a (L, ω ))e −iθ + B(ω )(δb † in (ω ) + F b † (L, ω ))e −iθ −A * (−ω )(δâ † in (ω ) + F a † (L, ω ))e iθ + B * (−ω )(δb in (ω ) + F b (L, ω ))e iθ ] .S φ a,out (ω) 2π δ(ω + ω ) = 1 4|α out | 2 A(ω)A * (−ω ) + A * (−ω)A(ω ) + (B(ω)B * (−ω ) + B * (−ω)B(ω ) × 1 2 2π δ(ω + ω ) + 1 4|α out | 2 (A(ω)A * (−ω ) F a (L, ω)F a † (L, ω ) S +A * (−ω)A(ω ) F a † (L, ω)F a (L, ω ) ) S + 1 4|α out | 2 (B(ω)B * (−ω ) F b † (L, ω)F b (L, ω ) S +B * (−ω)B(ω ) F b (L, ω)F b † (L, ω ) S ) + termes croisés. (4.64) Les termes croisés correspondent aux deux dernières lignes de l'équation (4.46) que nous avons omis pour simplifier (un peu) la lecture. A l'aide d'une approximation identique à celle effectuée au paragraphe précédent pour passer de l'équation (4.55) à (4.56), on peut écrire le spectre de bruit de phase pour un champâ sous la forme : S φ a,out (ω) 1 4|α out | 2 |A(ω)| 2 (1 + D aa † (ω, ω)) + |A(−ω)| 2 (1 + D a † a (−ω, −ω)) + |B(ω)| 2 (1 + D b † b (ω, ω)) + |B(−ω)| 2 (1 + D bb † (−ω, −ω)) . (4.65) Pour comparer ce spectre à un état cohérent (la limite quantique standard) il faut le normaliser par 1 4|α| 2 . On obtient alors le spectre de bruit normalisé : S N φ a,out (ω) = |A(ω)| 2 (1 + D aa † (ω, ω)) + |A(−ω)| 2 (1 + D a † a (−ω, −ω)) + |B(ω)| 2 (1 + D b † b (ω, ω)) + |B(−ω)| 2 (1 + D bb † (−ω, −ω)) . (4.66) On peut alors noter qu'après normalisation de (4.56), on obtient une expression identique pour S N φ a,out (ω) et S N N a,out (ω) Le fluctuations sur les quadratures identités et phase sont donc identiques. On peut déduire de ce résultat très simple que notre système ne pourra pas générer un état comprimé à un mode, ce qui est attendu pour un amplificateur insensible à la phase B.6 Corrélations quantiques B.6 .1 Corrélations quantiques d'intensité Dans ce paragraphe nous avons aussi omis l'écriture des "termes croisés", afin de ne pas surcharger très lourdement l'écriture. Les résultats obtenus sont par conséquent des résultats approchés, mais qui pour les paramètres numériques explorés dans ce manuscrit en sont une très bonne approximation. On calcule le spectre de bruit de la différence d'intensité des deux modesâ etb en sortie du milieu. On définit l'opérateur différence d'intensitéN − par : N − =N a −N b . (4.67) En notant les valeurs moyennes des opérateursâ etb de la façon suivante : â = |α|e iφ a et b = |β|e iφ b , on obtient pour les fluctuations de l'opérateurN − la relation : δN − (ω) = |α|δX a,φ a (ω) − |β|δX b,φ b (ω). (4.68) Le spectre de bruit s'écrit, comme précédemment, comme la transformée de Fourier de la fonction de corrélation : S N − (ω)2π δ(ω + ω ) = δN − (ω)δN † − (ω ) . (4.69) En substituant la relation (4.68) dans (4.69) on peut écrire : S N − (ω)2π δ(ω + ω ) = |α|δX a,φ a (ω) − |β|δX b,φ b (ω) |α|δX a,φ a (ω ) − |β|δX b,φ b (ω ) = |α| 2 δX a,φ a (ω)δX a,φ a (ω ) + |β| 2 δX b,φ b (ω)δX b,φ b (ω ) −|αβ| δX b,φ b (ω)δX a,φ a (ω ) + δX a,φ a (ω)δX b,φ b (ω ) . (4.70) Le terme |α| 2 δX a,φ a (ω)δX a,φ a (ω ) est identique à celui défini pour le à l'équation (4.41) et calculé en (4.55). De même le terme |β| 2 δX b,φ b (ω)δX b,φ b (ω ) correspond à un calcul similaire pour le champb. Comme précédemment on ne s'intéresse qu'aux termes dont la valeur moyenne est non nulle (cf. 4.45a). A l'aide des relations entrée-sortie on écrit le terme δX a,φ a (ω)δX b,φ b (ω ) en sortie dans l'ordre symétrique sous la forme : δX a,φ a (ω)δX b,φ b (ω ) S = A(ω)C * (−ω )e −i(φ out a +φ out b ) δâ in (ω)δâ † in (ω ) S + F a (ω)F a † (ω ) S + B(ω)D * (−ω )e −i(φ out a +φ out b ) δb † in (ω)δb in (ω ) S + F b † (ω)F b (ω ) S + A * (−ω)C(ω )e i(φ out a +φ out b ) δâ † in (ω)δâ in (ω ) S + F a † (ω)F a (ω ) S + B * (−ω)D(ω )e i(φ out a +φ out b ) δb in (ω)δb † in (ω ) S + F b (ω)F b † (ω ) S . (4.71) En utilisant les relations que l'on a obtenues dans la section précédente sur la valeur moyenne de l'amplitude et de la phase en sortie du milieu on peut écrire : e i(φ out a +φ out b ) = |α in | 2 A(0)C(0) * |α out β out | . (4.72) On peut alors écrire le terme |α out β out | δX a,φ a (ω)δX b,φ b (ω ) de l'équation (4.70) sous la forme : |α out β out | δX a,φ a (ω)δX b,φ b (ω ) = |α in | 2 2 2πδ(ω + ω ) × A(0)C(0) * A * (−ω)C(ω ) + B * (−ω)D(ω ) + A(0) * C(0) A(ω)C * (−ω ) + B(ω)D * (−ω ) + A(0)C(0) * A * (−ω)C(ω ) F a † (ω)F a (ω ) S +B * (−ω)D(ω ) F b (ω)F b † (ω ) S + A(0) * C(0) A(ω)C * (−ω ) F a (ω)F a † (ω ) S + B(ω)D * (−ω ) F b † (ω)F b (ω ) S . (4.73) Le spectre de bruit sur la différence d'intensité des deux champs s'écrit donc : S N − (ω) = |α in A(0)| 2 2 |A(ω)| 2 (1 + D a (ω)) + |A(−ω)| 2 (1 + D a (ω)) (4.74) + |B(ω)| 2 (1 + D b (ω)) + |B(−ω)| 2 (1 + D b (ω)) + |α in C(0)| 2 2 |C(ω)| 2 (1 + D a (ω)) + |C(−ω)| 2 (1 + D a (ω)) + |D(ω)| 2 (1 + D b (ω)) + |D(−ω)| 2 (1 + D b (ω)) − |α in | 2 Re [A(0)C(0) * (C(ω)A * (ω)(1 + Da(ω)) + D(ω)B * (ω)(1 + Db(ω)) + A * (−ω)C(−ω)(1 + Da(ω)) + B * (−ω)D(−ω)(1 + Db(ω)))] . Une fois ce terme normalisé par le bruit d'intensité d'un faisceau cohérent contenant la somme du nombre de photons surâ etb, |α in A(0)| 2 + |α in C(0)| 2 , on obtient : S N N − (ω) = 1 2(|A(0)| 2 + |C(0)| 2 ) × (4.75) |A(0) * A(ω) − C(0) * C(ω)| 2 (1 + D aa † (ω)) +|A(0)A(−ω) * − C(0)C(−ω) * | 2 (1 + D a † a (−ω)) +|A(0) * B(ω) − C(0) * D(ω)| 2 (1 + D b † b (ω)) +|A(0)B(−ω) * − C(0)D(−ω) * | 2 (1 + D bb † (−ω)) . Il est intéressant de noter que, contrairement au spectre de bruit du modeâ seul qui est une somme de termes tous positifs (équation (4.55) ), il n'est pas nécessaire que les coefficients A, B, C, D de l'équation (4.75) soient nuls pour que S N N − (ω) tende vers 0. En effet, pour un système se comportant comme un amplificateur idéal de bande passante infinie décrit au chapitre 3, on a : |A(ω)| 2 = |D(ω)| 2 = G et |B(ω)| 2 = |C(ω)| 2 = G − 1 ainsi que des coefficients de diffusions nuls : D uv = 0. On retrouve alors les résultats du chapitre 3 pour l'amplificateur insensible à la phase : S N N − = 1 2G − 1 . (4.76) B.6.2 Anti-corrélations quantiques de phase Pour démontrer l'intrication de deux faisceaux en variables continues, on peut utiliser un critère basé sur l'inséparabilité qui sera détaillé dans la section D. L'inséparabilité est définie par : I(ω) = 1 2 (S N N − + S N φ + ). (4.77) Pour calculer la valeur de l'inséparabilité, il est donc nécessaire de déterminer les anticorrélations de phaseφ + . C'est ce que nous allons étudier dans ce paragraphe en suivant la même méthode que précédemment. On écrit l'opérateur de somme des phases : φ + =φ a +φ b . (4.78) Puis on utilise (4.60) pour écrire : δφ + = δŶ a,φ a 2|α| + δŶ b,φ b 2|β| . (4.79) On peut alors calculer le spectre : S φ+ (ω)2π δ(ω + ω ) = δŶ a,φ a (ω)δŶ a,φ a (ω ) 4|α| 2 + δŶ b,φ b (ω)δŶ b,φ b (ω ) 4|β| 2 + δŶ a,φ a (ω)δŶ b,φ b (ω ) + δŶ b,φ b (ω)δŶ a,φ a (ω ) 4|αβ| . (4.80) A nouveau les termes de la première ligne découlent directement du calcul de bruit à un champ (équation 4.64). Le terme de la seconde ligne doit lui être calculé. En ne gardant que les termes non nuls pour notre état d'entrée, on a : δŶ a φ a (ω)δŶ b φ b (ω ) = −A(ω)C * (−ω )e −i(φ out a +φ out b ) δâ in (ω)δâ † in (ω ) + F a (ω)F a † (ω ) S − B(ω)D * (−ω )e −i(φ out a +φ out b ) δb † in (ω)δb in (ω ) + F b † (ω)F b (ω ) S − A * (−ω)C(ω )e i(φ out a +φ out b ) δâ † in (ω)δâ in (ω ) + F a † (ω)F a (ω ) S − B * (−ω)D(ω )e i(φ out a +φ out b ) δb in (ω)δb † in (ω ) + F b (ω)F b † (ω ) S . (4.81) On obtient donc finalement le spectre de bruit des anti-corrélations de phase sous la forme générale : S φ + (ω) = 1 2 1 4|α out | 2 |A(ω)| 2 (1 + D a (ω)) + |A(−ω)| 2 (1 + D a (ω)) + |B(ω)| 2 (1 + D b (ω)) + |B(−ω)| 2 (1 + D b (ω)) + 1 2 1 4|β out | 2 |C(ω)| 2 (1 + D a (ω)) + |C(−ω)| 2 (1 + D a (ω)) + |D(ω)| 2 (1 + D b (ω)) + |D(−ω)| 2 (1 + D b (ω)) − |α in | 2 4|α out β out | 2 Re A(0)C(0) * (C(ω)A * (ω)(1 + Da(ω)) + D(ω)B * (ω)(1 + Db(ω)) + A * (−ω)C(−ω)(1 + Da(ω)) + B * (−ω)D(−ω)(1 + Db(ω))) . (4.82) Comme pour les spectres de corrélations il faut normaliser ce terme par le bruit de phase d'un faisceau cohérent pour le comparer au bruit quantique standard : S φ = |α out | 2 + |β out | 2 4|α out β out | 2 . (4.83) L'expression (4.82) peut alors s'écrire sous la forme : S N φ + (ω) = 1 2(|A(0)| 2 + |C(0)| 2 ) × (4.84) |A(0)C(ω) − C(0)A(ω)| 2 (1 + D aa † (ω)) +|A(0)C(−ω) − C(0)A(−ω)| 2 (1 + D a † a (−ω)) +|A(0)D(ω) − C(0)B(ω)| 2 (1 + D b † b (ω)) +|A(0)D(−ω) − C(0)B(−ω)| 2 (1 + D bb † (−ω)) . Dans la référence [Glorieux 10a], les équations (4.75) et (4.84) ont été obtenues en utilisant un formalisme légèrement différent, à l'aide des quadraturesx etp. On pourra vérifier que ces deux formalismes mènent à un résultat identique. Dans le modèle de l'amplificateur linéaire idéal de bande passante infinie ( |A(ω)| 2 = |D(ω)| 2 = G et |B(ω)| 2 = |C(ω)| 2 = G − 1 et D uv = 0), on peut donner l'expression des anticorrélations d'intensité sous la forme : S N φ + = 1 2G − 1 . (4.85) Ainsi dans ce cas l'inséparabilité s'écrit de la même manière : I = 1 2G − 1 . (4.86) Dans, le cas de l'amplificateur linéaire idéal de bande passante infinie, on obtient donc que lorsque le gain est plus grand que 1, alors le système génère à la fois des corrélations d'intensité et des anti-corrélations de phase sous la limite quantique standard. Ainsi le système produit des faisceaux intriqués. Nous allons maintenant nous intéresser aux différents paramètres que nous avons introduit dans le modèle microscopique pour dépasser l'amplificateur linéaire idéal et prédire les résultats expérimentaux. C Paramètres Les différentes grandeurs physiques associées à la raie D1 du rubidium 85, que nous utiliseront dans ce paragraphe, sont décrites en détail dans l'annexe C. En effet, comme nous en donnons l'explication dans l'annexe D, la raie D1 (5S 1/2 → 5P 1/2 ) ou la transition à 422 nm (5S 1/2 → 6P 1/2 ) du rubidium 85 peuvent être modélisées comme un système en double-Λ, lorsque les champ pompe et sonde sont polarisés linéairement et de façon orthogonale. C.1 Constante de couplage g = ℘ ε avec ε = ω L 2 0 V et ℘ = 0 c Γ/2 σ ω L . (4.87) Par simplicité, ce terme de couplage g est pris égal pour les deux champsâ etb. On peut donc écrire la matrice [M] de l'équation de propagation (4.26) en introduisant la densité d'atomes dans la zone d'interaction N sous la forme : [M(ω)] = iN σ L Γ 4 [T ][M 1 (ω)] −1 [S 1 ]. (4.88) avec σ la section efficace de la transition. Par analogie avec la manière dont on traite les effets d'absorption linéaire dans le modèle de l'atome à deux niveaux, on notera le produit αL = N σ L et on appellera ce terme l'épaisseur optique du milieu. C.2 Décohérence Le taux de décohérence γ de la cohérence atomiqueσ 12 correspond dans notre étude au taux de décohérence entre les deux niveaux hyperfins de l'état fondamental. Ce paramètre a été étudié de manière approfondie dans le cadre des expériences de pompage optique et pour des applications aux magnétomètres et à la mesure des standards de fréquence [Happer 72,Oreto 04]. La question du déphasage dû aux collisions induisant un changement de vitesse de l'atome sans en modifier l'état interne a été étudiée dans [Ghosh 09]. Pour un milieu constitué d'atomes froids cet effet sera négligé car la distribution de vitesse est très étroite. Le taux de décohérence s'écrit alors sous la forme : Pour une vapeur atomique "chaude" le terme dominant est γ t . Nous reviendrons en détail sur ce terme lorsque nous aborderons l'extension du modèle aux vapeurs atomiques. On peut noter que pour v 300 m.s −1 , T = 100 • C et R = 1 mm le taux de décohérence est de l'ordre de : γ γ t 500 kHz. γ = γ t + γ col + γ B ,(4. C.3 Pulsation de Rabi La pulsation de Rabi d'un laser Ω quantifie le couplage lumière matière pour une transition atomique donnée. Elle s'écrit sous la forme : Ω = ℘E ,(4. D Intrication en variables continues dans un milieu d'atomes froids Nous allons maintenant présenter les résultats obtenus lors de cette étude pour des atomes à vitesse nulle correspondant à un milieu constitué d'atomes froids. Nous utiliserons des paramètres accessibles dans ce genre d'expériences et en particulier pour la valeur de l'épaisseur optique (αL = 150). Nous verrons par la suite que les processus que nous présentons ici permettent tout de même de produire des corrélations (certes moins importantes) pour des épaisseurs optiques plus faibles. Nous présenterons l'effet de ces différents paramètres sur les corrélations d'intensité générées. Comme nous le verrons, nos calculs démontrent qu'un milieu d'atomes froids permet de générer par mélange à 4 ondes des faisceaux intriqués intenses. D.1 Inséparabilité Nous avons déjà introduit les corrélations d'intensité S − N (équation (4.55)) et les anticorrélations de phase S + φ (équation (4.66)), ainsi que l'inséparabilité I(ω). Pour détecter la présence d'intrication, nous utiliserons le critère suffisant introduit par [Duan 00, Simon 00] : I(ω) < 1, (4.94) où l'inséparabilité I(ω) est définie à l'équation (4.77). Ainsi, il s'agit d'un critère différent de la simple présence de corrélations d'intensité (ou d'anti-corrélations de phase). D.2 Limites expérimentales Nous allons appliquer le modèle que nous venons de décrire à la transition 5S 1/2 → 5P 1/2 du rubidium 85. Les paramètres que nous utiliserons ont été introduits dans la section C. La pulsation de Rabi et le désaccord à un photon seront choisis semblables à D.3 Spectre de gain Dans un premier temps, on s'intéresse aux quantités classiques. Le gain sur la sonde G a et sur le conjugué G b sont tracés en fonction du désaccord à 2 photons sur la figure 4.8. Différents processus élémentaires contribuent au profil observé [Lukin 00b]. Lorsque la condition de résonance à 4 photons est remplie (δ = 0), on observe une redistribution cohérente des photons de la pompe vers la sonde et le conjugué. C'est le processus de mélange à 4 ondes proprement dit. De plus, dans cette situation, une transition Raman impliquant un photon sonde et un photon pompe peut avoir lieue (condition d'accord à 2 photons). Ainsi, le spectre de gain du conjugué peut être compris en terme du seul processus de mélange à 4 ondes, alors que celui de la sonde fait apparaître une combinaison entre les processus de mélange à 4 ondes et de transition Raman. Sur l'encadré de la figure 4.8 a), on peut donc attribuer l'amplification du champ sonde au mélange à 4 ondes, alors que l'absorption pour δ 0 est due au processus Raman impliquant un photon sonde et un photon pompe. D'autre part, la zone d'absorption pour δ ∆ est simplement une conséquence du passage à résonance de la sonde sur la transition |2 → |3 . Pour un milieu constitué d'atomes froids, la largeur de ce Enfin, sur le spectre du mode conjugué, on peut observer une réduction du gain dans la zone δ 0 dont la largeur est compatible avec celle du creux d'absorption sur le mode sonde. De manière qualitative, on peut comprendre cela par le fait qu'en absence de faisceau sonde (c'est-à-dire lorsqu'il est absorbé), il n'y a pas de création de photons dans le mode conjugué. Le taux de génération du faisceau conjugué diminue donc lorsque la sonde est absorbée au cours de la propagation. D.4 Corrélations d'intensité et anti-corrélations de phase On présente maintenant les résultats du calcul concernant les fluctuations quantiques. La figure 4.9 présente les corrélations d'intensité à une fréquence d'analyse de 1 MHz en fonction de δ. Le profil de cette courbe montre que le processus de mélange à 4 ondes est très sensible au désaccord à deux photons δ. La gamme d'accord optimale est imposée par le déplacement lumineux qui fixe la condition de résonance, elle est de l'ordre de la dizaine de MHz. On se place dans la zone décrite précédemment comme la "zone de mélange à 4 ondes". La valeur de δ correspondante est fixée par le déplacement lumineux. La la différence d'intensité est faible, on calculera tout de même toujours ces termes pour vérifier que les solutions pour le bruit individuel sur chacun des deux modes sont physiques. D.6 Epaisseur optique Dans les simulations numériques que nous avons présentées jusqu'à maintenant, la valeur de l'épaisseur optique était fixée à 150. Même s'il est envisageable d'atteindre prochainement de telles valeurs dans un nuage d'atomes froids, il peut être plus simple expérimentalement de travailler avec une épaisseur optique plus faible et il est intéressant d'évaluer la dépendance du niveau des corrélations en fonction de ce paramètre. Ainsi, la figure 4.12 présente l'effet de l'épaisseur optique sur l'inséparabilité et démontre que l'intrication peut tout de même être observée, bien qu'à des niveaux moins importants, pour des épaisseurs optiques plus faibles. On peut voir que, même si elle tend vers 1, l'inséparabilité reste inférieure à cette borne pour l'épaisseur optique tendant vers zéro. des valeurs plus élevées, l'inséparabilité devient supérieure à 1 et l'on ne peut plus garantir l'intrication. Ces simulations mettent donc en évidence le rôle crucial que joue le taux de relaxation γ sur la production d'états intriqués. D.8 Conclusion sur l'intrication en variables continues dans un milieu d'atomes froids Nous avons étudié dans cette section les corrélations quantiques produites par mélange à 4 ondes dans milieu constitué d'atomes froids décrit par un modèle microscopique en double-Λ. Le principal résultat que nous avons obtenus est la possibilité de générer des faisceaux intriqués en variables continues dans un tel système. Nous avons ainsi présenté une valeur d'inséparabilité maximale de -6 dB sous la limite quantique standard pour des paramètres expérimentaux réalistes. Dans un second temps, nous avons mis en avant le rôle joué par les termes de forces de Langevin. Ainsi, même si la contribution de ces termes est relativement faible sur l'inséparabilité, nous avons vu que négliger ces termes pouvaient conduire à des situations non physiques. Enfin, nous avons étudié le rôle de deux paramètres expérimentaux pour démontrer la robustesse du processus : l'effet de la décohérence d'une part et de l'épaisseur optique d'autre part. Pour ces deux paramètres, nous avons montré que dans des situations expérimentales réalistes, il était possible de générer de l'intrication. Ces résultats ouvrent la perspective de la réalisation d'une expérience de mélange à 4 ondes dans un milieu constitué d'atomes froids afin de générer des états non-classiques du champ. E Extension du modèle microscopique dans le cas d'une vapeur atomique Jusqu'ici nous avons présenté le processus de mélange à 4 ondes dans un milieu décrit par un modèle d'atomes en double-Λ, tous considérés comme immobiles. Ce cas correspond à un milieu constitué d'atomes froids. Les expériences récentes [Boyer 07, McCormick 07, Glorieux 10b] montrent qu'il est possible d'observer ce processus dans une vapeur atomique "chaude". Certaines hypothèses que nous avons faites dans le cas d'un milieu constitué d'atomes froids ne sont pas valables dans le cas d'une vapeur atomique. Cette partie du manuscrit vise donc à étendre le modèle que nous venons de présenter à ce type d'expériences. Nous allons étudier d'une part le rôle de la distribution de vitesse et par conséquent du décalage de fréquence Doppler vu par les atomes lors d'un processus de mélange à 4 ondes et d'autre part l'origine de l'absorption linéaire subie par la sonde proche de résonance observé expérimentalement. E.1 Distribution de vitesse Dans une vapeur atomique, les différents atomes ne sont pas immobiles La probabilité pour un atome d'avoir la norme de son vecteur vitesse égale à v est donnée par une loi de distribution de Maxwell-Boltzmann P(v) : verse de la partie réelle de la valeur propre associée. Ainsi on déterminera pour un atome, la probabilité P(t) d'avoir atteint l'état stationnaire à un temps t à partir de la relation suivante : P(v) = m 2πk B T exp −mv 2 2k B T ,P(t) = 1 − e −t/T 0 , (4.98) où l'on a introduit T 0 qui est l'inverse de la plus petite (en valeur absolue) des parties réelles des valeurs propres de M 0 , c'est-à-dire le temps caractéristique d'évolution le plus long. Ainsi, en appliquant la relation précédente au temps t = τ, on obtient la proportion "moyenne" P d'atomes préparés dans l'état stationnaire. La figure 4.16 présente des simulations numériques de P pour différents paramètres expérimentaux sur la raie D1 du rubidium 85. Sur la figure a) on peut voir qu'à pulsation de Rabi fixée, le taux de préparation augmente lorsque l'on se rapproche de résonance. Au delà de quelques centaines de MHz de désaccord, le taux de préparation chute brutalement pour tendre vers 0 à désaccord très important. De façon symétrique pour un désaccord de 700 MHz, on peut voir que la pulsation de Rabi doit être supérieure à 1 GHz pour préparer 95% des atomes dans l'état stationnaire que nous avons décrit précédemment. Ceci se comprend par le fait que pour compenser le désaccord du laser de pompe par rapport à la transition atomique, il est nécessaire d'utiliser des pulsations de Rabi de l'ordre ou plus grande que ce désaccord. E.2.2 Pertes par absorption linéaire La conséquence de cette analyse est que des atomes (dans le cas d'une vapeur atomique) peuvent interagir avec la sonde sans avoir atteint l'état stationnaire, c'est-à-dire avant d'avoir été "préparés" dans cet état par la pompe. Ces atomes ne vont donc pas suivre l'évolution décrite par les relations (4.18). En première approximation, ces atomes vont être supposés dans l'état initial en l'absence de pompe. En particulier, ils vont donc se comporter comme un milieu présentant une absorption linéaire pour les faisceaux sonde et conjugué. Nous faisons ici une hypothèse forte, qui consiste à séparer les atomes en deux catégories, d'un coté ceux qui ont atteint l'état stationnaire et de l'autre ceux qui sont dans l'état initial. Une partie des atomes (ceux qui sont préparés dans l'état stationnaire) va ainsi contribuer au processus de mélange à 4 ondes, tandis que l'autre partie sera modélisée par un terme d'absorption proportionnel à l'exponentielle de la proportion d'atomes non préparés. Pour simplifier les calculs nous n'utiliserons pas le modèle des pertes réparties au cours de la propagation, comme nous l'avons fait au chapitre 3, mais nous ferons l'hypothèse que l'ensemble des pertes a lieu à l'entrée du milieu. Cette simplification, ne se justifie qu'a posteriori par le bon accord que l'on obtient entre notre modèle et les données expérimentales. E.3 Effet de l'élargissement inhomogène Le second effet que nous allons étudier et celui de l'élargissement inhomogène de la transition. La dispersion de vitesse introduit un décalage en fréquence par effet Doppler pour les atomes à vitesse non nulle sur le désaccord à un photon ∆. On observe ainsi une dispersion sur la valeur de ∆ et il est nécessaire d'adapter notre modèle à cet effet. Ainsi tous les atomes ne contribuent pas de la même façon au processus. Le problème que nous allons résoudre est de déterminer comment les différentes classes de vitesses contribuent à la valeur du gain et à la réduction du bruit sur la différence des intensité des deux champs. E.3.2 Modèle Pour prendre en compte la contribution des différentes classes de vitesse lors de la propagation nous allons adopter le modèle suivant. Le milieu 0 → L est décomposé en tranches d'épaisseur dz. Dans chaque tranche on suppose qu'il n'y a des atomes que d'une seule classe de vitesse v(z), telle que le désaccord à un photon vu par les atomes dans cette tranche soit : ∆ z . La probabilité pour une tranche donnée d'être composée d'atomes de vitesse v est donnée par la loi de distribution de vitesse dans une vapeur. Pour une tranche dz, l'équation (4.99a) se résout : froids. Dans cette étude nous avons négligé l'effet des forces de Langevin, en vérifiant numériquement que les coefficients de diffusion sont très peu modifiés par la distribution de vitesse. Les effets étant indépendants on pourra ajouter in fine, les deux contributions des forces de Langevin et de la distribution de vitesse. |Â(dz)] = e [N(ω,∆ 0 )].Nσdz |Â(0)], E.3.4 Intégration numérique de la distribution de vitesses On intègre numériquement la relation (4.103) pour obtenir les contributions de toutes les classes de vitesses au processus. Les deux grandeurs que nous allons alors étudier sont le gain sur le modeâ et les fluctuations de la différence d'intensité. Pour les températures de l'ordre de 100 • C, une valeur de NσL 4500 est typique 5 . A cette température, la distribution du désaccord vu par les atomes en présence d'élargissement Doppler pour un désaccord du laser de 700 MHz est donné dans la figure 4.17. Dans ces conditions, nous regardons l'effet de dispersion de ce désaccord sur le gain du faisceau sonde. On trace sur la figure 4.18, en fonction de la pulsation de Rabi du faisceau pompe, l'écart entre le gain dans le cas où tous les atomes sont à vitesse nulle et lorsque les atomes suivent une distribution de vitesse gaussienne De même dans la figure 4.19 en fonction du désaccord à un photon des atomes à vitesse nulle. On peut noter que, cet écart est faible (inférieur à 5 %) dans la gamme de paramètres étudiée. Sur la figure 4.19, on voit que 5. Il s'agit par exemple d'une cellule de 3cm chauffée à 120 • C. pour des désaccords faibles, l'écart augmente. Ainsi la prise en compte de la dispersion de vitesse des atomes réduit légèrement la valeur du gain. On peut comprendre cet effet car le gain étant plus important pour les atomes à résonance, la distribution de vitesses diminue nécessairement la valeur du gain moyenné sur la distribution de vitesse. De manière symétrique loin de résonance, la distribution de vitesses induit une légère augmentation du gain car certains atomes vont voir des désaccord plus faibles que s'ils étaient tous froids. De plus autour de 700 MHz, la courbe de gain de la figure 4.18 peut être approximée par une droite. Ainsi la contribution d'un atome dans la classe de vitesse −v sera exactement compensée par le contribution d'un atome dans la classe de vitesse +v. C'est la zone où l'écart entre les deux modèles s'annule. De la même manière, on étudie l'effet de la distribution de vitesses sur les corrélations d'intensité à 1MHz entre les faisceaux sonde et conjugué pour les deux paramètres de Ω De manière générale, nous venons de voir que la distribution de vitesse modifie les équations d'évolution du système mais, qu'après intégration, l'effet sur les grandeurs mesurées expérimentalement (gain, corrélations) est faible. E.4 Conclusion sur l'extension du modèle à une vapeur atomique Le modèle simplifié que nous avons développé nous a permis d'étudier le rôle de la distribution de vitesse dans les expériences de mélange à 4 ondes. D'une part nous avons vu, qu'il existe une fraction d'atomes non préparés dans l'état stationnaire par la pompe. Cette fraction peut devenir significative, lorsque le laser de pompe est loin de résonance ou lorsque sa pulsation de Rabi est faible. On appellera cet effet l'absorption résiduelle. Dans la suite nous traiterons cette effet par un terme correctif correspondant à des pertes sur la propagation des faisceaux. D'autre part, nous avons étudié l'effet de la dispersion de désaccord vu par les atomes dans le cas d'une vapeur. Dans cette étude, nous avons vu que cet effet était faible (typiquement inférieur à 10%). Dans la suite, nous négligerons donc cet effet. Ainsi nous pourrons utiliser les relations du modèle dit "atomes froids" avec les densités (et donc les épaisseurs optiques) que l'on peut atteindre dans une vapeur atomique chaude. Dans le cas d'une vapeur atomique, la valeur de densité N est bien plus importante que celle obtenue dans un piège magnéto-optique. On peut atteindre des valeurs de 10 13 atomes par cm 3 , soit une épaisseur optique de 10000 pour cellule de 85 Rb de 1 cm de longueur. La relation qui relie la densité d'atome en fonction de la température a été donnée au chapitre 2. E.5 Perspectives Une piste que nous n'avons pu pas aborder durant cette thèse est de résoudre le système (4.11) sans faire l'hypothèse de l'état stationnaire. En connaissant la trajectoire des atomes dans les faisceaux pompe et sonde, il est possible d'injecter dans le système (4.18) l'état de chaque atome lorsqu'il interagit avec le faisceau sonde Pour faire ces simulations, une très grande puissance de calcul est nécessaire. En première approximation, il est plus simple d'utiliser, non pas l'état de chaque atome, mais un état moyen, que l'on définit comme la solution exacte de l'équation (4.11) au temps τ. Il correspond aux atomes de vitesse égale à la vitesse moyenne et passant un minimum de temps dans le faisceau pompe avant d'entrer dans le faisceau sonde. Si l'état stationnaire n'est pas atteint, on peut alors résoudre le système 4.18 en injectant les solutions au temps τ du système (4.11). Les résultats que nous avons obtenu, notamment pour le gain, sont présenté dans la figure 4. 22. Pour des temps courts le gain tend vers 1 (les atomes sont encore dans l'état initial), puis il augmente vers une valeur stationnaire (ici 3) en quelques centaines de ns. On peut noter aussi que le maximum des corrélations d'intensité est obtenu pour Ω plus faible que celui correspondant au maximum de gain. On peut expliquer cela en constatant que la position du maximum des corrélations correspond au minimum de l'écart entre l'intensité de la sonde et du conjugué (encart de la figure 4.25 a)). On peut voir sur la courbe rouge pointillée de figure a) que le gain de la sonde croit vers le désaccord nul. Ce cas est le cas idéal sans prendre en compte l'absorption de la sonde par les atomes n'ayant pas atteint l'état stationnaire. Ce cas pourrait être atteint pour des faisceaux pompes de diamètre très grand (c'est-à-dire pour lesquels la vitesse des atomes fois le temps de préparation est petit devant le rayon du faisceau pompe.) Pour des faisceaux pompes plus petits, l'approximation que nous utilisons est de considérer les atomes non préparés dans l'état stationnaire comme un milieu absorbant en entrée de la cellule. En utilisant cette approximation on obtient la courbe rouge pour le gain de la sonde. On voit que dans ce cas le gain atteint un maximum autour de 700 MHz, qui est un compromis entre l'efficacité du processus de mélange à 4 ondes et l'absorption. Dans ce modèle, les pertes sont appliquées sur le faisceau sonde en entrée du milieu ; le gain sur le conjugué est donc affecté par le même facteur que le gain sur la sonde (courbes noires). Cette hypothèse sera discutée dans la partie consacrée à la présentation des résultats expérimentaux (chapitre 5). De façon similaire, les corrélations augmentent jusqu'au désaccord nul dans le cas idéal (figure b). En présence d'absorption, on obtient le spectre de bruit en intensité relatif présenté sur la figure c) en trait plein. Dans le cas idéal, les spectres de bruit sont normalisés au bruit quantique standard que l'on peut déduire directement du gain. La correction que nous avons effectuée par rapport à ce cas idéal, correspond à normaliser les spectres de bruit par le gain corrigé par l'absorption. Dans la figure d), on compare le modèle que nous avons présenté dans ce chapitre (noir) au modèle de l'amplificateur idéal présenté au chapitre 3 (rouge). On peut noter le bon accord qualitatif du modèle de l'amplificateur idéal avec notre modèle. Le modèle de l'amplificateur idéal et des pertes réparties présentés au chapitre 3 seront donc, dans ce régime, des moyens simples de prédire une borne supérieure pour les corrélations. En prenant en compte la structure microscopique des atomes, notre modèle permet de donner une borne supérieure plus faible pour le niveaux des corrélations attendues. F.1.7 Contribution des forces de Langevin Dans toutes les courbes présentées dans cette section, la contribution des forces de Langevin a été prise en compte. Les termes de forces de Langevin ont une forme très compliquée et dépendent d'un grand nombre de paramètres. Pour analyser de manière qualitative leur rôle, nous pouvons dire, de manière générale, que la contribution des forces de Langevin sera plus importante pour les pulsations de Rabi faibles. De même, nous constatons une augmentation de leur contribution pour δ < 0. On pourra noter de plus que la contribution des forces de Langevin augmente lorsque γ croit. F.2 Corrélations quantiques pour G a + G b < 1 Nous proposons ici un nouveau régime, pour lequel on peut observer des corrélations quantiques en intensité entre les champs sonde et conjugué tout en conservant un gain total inférieur à l'unité : G a + G b < 1. On présente les résultats obtenus sans prendre en compte la dispersion de vitesses des atomes 6 sur la figure 4.30. En modifiant les paramètres précédents et en s'éloignant du point de fonctionnement décrit dans [Boyer 07, McCormick 07, Glorieux 10b], nous avons pu mettre en évidence d'abord théoriquement (puis expérimentalement au chapitre 5), un régime très différent de l'amplificateur idéal. En effet, comme nous pouvons le voir sur la figure 4.30 a), il existe des situations où le gain sur le modeâ est inférieur à 1 sur une certaine gamme. En particulier pour δ = −52 MHz qui sera la valeur que nous utiliserons par la suite. Nous nous plaçons donc à la frontière entres les deux phénomènes décrits à la section D.3 (Raman et mélange à 4 ondes). Sur la figure 4.30 b), on observe la génération de corrélations quantiques en intensité entre les champs sonde et conjugué pour un gain total (G a + G b ) inférieur à 1. Cela est en contraste avec ce que l'on avait étudié dans le cas de l'amplificateur idéal (la production de corrélations pour un gain uniquement supérieur à 1). Sur la figure 4.30 c), on peut voir que la dépendance en ∆ est plus fine dans ce régime que dans le régime présenté à la section F.1. Comme nous n'avons pas pu intégrer le profil de vitesse dans ce cas, nous faisons l'hypothèse que la principale conséquence de cet effet 6. Pour des raisons de difficulté d'intégration du profil de vitesse dans le cas où les forces de Langevin ne sont plus négligeables, nous ne sommes pas en mesure de présenter les résultats généraux en prenant en compte la distribution de vitesses. Les résultats présentés seront donc vus comme la situation d"un milieu constitué d'atomes froids ou bien comme une borne supérieure pour les corrélations dans une vapeur atomique. On peut donner une image physique du système que nous venons de présenter. Pour deux faisceaux incidents (une sonde sur le modeâ et le vide sur le modeb) l'effet de ce système sur les valeurs moyennes et de redistribuer les photon avec un gain total (G a + G b ) inférieur à 1. De plus, les deux modes qui ne sont pas corrélés en intensité en entrée, le sont en sortie. Le système agit donc comme une lame séparatrice. Or les corrélations que l'on observe en sortie, ne sont pas uniquement des corrélations au sens classique (comme on peut le voir avec une lame séparatrice) mais des corrélations quantiques telles que le bruit sur la différence d'intensité soit sous la limite quantique standard. On propose donc d'appeler ce système, un "quantum beamspliter" ou lame séparatrice quantique. F.3 Corrélations quantiques sur la transition 5S 1/2 → 6P 1/2 du rubidium. F.3.1 Contexte Le travail mené dans l'équipe IPIQ au sein du laboratoire MPQ consiste en la réalisation d'une mémoire quantique dans un nuage d'ions 88 Sr + . Pour tester une telle mémoire, il peut être intéressant de disposer d'un état non-classique du champ (typiquement un état comprimé). Sans entrer dans le détail du principe d'une mémoire quantique [Julsgaard 04, Coudreau 07, Choi 08] nous allons étudier la faisabilité d'états comprimés de la lumière à la longueur d'onde de la transition 5S 1/2 → 5P 1/2 du strontium par mélange à 4 ondes dans une vapeur de rubidium 85. En effet il existe une quasi-coïncidence (400 MHz d'écart) entre les transitions 5S 1/2 → 6P 1/2 du rubidium 85 et 5S 1/2 → 5P 1/2 de l'ion Sr + [Madej 98]. Nous allons donc étudier le mélange à 4 ondes sur la transition 5S 1/2 → 6P 1/2 du rubidium 85. F.3.2 Paramètres Nous allons lister les principales différences entre la transition 5S 1/2 → 5P 1/2 dite "rouge" et la transition 5S 1/2 → 6P 1/2 dite "bleue" : -Tout d'abord la transition bleue correspond à une longueur d'onde de 421.6 nm (contre 795nm pour la transition rouge) La largeur Doppler associée à la transition bleue sera donc beaucoup plus importante (facteur 1.9) que celle associée à la la transition rouge. On voit que pour compenser un facteur 24 sur Γ la méthode la plus simple sera de prendre un facteur identique sur αL. Cette idée sera étudiée à la section F.3.3. -De plus, la puissance laser envisageable à cette longueur d'onde sera à prendre en compte pour déterminer la faisabilité des configurations proposées. En effet selon la puissance disponible, on pourra faire varier la focalisation du faisceau pour conserver une pulsation de Rabi constante. Par contre, dans ce cas les effets de décohérence et de préparation des atomes pourraient devenir critiques et seront donc détaillés. F.3.3 Augmenter l'épaisseur optique Comme nous l'avons vu, une stratégie pour observer des corrélations quantiques consiste à essayer de compenser le facteur 24 sur Γ sur la transition bleue en augmentant l'épaisseur optique. La figure 4.31 présente les résultats dans cette situation sans prendre en compte l'absorption. Dans ce cas, on voit que l'on retrouve sans problème les résultats de la section F.1, c'est-à-dire un gain supérieur à 1 sur la sonde et le conjugué et un important niveau de corrélations. Or, dans cette situation, il n'est pas possible de négliger l'absorption. En effet pour gagner un facteur 24 sur l'épaisseur optique, on doit porter le rubidium à des températures de l'ordre de 200 • C. Nous l'avons vu, l'absorption dépend du taux de préparation des atomes dans l'état stationnaire. Dans les conditions de la figure 4.31, même à résonance, c'est-à-dire où le temps de préparation est le plus faible, le temps caractéristique T 0 est de l'ordre de 2 µs. Ainsi pour que l'absorption à résonance soit faible (inférieure à 3%) pour une épaisseur optique de αL = 60000, il faut que le temps de transit τ soit supérieur à 15 T 0 soit 30 µs. A 200 • C cela correspond à un parcours de l'ordre de 10 mm, des atomes dans le faisceau pompe, avant d'interagir avec le faisceau sonde. Ainsi pour éviter l'absorption sur le faisceau sonde, il faut que le waist du faisceau pompe soit de l'ordre de 10 mm. Pour une telle taille, des puissances de plusieurs milliers de watts sont nécessaires pour conserver la valeur de la pulsation de Rabi constante. L'analyse des ordres de grandeurs nous permet donc de conclure, que la méthode naïve qui consiste à augmenter l'épaisseur optique afin de compenser la diminution de Γ, n'est pas réalisable expérimentalement. Il faut donc essayer une autre approche. F.3.4 Exploration de l'espace des paramètres Afin de chercher une configuration envisageable expérimentalement nous avons exploré l'espace des paramètres ∆, δ, Ω, αL. Sans donner tous les détails de ce travail afin de ne pas alourdir la lecture, nous allons présenter les principaux résultats. Dans un premier temps, nous avons cherché à sortir de la zone d'absorption, c'està-dire en dehors du profil Doppler. Pour ce faire, il faut aller au delà ∆ = 6 GHz. A ce désaccord, on n'observe du gain que pour des pulsations de Rabi très élevées Ω 1 GHz et des épaisseurs optiques de 10 5 . Pour atteindre de telles puissances optiques, il est nécessaire de focaliser le faisceau pompe sur des tailles inférieures à 50 µm. Dans ce cas, la valeur du taux de décohérence γ augmente inversement proportionnellement à la taille du faisceau. Pour un waist de 50 µm, le taux de décohérence vaut 2π × 6 MHz. Dans ces conditions, les résultats des simulations numériques ne prédisent pas de corrélations d'intensité sous la limite quantique standard. D'autre part, nous avons cherché à reproduire le régime décrit dans la section F.2, c'est-à-dire un régime où G a + G b < 1. De façon similaire à ce que nous venons de voir, cette situation n'a pas pu être atteinte numériquement. Proche de résonance, les phénomènes d'absorption dominent l'effet étudié. Loin de résonance, l'exploration de l'espace des paramètres n'a pas permis de dégager des conditions similaires à F.2. F.4 Conclusion sur la production de corrélations quantiques sur la transition 5S 1/2 → 6P 1/2 En conclusion, nous avons étudié théoriquement la production de corrélations quantiques sur la transition 5S 1/2 → 6P 1/2 du rubidium afin d'obtenir un source utile aux expériences d'optique quantique avec des ions Sr + . Nous avons démontré qu'il existe une situation qui prévoit des corrélations sous la limite quantique standard. Malheureusement, cette situation ne correspond pas à des paramètres réalistes pour des expériences d'atomes froids (αL = 60000). De même, pour des expériences dans une vapeur atomique, l'absorption par les atomes n'ayant pas atteint l'état stationnaire rend aussi impossible l'observation de ces corrélations. Enfin, nous avons étudié l'espace des paramètres à l'aide de simulation numériques et nous pouvons conclure qu'il n'existe pas de solutions, réalistes expérimentalement avec un laser continu, qui permettent la génération d'états corrélés générés par mélange à 4 ondes à 422 nm. Des résultats récents sur la réalisation d'expériences similaires en utilisant des laser pulsés semblent ouvrir la voie à des expériences dans ce régime [Agha 10]. G Conclusion du chapitre Dans ce chapitre nous avons présenté deux calculs d'optique quantique. Dans un premier temps nous avons rappelé les résultats du phénomène de transparence électromagnétiquement induite que nous allons étudier expérimentalement dans le chapitre 6 pour un modèle basé sur des atomes à 3 niveaux en simple-Λ. Puis dans un second temps nous avons introduit un modèle microscopique basé sur des atomes immobiles ayant une structure des niveaux d'énergie en double-Λ pour décrire les expériences de mélange à 4 ondes. Nous avons ainsi obtenu, dans le formalisme de Heisenberg-Langevin, les relations reliant les opérateurs de création et d'annihilation des champs sonde et conjugué en entrée et en sortie d'un milieu atomique constitué d'atomes immobiles. Ce modèle a permis de prévoir la génération de faisceaux intriqués en variables continues dans un milieu constitué d'atomes froids [Glorieux 10a]. Dans une seconde partie de ce chapitre, nous avons abordé une extension de ce modèle microscopique au cas d'une vapeur atomique "chaude". Dans ce cas, nous avons démontré que les résultats obtenus pour les atomes immobiles pouvaient être appliqués en modifiant quelques paramètres : c'est-à-dire en augmentant l'épaisseur optique afin de prendre en compte la densité que l'on observe dans des vapeurs ainsi que le taux de décohérence qui devient piloté par le temps de passage des atomes dans le faisceau. D'autre part, pour prendre en compte le temps d'interaction non-infini des atomes avec le faisceau pompe, nous avons étudié l'établissement du régime stationnaire et nous avons démontré qu'une part significative des atomes pouvaient ne pas avoir atteint cet état lorsqu'ils interagissaient avec le faisceau sonde. Nous avons alors modélisé ces atomes, comme un milieu absor-bant placé pour des raisons de simplicité avant le milieu de gain. Ces hypothèses, nous ont permis d'explorer numériquement l'espace des paramètres et de prevoir un nouveau régime qui n'avait pas été étudié expérimentalement à savoir la production de corrélations quantiques pour G a + G b < 1. Enfin, nous avons étudié théoriquement la possibilité de générer des faisceaux corrélés à 422 nm sur la transition 5S 1/2 → 6P 1/2 du rubidium et nous avons montré qu'il n'était pas possible de dégager des conditions réalistes expérimentalement similaires à celles de la transition 5S 1/2 → 5P 1/2 . Dans ce chapitre, nous présentons les résultats expérimentaux que nous avons obtenus pour la génération d'états non classiques à 795 nm (corrélations en intensité sous la limite quantique standard entre les champs sonde et conjugué). En utilisant les outils expérimentaux que nous avons introduits au chapitre 2, nous décrirons dans un premier temps le montage expérimental. Nous présenterons ensuite les mesures que nous avons réalisées pour caractériser le milieu atomique en présence du laser de pompe. Cette étude permet de tester le modèle théorique présenté au chapitre 4, en le comparant aux mesures de gain que nous avons effectué sur les faisceaux sonde et conjugué. Dans une seconde partie, nous étudierons l'effet des différents paramètres expérimentaux sur la génération des faisceaux corrélés. Cette étude, nous a permis d'optimiser notre montage expérimental et de trouver un point de fonctionnement optimal afin d'atteindre -9.2dB de corrélations sous la limite quantique standard. Enfin, nous terminerons ce chapitre par la démonstration expérimentale du régime de gé- piquement 50 mW) sont focalisés sur 50 microns dans un modulateur acousto-optique de fréquence centrale 1.5 GHz. Une configuration en oeil de chat permet d'obtenir un faisceau que l'on appelle faisceau sonde de plusieurs dizaines de µW décalé de 3 GHz. La plage de décalage que l'on peut atteindre dans ce montage est de 3020 à 3060 MHz. Le modulateur est alimenté par le générateur de signaux Rhode&Schwartz décrit au chapitre 2, lui même contrôlé par un ordinateur. Génération d'états comprimés à 795 nm Les faisceaux sonde et pompe (de polarisations linéaires orthogonales) sont superposés à l'aide d'un cube séparateur de polarisation de la société Fichou. En effet afin de filtrer le faisceau pompe en sortie du milieu, sa polarisation doit être très bien définie, les deux cubes de part et d'autre de la cellule doivent être de très bonne qualité. Avec les cubes dont nous disposons avons mesuré un taux d'extinction (en l'absence de cellule) de 5 10 −4 . Pour éviter la présence de photons de la pompe dans les faisceaux sonde et conjugué et augmenter le rapport signal à bruit, nous n'utilisons pas la géométrie colinéaire pour les faisceaux sonde et pompe. Les faisceaux se croisent dans la cellule avec un angle de 5 mrad. Selon les expériences présentées, nous utiliserons une cellule de 12.5 mm dont les faces sont traitées anti-reflet ou de 50mm dont les faces sont à l'angle de Brewster. Une image de ce que l'on observe à l'aide d'un caméra dans le plan transverse à l'axe de propagation est présentée sur la figure 5.1. Après le cube, un filtrage spatial (un diaphragme réglable sur le trajet de chacun des faisceaux sonde et conjugué), permet d'éliminer la présence éventuelle de photons parasites. Les faisceaux sondes et conjugués sont alors focalisés sur deux photodiodes et la différence des photocourants est envoyé sur un analyseur de spectre, pour être étudié. Une sortie basse fréquence sur chacune des photodiodes permet d'enregistrer la valeur moyenne de chacun des photocourants et ainsi connaitre le gain du processus. Dans une telle expérience, il est difficile de passer d'une mesure de la différence d'intensité des faisceaux sonde et conjugué à une mesure du bruit quantique standard sur un faisceau de référence. L'utilisation de miroir à bascule n'étant pas adaptée à une automatisation de l'expérience, nous avons rempli au préalable une base de données des spectres de bruit à la limite quantique standard, afin de calibrer le système en fonction de la puissance incidente. Ces mesures ont été présentées au chapitre 2. En fonctionnement normal, lors des expériences de mélange à 4 ondes, une acquisition de la valeur moyenne du photocourant est faite en temps réel sur un ordinateur. A l'aide de cette valeur, le spectre de bruit à la limite quantique standard est généré numériquement et comparé au spectre de bruit enregistré par l'analyseur de spectre. On obtient donc en temps réel, le niveau de corrélations par rapport à la limite quantique standard, c'est à dire exactement S N − 1 . B Caractérisation du milieu atomique en présence d'un champ pompe Pour caractériser le milieu atomique, nous avons fait une série d'expériences où nous avons mesurés uniquement des quantités classiques : les gains sur le champ sonde et conjugué (G a et G b ). Dans un premier temps nous allons présenter un spectre de gain typique en fonction de ∆ que nous comparerons aux prédictions théoriques. Puis, dans un deuxième temps, nous étudierons comment ces spectres sont modifiés en fonction de la température de la cellule et du désaccord à 2 photons δ. B.1 Gain en fonction du désaccord à un photon : ∆ La figure 5.3 présente les courbes de gain en fonction de ∆ pour des paramètres typiques (voir légende). On peut noter sur la figure 5.3 a) que le gain, aussi bien de la sonde que du conjugué, atteint un maximum pour un désaccord d'environ 900 MHz 2 . L'écart entre le gain G a et G b à ce point, est proche de 1, comme dans le cas de l'amplificateur idéal décrit au chapitre 3. Comme nous l'avons déjà expliqué, à plus grand désaccord, l'efficacité du processus de mélange à 4 ondes chute car l'interaction lumière matière s'éloigne de résonance [Lukin 00b]. A l'inverse, proche de résonance, le gain devrait augmenter. Comme on peut le constater sur la figure a), au lieu d'augmenter, le gain de la sonde chute vers zéro. L'absorption par les atomes non préparés dans l'état stationnaire que nous avons présentée au chapitre 4 est l'effet dominant dans ce cas. De plus, on peut voir que le gain du faisceau conjugué chute lui aussi vers zéro même si ce champ est loin de résonance. Comme nous l'avons déjà proposé, le fait que la sonde soit très fortement absorbée, revient à voir le milieu en première approximation comme un milieu absorbant pour la sonde décrit par un profil Doppler d'absorption suivi, d'un milieu de gain par mélange à 4 ondes. Dans ce cas, si le faisceau sonde est totalement absorbé, le processus de mélange à 4 ondes n'est pas injecté sur la voie sonde et le taux de génération de photons dans le mode du conjugué chute. Il est clair que cette hypothèse simplifie grandement la complexité des processus mis en jeu, c'est à dire la compétition, au cours de la propagation, entre le gain et l'absorption. Malgré cela, nous allons montrer qu'elle permet de décrire, de façon qualitative, les phénomènes observés. Sur la figure 5.3 b), on présente la différence entre le gain G a et G b (en rouge) et on la compare au spectre d'absorption du faisceau sonde en l'absence de champ pompe (noir). Le spectre d'absorption est simplement un profil élargi par Doppler pour une épaisseur optique de plusieurs milliers (donc très plat). Or, dans notre modèle d'un milieu absorbant suivi d'un milieu de gain, le spectre de G a en absence de champ pompe et le spectre de G a −G b sont égaux. On peut constater que la différence de gain a un profil très similaire au spectre d'absorption de la sonde seule, ce qui veut dire que lorsque la sonde est absorbée d'un certain facteur, généralement le gain du conjugué chute du même facteur. Autour de 500 MHz, il y a un écart de l'ordre de 20% entre les deux courbes ; le faisceau conjugué devient même plus intense que le faisceau sonde en sortie du milieu. Cela vient du fait que la sonde n'est pas entièrement absorbée dès l'entrée du milieu et qu'au début de sa propagation elle permet la génération d'un faisceau conjugué qui, lui, ne sera pas absorbé par la suite. Afin d'étudier le rôle de l'intensité du champ pompe, on présente sur la figure 5.4, une 2. Les désaccords ∆ sont toujours donnés par rapport à la transition 5S 1/2 , F = 3 → 5P 1/2 . La structure hyperfine du niveau excité n'est pas prise en compte. carte 2D, du gain G a . En coupe horizontale, on retrouve les spectres en fonction de ∆ que nous venons d'étudier. On peut voir sur la figure 5.4 a) que la position du maximum de gain se décale très légèrement vers les désaccord plus élevé à mesure que l'on augmente la pulsation de Rabi du champ pompe (le rayon du faisceau pompe dans la cellule est fixé et vaut 650µm, la puissance est donc directement proportionnelle à la pulsation de Rabi). La figure 5.4 b) présente les résultats issues des simulations numériques présentées au chapitre 4. On peut constater le bon accord avec les résultats expérimentaux. On notera cependant que les spectres théoriques sont plus larges que les spectres expérimentaux, notamment le gain est surestimé pour les désaccords supérieurs à 1.5 GHz. Il est important de rappeler que les simulations numériques que nous présentons ici ne contiennent aucun paramètre ajustable, et que les valeurs numériques utilisées sont identiques aux paramètres expérimentaux mesurés. B.2 Effet de l'épaisseur optique : α L La température est un paramètre de contrôle très important pour les expériences que nous présentons dans ce manuscrit. Son rôle est double, d'une part modifier l'épaisseur optique en modifiant la densité d'atomes, et d'autre part augmenter la largeur du profil d'absorption Doppler en élargissant la distribution de vitesse. Cependant, dans la gamme de température explorée (90 • C à 140 • C), le second effet est négligeable (de l'ordre de 5%). Par contre la densité atomique (et donc l'épaisseur optique) est modifiée d'un facteur 20 sur la même gamme de température. Dans la suite, on parlera donc de l'épaisseur optique ou de le température comme du même paramètre. Sur la figure 5.5 a), on peut voir qu'il existe une plage de températures relativement étroite pour laquelle, le gain devient très important. Cette plage se situe (pour une cellule de 5 cm) autour de 115 • C, ce qui correspond à une épaisseur optique de l'ordre de 6000. Au dela, on peut voir que l'efficacité chute brusquement. Cela s'explique par les phénomènes d'auto-focalisation qui apparaissent à ces températures (voir chapitre 2). En dessous de cette plage, l'épaisseur optique est trop faible (trop peu d'atomes en interaction) pour observer l'amplification du champ sonde avec les paramètres utilisés. La figure b) donne la position (désaccord à 1 photon) du maximum de gain en fonction de la température. On voit que dans la plage où l'amplification est grande, le gain est maximum autour de 900 MHz. Dans la suite on se placera donc autour de cette valeur de gain entre 110 • C et 120 • C. très importants (supérieur à 50) peuvent ainsi être atteints pour des désaccords légèrement négatifs. Dans ces régimes le gain sur le faisceau conjugué devient supérieur au gain sur le faisceau sonde. On le vérifiera dans la section suivante, mais il semble clair que ce régime n'est pas le plus favorable à la génération d'un fort taux de corrélation quantiques. En effet, il parait préférable de travailler dans un régime, où l'intensité de la sonde et du conjugué sont égales, afin de maximiser le taux de de "photons corrélés" détectables. Sur la figure 5.6 b), nous avons tracé la position du maximum de gain en fonction de δ. On peut noter que le désaccord à un photon qui maximise la gain augmente avec δ, comme nous pouvons le vérifier numériquement à l'aide de notre modèle. C Corrélations quantiques à 795 nm L'étude du gain dans les expériences de mélange à 4 ondes, nous a permis de caractériser le milieu atomique utilisé. Nous présentons maintenant les mesures de corrélations quantiques en variables continues obtenues dans cette configuration. Ce travail constitue le coeur des résultats expérimentaux présentés dans ce manuscrit. Il s'agit d'une étude approfondie des paramètres influant sur le taux de corrélations quantiques observées. Cette étude a été réalisée avec les photodiodes de série du montage amplificateur Thorlabs PDB-150, décrites en détail au chapitre 2. Ces photodiodes ont une efficacité quantique de 85% à 795 nm. Si pour une étude qualitative de l'effet des différents paramètres, l'efficacité quantique des photodiodes n'est pas crucial, elle le devient lorsque l'on souhaite mesurer des forts taux de corrélations. Nous présenterons donc, dans un deuxième temps, les résultats que nous avons obtenus après changement des photodiodes et optimisation de la photodétection. Enfin le régime de génération de corrélations sans gain sera étudié expérimentalement. C.1 Mesures des corrélations quantiques Comme nous l'avons présenté au chapitre 2, les corrélations quantiques sont mesurées à l'aide de deux photodiodes et d'une détection balancée. Dans un premier temps, nous avons fait varier la puissance incidente du faisceau sonde afin de vérifier la linéarité de la réponse. Les résultats obtenus sont présentés sur la figure 5. 7. Le bruit quantique standard est mesuré pour différentes puissances incidentes sur les photodiodes (courbe noire) et il est comparé au bruit de la différence d'intensité entre les faisceaux sonde et conjugué (généré par mélange à 4 ondes) pour différentes valeurs de puissance optique en sortie du milieu. Ces deux séries de données sont décrites à l'aide d'un ajustement linéaire dont le rapport entre les deux pentes permet de déterminer le taux de compression sous la limite quantique standard. Sur la figure 5.7, on observe une réduction du bruit sur la différence d'intensité de −5.5 dB par rapport à la limite quantique standard. On peut bien sûr évaluer le taux de compression à l'aide d'une seule valeur de puissance incidente mais cette méthode nous permet d'augmenter la précision. C.2 Effet du désaccord à deux photons : δ De la même manière que nous l'avons étudié pour le gain, nous allons nous intéresser à l'effet du désaccord à deux photons sur les corrélations. La figure 5.8 présente les résultats expérimentaux que nous avons obtenus comparés aux simulations numériques dans le modèle qui décrit un milieu constitué "d'atomes chauds". La figure 5.8 a) donne le gain pour le champ sonde en fonction de δ, tandis que la figure 5.8 b) présente le bruit de la différence d'intensité à 2 MHz par rapport à la limite quantique standard en fonction de δ. faibles. On peut voir sur la figure 5.8 b) que le maximum de corrélations est obtenu pour δ 5 MHz, mais que la courbe est très plate entre 2 et 20 MHz. Le modèle théorique prévoit aussi, un excès de bruit pour des désaccords inférieur à δ = −10 MHz et une zone de δ qui permet la génération de corrélation sous la limite quantique standard. Même si l'accord quantitatif n'est pas parfait 3 , le modèle permet de déterminer la gamme dans laquelle, il est souhaitable de travailler et le niveau de corrélations atteignable. Les données expérimentales présentées sont corrigées du bruit électronique, et les données numériques sont corrigées par l'efficacité quantique des photodiodes utilisées (85%) Dans ce cas les pertes sur la propagation qui sont de l'ordre de 3% sont négligées par rapport à l'efficacité quantique. C.3 Effet du désaccord à un photon : ∆ La figure 5.9 présente l'effet du désaccord à un photon ∆. Sur la figure 5.9 a), nous comparons les résultats expérimentaux avec deux calculs différents. Dans un premier cas (pointillé rouge) nous ne prenons pas en compte l'absorption par les atomes non préparés dans l'état stationnaire. Dans ce cas, on voit que le gain augmente vers la résonance, ce qui n'est pas le cas expérimentalement. Dans une seconde approche (en rouge), nous avons pris en compte l'effet de l'absorption. On voit dans ce cas que l'accord avec les résultats expérimentaux est bien meilleur. Il reste cependant, un écart pour des désaccords au delà de 1.5 GHz. Cet écart peut s'expliquer par une prise en compte incomplète du rôle de la transition 5S 1/2 , F = 2 → 5P 1/2 pour le faisceau sonde. En effet au delà de ∆ = 1.5 GHz, le faisceau sonde est plus proche de la résonance pour la transition 5S 1/2 , F = 2 → 5P 1/2 que pour la transition 5S 1/2 , F = 3 → 5P 1/2 . Or dans le modèle que nous avons développé, seule la transition 5S 1/2 , F = 3 → 5P 1/2 est prise en compte pour le faisceau sonde. Ainsi un effet qui était négligeable pour ∆ < 1.5 GHz, cesse de l'être et notre modèle microscopique ne permet plus de décrire correctement les processus mis en jeu. Sur la figure 5.9 b), on présente l'effet de ∆ sur les corrélations générées. On peut noter que le maximum de corrélations est atteint pour des valeurs de ∆ légèrement plus élevées que le maximum de gain. En effet, comme la valeur du gain dépend à la fois de l'amplification et de l'absorption, alors le maximum est un équilibre entre les deux et il se situe dans une zone où l'on observe de l'absorption. Comme les pertes vont détruire les corrélations quantiques entre nos deux faisceaux, il est normal de trouver l'optimum des corrélations décalés vers une zone où l'absorption est plus faible, c'est à dire vers ∆ plus élevé. Par contre pour des valeurs de ∆ encore plus grandes, le gain devient faible et le taux de photons corrélés générés diminuent. L'optimum est donc à nouveau un compromis entre l'absorption et le gain. Sa position sera en général (cela dépend des différents paramètres) autour de 1 GHz. On peut constater que le modèle théorique simplifié que nous présentons, consistant à en compte l'absorption (courbe rouge), uniquement pour la normalisation des spectres de bruit par le bruit quantique standard, permet de rendre compte de ces différents effets. Comme pour le gain, nous pouvons noter que ce modèle surestime la valeur des corrélations pour des désaccord autour de 2 GHz. C.4 Effet de la pulsation de Rabi : Ω R La puissance du faisceau laser de pompe est limitée par la puissance délivrée par la source laser. On pourrait penser modifier l'intensité du laser de pompe et donc la pulsation de Rabi, en le focalisant plus au sein de la cellule. Cette voie n'a pas été explorée car une réduction de la taille du faisceau pompe réduirait aussi le taux de préparation des atomes et augmenterait le taux de décohérence γ, ce que l'on ne souhaite pas a priori. On a donc étudié, l'effet de la puissance du laser de pompe pour une focalisation donnée (waist de 650 microns). La figure 5.10 présente les résultats de cette étude. Sur la figure 5.10 a), on voit que la valeur du gain augmente avec la puissance de pompe, comme le prédit le modèle théorique. Sur la figure 5.10 b), on peut voir que les corrélations augmentent aussi avec la puissance de pompe. On notera qu'au delà d'un certain seuil (environ 600 mW), le taux de compression ne varie que faiblement avec la puissance de pompe. A cette température, pour des puissances supérieures à 1.5W, d'autres effets non-linéaires indésirables (autofocalisation par exemple) viennent parasiter le processus de mélange à 4 ondes et fait diminuer drastiquement les corrélations. Ainsi, on travaillera généralement autour d'une puissance de 1W de pompe. numériques présentées sur la figure 5.11 b) ne prennent pas en compte les effets parasites (tel que l'auto-focalisation par exemple), on observe aussi sur cette figure, pour des densité élevées, un maximum vers 100 mW puis une diminution des corrélations. Ainsi, on peut faire l'hypothèse que l'excès de bruit a deux origines physiques distinctes : d'une part, un effet qui n'est pas pris en compte par notre modèle et qui correspond aux effets d'autofocalisation que l'on a pu observer expérimentalement. Et d'autre part, un effet que l'on observe dans notre modèle et qui est donc liée à la structure microscopique du système en double lambda d'autre part, mais nous ne connaissons pas l'origine physique de ce maximum. A l'aide de cette étude, on peut conclure qu'il existe une température optimale (autour de 115 • C pour notre cellule de 1.25 cm de long) pour la génération de faisceaux corrélés par mélange à 4 ondes dans une vapeur atomique. C.6 Effet d'un champ magnétique transverse Dans la configuration expérimentale que nous avons décrite, le champ magnétique n'est pas contrôlé : le champ magnétique terrestre, non écranté, affecte les niveaux atomiques. Afin d'étudier son rôle, nous avons réalisé des expériences en ajoutant un champ magnétique au niveau de la cellule. Notre modèle théorique, décrit au chapitre 4, ne prend pas en compte les sous niveaux Zeeman, mais simplement un modèle simplifié à quatre niveaux. Nous allons donc présenter les résultats expérimentaux obtenus, sans rentrer dans leur analyse théorique qui dépasse le cadre de ce travail de thèse. Le travail que nous avons réalisé ici est une étude préliminaire de l'effet d'un champ magnétique externe. Nous rendons compte des résultats uniquement dans le cas d'un champ appliqué de manière transverse par rapport à l'axe propagation des lasers. En effet, il serait naturel d'appliquer un champ longitudinal pour voir l'effet de la levée de dégénérescence des sous niveaux Zeeman, mais cette situation s'avère difficile expérimentalement. En appliquant un champ longitudinal, on observe une fuite importante du faisceau pompe à travers le cube de sortie (qui traduit une rotation de la polarisation de la pompe), de telle sorte que le rapport signal à bruit sur les intensités détectées des faisceaux sonde et conjugué se détériore très fortement. Ainsi, nous avons utilisé des bobines dans la configuration de Helmoltz, afin de générer un champ magnétique au centre de la cellule approximativement uniforme. Les bobines sont constituées de 50 tours de fils de cuivre sur des anneaux en plastique de diamètre central 5 cm. Avec le générateur de courant dont nous disposons nous pouvons atteindre un champ de 15 Gauss au centre de la cellule. Nous présentons sur la figure 5.12, l'effet du champ en fixant tous les autres paramètres (voir légende). Sur la figure 5.12 a), on peut constater que l'augmentation du champ magnétique fait initialement augmenter le gain sur les champs sonde et conjugué. Il est important de noter le croisement entre les deux séries de points de la figure 5.12 a). En effet, sans champ magnétique le gain sur la faisceau sonde est légèrement supérieur au gain sur le faisceau conjugué (G a > G b ) pour les paramètres choisis. Alors que, autour de 6 Gauss, les gains s'égalisent. Le gain sur le conjugué augmentant plus vite que celui sur la sonde pour des champs entre 6 Gauss et 10 Gauss, on a alors G a < G b . Bien que le régime ou G a G b semblerait être le plus favorable pour observer des corrélations, on constate sur la figure 5.12 b), qu'au delà de 4 Gauss, et sans modifier le désaccord à 2 photons δ, les corrélations se détériorent fortement et qu'au delà de 10 Gauss, nous n'observons plus de corrélations sous la limite quantique standard. Les autres paramètres étant fixés, l'ajout d'un champ magnétique supérieur à 10 Gauss, va détruire les corrélations. La plage sur laquelle l'effet du champ magnétique transverse est faible est relativement large (4 Gauss) par rapport au champ magnétique terrestre. Ainsi, dans la plupart des cas, il semble qu'il n'est pas nécessaire de faire une protection autour de la cellule pour l'isoler des champs magnétiques parasites. Nous avons réalisé de plus, une série de spectres en faisant varier δ pour différents champs magnétiques. La figure 5.13 présente les résultats obtenus. Sur la figure 5.13 a), on peut voir qu'appliquer un champ magnétique faible, décale le maximum de gain vers des valeurs plus grandes de δ. En effet le maximum de gain est autour de δ = −9 MHz pour un champ nul et atteint δ = 1 MHz pour un champ de 12 Gauss. On observe donc un décalage de l'ordre de 0.8 MHz par Gauss . On peut noter de plus, que le maximum diminue légèrement (10%) avec le champ sur la gamme étudié. Sur la figure 5.13 b), on a représenté S N − à 1 MHz en fonction de δ pour différentes valeurs de B. On peut voir, de façon similaire aux courbes de gain, que les spectres sont décalés vers les valeurs plus élevées de δ à mesure que l'on augmente le champ magnétique. Le désaccord pour lequel le bruit passe sous la limite quantique standard (tracée en pointillé), varie d'une valeur de δ = −5 MHz pour un champ nul, à δ = +5 MHz pour un champ de 12 Gauss. Le décalage est le même que précédemment, c'est à dire de l'ordre de 0.8 MHz par Gauss. On peut noter enfin, que l'effet d'un champ magnétique faible (entre 2 et 10 Gauss) élargi légèrement la gamme de désaccord δ permettant d'observer un haut niveau de corrélation (zone bleu sur la figure 5.13 b)). De plus, et c'est le résultat principal de cette étude, il est possible de compenser l'effet d'un champ magnétique transverse uniforme en décalant de 0.8 MHz par Gauss le désaccord à 2 photons appliqué. Ce résultat suggère donc qu'il n'y a pas de processus du type "piégeage cohérent de population" qui joue un rôle sur la production de corrélations dans ce type d'expérience. En effet, dans un tel cas, un champ magnétique transverse déstabiliserait fortement les états noirs du système en mélangeant les sous-niveaux Zeeman et par conséquent on observerait une diminution importante des corrélations [Berkeland 02]. On peut voir qu'il devient impossible de mesurer des corrélations sous la limite quantique standard pour un excès de bruit en entrée de 15dB. Par contre tant que l'excès de bruit reste faible (inférieur à 3dB), le niveaux de corrélations mesurées reste inchangé. On peut avancer l'hypothèse suivante pour comprendre cet effet. La valeur de compression maximale mesurée dans les conditions de cette expérience sont sous-estimées par rapport à la valeur réelle, du fait des pertes (importantes dans ce montage préliminaire) dans la chaine de détection. Ainsi la valeur mesurée est "saturée" par ces pertes et la dégradation de la valeur réelle (due à l'augmentation du bruit en entrée) n'affecte que très peu la valeur mesurée. Pour rendre compte de cet effet nous avons corrigé les données mesurées à l'aide d'un coefficient de pertes et ajusté ces données corrigées par une droite. Le coefficient de pertes qui permet le meilleur ajustemen linéaire est 25.7%, ce qui correspond à une compression maximale de 14dB sous la limite quantique standard (ce qui est probablement sur-évaluée). Par ailleurs, lorsque le bruit dépasse la limite quantique standard, on observe une forte dégradation des corrélations avec l'augmentation du bruit en entrée. L'augmentation n'étant alors plus linéaire, il pourrait être intéressant dans une ouverture de ce travail de thèse d'étudier théoriquement plus en détail ce phénomène. C.8 Optimisation Nous avons maintenant présenté l'effet de l'ensemble des paramètres que nous pouvons contrôler lors des expériences de mélange à 4 ondes sur la générations de corrélations quantiques. En se plaçant dans des conditions optimales et en choisissant des photodiodes d'efficacité quantique optimale, nous avons pu mesurer jusqu'à −9.2 dB de corrélations sous la limite quantique standard. Cette valeur est une valeur mesurée, uniquement corrigée du bruit électronique (qui ne tient pas compte des pertes liées à l'efficacité de détection). Le spectre en fonction de la fréquence d'analyse, c'est-à-dire la grandeur mesurée à l'analyseur de spectre, est présenté sur la figure 5. 15. Comme nous l'avons dit, la réduction du bruit sous la limite quantique standard qui est détectée vaut -9.2dB. Pour des taux de compression aussi important, même de faibles pertes lors de la détection vont réduire sensiblement la valeur détectée par rapport à la compression réelle. La figure 5.16 présente le taux de compression réel en prenant en compte les pertes de la chaine de détection pour le spectre présenté sur la figure 5. 15. Dans la gamme d'incertitude de l'efficacité de détection (90% ± 3%), on voit que les corrélations générées en sortie de cellule sont à des niveaux très importants. Même dans l'hypothèse où les pertes sont les plus faibles (η = 93%), la réduction du bruit est supérieur à -10 dB sous la limite quantique standard. Un des pistes qui restent à explorer sur ce système est donc l'amélioration du système de détection. Ainsi des corrélations supérieures à 90 % sont envisageables expérimentalement par mélange à 4 ondes dans une vapeur atomique. En conclusion cette étude détaillée de l'ensemble des paramètres nous a permis de trouver le point de fonctionnement optimal et d'atteindre des niveaux de corrélations les plus haut de la littérature, dans ce type de système. Cette expérience démontre clairement, une nouvelle fois [Boyer 07], l'intérêt du mélange à 4 ondes dans une vapeur atomique pour la génération d'état quantiques du champ à 2 modes. On obtient ainsi une source de lumière non-classique avec une efficacité comparables aux meilleures sources basées sur des milieux χ (2) [Eberle 10]. On peut noter de plus, qu'une telle source est naturellement bien adaptée à une interaction ultérieure avec un milieu atomique car elle est automatiquement proche de résonance sur la transition utilisée. D Mise en évidence du régime G a + G b < 1 Le régime que nous avons présenté théoriquement à la section F.2 du chapitre 4, qui consiste à observer des corrélations sans amplification (G a + G b < 1) a pu être mis en évidence expérimentalement pour la première fois au cours de cette thèse. Nous présentons ici les résultats obtenus lors d'expériences préliminaires visant a démontrer l'existence de ce nouveau régime. D.1 Etude du gain Dans un premier temps, nous allons étudier le gain sur le faisceau sonde et conjugué à l'aide des paramètres que nous avons trouvés dans les simulations numériques. Après avoir baissé la température à 90 • C, nous avons étudié le gain en fonction du désaccord à 2 photons. La figure 5.17 présente les résultats que nous avons obtenus dans cette situation. Sur la figure 5.17 a), on peut voir qu'autour de δ = −30 MHz, le régime G a + G b < 1 est atteint. On peut remarquer de plus que expérimentalement, on peut aussi obtenir dans ce régime G a G b . Sur la figure 5.17 b), nous présentons les simulations numériques dans les mêmes conditions. Même si l'accord entre les deux figures n'est pas parfait, on peut noter l'intérêt de ce modèle, qui nous a permis de mettre en évidence ce nouveau régime en utilisant directement les valeurs prédites théoriquement. D.2 "Lame séparatrice quantique" Nous allons maintenant démontrer que nous avons pu réaliser expérimentalement un outil qui serait l'équivalent d'un séparateur de faisceaux (G a + G b < 1) produisant des corrélations quantiques entre ses deux sorties. C'est ce que nous avons appelé au chapitre 4 la "lame séparatrice quantique". A l'entrée de notre dispositif, nous avons donc deux voies : le champ sonde d'une part et le vide d'autre part (dans le mode du conjugué). Dans un premier temps, nous devons vérifier qu'en sortie l'énergie totale dans les deux voies n'est pas supérieure à l'entrée. Cela pourrait être le cas, car de l'énergie est apporté dans le système par la voie de la pompe. La figure 5.18 a) donne les amplitudes normalisées (gains) G a et G b en entrée et en sortie du milieu. En entrée, comme nous l'avons dit le vide est injecté sur le mode du conjugué, ainsi G a + G b = 1 (on peut le voir sur les courbes noires qui correspondent à l'absence de champ pompe et donc d'interaction non-linéaire). En sortie du milieu, le gain G a vaut 0.62 et le gain G b 0.39. On a donc G a + G b très proche de 1 (1% d'écart). Aux incertitudes de mesures près, nous avons donc démontré qu'il n'y avait pas de gain d'énergie pour l'ensemble des faisceaux sonde et conjugué dans cette configuration. Sur la figure 5.18 b), nous présentons le spectre de bruit de la différence d'intensité, pour les deux champs sonde et conjugué en sortie du milieu, comparé au bruit quantique standard. Ainsi, nous pouvons voir que les deux modes en sortie du milieu possèdent des corrélations au delà de la limite quantique standard (environ 0.8dB sous cette limite). Le dispositif que nous présentons ici, se comporte donc bien comme un séparateur de faisceau pour les grandeurs classiques (gain) mais il va au delà car il génère des corrélations entre les deux voies de sortie. D.3 Perspectives Si nous avons démontré le fonctionnement en tant que lame séparatrice quantique du mélange à 4 ondes dans ce régime, nous n'avons pas fait une étude approfondie du phénomène. Par exemple, il pourrait être intéressant d'étudier ce qui se passe en injectant non pas le vide sur le mode du conjugué mais un état cohérent. Si dans cette configuration un tel outil permet de produire des corrélations quantiques entre les deux modes de sortie, il serait alors possible d'utiliser ce dispositif comme l'élément de base d'un interféromètre de Mach-Zehnder. E Conclusion du chapitre Dans ce chapitre nous avons présenté les résultats expérimentaux que nous avons obtenu sur une expérience de mélange à 4 ondes dans une vapeur atomique. Nous avons décrit le dispositif utilisé puis caractérisé le milieu atomique utilisé. Nous avons ensuite étudié en détail l'espace des paramètres qui influent sur ce processus. Au cours de cette étude, nous avons pu valider le modèle théorique que nous avons présenté au chapitre 4 en le comparant aux résultats expérimentaux. A l'aide de ce travail, nous avons pu trouver un point de fonctionnement optimal et démontrer la génération de -9.2dB de corrélations sous la limite quantique standard. Enfin, à l'aide des prévisions théoriques, nous avons mis en évidence un nouveau régime permettant la générations de faisceaux corrélés dans une vapeur atomique. Ce régime se caractérisant par G a + G b < 1, nous avons appelé le dispositif ainsi créé une "lame séparatrice quantique". CHAPITRE 6 Transparence électromagnétiquement induite à 422 nm . . 195 Comme nous l'avons vu au chapitre 4, les expériences de mélange à 4 ondes à 795 nm sur la raie D1 du rubidium 85, dans les conditions que nous avons présentées dans ce manuscrit, ne sont pas transposables sur la transition 5S 1/2 → 6P 1/2 (à 422 nm). D'autres régimes pourraient être envisagés, notamment en s'éloignant encore de la résonance pour éviter l'absorption du faisceau sonde (∆ > 4.5GHz). Dans une telle configuration, les puissances optiques nécessaires pour mesurer un gain supérieur à 1 sont très élevées (plus de 5 Watts). Nous ne disposons malheureusement pas d'une source laser à 422 nm produisant une telle puissance. Par contre, comme nous l'avons présenté au chapitre 2, nous pouvons réaliser le doublage de fréquence du laser titane saphir afin de générer jusqu'à 200 mW à 422 nm. De plus, l'équipe possède une diode laser en cavité étendue de la société Toptica à cette même longueur d'onde. Grâce à ces deux sources, nous avons pu réaliser les premières expériences de transparence électromagnétiquement induite sur la transition 5S 1/2 → 6P 1/2 du rubidium 85. Ce chapitre est dédié à la présentation de ces résultats. L'intérêt de la transparence électromagnétiquement induite (Electromagnetically Induced Transparency ou EIT) afin de réaliser des mémoires quantiques a été démontré dans les expériences de lumière lente [ Pour réaliser une expérience d'EIT, il est nécessaire de disposer de deux sources laser accordables à résonance avec les transitions atomiques considérées (voir figure 6.2). Dans le cas que nous présentons ici, il s'agit de la transition 5S 1/2 → 6P 1/2 du 85 Rb, dont les détails sont donnés à l'annexe C. Les deux niveaux hyperfins (F=2 et F=3) de l'état 5S 1/2 , ainsi qu'un des états excités 6P 1/2 sont utilisé pour former une configuration en Λ sur cette transition à 422nm. Nous utilisons deux sources différentes qui sont représentées sur la figure 6.1. Pour générer le champ de contrôle, il s'agit du laser titane saphir à 844 nm doublé (voir chapitre 2). Ce laser est asservi sur le pic de croisement des transitions atomiques du rubidium 5S 1/2 , F = 2 → 6P 1/2 , F = 2 et 6P 1/2 , F = 3 à l'aide d'un montage d'absorption saturée. Pour le champ sonde, nous avons utilisé une diode laser en cavité étendue (ECDL) DL-100 de la société Toptica 1 décrite en détail dans la thèse de Sébastien Rémoville [ [Fulton 95]. Aucune des références que nous avons pu trouver dans la littérature ne reporte l'observation du phénomène d'EIT sur la transition 5S 1/2 → 6P 1/2 du rubidium 85. C'est donc la première mise en évidence expérimentale de cet effet sur cette transition. A.1 Spectre de transmission Les 4 niveaux atomiques que nous allons prendre en compte pour expliquer les observations sont représentés sur la figure 6.2. A l'aide du laser sonde nous pouvons balayer les transitions 5S 1/2 , F = 2 → 6P 1/2 et 5S 1/2 , F = 3 → 6P 1/2 qui sont séparées de 3.036 GHz. Nous avons choisi d'asservir la fréquence du champ de contrôle à ∆ = +63.5 MHz de la transition 5S 1/2 , F = 2 → 6P 1/2 , F = 2, à l'aide du pic de croisement de niveaux du montage d'absorption saturée. Dans ces conditions, nous avons obtenus les spectres présentés sur la figure 6.3 2 . On peut distinguer sur la figure a), deux zones qui ont été notées i) et ii). Chacune de ces zones a pour forme générale, un profil d'absorption élargie par effet Doppler. Sur ces profils relativement large, on peut observer autour de δ = 0 MHz et δ = 3036 MHz, une variation rapide de la transmission du faisceau sonde. Le détail de ces deux zones est présenté sur les figures b) et c). Commençons par commenter la zone ii) décrite sur la figure 6.3 c). L'échelle horizontale de cette figure est décalée de 3036 MHz, ce qui signifie que δ = 0 correspond à la situation où le champ de contrôle et le champ sonde sont exactement à la même fréquence. L'élargissement inhomogène (effet Doppler) est à l'origine des deux séries de trois pics observées. En effet, il existe une classe de vitesse que l'on notera v qui va entrainer un désaccord kv = +63.5 MHz sur les faisceaux sonde et contrôle et une classe de vitesse que l'on notera −v qui va entrainer un désaccord −kv = −63.5 MHz. Ces désaccords sont utilisés dans les tableaux qui suivent pour décrire les différentes configurations. Nous donnons ainsi dans chaque cas, le schéma de niveaux équivalent et une description du processus. Notons que la configuration symétrique des deux désaccords n'est pas une condition nécessaire pour expliquer les phénomènes que nous allons détailler, mais qu'elle permet de 2. Notons que le choix de la valeur exacte du désaccord ∆ ne va que très faiblement influencer la forme des spectres observés dans une large gamme autour de ∆ = 0 (plusieurs centaines de MHz). En effet la largeur de la distribution Doppler est de l'ordre de 1 GHz à cette température, ce qui est largement supérieur à l'écart entre les deux niveaux excités (117 MHz). Pompe Sonde Figure 6.2 -Schéma de niveaux de la transition 5S 1/2 → 6P 1/2 . Les deux niveaux 5S 1/2 F = 2 et F = 3 sont les niveaux fondamentaux séparés de 3.036 GHz. Les deux niveaux 6P 1/2 F = 2 et F = 3 sont les niveaux excité séparés de 117 MHz. On appelle ∆ le désaccord du champ de contrôle par rapport à la transition 5S 1/2 , F = 2 → 6P 12 , F = 2. Le laser de contrôle est stabilisé sur le pic de croisement de niveaux de l'absorption saturée soit : ∆ = 117/2 MHz. δ est le désaccord à 2 photons entre le champ de contrôle et le champ sonde. Le taux de desexcitation du niveaux excité vers chacun des niveaux fondamentaux vaut Γ/2. Le taux de décohérence des deux niveaux hyperfins du fondamental vaut γ. Le faisceau de contrôle réalise le pompage optique de façon similaire à ce qui est décrit dans la situation précédente. On observe de même un pic de transmission noté (b) sur la figure 6.4. Bien que le niveau excité avec lequel interagit les deux laser est le même, il n'y a pas de phénomène d'EIT dans ce cas car les niveaux fondamentaux considérés sont aussi les mêmes. Il ne s'agit donc pas d'un système en Λ. Le faisceau de contrôle réalise le pompage optique de la majorité des atomes dans l'état 5S 1/2 , F = 3. Le niveau 5S 1/2 , F = 2 étant par conséquent moins peuplé, le faisceau sonde à résonance sur la transition F = 2 → F = 3 est moins fortement absorbé. On observe un pic de transmission noté (c) sur la figure 6.4. Sur ces figures le faisceau pompe ou faisceau de contrôle est représenté en bleu ciel et le faisceau sonde en bleu foncé. Les différents désaccords introduits par l'effet Doppler sont représenté en vert pour les atomes de vitesse v et en rouge pour les atomes de vitesse −v . Sur les schémas de niveaux équivalents, le déséquilibre de population entre les niveaux fondamentaux dans l'état stationnaire est représenté par la taille des disques noirs. Schéma de niveaux Schéma de niveaux équivalent Explication prenant en compte l'effet Doppler Le faisceau de contrôle réalise le pompage optique de la majorité des atomes dans l'état 5S 1/2 , F = 3. Le niveau 5S 1/2 , F = 3 étant par conséquent plus peuplé, le faisceau sonde à résonance sur la transition F = 3 → F = 2 est plus fortement absorbé. On observe le pic d'absorption noté (d). -Pour résumer, le profil complet de transmission est donc donné par trois phénomènes physiques distincts : -l'absorption linéaire élargie par effet Doppler par une vapeur atomique -la modification des populations par pompage optique qui va imposer des pics d'absorption ou de transmission selon la transition adressée par le champ sonde. -le phénomène d'EIT qui ajoute un pic de transmission dans une zone d'absorption lorsque les champs sonde et contrôle adressent le même niveau excité pour deux niveaux fondamentaux distincts. A.2 Etude de la fenêtre de transparence Depuis les travaux pionniers de [Feld 69] sur la réduction de la largeur de raie à l'aide d'un champ de contrôle, le rôle de l'effet Doppler dans les expériences d'EIT réalisées à l'aide d'une vapeur atomique, a été largement étudié, notamment par [Li 95, Vemuri 96a, Vemuri 96b, Vemuri 96c]. Plus récemment les travaux de [Li 04] ont porté sur la largeur de la fenêtre d'EIT en fonction du temps de passage des atomes dans le faisceaux sonde. Dans les conditions expérimentales que nous avons présentées, la largeur de la fenêtre B Conclusion du chapitre Dans ce chapitre, nous avons étudié expérimentalement le phénomène de transparence électromagnétiquement induite sur la transition 5S 1/2 → 6P 1/2 du rubidium 85. Bien que le processus d'EIT dans une vapeur atomique de rubidium soit largement traité dans la littérature, nous n'avons trouvé aucune mention d'expériences entièrement réalisées à 422 nm, c'est à dire pour le champ de contrôle et le champ sonde. Nous présentons des spectres de transmission du faisceau sonde en présence et en absence de champ de contrôle. Les différents pics observés ont été interprétés, puis nous avons étudié spécifiquement le pic d'EIT et sa largeur en fonction de la puissance du champ de contrôle. On trouve un bon accord entre les valeurs mesurées expérimentalement et la littérature [Javan 02]. Conclusion Comment expliquer autrement le mystère incompréhensible de ses perpétuelles fluctuations ? Honoré de Balzac, Histoire des treize : la Duchesse de Langeais. Ce travail de thèse avait pour but initial de diversifier les sources d'états comprimés vers les longueur d'ondes visibles les plus courtes et notamment de développer une source proche de transition 5S 1/2 → 5P 1/2 avec les ions 88 Sr + à 422 nm. La réalisation des expériences à 795 nm sur la raie D1 du 85 Rb et l'exploration de l'espace des paramètres était donc initialement prévu comme la première étape de cette étude. Nous nous sommes vite rendu compte que, pour pouvoir espérer adresser une autre transition, il était indispensable de développer un modèle (qui n'existait pas dans la littérature) pour pouvoir trouver les paramètres adéquats accessibles expérimentalement. Ce développement théorique nous a permis de comprendre les expériences réalisées à 795 nm, d'identifier un régime original, et de conclure négativement sur la faisabilité de cette expérience à 422 nm. Approche théorique Pour donner une compréhension simple du processus de mélange à 4 ondes, nous avons développé une approche phénoménologique de l'amplification paramétrique dans un milieu de susceptibilité non-linéaire χ (3) dans deux configurations : l'amplification sensible et insensible à la phase. Pour le premier cas, nous avons montré qu'il était possible d'amplifier ou de déamplifier un champ sonde et ainsi de générer des états comprimés sur une quadrature arbitrairement choisie. Pour le second, nous avons vérifié que de corrélations quantiques sous la limite quantique standard pouvaient être mises en évidence entre un champ sonde et son conjugué. Par la suite, nous avons développé un modèle microscopique de l'interaction lumièrematière, basé sur des atomes immobiles ayant une structure de niveaux d'énergie en double-Λ, afin de donner un contenu physique au coefficient χ (3) dans le cas de l'amplificateur insensible à la phase. A l'aide de ce modèle nous avons notamment pu prévoir, pour la première fois, la génération de faisceaux intriqués intenses à 795 nm dans un milieu constitué d'atomes de 85 Rb froids. Dans un second temps, nous avons étendu ce modèle microscopique au cas d'une vapeur atomique "chaude" en démontrant que les résultats obtenus pour les atomes immobiles pouvaient être appliqués en prenant simplement en compte la densité d'atome ainsi que le taux de décohérence des niveaux fondamentaux que l'on observe dans des vapeurs atomiques. Nous avons alors étudié théoriquement la possibilité de générer des faisceaux corrélés à 422 nm sur la transition 5S 1/2 → 6P 1/2 du 85 Rb et nous avons montré qu'il n'était pas possible de dégager des conditions réalistes expérimentalement similaires à celles de la transition 5S 1/2 → 5P 1/2 . Corrélations quantiques à 795 nm Mon travail de thèse s'est concentré autour de l'étude de la génération de corrélations quantiques sur la raie D1 du 85 Rb, bien que la plupart des résultats que nous avons obtenus sont généralisables à d'autres transitions de cet atome (la ligne D2 en particulier) ou à d'autres espèces atomiques. Afin d'interpréter les expériences de mélange à 4 ondes dans une vapeur atomique et pour prendre en compte le temps d'interaction fini des atomes avec le faisceau pompe dans ce cas, nous avons étudié l'établissement du régime stationnaire et nous avons démontré qu'une part significative des atomes pouvaient ne pas avoir atteint cet état lorsqu'ils interagissaient avec le faisceau sonde, ce que nous avons observé expérimentalement. D'autre part, à l'aide d'une étude expérimentale systématique de l'espace des paramètres pertinents, nous avons pu optimiser les corrélations quantiques observées entre les faisceaux sonde et conjugué dans l'expérience de mélange à 4 ondes que nous avons mise en place durant ce travail de thèse. Nous avons notamment mis en évidence le rôle essentiel joué par un éventuel excès de bruit technique sur le faisceau sonde avant le processus d'amplification et trouvé une configuration expérimentale qui permettait de minimiser ce bruit. Ceci fournit des renseignements précieux sur le type de sources laser à utiliser et en particulier sur l'impossibilité d'employer une diode laser (nécessairement trop bruitée) pour générer le faisceau sonde. Nous avons mesuré à une fréquence d'analyse de 1 MHz, jusqu'à 9.2 dB de réduction du bruit sous la limite quantique standard sur la différence d'intensité entre ces deux faisceaux intenses. Cette valeur fait partie des plus hautes actuellement répertoriées dans la littérature pour la génération de corrélations quantiques. Lame séparatrice quantique A l'aide de notre modèle microscopique, nous avons pu, de plus, mettre en évidence un nouveau régime qui permet la production de corrélations Conclusion 215 quantiques entre les faisceaux sonde et conjugué sans augmentation du nombre total de photons. Nous présentons dans ce manuscrit la première observation expérimentale de ce phénomène. Ainsi, pour un faisceau sonde incident, nous avons obtenu deux faisceaux présentant jusqu'à 1 dB de corrélations sous la limite quantique standard et dont l'intensité totale était inférieure à l'intensité du champ incident. De par sa ressemblance avec le comportement d'une lame séparatrice, nous avons appelé ce nouveau régime : "lame séparatrice quantique". Perspectives La réalisation d'une source de lumière non-classique à 422 nm résonante avec la transition 5S 1/2 → 5P 1/2 du 88 Sr + reste une question ouverte. Si nous avons montré que les expériences sur la raie D1 du 85 Rb n'étaient pas transposable à l'identique sur la raie 5S 1/2 → 6P 1/2 , de nombreuses pistes restent à explorer, notamment l'étude du modèle microscopique dans le cas de l'amplification sensible à la phase reste à faire. On peut imaginer que ce processus sensible à la phase soit alors plus favorable à 422 nm qu'à 795 nm car le processus insensible à la phase étant très faible dans le bleu, il ne perturbera pas le phénomène, ce qui est actuellement un problème de ce genre d'expériences dans l'infrarouge. C'est dans ce cadre que nous avons réalisé des expériences préliminaires sur la transition 5S 1/2 → 6P 1/2 du 85 Rb et notamment nous avons observé pour la première fois le phénomène la transparence électromagnétiquement sur cette transition. Une autre voie à explorer (qui nécessite l'emploi d'un second laser de pompe) consiste à utiliser les deux niveaux excités 5P 1/2 et 6P 1/2 du 85 Rb afin de générer des corrélations quantiques entre deux faisceaux laser de différentes couleurs. Enfin, nous pouvons dégager trois points supplémentaires qui mériteraient d'être approfondis dans des travaux ultérieurs. Premièrement, il pourrait être intéressant de prendre en compte de façon plus complète le profil transverse du faisceau pompe dans l'étude des phénomènes de décohérence en résolvant les équations d'évolutions des atomes sans faire l'hypothèse d'avoir atteint un état stationnaire. En effet, en simulant la trajectoire des atomes dans les faisceaux pompe et sonde, on peut connaitre l'état de chaque atome lorsqu'il interagit avec le faisceau sonde et ainsi rendre compte plus fidèlement des effets d'absorption résiduelle. D'autre part, la mesure expérimentale de très fort taux d'intrication reste un problème ouvert. En effet, contrairement à ce que prédit notre modèle, les niveaux d'anti-corrélations de phase mesurés et reportés dans littérature sont généralement bien moins importants que sur les corrélations d'intensité (et cela pas uniquement dans les expériences de mélange à 4 ondes). La mesure des anti-corrélations de phase nécessite l'utilisation d'un oscillateur local et d'un montage de détection homodyne, on peut donc se demander si les observations expérimentales ne sont pas affectées par une erreur systématique. Une piste serait alors l'amélioration de ces techniques expérimentales afin de mesurer des niveaux comparables sur ces deux quadratures. Enfin, contrairement aux expériences de génération d'états non-classiques utilisant des ca-vités, le mélange à 4 ondes dans une vapeur atomique est une technique intrinsèquement multimode. Il a déjà été démontré qu'il était possible de générer des images corrélés quantiquement par le processus d'amplification insensible à la phase. Par ailleurs, par le processus de l'amplificateur sensible à la phase il est vraisemblablement possible de réaliser l'amplification d'images quantiques, et donc de produire des états comprimés multimodes. [D 1 ] = 1 2τ                 Γ Γ 2 + 4∆ 2 + 2Ω 2 + 8∆ω 0 + 4ω 2 0 0 iΓΩ(Γ + 2i(∆ + ω 0 )) 0 0 0 0 −iγΩ(Γ − 2i(∆ + ω 0 )) −iΓΩ(Γ − 2i(∆ + ω 0 )) 0 ΓΩ 2 0 0 iγΩ(Γ + 2i(∆ + ω 0 )) 0 ΓΩ 2 + 2γ Γ 2 + 4∆ 2 + Ω 2 + 8∆ω 0 + 4ω 2 36.13 × 10 6 s −1 = 2π 5.75 MHz Table 2 -Principales grandeurs associées à la transition optique D1 du 85 Rb (5S 1/2 → 5P 1/2 ). 0                 [D 2 ] = 1 2τ                 0 0 0 −iγ(Γ − 2i∆)Ω 0 Γ Γ 2 + 4∆ 2 + 2Ω 2 iΓ(Γ + 2i∆)Ω 0 0 −iΓ(Γ − 2i∆)Ω ΓΩ 2 0 iγ(Γ + 2i∆)Ω 0 0 ΓΩ 2 + 2γ Γ 2 + 4∆ 2 + Ω 2                (12 De même, nous donnons les grandeurs associés à la transition 5S 1/2 → 6P 1/2 du 85 Rb. Ces données sont reprises sur le schéma de niveau simplifié présenté sur la figure 6. Table 3 -Principales grandeurs associées à la transition optique 5S 1/2 → 6P 1/2 du 85 Rb. On peut alors calculer un certain nombre de grandeurs que nous avons utilisé tout au long de ce manuscrit. Dans les tableaux qui suivent nous introduisons P, la puissance du laser de pompe (en W) et R son rayon a 1/e 2 (en m). 222 Annexes Fréquence de Rabi 0.59 P R 2 MHz Moment dipolaire de la transition au carré 6.41×10 −58 SI Section efficace de la transition 1×10 −9 cm 2 Table 4 -Principales grandeurs associées à la transition optique 5S 1/2 → 5P 1/2 du 85 Rb. Fréquence de Rabi 0.0467 P R 2 MHz Moment dipolaire de la transition au carré 3.99×10 −60 SI Section efficace de la transition 2.83×10 −10 cm 2 Table 5 -Principales grandeurs associées à la transition optique 5S 1/2 → 6P 1/2 du 85 Rb. Dans ce manuscrit nous avons, à de nombreuses reprises, utilisé un modèle atomique simplifié en double-Λ pour décrire l'interaction des lasers avec le 85 Rb. Dans cette annexe nous allons voir pourquoi ce modèle est justifié en première approximation pour des polarisations linéaires sur les faisceaux pompe et sonde. Dans un premier temps, nous rappelons la définition des différents moments cinétiques et des couplages responsables de la levée de dégénérescence des niveaux d'énergie pour des atomes de 85 Rb. Par la suite, nous établirons la matrice de passage entre la base des états propres des opérateurs associés aux polarisations circulaires et ceux associé aux polarisations linéaires. Enfin, nous utiliserons cette matrice de passage sur les matrice de couplage afin de voir comment elles s'écrivent dans la nouvelle base associée aux polarisations linéaires. D.1 Moments cinétiques La transition 5S 1/2 → 5P 1/2 du 85 Rb comprend 24 sous-niveaux Zeeman repartis entre quatre niveaux hyperfins. On définit les moments cinétiques suivants : -L est le moment cinétique orbital. -Ŝ est le moment cinétique de spin. -Ĵ =L +Ŝ est le moment cinétique global lorsque l'on prend en compte le couplage spin-ortbite (couplageL.Ŝ). Ce terme fait apparaître la structure fine. -Î est le moment cinétique du noyau. -F =Ĵ +Î est le moment cinétique global lorsque l'on prend en compte le couplagê I.Ŝ. Ce terme fait apparaître la structure hyperfine. D.2 Etats propres Les niveaux hyperfins |F sont les états propres de l'opérateurF 2 associés à la valeur propre F. Les sous-niveaux Zeeman |m F sont les 2F +1 états propres de l'une des composantes d'un opérateur moment cinétique que l'on va appelerF z associés à la valeur propre m F . Ces états propres définissent une base de l'espace de définition deF z " que l'on notera B (2F+1) z . On peut définir les opérateursF + etF − par leur action sur les vecteurs de cette base :F + |F, m F = (F(F + 1) − m F (m F + 1) |F, m F + 1 , F − |F, m F = (F(F + 1) − m F (m F − 1) |F, m F − 1 .(14a) On définit alors un opérateurF V qui est la superposition linéaire des deux opérateursF + etF − :F V =F + +F − 2 .(15) 224 Annexes Les états |F, m F ne sont pas des états propres deF V . On notera F V2 la matrice 5 × 5 de l'opérateurF V pour F = 2 sur la base B (5) z et F V3 la matrice 7 × 7 de l'opérateurF V pour F = 3 sur la base B (7) z . On obtient ainsi aisément : F V2 =                                                        ,(16a)et F V3 =                                                                                                .(16b) On peut alors diagonaliser ces matrices afin d'obtenir la matrice de passage de la base B (2F+1) z à la base B (2F+1) V qui sera la base propre deF V . Les matrices de passage Q 2 et Q 3 sont composées des vecteurs propres deF V écrits en colonne : Q 2 =                       1 1 −1 −1 1 −2 2 1 −1 0 √ 6 √ 6 0 0 − 2 3 −2 2 −1 1 0 1 1 1 1 1                       ,(17a)et Q 3 =                                            0 1 1 1 1 1 1 1                                            .(17b) D.3 Matrices de couplage L'opérateur moment dipolaireD peut se décomposer sur ses différentes composanteŝ D x ,D y ,D z . On peut définir les opérateursD + ,D − , respectivement associés à des photons de polarisation σ + et σ + par : D + =D x + iD y , etD − =D x − iD y .(18) Le théorème de Wigner-Eckart permet d'écrire en fonction de l'élément de matrice réduit F||D||F les éléments de la matrice de couplage pour les opérateursD + ,D − : F, m|D ± |F , m = F , m ; 1, ±1 F||D||F où F , m ; 1, ±1 est le coefficient de Clebsch-Gordan associé à la transition de F, m → F , m par un photon σ + ou σ + . On écrit donc les quatre matrices de couplage M σ + i j , pour les photons polarisés σ + , correspondantes aux transitions F = i → F = j, avec i et j ∈ {2, 3} et les quatre matrices M σ − i j , pour les photons polarisés σ − : M σ + 22 =                        0 0 0 0 0 − 1 √ 3 0 0 0 0 0 − 1 √ 2 0 0 0 0 0 − 1 √ 2 0 0 0 0 0 − 1 √ 3 0                        et M σ − 22 =                        0 1 √ 3 0 0 0 0 0 1 √ 2 0 0 0 0 0 1 √ 2 0 0 0 0 0 1 √ 3 0 0 0 0 0                        ,(20a)M σ + 33 =                                                                        , M σ − 33 =                                                                        ,(20b)M σ + 23 =                                                                          , M σ − 23 =                                                                          (20c) 226 Annexes et M σ + 32 =                                                            , M σ − 32 =                                                            .(M H i j = M σ + i j − M σ − i j 2i et M V i j = M σ + i j + M σ − i j 2 .(21) On peut donc écrire la relation de passage d'une base à l'autre : N H i j (B (2F+1) V ) = Q −1 j M H i j (B (2F+1) z )Q i .(22) On obtient alors les matrices de couplage pour les polarisations H et V dans la base B (2F+1) V que l'on va noter N H i j : N H 22 =                        1 i √ 3 0 0 0 0 0 − 1 i √ 3 0 0 0 0 0 1 2i √ 3 0 0 0 0 0 − 1 2i √ 3 0 0 0 0 0 0                        et N V 22 =                          0 0 − 1 4 √ 3 0 0 0 0 0 1 4 √ 3 0 1 √ 3 0 0 0 − 1 2 √ 3 0 − 1 √ 3 0 0 1 2 √ 3 0 0 √ 3 4 − √ 3 4 0                          ,(23a)N H 33 =                                                                              , N V 33 =                                              1 √ 6 − 1 √ 6 0                                               ,(23b) Annexes 227 N H 23 =                                                            , N V 23 =                               0                                (23c) et N H 32 =                                                      , N V 32 =                                                                  .(23d) On note la base B (5) V sous la forme : B (5) V = {|A , |B , |C , |D , |E },(24a) . Que ce soit mes partenaires de courses à pied et de ski tout d'abord : Nicolas, Xavier et Alex, mes adversaires de Molky : Ludivine, Pauline, David et Wilfried ou mes acolytes du Shannon : Carole, Jean, Seb et Aurore. Je vous souhaite à tou-te-s une très bonne continuation. Je tiens à remercier également les nombreuses personnes avec qui j'ai pu collaborer ou simplement discuter durant ces trois années et qui ont rendu cette expérience très enrichissante : Patrick Lepert de l'atelier de mécanique ainsi que Alain Cangemi et Marc Apfel de l'atelier de mécanique et Alain Roger qui m'ont tous bien aidé lorsque j'en avais besoin. Yann Girard et Edouard Boulat, dont l'intérêt pour les conditions de travail des étudiants m'a beaucoup touché, ainsi qu'évidemment Lynda Silva, Anne Servouze et Joelle Mercier pour leur gentillesse et leur grand professionnalisme. De manière générale, un grand merci à l'ensemble des membres de MPQ pour la bonne ambiance qui règne dans le laboratoire. Un grand merci à Nicolas Treps (et ses chaussons d'escalade) pour ses photodiodes tout d'abord et pour avoir pris le temps de me conseiller avec Claude Fabre, Julien Laurat et Gaétan Messin sur mon choix de post-doc.Quelques lignes pour remercier Valérie P. d'avoir permis l'organisation des toutes ces longues randonnées (et même parfois en ronde) durant ma deuxième année de thèse ainsi champ et états quantiques de la lumière. . . . . . . . . . 23 B Quasi-probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 C Photodétection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 D Corrélations quantiques en variables continues. . . . . . . . . . . . . . . . 44 E Interaction lumière-matière. . . . . . . . . . . . . . . . . . . . . . . . . . . 46 Bouwmeester 97 , 97Gisin 02, Duan 10]. Dans cette section nous laissons de côté les variables discrètes pour nous intéresser au formalisme des variables dites "continues" [Braunstein 05]. A.1 Description classique du champ Les équations qui régissent la propagation d'une onde électromagnétique classique dans le vide sont les équations de Maxwell et s'écrivent : le champ électrique E(r, t) se propageant sur l'axe z et polarisé selon p, alors le champ s'écrit E(r, t) = E(z, t) p avec : E(z, t) = |E 0 | α e ikz e −iωt + α * e −ikz e iωt . (1.2) où α est un nombre complexe de module 1 et |E 0 | l'amplitude du champ E. On peut alors écrire cette expression en faisant apparaitre les quadratures du champ X et Y : E(z, t) = |E 0 | (X cos ωt + Y sin ωt) , (1.3) Figure 1 . 1 - 11Description d'un champ électromagnétique d'amplitude |E 0 | et de phase φ dans le repère de Fresnel. a) description classique. b) description quantique incluant les quadratureŝ X φ etŶ φ et la zone où l'écart par rapport à la valeur moyenne du champ est inférieure à l'écart quadratique moyen. Figure 1 . 12a) Etat vide et b) état cohérent de moyenne non nulle dans le repère de Fresnel. Les fluctuations sont données par un disque de rayon 1 autour de la valeur moyenne. La variance des quadraturesX θ etŶ θ vaut 1 quelque soit θ. Figure 1 . 14a) Fluctuations pour un état cohérent, b) pour un état comprimé (-7dB) en intensité et c) pour un état comprimé en phase (excès de bruit de +7dB en intensité). Les encarts montrent un agrandissement de ce signal à la même échelle pour les trois figures. Figure 1 . 5 - 15Espace des phases et champ électrique associé dans le cas a) d'un état cohérent, b) d'un état comprimé en intensité et c) d'un état comprimé en phase. Les fluctuations sont indiquées par une zone d'incertitude autour de la valeur moyenne dans l'espace des phases qui correspondent aux valeurs que peut prendre le champ électrique lors de différentes mesures. Figure 1 . 6 - 16Représentation de Wigner pour trois états du champs. De gauche à droite, a) un état cohérent, b) un état comprimé et c) un état nombre (n=2) [Scully 97]. Figure 1 . 8 - 18Photodétection en intensité : flux de photons arrivant sur une photodiode. Le photocourant i(t) est proportionnel au nombre de photons incidents par unité de temps Figure 1 . 9 - 19Schémas de détection homodyne. Sur la figure a) le vide est homodyné par le champ a, sur la figure b) le champâ est homodyné par l'oscillateur local. Figure 1 1Figure 1.10 -Puissance de bruit par rapport à la limite quantique standard détectée dans une détection homodyne pour un état comprimé. La courbe pointillée représente le bruit quantique standard (vide en entrée de la détection homodyne), les courbes rouges et noires sont le bruit sur les deux quadraturesX φ a etŶ φ a en fonction de la phase de l'oscillateur local. On notera que lorsque l'on a une réduction du bruit sous le bruit quantique standard (ici -5dB), on observe simultanément un excès de bruit sur la quadrature conjuguée (ici +11dB). Ce n'est donc pas un état minimal. Figure 1 . 11 -Figure 1 . 12 - 111112Modélisation des pertes dans une mesure d'optique quantique. L'ensemble des pertes P de la chaine de détection est remplacé par une lame séparatrice de transmission T = 1 − P et un détecteur d'efficacité quantique η = 1. Effet des pertes sur la détection d'un état comprimé en intensité de -3 dB (rouge), -5.2 dB (vert) et -10 dB (bleu) sous le bruit quantique standard et pour un état infiniment comprimé (noir). Figure 1 . 13 - 113Photodétection en intensité pour la mesure de corrélations en intensité : flux de photons arrivant sur une photodiode. Le photocourant i(t) est proportionnel au nombre de photons incidents par unité de temps. le signal mesuré est la différence des deux photocourants. D.1 Mesure de corrélations en variables continues Dans ce manuscrit, on s'intéresse aux corrélations entre deux faisceauxâ etb (voir figure 1.13). On va donc introduire les mesures de corrélations en variables continues et définir les états comprimés à deux modes du champ. En reprenant les notations précédentes pourâ et en notant le champb = |β| e iψ + δb, on a : générale on notera | ] les vecteurs colonnes, [ | les vecteurs lignes et [ ] les matrices. En linéarisant l'opérateurâ de façon à faire apparaitre la valeur moyenne que l'on note â = α et les fluctuations (opérateur δâ(t)), on peut écrire : second temps, nous décrirons les outils expérimentaux de l'optique non-linéaire et de l'optique quantique que nous avons utilisés pour ce travail. Figure 2 . 1 - 21Panorama historique de la production d'états comprimés depuis 1985. Les ronds bleus correspondent aux expériences de génération de seconde harmonique ou d'effet Kerr. Les croix rouges représentent les expériences de compression à un mode avec des OPO, tandis que les triangles verts indiquent la compression à deux mode avec des OPO ou du mélange à quatre ondes [Bachor 04]. Nos résultats expérimentaux sont inclus dans ce diagramme et sont identifiés par le losange vert. Fig. 8 . 8Noise levels corresponding to the rms photocurrent from the balanced homodyne detector are shown as a function of localoscillator phase LO-With the squeezing cavity blocked, the mean noise level indicated by the dashed line is obtained from the dotted trace. This noise level is primarily due to light noise and can be identified with the vacuum-fluctuation or shot-noise level. The photodetector amplifier noise is at -10 dB relative to the dashed line. The measured noise level increases +1.3 dB above and decreases -0.7 dB below the vacuum noise level as a function of LO when the four-wave mixing output from the cavity is matched to the local-oscillator mode. The radio frequency is centered at 594.6 MHz with a bandwidth of 300 kHz. The video averaging bandwidth is 100 Hz. A theoretical model predicts squeezing of ±2 dB (solid curve) for an ideal measurement. For the experimental detection efficiency and amplifier noise this ideal behavior is degraded to the dashed-dotted curve. The pump frequency detuning for both theory and experiment is A = -400, the nondegenerate detuning is = 60, and the cooperativity parameter is C = 1000, corresponding to the model predictions inFig. 4. The pump intensity is I/Is = 0.056. Figure 2 . 2 - 22Réalisation expérimentale de compression sous la limite quantique standard à l'aide de mélange à 4 ondes. En pointillés, l'ajustement des données expérimentales en prenant en compte les pertes, et en trait plein, la prédiction théorique dans cette situation. Données [Slusher 85b]. Figure 2 . 3 - 23Schéma de la zone d'interaction dans une expérience de mélange à 4 ondes dans une vapeur atomique. Un faisceau pompe interagit avec un faisceau sonde dans une cellule de rubidium pour générer un faisceau conjugué. crites dans [McCormick 07, McCormick 08, Boyer 08, Pooser 09, Akulshin 09, Camacho 09]. Figure 2 . 4 - 24Schéma d'une expérience de génération d'un état vide comprimé à l'aide d'un OPO sous le seuil. Un cristal non linéaire MgO :LiNbO 3 est pompé par un laser à 0.53 µm. L'oscillateur local est un faisceau intense à 1.06 µm. Données [Wu 87]. Figure 2 . 5 - 25Génération d'états comprimés par effet Kerr. Le champ entrant possède une phase moyenne φ 0 et un disque de fluctuations qui correspond à celui d'un état cohérent. La phase accumulée durant la propagation diffèrent selon l'intensité du champ dans le milieu Kerr. Pour le champ d'intensité I + δI la phase accumulée vaut φ + , réciproquement pour le champ d'intensité I − δI la phase accumulée vaut φ − . L'état final est un état comprimé. des états comprimés en une ellipse. Pour un milieu Kerr parfait, l'aire des fluctuations est conservée et l'état en sortie est un état comprimé (voir figure 2.5). Pour obtenir un effet important et donc une grande compression, il est nécessaire de disposer d'un milieu présentant une non-linéarité χ (3) importante. Différentes pistes ont été explorées parmi les milieux Kerr existants, que l'on peut classer en deux catégories : les milieux non résonants et les milieux résonants. Parmi les premiers, l'idée est de compenser une non-linéarité relativement faible par une grande longueur de propagation. Les fibres optiques ont par conséquent été utilisées comme milieu Kerr pour la production d'états comprimés [Levenson 85, Sizmann 99]. laser MBR est composé d'une cavité monobloc et d'un cristal de saphir dopé aux ions titane Ti Figure 2 . 6 - 26Cavité titane-saphir. Les miroirs de la cavité sont indiqués de M1 à M4. Le laser de pompe est indiqué en vert, et le trajet du laser dans la cavité est indiqué en rouge. Voir le texte pour les détails. Figure 2 . 7 - 27Fluorescence d'un cristal titane-saphir pompé à 532 nm. Données [Albers 86].large bande autour de la longueur d'onde d'émission. Comme le faisceau de pompe est injecté à travers le miroir M1, il joue un rôle de lentille pour ce faisceau. Ainsi sa position est doublement critique pour un bon fonctionnement du laser. Le miroir M3 est un miroir plan, traité R max , monté sur transducteur piézo-électrique (PZT) qui permet de régler finement la longueur de la cavité afin d'asservir le laser. Le miroir plan M4 est le coupleur de sortie. Nous disposons de deux coupleurs de sortie différents, adaptés à une puissance de pompe de 10 et 18 W.B.1.2 Réglage de la fréquence Comme nous l'avons mentionné précédemment, la courbe de gain d'un cristal de titane saphir est très large (figure 2.7). En effet, dans les lasers à cristaux dopés par des métaux de transition, il existe une forte interaction entre les niveaux électroniques et les modes de vibration du réseau cristallin [Schwendimann 88]. Cette interaction induit un élargissement homogène important et par conséquent une large bande passante de gain [Moulton 86, Pollnau 07]. Figure 2 . 9 - 29Spectre d'absorption saturée sur la raie 5S 1/2 , F = 2 → 6P 1/2 du 85 Rb. La courbe noire est le signal de transmission. La courbe rouge est le signal démodulé qui sert de signal d'erreur pour l'asservissement du laser. En encart, il s'agit d'un détail du signal d'erreur. Figure 2 . 10 - 210Cristal de PPKTP dans le four qui permet de contrôler la température. Figure 2 . 211a) Puissance de signal à la fréquence double en fonction de la puissance incidente. b) Rendement de conversion du doublage de fréquence. En rouge, les courbes d'ajustement respectivement quadratique a) et linéaire b). D'après la figure b), on peut voir que le rendement vaut 3,6%/W est de le mettre à zéro périodiquement grâce à un matériau "périodiquement retourné" (periodically poled). En effet, en renversant periodiquement le signe du coefficient nonlinéaire, on peut compenser la différence de vitesse de phase entre le champ pompe et la seconde harmonique. On appelle cette condition : la condition de quasi-accord de phase [Arie 97, Pasiskevicius 98, Pierrou 99]. Le cristal que nous avons utilisé est un cristal de PP-KTP (Periodically Poled Potassium Titanyl Phosphate) qui mesure 1 × 2 × 30 mm 3 et qui a été produit par la société Raicol Crystals. Afin d'assurer un bon rendement de conversion, il est nécessaire de bien maitriser l'indice du cristal de PP-KTP et donc sa température. Le cristal est donc placé dans un four présenté sur la figure 2. Figure 2 . 12 - 212. http ://www.brimrose.Efficacité de diffraction du MAO en fonction de la puissance RF a) et de la fréquence RF b). Figure 2 . 13 - 213Courbe de calibration du VCO ZX95-2150VW-S à 20 • C. Figure 2 . 14 -Figure 2 . 15 - 214215les différents montages nous mesurons le bruit d'un faisceau diffracté par le MAO piloté par trois sources différentes : un VCO suivi d'un amplificateur saturé,8. http ://www2.rohde-schwarz.Réponse de l'amplificateur RF. a) sans atténuation, c'est à dire en régime nonsaturé. b) atténué de 7dB en sortie, c'est à dire saturé pour une puissance d'entrée de 1dBm.un synthétiseur suivi d'un amplificateur non-saturé et un synthétiseur suivi d'un amplificateur saturé. Pour ce faire nous utilisons un faisceau de 10 mW et une détection balancée (paragraphe F.1.1) et nous mesurons le bruit à 1.2 MHz. Premièrement, nous pouvons constater sur la figure 2.15 que l'atténuation du signal RF en sortie de l'amplificateur permet de réduire d'environ 7 dB le bruit sur le faisceau diffracté par rapport au cas où le signal est atténué en entrée (saut de 7 dB entre la série de points bleus et de croix rouges). Cette atténuation très importante du bruit technique sur le faisceau diffracté, correspond aux 6.8 dB d'atténuation électronique sur la sortie de l'amplificateur. Nous nous placerons donc par la suite dans cette configuration. D'autre part, nous pouvons voir sur la figure 2.15, que le bruit sur le faisceau diffracté diminue à mesure que l'on se rapproche de la saturation de l'amplificateur. Le régime saturé, qui correspond au deux derniers points de la figure 2.15, est donc le plus favorable en terme de bruit technique ajouté. De façon complémentaire, on peut noter que l'ajout du filtre passe-bande permet une légère amélioration du bruit de 0.2 dB dans le régime saturé.Dans un second temps nous avons étudié le rôle du générateur RF sur le bruit technique du faisceau diffracté en comparant un VCO et un synthétiseur de signaux. On peut conclure grâce aux données de la figure 2.16 que l'utilisation d'un synthétiseur de signaux comme source RF est préférable à un VCO. En effet l'excès de bruit mesuré est de l'ordre de 1 dB pour le premier et de 4 dB pour le second à 3 mW.Nous avons observé que le fonctionnement en régime saturé de l'amplificateur atténué en sortie améliore de façon significative le bruit sur le faisceau diffracté. De plus pour la source RF, il est préférable d'utiliser un synthétiseur de signaux plutôt qu'un VCO. Nous utiliserons donc la configuration optimale, c'est-à-dire un synthétiseur saturant l'amplifi-Effet de la saturation de l'amplificateur sur le bruit du faisceau diffracté. Les croix rouges et noires donnent le cas d'un amplificateur atténué en sortie respectivement sans et avec un filtre passe haut. Les points bleus ont été réalisés pour l'amplificateur sans atténuation. On peut constater que l'écart entre les deux courbes est de -7 dB, ce qui correspond à l'atténuation de sortie de l'amplificateur. Figure 2 . 16 - 216Bruit sur le faisceau diffracté dans différentes configurations. En vert : le bruit quantique standard qui sert de référence. En noir, la source est le générateur de signaux et en rouge la source est un VCO. Notons que l'ajustement pour le bruit quantique est linéaire (vert), alors qu'il est quadratique pour les bruits techniques (rouge et noir). Figure 2 . 17 - 217Cellule de rubidium de 5 cm de long et dont les facettes sont non traitées et orientées à l'angle de Brewster. La cellule est dans un four placé sur un pied en laiton. Les câbles de la sonde de température PT-100 sont visibles sur la droite. Figure 2 . 18 - 218Spectre d'absorption de la raie 5S 1/2 → 6P 1/2 dans une cellule de 85 Rb à 100 • C (rouge) et 145 • C (noir) sur la raie . où T est la température en K et k B est la constante de Boltzmann. Les coefficients A = −9.138 et B = 4040K −1 sont reportés dans [Alcock 84, Alcock 01]. Figure 2 . 19 -Figure 2 . 2192(3) sous l'effet d'un champ électrique. La variation d'indice (lPourcentage d'atomes en phase vapeur par rapport à la densité prévue par le modèle thermodynamique. Ces points ont été obtenus par des mesures d'absorption sur la raie 5S 1/2 → 6P 1/2 du 85 Rb à 422 nm. En noir les points expérimentaux, en rouge l'ajustement linéaire. 20a) Densité atomique et b) épaisseur optique en fonction de la température pour la raie D1 du 85 Rb. En rouge les valeurs données par la thermodynamique, en noir en prenant en compte la correction pour la part d'atomes en phase vapeur. Figure 2 . 21 - 221Auto-focalisation par effet Kerr. Profils transverses du laser (pour une puissance de 1.5 W et un rayon de 650 microns au niveau du waist dans la cellule) pour une cellule chauffée à 100 • C a) et à 145 • C b). Sur les figures a) et b), l'échelle est indiquée par le trait blanc qui correspond à 1 mm. Sur la figure c) les points noirs et les ronds rouges correspondent respectivement au rayon du faisceau laser à 1/e 2 dans l'axe Y et X mesuré dans le plan du capteur de la caméra CCD à 1.3 m de la cellule, en fonction de la température. Figure 2 . 22 - 222Schéma de principe du bloc de photodiode PDB 150. Les deux entrées correspondent aux deux photodiodes. Deux voies basse-fréquence permettent de surveiller les signaux sur les deux entrées. Le gain de ces voies n'est pas réglable. Une voie haute fréquence permet de détecter le bruit sur la différence d'intensité des deux champs incidents. Le gain transimpédance (Ampli TI) est réglable. (http ://www.hamamatsu.com/) et des circuits d'amplification bas-bruit fabriqués au laboratoire. Figure 2 . 23 - 223Montage d'une photodiode à l'incidence de Brewster, avec rétro-réflexions des réflexions résiduelles. Figure 2 . 24 - 224Effet de la transmission du modeâ notée η sur la densité spectrale de bruit pour la différence d'intensité de deux modes pour différentes valeurs d'excès de bruit sur les modesâ etb (en rouge 0dB, en noir plein +3dB, en noir pointillés +10dB) dans le cas de faisceaux parfaitement corrélés. 'on a introduit S a et S b respectivement la densité spectrale de bruit sur le modeâ et sur le modeb et η qui correspond à la transmission du faisceauâ. Pour des corrélations parfaites, on peut faire l'hypothèse que S a = S b (cela revient, dans le cas de corrélations parfaites, à supposer que le bruit sur les deux champs pris individuellement sont égaux). Dans ce cas l'équation (2.20) se simplifie en : Figure 2 . 25 - 225Bruit quantique standard en fonction de la puissance et de la fréquence d'analyse . A. 1 1Différentes configurations permettant le processus mélange à 4 ondes L'utilisation d'un milieu atomique proche de résonance permet d'atteindre des nonlinéarités du troisième ordre importantes [Yariv 77, Abrams 78]. Les premières expériences d'amplification par mélange à 4 ondes utilisant la réponse non-linéaire d'un milieu atomique ont été réalisées en 1981 et sont décrites dans l'approximation de l'atome à deux niveaux dans [Boyd 81, Agarwal 86]. De nombreuses configurations sont envisageables [Kolchin 06, McCormick 07, Becerra 08, Akulshin 09, Agha 10]. De plus, nous l'avons vu au chapitre 2, le mélange à 4 ondes permet de générer des états non-classiques [Yuen 79, Kumar 84, Reid 85, Slusher 85a]. Plus récemment, de nombreuses descriptions théoriques se sont intéressées à des ensembles atomiques constitués d'atomes décrits par un modèle à 3 niveaux en simple-Λ et à 4 niveaux en double-Λ comme milieu pour les expériences de mélange à 4 ondes [Fleischhauer 95, Lukin 99, Zibrov 99, Lukin 00b]. La configuration décrite dans ce manuscrit au chapitre 4 est celle d'un milieu atomique à 4 niveaux en double-Λ. Dans cette configuration, deux processus vont nous intéresser particulièrement. L'un impliquera un champ intense appelé champ pompe et deux champs faibles appelés sonde et conjugué (voir figure 3.1). B. 1 1Amplification idéale insensible à la phase L'amplificateur linéaire idéal [Caves 82] est un modèle qui permet de décrire les processus d'amplification paramétrique de façon simple. Dans le cadre de l'optique quantique, il a été utilisé par exemple dans les thèses de [Bencheikh 96] et de [Gigan 04]. Dans ce modèle le signal en sortie est relié au signal d'entrée par des relations linéaires. Il n'y a donc ni de bruit classique ajouté, ni de pertes et la bande passante est considérée comme infinie. Après avoir présenté ce modèle, nous verrons comment il décrit les valeurs moyennes des intensités des champs sonde et conjugué. Dans un second temps, nous étudierons les fluctuations quantiques des faisceaux à la sortie d'un tel système. B.1.1 Valeurs moyennes Dans un processus d'amplification linéaire idéale à deux modes, on peut écrire les relations entrée-sortie des opérateursâ etb pour un gain G ≥ 1, sous la forme suivante [Scully 97] :â out = 'intéresse aux états à deux modes du champ qui ont été introduits au paragraphe D.1 du chapitre 1, c'est à dire aux corrélations entre les modeâ etb, et particulièrement aux corrélations d'intensité. A partir des équations (3.32), on peut dériver simplement l'expression de la valeur moyenne des opérateurs nombres en sortie. En entrée du milieu,on injecte un état cohérent |α sur le modeâ et le vide sur le modeb. On obtient donc [Gigan 04] : N a,out = G |α| 2 , (3.33a) N b,out = (G − 1) |α| 2 , (3.33b) avec |α| 2 = α|N a,in |α . On voit que pour un amplificateur idéal, on a en sortie G |α| 2 photons dans le modeâ et (G−1) |α| 2 dans le modeb. Ainsi les valeurs moyennes des opérateurs somme et différence de photons s'écrivent : Figure 3 . 2 - 32en entrée est un état cohérent. Le champb en entrée est le vide donc aussi un état cohérent. Les corrélations entre ces deux champs sont nulles. Les fonctions de Bruit de la différence d'intensité en fonction du gain pour deux modes d'un amplificateur parfait (Eq. 3.35). Figure 3 . 3 - 33Modèle phénoménologique pour décrire les expériences de mélange à 4 ondes dans une vapeur atomique. Les modesâ etb sont amplifiés dans des zones d'amplification linéaire idéale et le modeâ subit une absorption linéaire dans des zones de pertes. Le photocourant mesuré est proportionnel à la différence d'intensité entre les modesâ etb. par [McCormick 08] pour décrire les expériences de mélange à 4 ondes dans une vapeur atomique [McCormick 07]. Dans ces expériences la non-linéarité du troisième ordre est produite par une interaction quasi-résonnante avec une vapeur atomique. Comme nous le montrerons dans la suite, il suffit d'étudier l'effet des pertes uniquement sur le faisceau sonde.Les pertes que nous introduisons correspondent à des pertes linéaires au cours de la propagation du modeâ dans le milieu. Le milieu non-linéaire va donc être décrit comme une succession de N zones de gain (milieu amplificateur idéal avec un gain g > 1) et de N zones de pertes (lames séparatrices de transmission t < 1). Les équations d'entrée-sortie pour chaque zone de gain sont les équations (3.32) ; où le gain total G est remplacé par le gain d'une tranche g. On introduit le champ videĉ et la transmission d'une tranche t. Les équations entrée-sortie pour chaque zone d'absorption sont identiques à celle d'une lame séparatrice et s'écrivent alors : Figure 3 . 4 -Figure 3 . 5 - 3435Gain pour l'amplificateur idéal en présence de pertes. Le gain pour le modeâ est donné en noir. Le modeb étant vide en entrée, le gain (en rouge sur la figure) est défini comme l'intensité de sortie divisée par l'intensité d'entrée du modeâ. Le gain en absence de pertes pour le modeâ est donné en pointillé gris. Les figures a), b) et c) correspondent à des valeurs différentes de pertes, respectivement (1 − t) 2%, 15%, 30%. Comme les pertes totales varient légèrement en fonction du gain, on les a indiquées en fonction de l'intensité de sortie dans les encarts. Gain en l'absence de pertes Gain en l'absence de pertes Gain en l'Compression théorique de la différence d'intensité pour le modèle de l'amplificateur idéal en présence de pertes. Le taux de compression en l'absence de pertes est donné en noir et en présence de pertes en rouge. Les figures a), b) et c) correspondent aux valeurs différentes de pertes qui sont indiquées sur la figure 3.4, respectivement (1 − t) 2%, 15%, 30%. Figure 3 . 6 - 36Compression théorique pour le modèle de l'amplificateur idéal en présence de pertes. n . (3.42c) Dans ces relations nous n'avons pas écrit les termes de corrélations mixtes entre les champs (â oub) et le videĉ qui sont nuls. De plus les corrélations entre deux modesĉ correspondant à des tranches successives sont également nulles. Ainsi pour chaque tranche les seuls termes dépendant deĉ et non nuls sont δX c δX c n = 1. On peut résoudre ce système d'équations de récurrence afin de déterminer une relation d'entrée sortie pour les spectres en utilisant les relations (3.37).Les figures (3.4), (3.5) et (3.6) présentent les résultats d'un calcul numérique pour N = 100. Ce choix de N est dicté par un compromis entre le temps de calcul et la convergence du modèle de discrétisation du milieu. En effet les résultats des simulations semblent tendre vers une limite lorsque N augmente ; en pratique, cela signifie que le nombre de tranches influence peu le résultat pour N 80. On peut voir sur lafigure (3.4)que, en présence de pertes sur le modeâ, l'intensité de sortie sur le modeb diminue aussi mais moins rapidement que celle du modeâ. Dans certaines conditions, on a donc la même puissance en sortie sur les deux modes. De plus, on constate que l'effet des pertes n'est pas forcément négatif pour la mesure de la compression sur le bruit de la différence d'intensité. En effet, dans des situations très déséquilibrées d'intensité entre le modeâ etb, c'est à dire à très faible gain, des pertes faibles peuvent améliorer légèrement le taux de compression figure 3.5. Ceci peut se comprendre par le fait que dans cette situation, la part de photons n'étant pas issus du processus de mélange à 4 ondes (c'est-à-dire les photons incidents) est grand devant les photons générés. Ainsi en ajoutant des pertes sur le modeâ, à la fois des photons générés par mélange à 4 ondes (et donc parfaitement corrélés) mais surtout des photons incidents non amplifiés (et donc non corrélés) sont détruits. Pour des gains importants (G 1) et pour des transmissions faibles (t 0), l'effet des pertes devient négatif et le bruit sur la différence augmente. est ainsi sensible à la phase. La figure 3.7 a) représente le gain en fonction de θ et montre que l'on peut réaliser une amplification G > 1 ou une déamplification G < 1 selon la valeur de la phase θ. Pour avoir un gain compris en 0 et 10, nous avons choisi pour les figures 3.7, une valeur de G = 3. Figure 3. 7 - 7Processus sensible à la phase pour une valeur de G = 3. a) Gain en fonction de la phase θ en rouge et limite entre l'amplification et la déamplification en pointillés. Différentes phases entrent en jeu mais un seul degré de liberté est pertinent lorsque l'on étudie la valeur moyenne de l'intensité (le paramètre θ). Ce paramètre est introduit à l'équation (3.45). b) Bruit normalisé sur la quadrature présentant le bruit le plus faible (Θ = π/2) en fonction de la phase θ. c) Bruit normalisé sur la quadrature présentant le bruit le plus faible (Θ = π/2) en fonction du facteur d'amplification G. d) Bruit normalisé sur la quadrature présentant le bruit le plus faible (Θ = π/2) en fonction du facteur de déamplification 1/G. Figure 3 . 8 - 38Compression pour un processus sensible à la phase pour une valeur de G = 3 en fonction de θ et Θ. On constate que l'on peut atteindre des compressions jusqu'à -20 dB dans le cas optimal. Puis, nous introduisons le modèle microscopique basé sur un schéma des niveaux en double-Λ et nous détaillons la résolution des équations de Heisenberg-Langevin dans ce cas. Les résultats obtenus pour des atomes immobiles sont alors présentés. Dans cette situation, qui correspond à des expériences dans un ensemble d'atomes froids, nous distinguons deux régimes de fonctionnement en fonction du gain supérieur ou inférieur à 1. Dans une dernière partie, une extension du modèle à une vapeur atomique c'est-a- Figure 4 . 1 - 41Schéma d'interaction lumière-matière à trois niveaux en simple Λ. milieu où les atomes ne sont plus immobiles (atomes chauds) est discutée. A Transparence électromagnétiquement induite. Modèle de l'atome en Λ Nous présentons ici un modèle microscopique à 3 niveaux en simple-Λ, dans lequel nous allons décrire le phénomène d'EIT. Les processus d'interactions entre les photons et les atomes sont décrits à l'aide des équations d'Heisenberg-Langevin [Marangos 98, Fleischhauer 00, Andre 05, Dantan 05]. L'objectif ici n'est pas d'étudier le phénomène d'EIT en détail [Mishina 08, Kupriyanov 10], mais de rappeler le formalisme utilisé et d'introduire les effets que l'on retrouvera dans la partie B lors de l'étude du système, plus complexe, en double-Λ. A.1 Schéma énergétique à 3 niveaux en simple Lambda Dans cette partie, nous allons nous intéresser à un schéma d'interaction lumière-matière à trois niveaux et deux champs électromagnétiques dit en Λ. Ce schéma est décrit sur la figure 4.1. Il s'agit de deux niveaux fondamentaux |1 et |2 et d'un niveau excité |3 , couplés par deux champs notésâ etb. Les notations de la figure 4.1 sont détaillées ci-dessous :-∆ est le désaccord à un photon qui correspond à ∆ = ω a − ω 31 , c'est-à-dire la différence entre la fréquence du champâ et celle correspondant à la transition |3 ↔ |1 .A. Transparence électromagnétiquement induite. Modèle de l'atome en Λ115δ est le désaccord à deux photons qui s'écrit : δ = ω 32 +∆−ω b , avec ω 32 la fréquence de la transition |3 ↔ |2 et ω b celle du champb. expression on a défini :ω 31 = ω a ,ω 32 = ω b etω 21 = ω b − ω a . k uv est la projection sur l'axe z de k uv , et k 31 est le vecteur d'onde correspondant au champâ, k 32 est le vecteur d'onde correspondant au champb et k 21 = k 23 − k 13 . Dans cette notation on a pris la convention : k uv = − k vu . 23 − g aâσ31 − g bbσ32 − Γσ33 (4.5c)∂ ∂tσ 31 = −i ∆σ 31 + g * aâ † (σ 11 −σ 33 ) 23 = −i (δ − ∆)σ 23 + g bb (σ 33 −σ 22 ) 21 = −i δσ 21 + g bbσ31 − g * aâ †σ 23 − γσ 21 .(4.5f) Dans ces équations, les termes non-hamiltoniens ne sont naturellement pas présents. En effet, dans cette partie, nous allons nous intéresser uniquement à l'évolution des valeurs moyennes des opérateurs. Dans ce cas, l'équation de Heisenberg-Langevin et l'équation d'Ehrenfest coïncident comme nous l'avons vu au chapitre 1. L'étude du rôle de ces termes sur les fluctuations quantiques sera faite dans la section D.5. Pour décrire l'évolution des champsâ etb, il faut ajouter au groupe d'équations 4.5, les deux équations de Maxwell dans le milieu atomique pour les enveloppes lentement A. Transparence électromagnétiquement induite. Modèle de l'atome en Λ 117 variables des champs. A. 4 4Calcul de la susceptibilité diélectriqueDans l'hypothèse d'un champ de contrôle intense (Ω c Ω s ), on peut faire l'approximation que la population est majoritairement pompée dans le niveau |2 . On peut alors résoudre le système (4.7) ainsi simplifié afin de déterminer la susceptibilité linéaire χ du milieu atomique vue par le champ sonde. Elle est donnée par la relation :N℘ 23σ (1) 23 = 0 χE s , (4.8) oùσ (1) 23 correspond à la solution à l'ordre 1 en champ sonde pour la cohérence entre les niveaux |2 et |3 et E s = Ω s /2 ℘ 23 est l'amplitude du champ électrique pour le faisceau sonde. On obtient alors simplement la susceptibilité linéaire pour le champ sonde [Ortalo 09] : Figure 4 . 2 - 42Partie réelle (rouge pointillé) et imaginaire (noir plein) de la susceptibilité atomique χ pour le rubidium 85 en l'absence a) ou en présence b) du champ de contrôle. La flèche verte correspond à la largeur de la fenêtre EIT, telle que nous l'avons définie. Paramètres utilisés : la pulsation de Rabi Ω c = Γ, le taux de décohérence des niveaux 1 et 2 : γ = 0 et le désaccord à un photon ∆ = 0. La fenêtre de transparence est donnée par la flèche verte sur la figure b). Figure 4 . 3 - 43Partie imaginaire de χ en l'absence (rouge pointillé) ou en présence (noir plein) du champ de contrôle. Paramètres utilisés : la pulsation de Rabi a) Ω c = 0.5 Γ et b) Ω c = 2 Γ. Le taux de décohérence des niveaux 1 et 2 et le désaccord à un photon sont pris nuls. Figure 4 . 4 - 44Partie imaginaire de χ en présence du champ de contrôle. Paramètres utilisés : la pulsation de Rabi Ω c = Γ . Le taux de décohérence des niveaux 1 et 2 vaut a) γ = 0, b) γ = 0.1 Γ et c) γ = 10 Γ. Le désaccord à un photon est pris nul.Seul le cas de l'amplification insensible à la phase sera traité dans ce manuscrit car il correspond à la situation expérimentale que nous avons étudiée dans le chapitre 4. Le modèle microscopique pour l'amplification sensible à la phase par mélange à 4 ondes sera détaillé dans [Glorieux 11].Pour décrire le plus complètement possible l'interaction entre la lumière et la matière dans les expériences présentées dans ce manuscrit, nous avons utilisé un modèle microscopique à quatre niveaux dit en double Λ. Nous décrivons donc tout d'abord ce modèle, Figure 4 . 5 - 45Schéma d'interaction lumière-matière à quatre niveaux en double Λ. ON verra plus loin que dans l'état stationnaire, la population est essentiellement dans le niveau |2 , ce que l'on schématise par la taille des points dans les niveaux |1 et |2 . puis nous dérivons les équations d'évolution afin d'étudier les propriétés quantiques des faisceaux générés. B.1 Schéma énergétique à 4 niveaux en double Λ La figure 4.5 présente notre modèle microscopique à quatre niveaux. Les atomes interagissent avec quatre champs électromagnétiques. Deux champs intenses que l'on appellera champ pompe et dont l'interaction avec le milieu atomique sera traitée de manière semi-classique. Deux champsâ etb que l'on appellera respectivement champs sonde et conjugué. Ces champs seront, eux, traités de manière quantique à l'aide d'opérateurs en représentation d'Heisenberg. En effet, nous nous intéressons non seulement aux valeurs moyennes de ces opérateurs qui sont des grandeurs accessibles classiquement, mais aussi à leurs variances, ce qui nécessite un traitement quantique. Le système atomique est décrit par deux niveaux fondamentaux |1 et |2 et de deux 122 Chapitre 4. Modèle microscopique et traitement quantique niveaux excités |3 et |4 . Les transitions |1 ↔ |2 et |3 ↔ |4 sont supposées interdites par couplage dipolaire. Les notations de la figure 4.5 sont détaillées ci-dessous : ( 4 . 410) avec ∆ 0 = ω 0 + ∆ + δ. Dans cette équation les termesσ uv ,â etb dépendent à priori de z et de t. Lesσ uv sont les enveloppes lentement variables des opérateurs atomiques collectifs définis dans l'équation (4.2) et les opérateursâ etb sont les enveloppes lentement variables des champs électriques sonde et conjugué définis dans l'équation (4.1). Dans l'équation (4.2) nous avons introduitω 31 =ω 42 = ω p ,ω 32 = ω a ,ω 41 = ω b et ω 21 =ω 43 = ω p − ω a . k 31 et k 42 sont les vecteurs d'onde du champ pompe, k 32 est le vecteur d'onde du champâ, et k 41 est le vecteur d'onde du champb. Enfin, on note : k 43 = k 42 − k 32 . Pour déterminer l'évolution hamiltonienne des populationsσ ii , on utilise la relation (4.4). En ajoutant ensuite les contributions non hamiltonienne on obtient : 24 −σ 42 ) − γ 4σ44 +f 44 . (4.11d) où l'on a introduit les opérateurs de Langevinf uv caractérisés par [Davidovich 96, Ooi 07] : f uv (z, t) = 0, (4.12) Figure 4 . 6 - 46des opérateurs adjoints. Pour résoudre ce système, nous avons ré-injecté les solutions stationnaires obtenues au paragraphe précédent. Elles sont notéesσ 0 uv dans les équations (4.18). Pour simplifier, nous avons pris g a et g b , les constantes de couplage, identiques et égales à Effet a) de la pusaltion de Rabi Ω et b) du désaccord ∆ sur la population des niveaux |1 (rouge pointillés), |2 (noir plein), |3 (vert tirets) d'un modèle en double Λ. Le désaccord à un deux photons et le taux de décohérence γ sont pris nuls. Pour la figure a) ∆ = 2π × 1GHz. Dans la figure b) Ω ≤ 2π × 0.3GHz. Dans ce cas la population du niveau |3 est constante et inférieure à 0.5% sonde et conjugué sont choisis, pour des raisons de simplicité, colinéaires et co-propageants avec le champ pompe. De plus, nous supposons que l'accord de phase est vérifié, 2 résoudre ce système, nous allons simplifier les équations (4.20) et (4.21) en négligeant la dérivée temporelle. . En notant [M 1 (ω)] = ω[1] + [M 1 ], l'équation (4.19a) s'écrit dans l'espace de Fourier temporel : [M 1 (ω)]|Σ 1 (z, ω)] = g[S 1 ]|Â(z, ω)] + i|F N 1 (z, ω)], (4.22) et peut alors se résoudre sous la forme : |Σ 1 (z, ω)] = g[M 1 (ω)] −1 [S 1 ]|Â(z, ω)] + i[M 1 (ω)] −1 |F 1 (z, ω)]. Figure 4 . 7 - 47permet d'écrire l'équation de propagation (4.21) dans l'espace de Fourier : ∂ ∂z |Â(z, ω)] = [M(ω)]|Â(z, ω)] + [M F (ω)]|F 1 (z, ω)], (4.24a) Profil spectral la partie imaginaire de κ a (noir) et de κ b (rouge) en fonction du désaccord à deux photons. a) Ω/2π = 0 GHz et b) Ω/2π = 0.5 GHz. Paramètres utilisés : de la matrice [M(ω)] sont notés, par analogie avec l'équation (3.10) : Autour de δ 0 , 0on observe en présence de pompe, des pics correspondants à de l'absorption pour le champ sonde et à du gain pour le champ conjugué. Ces pics décrivent deux processus Raman. L'un effectue un transfert de photons du champ sonde vers le champ pompe et l'autre du champ pompe vers le champ conjugué. La dissymétrie nait du fait que la population atomique est principalement dans le niveau |2 et cela favorise ce sens de conversion. Ces effets (absorption et transfert Raman) ne peuvent donc pas être à l'origine de corrélations entre les champs sonde et conjugué car ils ne correspondent jamais à la création ou à la destruction simultanée d'un photon dans chacun des deux modesâ etb. Ce sont les coefficients η a et η b qui vont nous renseigner sur le couplage entre les deux champs. Or, il est plus difficile d'avoir une interprétation en terme d'indice du milieu pour ces termes. On va donc résoudre l'équation (4.24a) afin de relier directement les champs en entrée aux champs en sortie du milieu. L'équation (4.24a) est une équation différentielle matricielle linéaire du premier ordre. Pour une longueur d'interaction L, on peut la résoudre de la façon suivante : |Â(L, ω)] = e [M(ω)].L |Â(0, ω)] + L 1 0 e −[M(ω)]Lz [M F (ω)]|F 1 (z, ω)]dz . (4.26) Le premier terme du membre de droite correspond à une matrice de transfert dans le formalisme entrée-sortie décrit dans le chapitre 1. A l'intérieur de la parenthèse, le premier terme décrit donc les champs en entrée du milieu. La description de l'état d'entrée dépend du choix du vecteur |Â(0, ω)]. En pratique, comme on s'intéresse à des fonctions de corrélations à 2 points, c'est la matrice de covariance |Â(0, ω)][ † (0, ω )| en non le vecteur |Â(0, ω)] que l'on doit choisir pour définir l'état d'entrée [Dantan 05]. s'intéresse aux valeurs moyennes de l'intensité des champsâ etb, c'est-à-dire aux valeurs moyennes de l'opérateur nombreN a ouN b :N a = â †â .(4.27) On note les valeurs moyennes du champâ : α = â et du champb : β = b , avec α et β a priori complexes. L'équation (4.27) va donc s'écrire au premier ordre sous la forme : N a = |α| 2 et N b = 0.(4.28) la valeur du gain, on utilise la relation (4.26). Prendre la valeur moyenne de |  (z, ω) ] revient à fixer ω = 0 et à ne pas prendre en compte les forces de Langevin dont la valeur moyenne est nulle. On obtient alors : |  (z = L, ω = 0) ] = e [M(ω=0)].L |  (z = 0, ω = 0) ].(4.30) e [M(0)].L . On obtient alors : G a = |A(0)| 2 , G b = |C(0)| 2 .(4.32) Dans ce cas il faut noter que la conjugaison s'exprime par [â † (ω)] † = ∞ −∞â (t) e −iωt dt =â(−ω). Ainsi, on ferra donc particulièrement attention à ne pas confondre la conjuguée de la transformée de Fourier [â(ω)] † = ∞ −∞â (t) e iωt dt † = ∞ −∞â † (t) e −iωt dt =â † (−ω), et la transformée de Fourier de la conjuguéeâ † (ω) = ∞ −∞â † (t) e iωt dt. Pour plus de détails on se reportera à l'annexe A à la fin de ce manuscrit. 132 Chapitre 4. Modèle microscopique et traitement quantique du spectre de bruit d'intensité à un mode L'équation (4.26) peut être linéarisée afin de séparer les valeurs moyennes des fluctuations |δÂ(ω)]. Dans le formalisme entrée-sortie, en introduisant la matrice de transfert ABCD à la manière de (4.31) et un vecteur |F(L, ω)] = F a (L, ω) F b † (L, ω) pour tenir compte de la dissipation, on peut écrire : |δ out (ω)] = A(ω) B(ω) C(ω) D(ω) |δ in (ω)] + |F(L, ω)] , e [M(ω)].L et |F(L, ω)] = L 1 0 e −[M(ω)]Lz [M F (ω)]|F 1 (z, ω)]dz. (4.42b) De même pour le vecteur adjoint : |δ † out (ω)] = δa † (L, ω) δb(L, ω) = A * (−ω) B * (−ω) C * (−ω) D * (−ω) |δ † in (ω)] + |F † (L, ω)] , (4.43a) avec de corrélation dans l'ordre symétrique Comme nous l'avons vu, pour calculer les fonctions de corrélation, une possibilité est d'utiliser l'ordre symétrique pour les opérateurs [Fabre 90]. La méthode de transformation d'opérateurs vers des nombres complexes est décrite en détail dans les références [Davidovich 96, Hilico 92]. Dans la représentation symétrique, les produits ordonnés d'opérateursââ † etâ †â sont remplacés par la demi-somme de ces deux produits. En suivant cette transformation on obtient pour un état cohérent : donc pour l'expression (4.44), en prenant un champ cohérent non vide en entrée sur le modeâ et le vide sur le modeb. t [M * (−ω )]Lz dz |1 0]. (4.50) Comme nous avons adopté la représentation symétrique pour calculer les fonction de corrélations de bruit, il est nécessaire de remplacer la matrice |F 1 (Lz, ω)] × [F † 1 (Lz, ω ) | qui contient les coefficients de diffusion D i j,kl pour les équations quantiques avec i j ∈ {23, 41, 43, 21} et kl ∈ {32, 14, 34, 12} par la demi somme de cette matrice et de la matrice |F † 1 (Lz, ω)]×[F 1 (Lz, ω )| qui contient les coefficients de diffusion D i j,kl pour les équations quantiques avec i j ∈ {32, 14, 34, 12} et kl ∈ {23, 41, 43, 21}. En effet c'est l'équivalent pour les forces de Langevin de la transformation appliquée dans la relation (4.45a). En notant [D] cette matrice de diffusion et en explicitant la deltacorrélation en ω on peut écrire pour l'ordre symétrique : |F 1 (Lz, ω)][F † 1 (Lz, ω )| S = [D] 2π δ(ω + ω ). (4.51) e t [M * (−ω )]Lz dz |0 1], (4.54b) D bb † (−ω, ω ) = L −[M * (−ω)]Lz [M * F (−ω)][D] t [M F (ω )]e − t [M(ω )]Lz dz |0 1]. (4.54c) déterminer la densité spectrale de bruit de phase pour un mode du champ nous allons utiliser le formalisme introduit par [Pegg 88, Pegg 89] de l'opérateur phase φ a , qui s'exprime sous la forme suivante :â =ê iφ aN 1 2 .(4.57)Cette expression est adaptée au formalisme des variables continues, c'est àd ire des états avec un grand nombre de photons. Pour un opérateur nombre qui ne tend pas vers 0, on peut alors écrire cette relation sous la forme : place dans l'ordre symétrique comme précédemment et on écrit le spectre pour un état cohérent en entrée sur le modeâ et le vide sur le modeb : On rappelle que le la solution de l'équation de propagation 4.26 s'écrit :|Â(L, ω)] = e [M(ω)].L |Â(0, ω)] + L 1 0 e −[M(ω)]Lz [M F (ω)]|F 1 (z, ω)]dz , avec [M(ω)] = i g 2 N c [T ][M 1 (ω)] −1 [S 1 ]. Le terme de couplage g [Hilborn 02] est défini dans l'équation (4.3) par : Figure 4 . 8 - 48Spectre de gain sur la sonde a) et sur le conjugué b) en fonction du désaccord à 2 photons δ. Paramètres : γ/2π = 10 kHz ; Ω/2π = 0.3 GHz ; ∆/2π = 1 GHz. Les encarts sont des vue de détails de la zone proche de δ = 0. ceux que l'on trouve dans les expériences de mélange à 4 ondes dans une vapeur atomique [Boyer 07, McCormick 07, Boyer 08, Marino 09, Glorieux 10b] ; soit 0.7 < ∆/2π < 3 GHz et 0.3 < Ω/2π < 2 GHz. On utilisera pour la valeur de l'épaisseur optique αL = 150, ce qui est supérieur mais compatible avec ce qui a été obtenu dans des expériences utilisant un piège magnéto-optique très anisotrope [Du 08, Lin 08]. --Figure 4 . 4140 -135 -130 -125 -140 -135 -130 -125 -9a) Spectre de gain sur la sonde G a (rouge) et sur le conjugué G b (noir) en fonction du désaccord à 2 photons δ. b) Corrélations quantiques en intensité à 1 MHz en fonction de δ normalisé au bruit quantique standard. Paramètres : γ/2π = 10 kHz ; Ω/2π = 1 GHz ; ∆/2π = 1 GHz. creux est donnée par la largeur naturelle, Γ, ainsi que par l'épaisseur optique pour prendre en compte la propagation. Si on considère le sous système en simple Λ : |1 , |2 , |3 , on peut voir qu'il s'agit d'une configuration d'EIT un peu particulière car le faisceau pompe est hors résonance. Dans ce cas, on observe, un profil asymétrique caractéristique des profils de Fano décrit dans les expériences de [Alzetta 79, Kaivola 85, Zhu 97, Zhu 96] et étudié théoriquement dans [Lounis 92]. Le gain de la sonde autour de δ = 0 est similaire aux profils décrits dans les références précédentes, à la différence du pic de gain qui n'est pas présent dans les profil d'EIT et qui provient, comme nous l'avons dit, du processus de mélange à 4 ondes. On peut vérifier que la position exacte de ce pic est donnée par le déplacement lumineux (AC Stark shift) induit par le faisceau pompe [Wei 98]. Figure 4 . 10 - 410Corrélations d'intensité (noir pointillé) et anti-corrélations de phase (rouge) en dB en fonction de la fréquence d'analyse comparées à la limite quantique standard (noir). Paramètres : a) Ω/2π = ∆/2π = 0.3 GHz and δ/2π =-48 MHz et b) Ω/2π = ∆/2π = 2 GHz and δ/2π =-217 MHz. figure 4 . 410 présente les corrélations d'intensité et les anti-corrélations de phase normalisées en fonction de la fréquence d'analyse pour deux valeurs de Ω et ∆. Pour tracer les courbes de cette figure, on utilise les valeurs de δ qui maximisent, dans chaque cas, les corrélations en compensant le déplacement lumineux. Les spectres de corrélations d'intensité présentés sont les données typiquement accessibles expérimentalement grâce à l'analyse spectral du bruit du photocourant. Nous avons vérifié numériquement que, dans la condition 3 ∆ = Ω, les plus hauts taux de corrélations sont atteints pour les plus grandes valeurs de ∆ et Ω Les figures 4.10 a) et b) sont en accord avec cet effet. La figure 4.10 b) montre que, dans ce régime, il est possible d'atteindre 6dB de réduction du bruit sous la limite quantique standard pour la différence d'intensité et la somme des phases. La figure 4.11 présente, pour les mêmes paramètres que la figure 4.10 b), l'inséparabilité en fonction de la fréquence d'analyse. On peut voir que l'inséparabilité est inférieure à 1 jusqu'à 3 MHz environ. Cela démontre la présence d'intrication entre les champs sonde et conjugué. Ce résultat ouvre Figure 4 . 11 -Figure 4 . 12 - 411412Inséparabilité en fonction de la fréquence d'analyse. La courbe rouge correspond aux simulations numériques incluant les forces de Langevin, la courbe noire pointillés a été tracée en les négligeant. Une valeur de l'inséparabilité inférieure à 1 démontre l'intrication des champŝ a etb. Paramètres : Ω/2π = ∆/2π = 2 GHz et δ/2π =-217 MHz. la perspective de la génération d'états intriqués en variables continues à l'aide du mélange à 4 ondes dans un nuage d'atomes froids. Ce résultat est donc complémentaire des travaux du groupe de Harris dans le régime des variables discrètes, sur la génération de paires de photons dans un milieu constitué d'atomes de 87 Rb froids [Kolchin 06]. Inséparabilité en fonction de l'épaisseur optique. Paramètres : Ω/2π = ∆/2π = 2 GHz et δ/2π =-217 MHz. D. 7 7Effet de la décohérence L'intrication est sensible aux processus de décohérence [Haroche 98, Andre 02, Yu 02, Carvalho 04, Laurat 07]. Sur la figure 4.13, nous présentons l'effet du taux de relaxation γ (décohérence entre les niveaux |1 et |2 ). On peut constater que le système que nous avons présenté est robuste vis à vis de la décohérence jusqu'à des valeurs de γ 10 MHz. Figure 4 . 13 - 413Inséparabilité à 1MHz en fonction du taux de décohérence γ. Paramètres : Ω/2π = ∆/2π = 2 GHz et δ/2π =-217 MHz. Figure 4 . 14 -Figure 4 . 15 - 414415est la masse d'un atome et T la température en kelvin. Il s'agit d'une distribution gaussienne de valeur moyenne nulle et d'écart type σ = k B T m . On peut en déduire la valeur moyenne de la norme du vecteur vitesse v m (relation (2de la résolution du système d'équation de Heisenberg Langevin, nous avons fait l'hypothèse que les populations et les cohérences étaient imposées par la pompe 4 . Cela revient à dire queσ 11 ,σ 22 ,σ 33 ,σ 44 ,σ 41 ,σ 32 ont atteint l'état stationnaire. Pour des atomes considérés comme immobiles, le temps d'interaction entre les atomes et le faisceau pompe Géométrie des faisceaux et temps de passage des atomes. La figure b) est une coupe transverse de la figure a). Elle correspond au modèle que nous avons choisi pour définir le temps de passage.est infini. Les atomes sont donc effectivement préparés par la pompe dans l'état stationnaire décrit en (4.17). A l'inverse, si nous prenons en compte la distribution de vitesse, il n'est pas évident, a priori, de supposer l'état stationnaire atteint.On définit le temps τ par : 'on a introduit le waist (rayon à 1/e 2 ) de la pompe w p et de la sonde w s . Pour des valeurs typique de w p = 600 microns et w s = 300 microns, on a : τ 1 µs pour une vapeur de 85 Rb à 120 • C. Ce temps correspond au temps de passage dans la géométrie décrite sur la figure 4.14, c'est-a-dire, des atomes à la vitesse moyenne v m qui traversent le faisceau dans le plan normal à la direction de propagation en passant par centre du faisceau.Pour cette classe de vitesse, τ est donc une borne inférieure du temps de passage d'un atome dans le faisceau pompe avant de pouvoir interagir avec la sonde. L'équation (4.15a) permet de déterminer le temps typique d'évolution des populations et des cohérences σ 11 ,σ 22 ,σ 33 ,σ 44 ,σ 41 ,σ 32 . En effet, cette équation montre que la dynamique du vecteur |Σ 0 ] est pilotée par un terme en e i[M 0 ]t . Afin de déterminer la dynamique du système, on peut utiliser l'analyse linéaire de stabilité [Haken 83]. Le système converge si et seulement si la partie imaginaire des valeurs propres de [M 0 ] est négative. Nous l'avons vérifié numériquement pour la gamme de paramètres correspondant aux expériences dans une vapeur atomique. On peut voir sur la figure 4.15, l'évolution des populations en fonction du temps. Dans l'état initial, la population est équi-répartie entre les états |1 et |2 . Aux temps courts, on observe des oscillations puis les populations tendent vers l'état stationnaire. De plus, le temps caractéristique d'évolution d'un vecteur propre de M 0 est donné par l'in-Evolution des populations en fonction du temps. En rouge la population dans |1 , en noir la population dans |2 et en bleu la population dans |3 . Paramètres : ∆/2π = 700 MHz, Ω/2π = 300 MHz. Figure 4 . 16 - 416Proportion P d'atomes préparés par la pompe en présence d'élargissement Doppler. La figure a) présente l'effet de désaccord ∆ pour Ω/2π = 300 MHz. La figure b) présente l'effet de Ω pour ∆/2π = 700 MHz. Paramètres :w p = 600 microns, w s = 300 microns, Γ = 36 MHz, τ = 1µs . aide de (4.87) et en négligeant la contribution des forces de Langevin pour simplifier les notations, on peut écrire l'équation (4.24a) sous la forme :∂ ∂z |Â(z, ω)] = Nσ[N(ω)]|Â(z, ω)],est la densité d'atomes et σ la section efficace de la transition. Lorsque l'on prend la solution de cette équation différentielle de propagation (entre 0 et L), il apparait un préfacteur de l'exposant de l'exponentielle en αL = NσL. Dans le cas d'un milieu constitué d'atomes froids, N correspond exactement à la densité d'atomes dans le milieu. Pour une vapeur chaude, la dispersion en vitesse va induire une dispersion en désaccord à un photon. Or la matrice [M 1 (ω)] −1 dépend de ∆. TFigure 4 . 17 - 417|Â(z + dz)] = e [N(ω,∆ z )].Nσdz |Â(z)], (4.100b) avec [N(ω, ∆ z )] la valeur de la matrice [N] pour des atomes de vitesse v(z), c'est-à-dire un désaccord ∆ z . E.3.3 Somme Nous devons sommer les contributions des différentes tranches pour obtenir le vecteur |Â(L)] en sortie du milieu. On peut donc écrire pour T tranches : générale, les matrices [N(ω, ∆ jdz )] et [N(ω, ∆ kdz )] pour j k ne commutent pas et le produit des exponentielles de matrice ne pourra pas s'écrire comme l'exponentielle de la somme des matrices. On pourrait se demander si le résultat dépend du choix l'ordre des tranches. Nous avons donc simulé numériquement une distribution aléatoire de vitesse suivant la loi (4.95) afin de calculer |Â(L)] pour 10 5 tranches ce qui est suffisant pour avoir une distribution très proche d'une loi normale. Nous avons comparé le résultat obtenu à celui que l'on obtient en supposant que les [N(ω, ∆ jdz )] et [N(ω, ∆ kdz )] commutent, c'est-à-dire : |Â(L)] 2 = |Â(0)] exp Nσdz[N(ω, ∆ jdz )].(4.102)Dans la gamme de paramètres étudiée, la différence entre |Â(L)] et |Â(L)] 2 est inférieur à 10 −4 sur chacune des composantes. Nous venons donc de vérifier numériquement que l'ordre des tranches n'influence pas le résultat final. On pourra donc choisir arbitrairement la valeur du désaccord dans une tranche (en respectant la distribution générale des vitesses), sans perdre en généralité. Etant donné que les relations (4.101) et (4.102) donnent des résultats très proches, nous utiliserons donc la relation (4.102) plus simple à manipuler numériquement. En passant à la limite de T → ∞ en transformant la somme de l'équation (4.102) en une intégrale sur les classes de vitesses on obtient alors : |Â(L)] = |Â('on a remplacé le désaccord d'une tranche ∆ jdz par le désaccord des atomes dans une classe de vitesse ∆ v , dont la distribution normalisée est donnée par P(v) définie à l'équation (4.95). On peut voir l'équation (4.103), comme la moyenne pondérée par la distribution de vitesse de la matrice [N]. Ainsi, ce résultat est consistant avec l'approche de [Cohen-Tannoudji 96] pour l'établissement de l'équation pilote d'un petit système couplé à un réservoir. Pour étudier l'effet de la dispersion de vitesse, il faut désormais comparer l'équation (4.103) à l'équation 4.26 que nous avons utilisée pour décrire un milieu constitué d'Distribution du désaccord réel vu par les atomes en présence d'élargissement Doppler pour un désaccord du laser de 700 MHz pour une vapeur atomique à 120 • C. Figure 4 . 18 -Figure 4 . 19 - 418419Effet de la distribution de vitesses sur le gain de la sonde pour une température de 120 • C. a) la courbe rouge donne le gain pour le cas où tous les atomes sont à vitesse nulle et voient un désaccord de 700 MHz, la courbe noire donne le gain pour la situation où les atomes suivent une distribution de vitesses gaussienne. b) Ecart en pourcentage entre les deux courbes en a). Paramètres : γ/2π = 1 MHz, δ/2π = 4 MHz, Effet de la distribution de vitesses sur le gain de la sonde pour une température de 120 • C. a) la courbe rouge donne le gain pour le cas où tous les atomes sont à vitesse nulle et voient le désaccord ∆ MHz, la courbe noire donne le gain pour la situation où les atomes suivent une distribution de vitesses gaussienne pour un laser fixé avec un désaccord ∆. b) Ecart en pourcentage entre les deux courbes précédentes. Paramètres : γ/2π = 1 MHz, δ/2π = 4 MHz, αL = 4500, Ω/2π = 0. et de ∆. On peut voir sur les figures 4.20 et 4.21, que cet effet est de nouveau faible (inférieur à 10 %). On peut constater que le taux de corrélations est légèrement améliorée dans le cas d'une vapeur par rapport à un modèle d'atomes immobiles pour des pulsations de Rabi faible (inférieure à 300 MHz). L'amélioration sera d'autant plus sensible que l'on se rapprochera de résonance. En effet, comme on peut le constater sur la figure 4.21 a) les corrélations sont plus faibles à ∆ = 0 avec ces paramètres. La distribution de vitesse va donc permettre à des atomes voyant un désaccord différent de 0 d'intervenir et d'augmenter les corrélations. Figure 4 . 20 -Figure 4 . 21 -Figure 4 . 22 - 420421422Effet de la distribution de vitesses sur les corrélations en intensité pour une température de 120 • C. a) la courbe rouge donne les corrélations par rapport à la limite quantique standard pour le cas où tous les atomes sont à vitesse nulle et voient un désaccord de 700 MHz, la courbe noire donne les corrélations pour la situation où les atomes suivent une distribution de vitesses gaussienne. b) Ecart en pourcentage entre les corrélations dans ces deux cas (échelle linéaire). Paramètres : γ/2π = 1 MHz, δ/2π = 4 MHz, Effet de la distribution de vitesses sur les corrélations en intensité pour une température de 120 • C. a) la courbe rouge donne les corrélations par rapport à la limite quantique standard pour le cas où tous les atomes sont à vitesse nulle et voient le désaccord ∆ MHz, la courbe noire donne les corrélation pour la situation où les atomes suivent une distribution de vitesses gaussienne pour un laser fixé avec un désaccord ∆. b) Ecart en pourcentage entre les corrélations dans ces deux cas (échelle linéaire). Paramètres : γ/2π = 1 MHz, δ/2π = 4 MHz, αL = 4500, Ω/2π = 0.Etablissement du régime stationnaire. Gain sur le faisceau sonde en fonction du temps d'interaction préalable des atomes avec le faisceau pompe. Paramètres : γ/2π = 1 MHz, δ/2π = 0 MHz, Ω/2π = 0.9 GHz, ∆/2π = 1 GHz. F. 1 1Corrélations quantiques sur la transition 5S 1/2 → 5P 1/2 du rubidium.Comme nous l'avons présenté dans la section précédente, il est possible de faire l'hypothèse que toutes les classes de vitesse d'une vapeur atomique contribuent au processus de mélange à 4 ondes à condition que l'état stationnaire soit atteint. On va donc pouvoir étudier théoriquement le régime décrit dans [Boyer 07, McCormick 07, Glorieux 10b], c'est-à-dire un régime d'épaisseur optique (αL = NσL) de plusieurs milliers. Après avoir comparé notre étude théorique aux résultats expérimentaux de[Boyer 07] pour les grandeurs classiques, nous détaillerons les différents paramètres qui affectent sur la génération de corrélations quantiques en intensité. De plus nous verrons que notre modèle prédit la génération de faisceaux intriqués dans les conditions expérimentales de[Glorieux 10b]. Figure 4 . 23 -Figure 4 . 24 - 423424Spectre de gain du faisceau sonde G a en fonction du désaccord à deux photons pour un désaccord à un photon de la pompe fixé. Le trait noir pointillé représente les résultats expérimentaux obtenus pour une puissance de pompe de 400 mW, focalisée sur 650 microns et une cellule de 12.5 mm de long. La courbe rouge représente la simulation numérique avec les paramètres suivants : γ/2π = 1 MHz, Ω/2π = 0.33 GHz, ∆/2π = 800 MHz, αL = 4500. L'absorption résiduelle par les atomes non préparés dans l'état stationnaire et de plus pris en compte. . Le gain sur le faisceau sonde en fonction du désaccord −δ est présenté sur la Effet de l'épaisseur optique sur a) le gain sur la sonde (rouge) et la conjugué (noir) et sur b) les corrélations d'intensité (noir) et les anti-corrélations de phase (rouge). Paramètres : γ/2π = 0.5 MHz, δ/2π = 4 MHz, Ω = 0.3 GHz, ∆ = 0.8 GHz. . 4 . 23 .Figure 4 . 25 - 423425Nous avons comparé le calcul aux résultats expérimentaux aimablement mis à disposition par P.D.Lett. Dans ces conditions, le taux de préparation des atomes, tel que nous l'avons introduit en (4.98), est de 97%. En première approximation on fera subir au faisceau des pertes correspondant à une absorption linéaire due à 3% de l'épaisseur optique totale. On observe ainsi un bon accord entre les données expérimentales et les prédictions théoriques et ce sans aucun paramètre ajustable.F.1.2 Corrélations quantiques : effet de l'épaisseur optique Nous allons nous intéresser maintenant aux corrélations quantiques. Le premier paramètre que nous allons étudier est l'épaisseur optique. En effet, comme nous l'avons souligné, nous pouvons atteindre dans un vapeur un tout autre régime que celui étudié pour les atomes froids. Comme nous pouvons le voir dans la figure 4.24, dans un premier temps (jusqu'à 3000) augmenter la profondeur optique permet d'amplifier les corrélations d'intensité et les anti corrélations de phase. Au delà de cette limite les corrélations d'intensité diminuent puis de même les anti corrélations de phase se dégradent. On peut comprendre cet effet en regardant l'effet de l'épaisseur optique sur le gain de la sonde et du conjugué. En effet contrairement au cas d'un amplificateur insensible à la phase idéal, la différence d'intensité entre le faisceau sonde et le faisceau conjugué Effet de Ω sur a) le gain sur la sonde (rouge) et la conjugué (noir) et sur b) les corrélations d'intensité (noir) et les anti-corrélations de phase (rouge). L'encart de la figure a) présente la différence G a − G b Paramètres : γ/2π = 0.5 MHz, δ/2π = 4 MHz, αL = 3000, ∆ = 0.7 GHz. . n'est pas indépendante du gain. Elle diminue, puis s'annule et change de signe. Si dans un premier temps cette diminution est un avantage pour les corrélations en intensité, en équilibrant les deux voies de la détection, dans un second temps, le taux de génération de photons conjugué devient plus grand que celui de photons sonde et les corrélations en intensité diminuent. La figure 4.24 a) a été tracée en prenant en compte l'effet des forces de Langevin qui ne sont pas négligeables dans ce cas. Pour les paramètres que nous avons utilisés (voir la légende de la figure 4.24), la fraction d'atomes dans l'état stationnaire est supérieure à 85% et le désaccord à un photon est grand ∆ = 800 MHz. Dans ces conditions l'absorption résiduelle est négligeable. F.1. 3 3Effet de la pulsation de Rabi : Ω La pulsation de Rabi Ω quantifie l'intensité du champ pompe. On peut constater sur les figures 4.25 a) et b) que lorsque Ω → 0 le gain sur champ sonde tend vers 1, le gain sur le champ conjugué tend vers 0 et les corrélations tendent vers la limite quantique standard. On observe ensuite un maximum dans les courbes de gain, puis l'efficacité du processus diminue. La position de ce maximum est déterminé par les autres paramètres utilisés. Typiquement le maximum va se déplacer vers des pulsations de Rabi plus faibles lorsque ∆ diminue. F. 1 . 4 14Effet du désaccord à un photon : ∆ Dans les expériences récentes de mélange à 4 ondes [Boyer 07, McCormick 07, Glorieux 10b], les valeurs utilisées pour le désaccord à 1 photon ∆ sont de l'ordre de plusieurs centaines de MHz, ce qui les différencient nettement du régime exploré dans [Slusher 85b]. En effet, pour des lasers suffisamment intenses (Ω 0.3 GHz), l'interaction lumière matière reste forte même à désaccord important (plusieurs centaines de MHz). La figure 4.26 présente l'effet de ∆ sur le gain et sur les corrélations. Figure 4 .Figure 4 . 27 - 442726a) Effet de ∆ sur le gain sur la sonde (rouge) et le conjugué (noir). Les courbes en pointillés correspondent au cas idéal et les courbes en trait plein correspondent au cas prenant en compte l'absorption. b) Corrélations d'intensité (noir) et les anti-corrélations de phase (rouge) dans le cas idéal. c) Corrélations d'intensité dans le cas idéal (pointillés) et en prenant en compte de l'absorption (plein). d) Corrélations d'intensité en prenant en compte de l'absorption en utilisant le modèle de l'amplificateur parfait (rouge) et dans notre modèle (noir). Paramètres : γ/2π = 0.5 MHz, δ/2π = 4 MHz, αL = 3000, Effet de δ sur a) le gain de la sonde (rouge), du conjugué (noir) et sur b) les corrélations d'intensité (noir) et les anti-corrélations de phase (rouge). Paramètres : γ/2π = 0.5 MHz, Ω/2π = 0.3 GHz, αL = 3000, ∆ = 0.7 GHz. . F.1.5 Effet du désaccord à deux photons : δ L'effet du désaccord à deux photons est plus difficile à analyser. Comme nous l'avons présenté à la section D.3, différents processus élémentaires contribuent au profil observé. On peut voir sur la figure 4.27 a) que le gain passe par un maximum autour de δ = 0 MHz. De façon analogue, on observe un maximum pour les corrélation sur la figure b) pour un désaccord similaire. Dans les résultats présentés jusqu'ici nous avons choisi δ = +4 MHz même si le maximum de la courbe de gain est plutot vers δ = −3 MHz. Ce choix a été fait pour rester proche des observation expérimentales décrites dans [Boyer 07, McCormick 07, Glorieux 10b] et présentées au chapitre 5. F.1. 6 Figure 4 . 28 -Figure 4 . 29 - 6428429Spectres de bruit : effet de la fréquence d'analyse ω Les corrélations sont étudiées à fréquence non nulle. La fréquence d'analyse ω était jusqu'à maintenant fixée à 1 MHz. On peut reproduire les grandeurs accessibles expérimentalement en faisant varier la fréquence d'analyse et en traçant des spectres. Les spectres de la figure 4.28 présentent les corrélations quantiques sur la différence d'intensité autour de -8dB sous la limite quantique standard (rouge), ainsi que l'excès de bruit de +7dB dans le mode de la sonde (noir). On peut voir que les corrélations sont maximales Spectres de bruit en échelle logarithmique (dB par rapport à la limite quantique standard SQL) sur la différence d'intensité (rouge) et sur le modeâ (noir). Paramètres : γ/2π = 0.5 MHz, δ/2π = 4 MHz, αL = 3000, ∆ = 0.7 GHz Ω/2π = 0.Spectres de bruit sur la différence d'intensité en rouge, des anti-corrélations de phase en noir, et de l'inséparabilité en pointillés noirs. Paramètres : γ/2π = 0.5 MHz, δ/2π = 4 MHz, αL = 3000, fréquence. Expérimentalement, ces mesures sont limitées par le bruit technique à basse fréquence. Dans la référence [McCormick 08], une réduction du bruit sous la limite quantique standard a été observée à 4.5 kHz. --Figure 4 . 460 -58 -56 -54 -52 -60 -58 -56 -54 -52 -30a) Effet de δ sur le gain de la sonde (rouge) et du conjugué (noir). La courbe pointillé représente G a + G b b) Effet de δ sur les corrélations d'intensité. c) Effet de ∆ sur les corrélations d'intensité. d) Spectres de bruit de la différence d'intensité en prenant en compte les forces de Langevin (rouge) et en les négligeant (noir). Paramètres : γ/2π = 0.5 MHz, Ω/2π = 0.52 GHz, αL = 300, ∆/2π = 1 GHz, δ/2π = −52 MHz, réduire le nombre d'atomes qui vont contribuer au processus (et donc l'épaisseur optique effective). Enfin la figure 4.30 d) présente un spectre de bruit de la différence d'intensité. Il est intéressant de noter que dans ces conditions la contribution des forces de Langevin devient très grande et qu'elle ne peut pas du tout être négligée. Figure 4 . 31 - 431Effet de ∆ a) sur le gain de la sonde (bleu) et du conjugué (noir) et b) sur les corrélations d'intensité pour la transition 5S 1/2 → 6P 1/2 . Paramètres : Γ/2π = 0.24 MHz, γ/2π = 1 MHz, Ω/2π = 0.5 GHz, αL = 60000, δ/2π = −5 MHz, ω/2π = 1 MHz. . -Pour la transition bleue Γ/2π = 0.24 MHz contre 5.7 MHz pour la transition rouge, soit un facteur 24. L'effet dominant du paramètre Γ dans le modèle que nous avons présenté au chapitre 4 est le préfacteur en ΓαL dans l'exposant de l'exponentiel. Figure 5 . 1 -Figure 5 . 2 - 5152Schéma du dispositif expérimental utilisé pour la génération d'états comprimés à deux modes. Un champ pompe intense (trait rouge) et un champ sonde décalé en fréquence de 3GHz (trait vert) interagissent dans une vapeur de rubidium 85. Le résultat de cette interaction est une amplification du faisceau sonde et la génération du faisceau conjugué (trait bleu). nération de corrélations quantiques sans gain G a + G b < 1 présenté à la section F.2 du chapitre 4 et que l'on appelé la "lame séparatrice quantique".A Dispositif expérimentalNous utilisons un montage expérimental similaire à celui utilisé par [McCormick 07] et détaillé dans [Glorieux 10b]. Ce montage est décrit sur le schéma de la figure 5.1.Un faisceau pompe intense de plusieurs centaines de mW est directement issu d'un laser titane saphir. Ce laser est asservi en fréquence sur une référence atomique (la ligne D1 du rubidium 85) à l'aide d'un montage basée sur l'absorption saturée (non présenté sur la figure 5.1). Afin de pouvoir régler la fréquence de ce laser, un modulateur acousto-optique de fréquence centrale 200 MHz, permet de se décaler par rapport à la transition. Utilisé en double passage, ce modulateur permet d'atteindre un décalage de 400 MHz ± 20 MHz en utilisant le premier ordre diffracté et 800 MHz ± 40 MHz en utilisant l'ordre 2. Une échelle de fréquence est donnée sur la figure 5.2, afin de repérer les gammes de désaccord que nous pouvons atteindre dans ces configurations. Une partie du faisceau pompe est prélevée à l'aide d'un cube séparateur de polarisation, et quelques dizaines de mW (ty-Échelle de fréquence pour la ligne D1 du rubidium 85. L'état fondamental considéré est 5S 1/2 , F = 2. Les flèches indiquent la position des deux niveaux hyperfins (F = 2, et F = 3) de l'état excité 5P 1/2 . La flèche du milieu correspond au croisement de niveaux que l'on observe dans les spectres d'absorption saturée. On donne ensuite les plage d'accordabilité de l'asservissement du laser à l'aide d'un acousto optique de fréquence centrale 200 MHz, utilisé en double passage dans l'ordre 1 ou dans l'ordre 2. Figure 5 . 53a) Gain en fonction du désaccord à un photon, ∆, pour les champs sonde (rouge) et conjugué (noir). b) Différence entre le gain G a et G b (en rouge) comparée au spectre d'absorption du faisceau sonde en l'absence de champ pompe (noir). Paramètres : δ/2π = 2 MHz, T =110 • C, P pompe = 500 mW, L =5 cm (longueur de la cellule). Figure 5 . 4 - 54Cartographie du gain G a en fonction de la puissance du laser de pompe et du désaccord ∆. a) Résultats expérimentaux, b) simulations numériques. Paramètres expérimentaux : δ/2π = 5 MHz, T entre 110 • C et 114 • C, L =5 cm (longueur de la cellule). Données numériques : γ/2π = 500 kHz, αL 5000. Figure 5 . 55a) Effet de la température sur le maximum (en fonction de ∆) du gain G a (rouge) et G b (noir). b) Position (désaccord à 1 photon) du maximum de gain en fonction de la température pour la sonde (rouge) et le conjugué (noir). Paramètres expérimentaux : δ/2π = 5 MHz, P = 400 mW. B. 3 Figure 5 . 35Effet du désaccord à deux photons : δ A une température fixée, on fait varier le désaccord à deux photons et on cherche le maximum de gain en fonction de ∆. La figure 5.6 présente les résultats obtenus. Des gains 6a) Effet du désaccord à deux photons, δ sur le maximum du gain G a (rouge) et G b (noir). b) Position (désaccord à 1 photon) du maximum de gain en fonction de δ pour la sonde (rouge) et le conjugué (noir). Paramètres expérimentaux : T = 110 • C, P = 400 mW. Figure 5 . 7 - 57Puissance de bruit à 1.5 MHz mesurée par détection balancée pour un faisceau cohérent (noir) et pour les faisceaux sonde et conjugué (rouge). La puissance incidente correspond à la somme de la puissance des deux voies. Le rapport de la pente des ajustements linéaires donne le taux de compression. Paramètres expérimentaux : δ/2π = 10 MHz, ∆/2π = 900 MHz, P = 1,08 W, T = 114 • C, L =5 cm, RBW = 100 kHz, VBW = 10 Hz. Figure 5 . 8 - 58Effet du désaccord à deux photons sur a) le gain de la sonde et sur b) les corrélations entre les champs sonde et conjugué. En noir, les données expérimentales et en rouge le modèle théorique. Paramètres expérimentaux : ∆/2π = 1 GHz, P = 1,08 W, T = 114 • C, L =5 cm, RBW = 100 kHz, VBW = 10 Hz. Données numériques correspondantes : αL = 5900, γ/2π = 500 kHz, Ω/2π=0.47 GHz. Figure 5 . 9 - 59Comme nous l'avons déjà signalé, le gain est maximal autour de δ = −5 MHz, ce qui se comprend en prenant en compte le déplacement lumineux engendré par le faisceau sonde. Par contre les corrélations entre les faisceaux sonde et conjugué sont plus importantes et passent sous la limite quantique standard pour des désaccord positif et donc des gains plus Effet du désaccord à un photon sur a) le gain de la sonde et sur b) les corrélations entre les champs sonde et conjugué. En noir, les données expérimentales et en rouge le modèle théorique prenant en compte de l'absorption, en rouge pointillé le modèle théorique non corrigé par l'absorption (ni l'efficacité quantique). Paramètres expérimentaux : ∆/2π = 1 GHz, P = 1,08 W, T = 114 • C, L =5 cm, RBW = 100 kHz, VBW = 10 Hz. Données numériques correspondantes : αL = 5900, γ/2π = 500 kHz, Ω/2π=0.47 GHz. Figure 5 . 10 - 510Effet de la puissance de pompe sur a) le gain de la sonde et sur b) les corrélations entre les champs sonde et conjugué. En noir, les données expérimentales et en rouge le modèle théorique. Paramètres expérimentaux : ∆/2π = 1 GHz, δ = 10 MHz, T = 116 • C, L =5 cm, RBW = 100 kHz, VBW = 10 Hz. Données numériques correspondantes : αL = 6600, γ/2π = 500 kHz. C. 5 Figure 5 . 11 - 5511Effet de l'épaisseur optique : α L Nous avons étudié le rôle de l'épaisseur optique sur le niveau des corrélations générés. Comme nous l'avons vu dans le paragraphe précédent, à 116 • C, augmenter la puissance de pompe permet d'accroitre les corrélations. Les résultats présentés sur la figure 5.11, montrent que ce n'est pas le cas à toutes les températures. On peut voir sur la figure 5.11 a), que pour des températures plus élevées (125 • C), il existe un maximum dans le niveau des corrélations pour une puissance de pompe autour de 500 mW. Bien que les simulations Effet de la température (de l'épaisseur optique) sur les corrélations entre les champs sonde et conjugué. a) les données expérimentales et b) le modèle théorique. Paramètres expérimentaux : ∆/2π = 1 GHz, δ = 10 MHz, L =5 cm, RBW = 100 kHz, VBW = 10 Hz. Données numériques correspondantes : γ/2π = 500 kHz. Figure 5 . 12 - 512Effet d'un champ magnétique transverse sur a) le gain de la sonde (noire) et du conjugué (rouge) et sur b) les corrélations entre les champs sonde et conjugué. Paramètres expérimentaux : ∆/2π = 1 GHz, δ = 4 MHz, P = 1,1 W, T = 114 • C, L =5 cm, RBW = 100 kHz, VBW = 10 Hz. Figure 5 . 13 -Figure 5 . 14 - 513514Effet d'un champ magnétique transverse sur a) le gain de la sonde et sur b) les corrélations entre les champs sonde et conjugué. Paramètres expérimentaux : ∆/2π = 1 GHz, P = 1,1 W, T = 114 • C, L =5 cm, RBW = 100 kHz, VBW = 10 Hz. Effet du bruit en entrée sur le champ sonde sur les corrélations entre les champs sonde et conjugué. En rouge les données brutes. En noir les données corrigées des pertes de façon a minimiser les résidus lors d'un ajustement linéraire (en vert). On obtient un coefficient de pertes de 0,257. Paramètres expérimentaux : ∆/2π = 1 GHz, P = 1,1 W, δ = +5 MHz, T = 114 • C, L =5 cm, RBW = 100 kHz, VBW = 10 Hz. Comme nous l'avons présenté au chapitre 2, il est très important de contrôler le bruit sur le faisceau sonde [McKenzie 04]. Pour démontrer son rôle crucial dans la génération de corrélations quantiques par mélange à 4 ondes, nous avons réalisé une série de mesures en ajoutant volontairement du bruit sur le faisceau sonde entrée du milieu en utilisant une source RF bruitée (figure 5.14). Figure 5 . 15 - 515Spectre de bruit de la différence d'intensité entre les champs sonde et conjugué comparé au bruit quantique standard. Paramètres expérimentaux : ∆/2π = 0.8 GHz, P = 1,2 W, δ = +6 MHz, T = 118 • C, L =1.25 cm, RBW = 100 kHz, VBW = 10 Hz. Figure 5 . 16 - 516Correction de la valeur mesurée de S N − . Valeur de S N − vraie pour une valeur mesurée de -9.2dB en fonction de l'efficacité de détection. --Figure 5 . 17 - 51750 -40 -30 -20 -50 -40 -30 -20 -Spectres de G a (rouge) et G b (noir) en fonction du désaccord à 2 photons. a) Données expérimentales, b) simulation numérique. Paramètres expérimentaux : ∆/2π = 0.8 GHz, P = 0.4 W, T = 90 • C, L =1.25 cm. Données numériques : γ/2π = 500 kHz, αL= 500, Ω = 0.4 GHz. Figure 5 . 18 - 518Démonstration expérimentale d'une "lame séparatrice quantique". a) Gains sur les faisceaux sonde et conjugué en l'absence (noir) et en présence (rouge) du champ pompe. b) Spectres de bruit de la différence d'intensité comparé à la limite quantique standard. Paramètres expérimentaux : ∆/2π = 1 GHz, δ = −52 MHz, P = 0.4 W, T = 126 • C, L =1.25 cm. Rémoville 09]. Un second montage d'absorption saturée utilisant une partie du faisceau sonde permet de disposer d'une référence en fréquence lorsque l'on balaye la fréquence de la diode laser. Ces deux faisceaux sont superposés dans une cellule de rubidium 85 isotopique à une température comprise entre 90 et 135 • C. Le waist du faisceau de contrôle mesure 250 µm et celui de faisceau sonde 125 µm. Les positions du waist des deux faisceaux se situent au milieu de la cellule de longueur L =5 cm. Le faisceau de contrôle est filtré en sortie de la cellule et le faisceau sonde est collecté par une photodiode dont le photocourant est enregistré par un oscilloscope numérique. 1. www.toptica. Figure 6 . 1 - 61Schéma du dispositif expérimental utilisé dans les expériences de transparence électromagnétiquement induite sur la transition 5S 1/2 Figure 6 . 3 - 63Spectres d'absorption de la sonde. La figure a) représente l'ensemble du spectre mesuré en présence (rouge) et en l'absence (noir) du champ de contrôle. La figure b) correspond à la zone notée i) dans laquelle, on peut observer le phénomène d'EIT, la figure c) correspond à la zone notée ii) (sur cette figure l'échelle horizontale est décalée de 3036 MHz).Paramètres expérimentaux : T = 130 • C, L =5cm, P controle =120 mW. de contrôle réalise le pompage optique de la majorité des atomes dans l'état 5S 1/2 , F = 3. Le niveau 5S 1/2 , F = 2 étant par conséquent moins peuplé, le faisceau sonde à résonance sur la transition F = 2 → F = 2 est moins fortement absorbé. On observe le pic de transmission noté (a) sur la figure 6.4. F=2Figure 6 . 4 - 64de contrôle réalise le pompage optique de façon similaire à ce qui est décrit dans la situation précédente. On observe de même un pic d'absorption. Au sein de ce pic d'absorption, on observe un pic de transmission qui correspond au phénomène d'EIT dans une configuration en Λ. Ce profil est noté (e) sur la figure 6.4.Le faisceau de contrôle pompe optiquement le niveau 5S 1/2 , F = 3. De manière similaire à ce qui est décrit dans la situation d). On observe un pic d'absorption noté (Spectres d'absorption de la sonde. Détails de la figure 6.3. Figure 6 . 5 - 65Largeur de la fenêtre d'EIT en fonction de la puissance du faisceau de contrôle. L'ajustement est donné par le modèle décrit dans [Javan 02]. réalisé une série de mesures pour des puissances du laser de contrôle variant entre 0 et 70 mW. Le faisceau de contrôle est focalisé sur 450 microns et le faisceau sonde sur 400 microns (rayon à 1/e 2 .). Ainsi, à 130 • C, le taux de décohérence des niveaux hyperfins vaut γ 0.6 MHz. Les résultats expérimentaux sont présentés sur la figure 6.5 et nous les comparons au modèle décrit dans [Javan 02]. Il est intéressant de noter que le seul paramètre ajustable dans ce modèle est le taux de décohérence γ. Notons de plus que l'ajustement présenté sur la figure 6.5 utilise une valeur de γ = 0.64 MHz, ce qui est consistant avec la valeur estimée (par le temps de passage des atomes dans le faisceau) de γ 0.6 MHz. L'écart entre les deux valeurs est inférieur à 10%, ce qui doit être comparé avec l'incertitude sur la mesure de la taille du faisceau laser de contrôle dont dépend la valeur estimée de γ et qui est aussi de l'ordre de 10%. d'onde (dans le vide) 421.55 nm Temps de vie du niveau excité 4.19 µs Taux de relaxation (largeur naturelle -FWHM) 1.50 × 10 6 s −1 = 2π 0.238 MHz Figure 6 - 6Schémas de niveaux pour les transitions D1 et 5S 1/2 → 6P 1/2 du 85 Rb D Modèle en double-Λ et 85 Rb 20d) On peut alors écrire la matrice de couplage pour les différentes polarisations linéaires à l'aide d'une combinaison linéaire des M σ + i j et M σ − i j . Si désormais, on souhaite connaitre les couplages pour deux polarisations linéaires orthogonales, que l'on notera H et V, dans les bases B (2F+1) V , on peut utiliser les matrices de passage que l'on a définies à l'équation (17). On peut choisir par exemple pour les deux polarisations H et V de prendre les superpositions : Figure 7 - 7et la base B(7) V sous la forme :B (7) V = {|a ,|b , |c , |d , |e , | f , |g }. (24b) On peut donc résumer les couplages pour les polarisations H et V dans ces bases sous la forme des schémas de la figure 7. Cette représentation nous permet de justifier pourquoi nous avons utilisé un modèle en double-Λ pour décrire l'interaction des atomes. En effet le système peut se décomposer en de nombreux sous-systèmes en double-Λ. Prenons l'exemple de la transition F = 2 → F = 2 (schéma 7 a)). Dans ce cas, on obtient un premier système en double-Λ pour les niveaux |A et |C de l'état fondamental et de l'état excité. Une polarisation linéaire (la pompe par exemple), couple les deux niveaux |A et les deux niveaux |C (traits pointillés), tandis que la polarisation linéaire orthogonale (la sonde par exemple) couple les niveaux |A du fondamental et |C de l'état excité et réciproquement |C du fondamental et |A de l'état excité (traits pleins). Il s'agit bien d'un système en double-Λ comme nous l'avons décrit dans le chapitre 4. Par contre, il est important de noter, qu'il s'agit bien sur d'un schéma simplifié car on peut le voir sur la figure 7, il est possible pour les atomes de se désexciter de l'état |C vers l'état fondamental |E . Dans ce cas l'atome sort du schéma en double-Λ et doit être repompé pour participer à nouveau au processus de mélange à ondes. Par ce repompage, il peut retourner dans le double-Λ composé des niveaux |A et |C ou basculer de l'autre côté dans le second sous-système en double-Λ composé des niveaux |B et |D . 228 Annexes Une des perspectives de ce travail de thèse serait donc d'étendre notre étude théorique à un modèle microscopique plus complet en prenant en compte l'ensemble des sous Schémas de niveaux équivalents pour la transition D1 du 85 Rb pour deux polarisations linéaires croisées H (en pointillés) et V (en traits pleins). a) F = 2 → F = 2, b) F = 3 → F = 3, c) F = 3 → F = 2, d) F = 2 → F = 3. Quantification du champ et états quantiques de la lumière. . . . . . . . . 24 A.1 Description classique du champ . . . . . . . . . . . . . . . . . . 24 A.2 Description quantique du champ . . . . . . . . . . . . . . . . . Représentation des états du champ et mesure du taux de compression. . . . . . . . . . . . . . . . . . . . . . . . 31 B Quasi-probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 B.1 Etats mixtes et opérateur densité. . . . . . . . . . . . . . . . . . . 32 B.2 Représentation P . . . . . . . . . . . . . . . . . . . . . . . . . . 34 B.3 Représentation de Wigner . . . . . . . . . . . . . . . . . . . . . 35 Linéarisation des opérateurs d'annihilation . . . . . . . . . . . . 36 C Photodétection . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . 37 C.1 Densité spectrale de bruit. . . . . . . . . . . . . . . . . . . . . . 38 C.2 Photo-courant . . . . . . . . . . . . . . . . . . . . . . . . . . Matrice de covariance . . . . . . . . . . . . . . . . . . . . .. . 47 E Interaction lumière-matière. . . . . . . . . . . . . . . . . . . . . . . . . 48 E.1 Hamiltonien de Jaynes Cummings . . . . . . . . . . . . . . . . . 48 E.2 Représentations de Schrödinger et de Heisenberg . . . . . . . . . 49 E.3 Equations de Heisenberg Langevin . . . . . . . . . . . . . . . . . 49 E.4 Equations de Maxwell Langevin . . . . . . . . . . . . . . . . . . 51 Effet Kerr . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 B Source laser et asservissement . . . . . . . . . . . . . . . . . . . . . . . 61 B.1 Laser titane-saphir . . . . . . . . . . . . . . . . . . . . . . . . . 61 B.1.1 Cavité laser . . . . . . . . . . . . . . . . . . . . . . . 61 B.1.2 Réglage de la fréquence . . . . . . . . . . . . . . . . . 63 B.1.3 Électronique . . . . . . . . . . . . . . . . . . . . . . . 64 B.2 Asservissement . . . . . . . . . . . . . . . . . . . . . . . . . Effet des pertes sur la mesure de corrélations . . . . . . 85 F.3.3 Effet du bruit électronique sur la mesure de compression 86 G Calibration du bruit quantique standard . . . . . . . . . . . . . . . . . . 87 G.1 Analyseur de spectre . . . . . . . . . . . . . . . . . . . . . . . . 87 G.2 Mesures . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88 Spectres de bruit . . . . . . . . . . . . . . . . . . . . . 108 C Conclusion du chapitre . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 Evolution des cohérences . . . . . . . . . . . . . . . . 125 B.2.4 Equations de propagation . . . . . . . . . . . . . . . . 127 B.3 Résolution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127 B.4 Valeurs moyennes . . . . . . . . . . . . . . . . . . . . . . . . . 129 B.4.1 Gain . . . . . . . . . . . . . . . . . . . . . . . . . . . 129 B.4.2 Phase . . . . . . . . . . . . . . . . . . . . . . . . . . . 130 B.5 Fluctuations quantiques . . . . . . . . . . . . . . . . . . . . Corrélations quantiques . . . . . . . . . . . . . . . . . . . . . . 138 B.6.1 Corrélations quantiques d'intensité . . . . . . . . . . . 138 B.6.2 Anti-corrélations quantiques de phase . . . . . . . . . 140 C Paramètres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143 C.1 Constante de couplage . . . . . . . . . . . . . . . . . . . . . . . 143 C.2 Décohérence . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143 C.3 Pulsation de Rabi . . . . . . . . . . . . . . . . . . . . . . . . . . 144 D Intrication en variables continues dans un milieu d'atomes froids . . . . . 145 D.1 Inséparabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145 D.2 Limites expérimentales . . . . . . . . . . . . . . . . . . . . . . . 145 D.3 Spectre de gain . . . . . . . . . . . . . . . . . . . . . . . . . . . 146 D.4 Corrélations d'intensité et anti-corrélations de phase . . . . . . . 148 D.5 Contribution des forces de Langevin . . . . . . . . . . . . . . . . 149 D.6 Epaisseur optique . . . . . . . . . . . . . . . . . . . . . . . . . . 150 D.7 Effet de la décohérence . . . . . . . . . . . . . . . . . . . . . . . 150Introduction 15 I Outils théoriques et expérimentaux 21 1 Optique quantique en variables continues 23 A . 25 A.3 Inégalité d'Heisenberg et fluctuations quantiques du champ . . . 25 A.4 Etats nombres, états cohérents et états comprimés . . . . . . . . . 27 A.4.1 Etats nombres . . . . . . . . . . . . . . . . . . . . . . 27 A.4.2 Etats cohérents . . . . . . . . . . . . . . . . . . . . . . 28 A.4.3 Etats gaussiens . . . . . . . . . . . . . . . . . . . . . . 30 A.4.4 Etats comprimés . . . . . . . . . . . . . . . . . . . . . 31 A.4.5 9 10 TABLE DES MATIÈRES B.4 . . 39 C.3 Détection d'intensité . . . . . . . . . . . . . . . . . . . . . . . . 40 C.4 Détection balancée . . . . . . . . . . . . . . . . . . . . . . . . . 41 C.4.1 Différence d'intensité . . . . . . . . . . . . . . . . . . 42 C.4.2 Somme d'intensité . . . . . . . . . . . . . . . . . . . . 42 C.5 Détection homodyne . . . . . . . . . . . . . . . . . . . . . . . . 42 C.6 Effet des pertes . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 D Corrélations quantiques en variables continues. . . . . . . . . . . . . . . 46 D.1 Mesure de corrélations en variables continues . . . . . . . . . . . 46 D.2 2 Techniques expérimentales 53 A Revue des méthodes de production des états non classiques de la lumière . 55 A.1 Mélange à 4 ondes . . . . . . . . . . . . . . . . . . . . . . . . . 56 A.2 Amplificateur paramétrique . . . . . . . . . . . . . . . . . . . . 58 A.3 Génération de seconde harmonique . . . . . . . . . . . . . . . . 59 A.4 . . 65 B.2.1 Élargissement inhomogène par effet Doppler . . . . . . 65 B.2.2 Absorption saturée . . . . . . . . . . . . . . . . . . . . 65 B.2.3 Détection synchrone . . . . . . . . . . . . . . . . . . . 66 B.3 Bruit technique du laser . . . . . . . . . . . . . . . . . . . . . . 67 C Génération de seconde harmonique . . . . . . . . . . . . . . . . . . . . . 67 C.1 Principe de la génération de seconde harmonique . . . . . . . . . 67 C.2 Quasi accord de phase et mise en oeuvre expérimentale . . . . . . 68 D Génération du faisceau sonde . . . . . . . . . . . . . . . . . . . . . . . . 71 D.1 Principe de fonctionnement d'un modulateur acousto-optique . . 71 TABLE DES MATIÈRES 11 D.2 Efficacité de diffraction . . . . . . . . . . . . . . . . . . . . . . . 71 D.3 Mesure du bruit technique sur le faisceau diffracté . . . . . . . . 72 D.3.1 Source RF . . . . . . . . . . . . . . . . . . . . . . . . 72 D.3.2 Amplificateur RF . . . . . . . . . . . . . . . . . . . . 73 D.3.3 Bruit technique . . . . . . . . . . . . . . . . . . . . . 73 E Cellule de Rubidium . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 E.1 Densité atomique . . . . . . . . . . . . . . . . . . . . . . . . . . 77 E.2 Auto-focalisation par effet Kerr optique . . . . . . . . . . . . . . 79 F Photodétection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82 F.1 Efficacité quantique . . . . . . . . . . . . . . . . . . . . . . . . . 82 F.1.1 Détection équilibrée . . . . . . . . . . . . . . . . . . . 82 F.1.2 Corrélation d'intensité . . . . . . . . . . . . . . . . . . 82 F.2 Caractérisation des photo-détecteurs utilisés . . . . . . . . . . . 83 F.3 Effet des imperfections expérimentales . . . . . . . . . . . . . . 84 F.3.1 Effet des pertes sur la mesure de compression . . . . . 84 F.3.2 II Modèle théorique du mélange à 4 ondes 91 3 Approche phénoménologique 93 A Mélange à 4 ondes en optique non-linéaire . . . . . . . . . . . . . . . . 93 A.1 Différentes configurations permettant le processus mélange à 4 ondes 94 A.2 Amplification insensible à la phase . . . . . . . . . . . . . . . . . 94 A.3 Amplification sensible à la phase . . . . . . . . . . . . . . . . . . 98 B Modèle phénoménologique de l'amplificateur linéaire idéal . . . . . . . . 101 B.1 Amplification idéale insensible à la phase . . . . . . . . . . . . . 101 B.1.1 Valeurs moyennes . . . . . . . . . . . . . . . . . . . . 101 B.1.2 Spectres de bruit . . . . . . . . . . . . . . . . . . . . . 102 B.1.3 Effet des pertes . . . . . . . . . . . . . . . . . . . . . 103 B.2 Amplification idéale sensible à la phase . . . . . . . . . . . . . . 107 B.2.1 Modèle et valeurs moyennes . . . . . . . . . . . . . . 107 B.2.2 12 TABLE DES MATIÈRES 4 Modèle microscopique et traitement quantique 113 A Transparence électromagnétiquement induite. Modèle de l'atome en Λ . . 114 A.1 Schéma énergétique à 3 niveaux en simple Lambda . . . . . . . 114 A.2 Equations d'Heisenberg-Langevin . . . . . . . . . . . . . . . . . 115 A.3 Régime stationnaire . . . . . . . . . . . . . . . . . . . . . . . . 117 A.4 Calcul de la susceptibilité diélectrique . . . . . . . . . . . . . . . 117 A.5 Influence des paramètres sur la fenêtre de transparence . . . . . . 118 A.5.1 Effet de la pulsation de Rabi du champ de contrôle . . . 119 A.5.2 Effet du taux de décohérence . . . . . . . . . . . . . . 119 A.5.3 Autres effets . . . . . . . . . . . . . . . . . . . . . . . 119 B Mélange à 4 ondes. Modèle microscopique en double-Λ . . . . . . . . . 119 B.1 Schéma énergétique à 4 niveaux en double Λ . . . . . . . . . . . 121 B.2 Equations d'Heisenberg-Langevin . . . . . . . . . . . . . . . . . 122 B.2.1 Hamiltonien d'interaction . . . . . . . . . . . . . . . . 123 B.2.2 Solutions stationnaires pour les populations . . . . . . 123 B.2.3 . . 131 B.5.1 Fluctuations quantiques d'intensité à un mode . . . . . 131 B.5.2 Fluctuations quantiques de phase à un mode . . . . . . 136 B.6 TABLE DES MATIÈRES 13 D.8 Conclusion sur l'intrication en variables continues dans un milieu d'atomes froids . . . . . . . . . . . . . . . . . . . . . . . . . . . 151 E Extension du modèle microscopique dans le cas d'une vapeur atomique . 152 E.1 Distribution de vitesse . . . . . . . . . . . . . . . . . . . . . . . 152 E.2 Etat stationnaire et absorption résiduelle . . . . . . . . . . . . . . 152 E.2.1 Préparation des atomes . . . . . . . . . . . . . . . . . 152 E.2.2 Pertes par absorption linéaire . . . . . . . . . . . . . . 154 E.3 Effet de l'élargissement inhomogène . . . . . . . . . . . . . . . . 155 E.3.1 Position du problème . . . . . . . . . . . . . . . . . . 156 E.3.2 Modèle Perspectives . . . . . . . . . . . . . . . . . . . . . . . . . . .. . 162 F Corrélations quantiques en variables continues dans une vapeur atomique chaude . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163 F.1 Corrélations quantiques sur la transition 5S 1/2 → 5P 1/2 du rubidium.163 F.1.1 Gain . . . . . . . . . . . . . . . . . . . . . . . . . . . 163 F.1.2 Corrélations quantiques : effet de l'épaisseur optique . . 164 F.1.3 Effet de la pulsation de Rabi : Ω . . . . . . . . . . . . Contexte . . . . . . . . . . . . . . . . . . . . . . . . . 172 F.3.2 Paramètres . . . . . . . . . . . . . . . . . . . . . . . . 172 F.3.3 Augmenter l'épaisseur optique . . . . . . . . . . . → 6P 1/2 . . . . . . . . . . . . . . . . . . . . . . 175 G Conclusion du chapitre . . . . . . . . . . . . . . . . . . . . . . . . . . . 175 Optimisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198 D Mise en évidence du régime G a + G b < 1 . . . . . . . . . . . . . . . . . 200 D.1 Etude du gain . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200 D.2 "Lame séparatrice quantique" . . . . . . . . . . . . . . . . . . . 201 D.3 Perspectives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202 E Conclusion du chapitre . . . . . . . . . . . . . . . . . . . . . . . . . . . 202 Transparence électromagnétiquement induite à 422 nm . . . . . . . . . . 206 A.1 Spectre de transmission . . . . . . . . . . . . . . . . . . . . . . . 206 A.2 Etude de la fenêtre de transparence . . . . . . . . . . . . . . . . 211 B Conclusion du chapitre . . . . . . . . . . . . . . . . . . . . . . . . . . . 212 Transformée de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . 219 B Calculs des coefficients de diffusion . . . . . . . . . . . . . . . . . . . . 220 C Niveaux d'énergie du rubidium . . . . . . . . . . . . . . . . . . . . . . . 221 D Modèle en double-Λ et 85 Rb . . . . . . . . . . . . . . . . . . . . . . . . 223 D.1 Moments cinétiques . . . . . . . . . . . . . . . . . . . . . . . . 223 D.2 Introduction émis par cascade radiative dans un jet calcium. . 157 E.3.4 Intégration numérique de la distribution de vitesses . . 158 E.4 Conclusion sur l'extension du modèle à une vapeur atomique . . . 160 E.5 . 165 F.1.4 Effet du désaccord à un photon : ∆ . . . . . . . . . . . 166 F.1.5 Effet du désaccord à deux photons : δ . . . . . . . . . . 168 F.1.6 Spectres de bruit : effet de la fréquence d'analyse ω . . 168 F.1.7 Contribution des forces de Langevin . . . . . . . . . . 170 F.2 Corrélations quantiques pour G a + G b < 1 . . . . . . . . . . . . . 170 F.3 Corrélations quantiques sur la transition 5S 1/2 → 6P 1/2 du rubidium.172 F.3.1 . . 173 F.3.4 Exploration de l'espace des paramètres . . . . . . . . . 174 F.4 Conclusion sur la production de corrélations quantiques sur la transition 5S 1/2 III Réalisations expérimentales 177 5 Génération d'états comprimés à 795 nm 179 A Dispositif expérimental . . . . . . . . . . . . . . . . . . . . . . . . . . . 180 B Caractérisation du milieu atomique en présence d'un champ pompe . . . 182 14 TABLES DE MATIÈRES B.1 Gain en fonction du désaccord à un photon . . . . . . . . . . . . 184 B.2 Effet de l'épaisseur optique . . . . . . . . . . . . . . . . . . . . . 185 B.3 Effet du désaccord à 2 photons . . . . . . . . . . . . . . . . . . . 186 C Corrélations quantiques à 795 nm . . . . . . . . . . . . . . . . . . . . . 187 C.1 Mesures des corrélations quantiques . . . . . . . . . . . . . . . . 188 C.2 Effet du désaccord à deux photons . . . . . . . . . . . . . . . . . 189 C.3 Effet du désaccord à un photon . . . . . . . . . . . . . . . . . . . 190 C.4 Effet de la pulsation de Rabi . . . . . . . . . . . . . . . . . . . . 191 C.5 Effet de l'épaisseur optique . . . . . . . . . . . . . . . . . . . . . 192 C.6 Effet d'un champ magnétique transverse . . . . . . . . . . . . . . 193 C.7 Effet du bruit en entrée sur le champ sonde . . . . . . . . . . . . 197 C.8 6 Transparence électromagnétiquement induite à 422 nm 203 A Conclusion 213 Annexes 219 A 1.16) L'état fondamental, c'est-à-dire l'état de plus basse énergie, est noté |0 . Cet état correspond au vide électromagnétique. Bien que son appellation soit trompeuse, le vide ne correspond pas à une énergie nulle pour le système. En effet le Hamiltonien du champ pour un mode s'écritĤ= 1 2 ω(â †â +ââ † ). (1.17) La relation de commutation [â,â † ] = 1 permet d'écrire le Hamiltonien sous la forme : On retrouve ici la forme que prendrait la valeur moyenne de l'intensité du champ dans une description classique pour un champ d'amplitude α. Par ailleurs, il est intéressant de noter qu'un état cohérent n'est pas vecteur propre de l'opérateur nombre et par conséquent du Hamiltonien du champ. Cela veut dire que la quantité d'énergie d'un état cohérent n'est pas parfaitement définie. On peut comprendre cela comme une conséquence du fait qu'un état cohérent peut être écrit dans la base des états de Fock comme une combinaison linéaire d'états à nombre de photons différents c'est-à-dire d'énergies différentes :22) et la valeur moyenne du nombre de photons dans ce mode est donnée par : â †â = |α| 2 . (1.23) |α = ∞ n=0 n|α |n . (1.24) A l'aide de la relation (1.20) on peut écrire : Les fluctuations sont données par une ellipse autour de la valeur moyenne. Le produit des variances des quadraturesX φ etŶ φ vaut 1 dans le cas d'états comprimés minimaux et est supérieur à 1 sinon. sont deux états cohérents. Nous l'avons vu précédemment, le vide peut être décrit comme un état de Fock. Il peut aussi être vu comme un état cohérent et donc possède les mêmes fluctuations que les autres états cohérents. Un état cohérent non vide peut donc être décrit comme un déplacement de l'état vide de valeur moyenne nulle vers un état de valeur moyenne |α| 2 .30 Chapitre 1. Optique quantique en variables continues Figure 1.3 -a) Etat comprimé en intensité et b) état comprimé en phase dans le repère de Fresnel. La réalisation expérimentale de tels états est un enjeu majeur en optique quantique depuis les trois dernières décennies[Bachor 04]. De nombreuses méthodes ont été utilisées et nous en décrirons quelques unes dans le chapitre 2. Comme nous l'avons vu pour des états cohérents, une description corpusculaire, c'est-à-dire en terme de statistique du flux de photons dans le mode peut être utile. Dans le cas d'un état comprimé en intensité la statistique sera sub-poissonienne et le bruit de mesure sera donc inférieur au bruit quantique1. (1.31) standard : ∆N 2 < N . (1.32) A.4.5 Représentation des états du champ et mesure du taux de compression. Lambrecht 96, Silberhorn 01, Bachor 04].B Quasi-probabilité B.1 Etats mixtes et opérateur densité. La base des états de Fock n'est pas adaptée à la description des états mixtes. En effet, plus un état mixte s'éloigne d'une description sous la forme d'un état pur, plus la taille de l'opérateur densité et de sa décomposition sur la base des états de Fock augmentent. Or dans une expérience d'optique quantique, le manque de connaissances sur l'état initial, les pertes et plus généralement les phénomènes de décohérence vont éloigner les états étudiés d'états purs. C'est pourquoi des représentations basées sur une description en terme d'états cohérents ont été introduites. Il s'agit des représentations dites P et W [Meystre 07].Contrairement aux états de Fock, les états cohérents forment une base sur-complète de l'espace des états. Les états cohérents forment une famille génératrice (non libre) et ne sont pas orthogonaux. Le caractère générateur de cet ensemble va permettre de décrire l'opérateur densité comme une somme d'éléments diagonaux :). (1.38) B.2 Représentation P ρ = P(α)|α α|d 2 α, (1.39) Gardiner 91, Walls 08] et par conséquent ne seront pas étudiées ici. Par contre, nous allons justifier le fait de pouvoir linéariser les opérateurs de création et d'annihilation. En effet, dans les problèmes étudiésFigure 1.7 -Correspondance entre la représentation de Wigner et le diagramme de Fresnel pour un état cohérent dans ce manuscrit, le bruit quantique lié aux fluctuations est bien plus faible que les valeurs moyennes de l'amplitude du champ. Dans ce cas, nous pouvons utiliser le formalisme introduit dans le domaine de l'optique quantique par [Lugiato 82] et utilisé notamment dans où α est un nombre complexe représentant l'amplitude moyenne du champ et δâ(t) est un opérateur dépendant du temps représentant les fluctuations deâ.Pour écrire l'opérateur annihilation sous cette forme, nous avons fait l'hypothèse que la valeur moyenne de δâ(t) est nulle et que son module est très petit devant le module de α. La seconde hypothèse, nous permettra par la suite de faire une approximation au premier ordre en δâ(t) dans les grandeurs étudiées. On peut noter que dans ce cas, les termes non négligés ne contiennent pas de produit d'opérateurs et que par conséquent tous les termes commutent.[Yurke 84, Reynaud 89] :â (t) α + δâ(t), (1.46) 53 ) 53où hν est l'énergie d'un photon. On exprime la valeur moyenne i du photo-courant sous la forme :i = ηe P hν (1.54) Rappelons que le bruit quantique standard ou shot-noise correspond à une statistique pois- sonienne de photons incidents et donc d'électrons. Pour un nombre moyen d'électrons n e , on a : ∆n 2 e = n e . (1.55) On en déduit la variance du photo-courant ∆i(t) 2 pour un temps ∆t : ∆i(t) 2 = e 2 ∆n 2 e ∆t 2 = e 2 n e ∆t 2 . (1.56) tiques pour décrire les systèmes étudiés. Il s'agit des vecteurs d'états d'une part et des observables d'autre part. Les premiers étant des vecteurs dans un espace de Hilbert tandis que les seconds sont des opérateurs hermitiens agissant sur les éléments (vecteurs d'états) de cet espace. Deux représentations peuvent alors être adoptées pour décrire l'évolution du système :77) où l'on a introduit le Hamiltonien des atomes seulŝ H at = ω 0 |e e|, (1.78a) le Hamiltonien du champ seulĤ ch = ω L (â †â + 1 2 ), (1.78b) 1. Dans l'ordre symétrique on a la relation : δâ(t)δâ † (t ) S = 1 2 δâ(t)δâ † (t ) + 1 2 δâ † (t)δâ(t ) . et le Hamiltonien d'interactionĤ int = − D · E. (1.78c) Le Hamiltonien d'interaction écrit ainsi correspond au terme le plus bas des termes d'in- teraction à savoir le terme dipolaire électrique où D est le dipôle atomique et E le champ électrique. On peut l'écrire dans le cas d'un atome à deux niveaux couplé avec un mode du champ :Ĥ int = i g â † |g e| +â|e g| . (1.78d) avec la constante de couplage g = µE où µ est le moment de dipôle de la transition et E le champ électrique d'un photon. E.2 Représentations de Schrödinger et de Heisenberg De manière générale, la mécanique quantique utilise deux types d'objets mathéma- -La représentation de Schrödinger qui consiste à considérer indépendants du temps et donc invariants temporellement les observables, et de décrire l'évolution du sys- tème par l'évolution des vecteurs d'état |Ψ(t) . Cette évolution est alors régie par l'équation de Schrödinger que l'on peut écrire pour un HamiltonienĤ(t) : i d dt |Ψ(t) =Ĥ(t) |Ψ(t) . (1.79) -Dans la représentation de Heisenberg, on décrit le système par un vecteur d'état indépendant du temps et des observables qui évoluent temporellement. Cette repré- sentation est très souvent adoptée en optique quantique du fait de la grande similarité que l'on observe entre les équations d'évolution des opérateurs champ et les équa- tions de Maxwell de l'électromagnétisme classique. Cette évolution est régie par l'équation de Heisenberg qui donne l'évolution temporelle des opérateurs : . . 75 G Calibration du bruit quantique standard . . . . . . . . . . . . . . . . . . . 80 22 ) 22où S elec est la densité spectrale de bruit de la chaine de détection. Comme S elec est facilement mesurable en bloquant tous les champs lumineux, on peut calibrer le bruit électronique et le soustraire aux mesures. On présentera donc dans ce manuscrit, le bruit mesuré brut et le bruit corrigé du bruit électronique. .www.agilent.com/ 88 Chapitre 2. Techniques expérimentales Nous avons mis en évidence le régime dans lequel devait fonctionner une source RF et un amplificateur pour minimiser le bruit technique sur le faisceau diffracté par un MAO alimenté par cette source. -Nous avons démontré que la densité d'atomes dans notre cellule était surévaluée par la relation de Clausius-Clapeyron et nous avons obtenu une loi empirique pour déterminer cette densité en fonction de la température de la cellule. ondes en optique non-linéaire . . . . . . . . . . . . . . . . . . 85 A.1 Différentes configurations permettant le processus mélange à 4 ondes . 85 A.2 Amplification insensible à la phase . . . . . . . . . . . . . . . . . . . . 86 A.3 Amplification sensible à la phase . . . . . . . . . . . . . . . . . . . . . 89 B Modèle phénoménologique de l'amplificateur linéaire idéal . . . . . . . . . 92 B.1 Amplification idéale insensible à la phase . . . . . . . . . . . . . . . . 92 B.2 Amplification idéale sensible à la phase . . . . . . . . . . . . . . . . . 98 C Conclusion du chapitre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 A Mélange à 4 ondes en optique non-linéaireLes processus d'amplification sensible et insensible à la phase sont deux processus paramétriques d'optique non-linéaire largement étudiés [Mollow 67, Baumgartner 79, Collett 84, Holm 87, Gigan 06]. On peut, entre autres, observer ces processus dans un milieu de susceptibilité non-linéaire χ (3) par mélange à 4 ondes [Scully 97, Shen 03, Boyd 08]. Nous allons nous intéresser dans ce chapitre aux configurations qui permettent d'obtenir ces deux effets. Nous les traiterons tout d'abord dans le cadre du formalisme de l'optique non-linéaire afin de déterminer l'expression générale des champs en sortie du milieu en fonction de la susceptibilité non-linéaire χ (3) et de l'amplitude du champ pompe. Dans cette étude, nous nous limiterons à une description scalaire du champ électrique et de la polarisation (χ (3) scalaire) et à des milieux non-linéaires non dissipatifs (n et χ (3) réels).90 Chapitre 2. Techniques expérimentales Deuxième partie Modèle théorique du mélange à 4 ondes 91 CHAPITRE 3 Approche phénoménologique Sommaire A Mélange à 4 4 ) 4et P(z, t) est la polarisation non-linéaire du milieu qui est donnée, avec les approximations 1 que nous avons faites, par [Scully 97, Boyd 08] : Jeffers 93] et développé par [Fiorentino 02] et plus récemment104 Chapitre 3. Approche phénoménologique ... Zone de gain 2 Zone de gain 1 Zone de pertes 1 Zone de pertes 2 Mode a Mode b Détecteurs - i(t) Sommaire A Transparence électromagnétiquement induite. Modèle de l'atome en Λ . . 104 B Mélange à 4 ondes. Modèle microscopique en double-Λ . . . . . . . . . . . 110 C Paramètres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131 D Intrication en variables continues dans un milieu d'atomes froids . . . . . . 133 E Extension du modèle microscopique dans le cas d'une vapeur atomique . . 140 F Corrélations quantiques en variables continues dans une vapeur atomique chaude . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150 G Conclusion du chapitre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162 Pour les variables atomiques, nous utiliserons les opérateurs atomiques collectifs tels que proposés dans[Fleischhauer 95, Lukin 00a, Dantan 05]. Les opérateurs collectifs sont définis sur une tranche ∆z contenant un grand nombre d'atomes N z 1 :1) avec E a = ω a 2 0 V , le champ électrique d'un photon. En conclusion, pour un milieu constitué d'atomes froids, le terme dominant est γ B et on a donc γ 1 kHz.89) où nous avons introduit les taux suivants : -γ col est le taux de décohérence collisionel, déterminé par les collisions rubidium- rubidium (ou les collisions rubidium-gaz tampon dans le cas d'une cellule contenant un gaz tampon) [Oreto 04]. -Le terme γ B correspond au déphasage introduit par une inhomogénéité du champ magnétique. Typiquement, dans la littérature, il est usuel de trouver des valeurs de γ B 1 kHz. -γ t provient du temps de transit des atomes dans un faisceau de diamètre R à une vitesse v. S'il est nul pour un milieu constitué d'atomes froids, ce terme sera le terme dominant dans le cas d'une vapeur atomique. Il est donné en l'absence d'un gaz tampon par [Oreto 04] : γ t =v R . (4.90) 91 ) 91où ℘ est le dipole de la transition atomique et E le champ électrique correspondant au faisceau laser. Ce champ E s'exprime en fonction de l'intensité I du laser sous la forme :E = 2I 0 c . (4.92) D. Intrication en variables continues dans un milieu d'atomes froids 145 Expérimentalement, les grandeurs accessibles sont la puissance P du laser et son waist w (rayon à 1/e 2 ). L'intensité s'écrit donc : I = P πw 2 . (4.93) On peut donc donner un ordre de grandeur des pulsations de Rabi accessibles expérimen- talement : -Sur la transition D1 (5S 1/2 → 5P 1/2 ) à 795 nm du rubidium 85, une puissance de laser de 1W et une focalisation sur un waist de 600 microns donnent une pulsation de Rabi Ω = 2π × 1 GHz. -Sur la transition à 422 nm (5S 1/2 → 6P 1/2 ) du rubidium 85, une puissance de laser de 300 mW et une focalisation sur un waist de 200 microns donnent une pulsation de Rabi Ω = 2π × 0.15 GHz. Sommaire A Dispositif expérimental . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166 B Caractérisation du milieu atomique en présence d'un champ pompe . . . . 168 C Corrélations quantiques à 795 nm . . . . . . . . . . . . . . . . . . . . . . . 172 D Mise en évidence du régime G a + G b < 1 . . . . . . . . . . . . . . . . . . . . 184 E Conclusion du chapitre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186 Sommaire A Transparence électromagnétiquement induite à 422 nm . . . . . . . . . . . 190 A.1 Spectre de transmission . . . . . . . . . . . . . . . . . . . . . . . . . . 190 A.2 Etude de la fenêtre de transparence . . . . . . . . . . . . . . . . . . . 194 B Conclusion du chapitre . . . . . . . . . . . . . . . . . . . . . . . . . . . Hau 99] puis de lumière arrêtée [Liu 01]. Plus récemment, 203 deux équipes ont montré que le phénomène d'EIT permettait de stocker et de restituer des états vides comprimés [Appel 08] et [Arikawa 10, Honda 08] Enfin les travaux de thèse Jean Cviklinski [Cviklinski 08] et Jérémie Ortalo [Ortalo 09] sont consacrés à la réalisation et à l'étude d'une mémoire quantique via le phénomène d'EIT. De plus, il a été souligné par de nombreux auteurs qu'à l'aide des effets d'EIT [Harris 97], il était possible d'amplifier fortement les interactions non-linéaires par rapport à un milieu modélisé par un système résonant à deux niveaux [Li 96, Lu 98, Li 07]. Rb . Un champ de contrôle, à 422 nm, généré par doublage de fréquence (SHG) d'un laser titane saphir continu interagit dans une vapeur de 85 Rb avec un champ sonde à la même longueur d'onde, produit par une diode laser en cavité étendue (ECDL). Un montage d'absorption saturé permet de disposer d'une référence de fréquence pour le faisceau sonde. Chapitre 6. Transparence électromagnétiquement induite à 422 nm A Transparence électromagnétiquement induite sur la transition 5S 1/2 → 6P 1/2 du 85 Rb La transparence électromagnétiquement induite est un phénomène largement étudié dans la littérature [Harris 90, Imamoglu 91, Arimondo 96] qui a été observé sur de nombreuses transitions atomiques en particulier les raies D1 et D2 du rubidium 85. Une étude extensive du phénomène d'EIT dans une vapeur de rubidium peut être trouvée dans→ 6P 1/2 du 85 206 Table 1 - 1) avec τ = 2Γ 2 + 4Ω 2 + 4ω 2 0 + 8∆ 2 + 8∆ω 0 . La matrice des coefficients de diffusion symétrisés [D] est donnée par : Nous rappelons ici les principales données correspondant aux propriétés physiques ainsi qu'aux transitions optiques étudiées pour le 85 Rb. Ces données sont issues de [Steck 08]. Pression de vapeur saturante à 25 • C 3.92 × 10 −7 Torr Spin du noyeau 5/2 Principales propriétés physique du 85 Rb. Dans un deuxième temps nous allons donner les grandeurs associées à la transition optique D1 du 85 Rb (5S 1/2 → 5P 1/2 ). 2π 377.107 THz Longueur d'onde (dans le vide) 794.979 nm Temps de vie du niveau excité 27.68 ns Taux de relaxation (largeur naturelle -FWHM)[D] = [D 1 ] + [D 2 ] 2 (13) 230 Annexes [ AnnexesWei 98] C Wei, D Suter, ASM Windsor & NB Manson. ac Stark effect in a doubly driven three-level atom. Phys. Rev. A, vol. 58, no. 3, page 2310, 1998. Wu, H J Kimble, J Hall & H Wu. Generation of squeezed states by parametric down conversion. Physical Review Letters, vol. 57, no. 2520, 1986. Wu, M Xiao & H J Kimble. Squeezed states of light from an optical parametric oscillator. J. Opt. Soc. Am. B, vol. 4, no. 10, page 1465, 1987. Yariv & D Pepper. Amplified reflection, phase conjugation, and oscillation in degenerate four-wave mixing. Optics Letters, vol. 1, no. 1, page 16, 1977. [Yu 02] T Yu & J Eberly. Phonon decoherence of quantum entanglement : Robust and fragile states. Physical Review B, vol. 66, no. 193306, 2002. [Yuen 79] H Yuen & JH Shapiro. Generation and detection of two-photon coherent states in degenerate four-wave mixing. Optics Letters, vol. 4, no. 10, page 334, 1979. [Yurke 84] B Yurke. Use of cavities in squeezed-state generation. Phys. Rev. A, vol. 39, no. 408, 1984. [Zeilinger 99] Anton Zeilinger. Experiment and the foundations of quantum physics. Reviews of Modern Physics, vol. 71, page 288, 1999. [Zhu 96] Y Zhu & T Wasserlauf. Sub-Doppler linewidth with electromagnetically induced transparency in rubidium atoms. Phys. Rev. A, vol. 54, no. 3653, 1996. [Zhu 97] Y Zhu, T Wasserlauf & P Sanchez. Effect of optical pumping and Raman scattering on the degenerate four-wave mixingin coherently pumped rubidium atoms. Phys. Rev. A, vol. 55, no. 668, 1997. [Zibrov 99] AS Zibrov, MD Lukin & Marlan O Scully. Nondegenerate parametric self-oscillation via multiwave mixing in coherent atomic media. Physical Review Letters, vol. 83, no. 20, page 4049, 1999.[Wu 86] L [Wu 87] L [Yariv 77] A Chapitre 1. Optique quantique en variables continues . Une autre méthode utilisant une pompe régulière pour produire une statistique sub-poissonienne dans l'émission de photons a pu permettre de générer des états non-classiques. Une mise en oeuvre dans les diodes lasers alimentées par un courant régulier et stabilisé est décrite dans[Marin 95]. . Même si des expériences similaires ont aussi été publiées dans une vapeur atomique[Ries 03], il est important de remarquer qu'un article récent[Johnsson 06] démontre que la production d'états comprimés avec des atomes chauds ne semble pas envisageable. . http ://www.coherent.com/ "pics de croisement de niveaux", apparaissent à la fréquence médiane de chaque couple de niveaux hyperfins. Le montage d'absorption saturée permet ainsi d'obtenir des pics de transmission beaucoup plus fins que la largeur Doppler 4 (voir figure 2.9 qui présente une courbe d'absorption saturée pour la transition "bleue" 5S 1/2 , F = 2 → 6P 1/2 du 85 Rb). Par contre, le signal n'est pas utilisable en l'état comme signal d'erreur.B.2.3 Détection synchronePour augmenter le rapport signal à bruit et générer un signal d'erreur utilisable, on utilise une détection synchrone. Le modèle utilisée au laboratoire est le LIA-MV-200-H de la société Femto 5 . Le laser MBR est modulé en interne à une fréquence de 89.3 kHz, pour réaliser l'asservissement de l'étalon. On utilise donc aussi cette modulation comme fréquence de référence pour l'asservissement sur la raie atomique. Afin de récupérer la référence de modulation pour la détection synchrone, l'électronique interne du laser a été modifiée. Dans cette version modifiée, le signal de modulation est disponible sur la sortie Fast External Lock du boitier de contrôle du laser que nous n'utilisions pas. Pour obtenir le signal de la figure 2.9, la constante de temps et la sensibilité de la détection synchrone sont réglées sur 1 ms et 30 mV, respectivement. La phase est ajustée afin de maximiser le4. La largeur des pics est égale, typiquement, à la somme de la largeur naturelle et de la largeur de raie du laser. 5. http ://www.femto.de/ Chapitre 2. Techniques expérimentales fonction de la puissance incidente) n'est plus valable. E.1 Densité atomiqueLa densité d'atomes en interaction est un paramètre qu'il faut contrôler pour les expériences de mélange à 4 ondes. Comme nous le verrons aux chapitres 4 et 5, il est possible de calculer la densité théorique d'atomes en phase vapeur n at dans la cellule à l'aide de la loi des gaz parfaits et de la relation de Clausius-Clapeyron :n at = 1 k B T 10 A−B/T (2.11) 9. Nous disposons de deux cellules, l'une de 12.5 mm dont les faces sont traitées anti-reflets, l'autre de 5 cm de long et dont les facettes sont non traitées et orientées à l'angle de Brewster (voir figure 2.17). . Nous avons supposé que le champ E était décrit par une quantité scalaire et non par un vecteur. Ainsi, dans cette approche, la susceptibilité non-linéaire χ (3) est un scalaire et non pas un tenseur d'ordre 3. . Comme on a fait l'hypothèse que χ (3) était réel, alors κ l'est aussi. Chapitre 3. Approche phénoménologique . De manière plus générale, une étude numérique en deux dimensions démontre que l'on pourra atteindre des niveaux de corrélations légèrement plus élevés en augmentant Ω à ∆ fixé. Nous avons vu dans les équations (4.55) et (4.66) que les termes provenant des forces de Langevin introduisent un bruit supplémentaire et ne peuvent pas améliorer les corrélations. Sur la figure 4.11, il est possible d'évaluer la contribution de ces termes en comparant les spectres d'inséparabilité obtenus en leur présence ou en leur absence. Comme leur effet est relativement faible à basse fréquence ( 20%), on pourrait donc être tenté de les négliger. Or, en les négligeant, le spectre de bruit sur la sonde seule fait apparaître des solutions non physiques. En effet, le bruit sur l'intensité et sur la phase du modeâ peuvent passer sous la limite quantique standard simultanément, ce qui viole l'inégalité d'Heisenberg. Au contraire, lorsque les forces de Langevin sont prises en compte, le bruit individuel en intensité sur chacun des faisceau est au dessus de la limite quantique standard comme on l'attend pour une configuration d'amplification paramétrique insensible à la phase. En conclusion, même si la contribution des forces de Langevin sur les spectres de bruit de Chapitre 4. Modèle microscopique et traitement quantique . Il s'agit des solutions des équations (4.11). . Expérimentalement, il faut corriger les valeurs mesurées, par le bruit électronique de la chaine de détection et éventuellement par les pertes de propagation et de détection (l'efficacité quantique des photodiodes) pour obtenir S N− . Les résultats que nous présenterons, ne prennent uniquement en compte que la correction du bruit électronique. . Il faut rappeler qu'aucun paramètre ajustable n'est introduit dans le modèle et que les paramètres sont fixés par ceux utilisés dans l'expérience. RemerciementsMe voila arrivé à la page des remerciements... ll faut croire que c'est en quelque sorte un aboutissement dans la rédaction d'une thèse !Annexes217Annexes 219A Transformée de FourierOn définit la transformée de Fourier d'un opérateurâ(t) de la manière suivante :(2) La notation pour la transformée de Fourier de l'opérateur conjuguéâ † (t) est plus ambigüe. On définit cette quantité de la manière suivante :Mais dans ce cas il faut noter que la conjugaison s'exprime parOn fera donc particulièrement attention à ne pas confondre la conjuguée de la transformée de Fourier :et la transformée de Fourier de la conjuguée :Nous pouvons alors calculer les coefficients de diffusion à l'aide des équations (4.18). Nous pouvons définir les deux matrices de diffusion [D 1 ] et [D 2 ] sous la forme :On rappelle que : . . . . Champ Électromagnétique Dans Le Repère De Fresnel, . . . . . . . . . . . . . . . . . . 26Champ électromagnétique dans le repère de Fresnel . . . . . . . . . . . . . . . . . . . . . . 26 . . . . Etat, . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30Etat comprimé. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 . . . . . . . . . . . . . . Fluctuations, 33Fluctuations pour un état cohérent et pour un état comprimé . . . . . . . . . . . . . . . . . 33 Espace des phases et champ électrique associé. Espace des phases et champ électrique associé. . . . . . . . . . . . . . . . . . . . . . . . . 33 Puissance de bruit détectée dans une détection homodyne. Puissance de bruit détectée dans une détection homodyne . . . . . . . . . . . . . . . . . . . 43 Modélisation des pertes dans une mesure d'optique quantique. . . . . . . . . . . . . . , 44Modélisation des pertes dans une mesure d'optique quantique . . . . . . . . . . . . . . . . . 44 Effet des pertes dans une mesure d'optique quantique. Effet des pertes dans une mesure d'optique quantique . . . . . . . . . . . . . . . . . . . . . 45 Photodétection en intensité pour la mesure de corrélations. Photodétection en intensité pour la mesure de corrélations. . . . . . . . . . . . . . . . . . . 46 Panorama historique de la production d'états comprimés. Panorama historique de la production d'états comprimés . . . . . . . . . . . . . . . . . . . 55 Mesure de -1dB de compression dans le mélange à 4 ondes. Mesure de -1dB de compression dans le mélange à 4 ondes . . . . . . . . . . . . . . . . . . 56 . Schéma D&apos;une Expérience De Génération D&apos;, . . . . . Opo, 58Schéma d'une expérience de génération d'état comprimé avec un OPO . . . . . . . . . . . . 58 . . . . Cavité Titane-Saphir, . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62Cavité titane-saphir . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62 Fluorescence d'un cristal titane-saphir pompé à 532 nm. Fluorescence d'un cristal titane-saphir pompé à 532 nm . . . . . . . . . . . . . . . . . . . . 63 Schéma de principe du fonctionnement mono-mode du laser titane saphir. 64Schéma de principe du fonctionnement mono-mode du laser titane saphir . . . . . . . . . . 64 . Ppktp . . Cristal De, . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68Cristal de PPKTP. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 . Shg . . Rendement Du, . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69Rendement du SHG. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 . Mao . . Efficacité De Diffraction Du, . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72Efficacité de diffraction du MAO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72 . Réponse . . Rf, . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74Réponse de l'amplificateur RF. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74 Effet de la saturation de l'amplificateur sur le bruit du faisceau diffracté. . . . . . , 76 AnnexesEffet de la saturation de l'amplificateur sur le bruit du faisceau diffracté . . . . . . . . . . . 76 Annexes . Excès De, . . . . . . . . . . . . . . . . . . . . . . . . . . 76. . . , . . . . . . . . . . . . . . . . . . . . . . . . . . 76Excès de bruit sur le faisceau diffracté. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76 . . . Cellule De Rubidium, . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77Cellule de rubidium. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 Pourcentage d'atomes en phase vapeur par rapport à la densité prévue par le modèle thermodynamique. Pourcentage d'atomes en phase vapeur par rapport à la densité prévue par le modèle ther- modynamique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80 Densité atomique et épaisseur optique en fonction de la température pour la raie D1 du 85 Rb 80. Densité atomique et épaisseur optique en fonction de la température pour la raie D1 du 85 Rb 80 . . . . Auto-Focalisation Par Effet Kerr, . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81Auto-focalisation par effet Kerr . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 . . . . . . . . . . . . . . . . . . . Montage D&apos;une Photodiode À L&apos;incidence De Brewster, 84Montage d'une photodiode à l'incidence de Brewster. . . . . . . . . . . . . . . . . . . . . . 84 Effet de η sur la densité spectrale de bruit pour la différence d'intensité de deux modes. 85Effet de η sur la densité spectrale de bruit pour la différence d'intensité de deux modes. . . . 85 Bruit quantique standard en fonction de la puissance et de la fréquence d'analyse. 88Bruit quantique standard en fonction de la puissance et de la fréquence d'analyse. . . . . . . 88 Géométrie du mélange à 4 ondes. Géométrie du mélange à 4 ondes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95 Bruit de la différence d'intensité en fonction du gain. Bruit de la différence d'intensité en fonction du gain . . . . . . . . . . . . . . . . . . . . . . 103 Modèle phénoménologique pour le mélange à 4 ondes. Modèle phénoménologique pour le mélange à 4 ondes . . . . . . . . . . . . . . . . . . . . . 104 Gain pour l'amplificateur idéal en présence de pertes. Gain pour l'amplificateur idéal en présence de pertes . . . . . . . . . . . . . . . . . . . . . 105 Compression théorique de la différence d'intensité pour le modèle de l'amplificateur idéal en présence de pertes. Compression théorique de la différence d'intensité pour le modèle de l'amplificateur idéal en présence de pertes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105 Compression théorique pour le modèle de l'amplificateur idéal en présence de pertes. 106Compression théorique pour le modèle de l'amplificateur idéal en présence de pertes . . . . 106 Gain et bruit pour un processus sensible à la phase. Gain et bruit pour un processus sensible à la phase. . . . . . . . . . . . . . . . . . . . . . . 109 Compression pour un processus sensible à la phase. Compression pour un processus sensible à la phase. . . . . . . . . . . . . . . . . . . . . . . 110 Schéma d'interaction lumière-matière à trois niveaux. Schéma d'interaction lumière-matière à trois niveaux en simple Λ. . . . . . . . . . . . . . . 114 Partie réelle et imaginaire de χ en présence ou en l'absence de champ de contrôle. 118Partie réelle et imaginaire de χ en présence ou en l'absence de champ de contrôle. . . . . . . 118 Partie imaginaire de χ en présence ou en l'absence de champ de contrôle. Effet de Ω c. 120Partie imaginaire de χ en présence ou en l'absence de champ de contrôle. Effet de Ω c . . . . 120 Schéma d'interaction lumière-matière à quatre niveaux en double Λ. ON verra plus loin que dans l'état stationnaire, la population est essentiellement dans le niveau |2 , ce que l'on schématise par la taille des points dans les niveaux |1 et |2. Schéma d'interaction lumière-matière à quatre niveaux en double Λ. ON verra plus loin que dans l'état stationnaire, la population est essentiellement dans le niveau |2 , ce que l'on schématise par la taille des points dans les niveaux |1 et |2 . . . . . . . . . . . . . . . . . . 121 Population des niveaux d'un modèle en double Λ. Population des niveaux d'un modèle en double Λ . . . . . . . . . . . . . . . . . . . . . . . 126 Profil spectral pour les champ sonde et conjugué. Profil spectral pour les champ sonde et conjugué . . . . . . . . . . . . . . . . . . . . . . . . 128 . . . . Spectre De Gain, . . . . . . . . . . . . . . . . . . . . . . . 146Spectre de gain pour la sonde et le conjugué. . . . . . . . . . . . . . . . . . . . . . . . . . . 146 Gain pour la sonde et le conjugué et corrélations en fonction de δ. Gain pour la sonde et le conjugué et corrélations en fonction de δ . . . . . . . . . . . . . . . 147 Corrélations d'intensité et anti-corrélations de phase en fonction de la fréquence d'analyse. 148Corrélations d'intensité et anti-corrélations de phase en fonction de la fréquence d'analyse . 148 Inséparabilité en fonction de la fréquence d'analyse. Inséparabilité en fonction de la fréquence d'analyse . . . . . . . . . . . . . . . . . . . . . . 149 Inséparabilité en fonction de l'épaisseur optique. Inséparabilité en fonction de l'épaisseur optique . . . . . . . . . . . . . . . . . . . . . . . . 150 Inséparabilité en fonction du taux de décohérence γ. Inséparabilité en fonction du taux de décohérence γ . . . . . . . . . . . . . . . . . . . . . . 151 Géométrie des faisceaux et temps de passage des atomes. Géométrie des faisceaux et temps de passage des atomes . . . . . . . . . . . . . . . . . . . 153 Evolution des populations en fonction du temps. Evolution des populations en fonction du temps. . . . . . . . . . . . . . . . . . . . . . . . . 154 Proportion d'atomes préparés par la pompe. Proportion d'atomes préparés par la pompe. . . . . . . . . . . . . . . . . . . . . . . . . . . 155 Distribution du désaccord réel vu par les atomes en présence d'élargissement Doppler. 158Distribution du désaccord réel vu par les atomes en présence d'élargissement Doppler . . . . 158 Effet de la distribution de vitesses sur le gain de la sonde. Effet de la distribution de vitesses sur le gain de la sonde . . . . . . . . . . . . . . . . . . . 159 Effet de la distribution de vitesses sur le gain de la sonde. Effet de la distribution de vitesses sur le gain de la sonde . . . . . . . . . . . . . . . . . . . 159 Effet de la distribution de vitesses sur les corrélations en intensité. . . . . . . . . . . . , 161Effet de la distribution de vitesses sur les corrélations en intensité. . . . . . . . . . . . . . . 161 Effet de la distribution de vitesses sur le gain de la sonde. . . . . . . . . . . . . . . . , 161Effet de la distribution de vitesses sur le gain de la sonde . . . . . . . . . . . . . . . . . . . 161 . . . . Etablissement Du Régime Stationnaire, . . . . . . . . . . . . . . . . . . . . . . . . . . 162Etablissement du régime stationnaire. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162 168 4.28 Spectres de bruit sur la différence d'intensité et sur le modeâ. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Effet De L&apos;épaisseur Optique, . . 164 4.25 Effet de Ω . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165 4.26 Effet de ∆ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167 4.27 Effet de δ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ; . . . . . . . . . . . . . . . . . ; . . . . . . . . . . . . . . . . . . . . . . . . . . 169 4.30 Corrélations quantiques pour G a + G b < 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . 171169 4.29 Spectres de bruit sur la différence d'intensitéEffet de l'épaisseur optique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164 4.25 Effet de Ω . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165 4.26 Effet de ∆ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167 4.27 Effet de δ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168 4.28 Spectres de bruit sur la différence d'intensité et sur le modeâ. . . . . . . . . . . . . . . . . 169 4.29 Spectres de bruit sur la différence d'intensité. . . . . . . . . . . . . . . . . . . . . . . . . . 169 4.30 Corrélations quantiques pour G a + G b < 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . 171 180 5.2 Échelle de fréquence pour la ligne D1 du rubidium 85. . . . . . . . . . . . . . . . . . . . . . . . . . . . . Schéma, . . . . . . . . . . . . . . . . . . . . . 181 5.3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .183 5.4 Cartographie du gain G a en fonction de la puissance du laser de pompe et du désaccord ∆. . 185Schéma du dispositif expérimental. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180 5.2 Échelle de fréquence pour la ligne D1 du rubidium 85. . . . . . . . . . . . . . . . . . . . . 181 5.3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183 5.4 Cartographie du gain G a en fonction de la puissance du laser de pompe et du désaccord ∆. . 185 186 5.6 Effet du désaccord à 2 photons sur le gain. . . . Effet De L&apos;épaisseur Optique Sur Le Gain, . . . . . . . . . . . . . . . . . . . . . . . . . . ; . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187Effet de l'épaisseur optique sur le gain. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186 5.6 Effet du désaccord à 2 photons sur le gain. . . . . . . . . . . . . . . . . . . . . . . . . . . . 187 198 5.16 Valeur de S N − vraie pour une valeur mesurée de -9. . . . . . . . . . . . . . . . . . . . . . ; Photons. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Puissance De Bruit Mesurée Par Détection Balancée, . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190 5.10 Effet de la pulsation de Rabi. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192 5.11 Effet de l'épaisseur optique. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193 5.12 Effet d'un champ magnétique transverse. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194 5.13 Effet d'un champ magnétique transverse. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196 5.14 Effet du bruit en entrée sur le champ sonde. . . . . . . . . . . . . . . . . . . . . . . . . . . ; . . . . . . . . . . . . . . . . . . . . . . . . . . . ; 2dB. . . . . . . . . . . . . . . . . . . . . 199 5.17 ; . . . . . . . . . . . 201189 5.9 Effet du désaccord à 1 photon. 197 5.15 Spectre de bruit de la différence d'intensité. Spectres de G a (rouge) et G b (noir) en fonction du désaccord à 2 photons. . . . . . . . . . . 200 5.18 Démonstration expérimentale d'une "lame séparatrice quantique". . . .Puissance de bruit mesurée par détection balancée. . . . . . . . . . . . . . . . . . . . . . . 188 5.8 Effet du désaccord à 2 photons. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189 5.9 Effet du désaccord à 1 photon. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190 5.10 Effet de la pulsation de Rabi. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192 5.11 Effet de l'épaisseur optique. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193 5.12 Effet d'un champ magnétique transverse. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194 5.13 Effet d'un champ magnétique transverse. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196 5.14 Effet du bruit en entrée sur le champ sonde. . . . . . . . . . . . . . . . . . . . . . . . . . . 197 5.15 Spectre de bruit de la différence d'intensité. . . . . . . . . . . . . . . . . . . . . . . . . . . 198 5.16 Valeur de S N − vraie pour une valeur mesurée de -9.2dB. . . . . . . . . . . . . . . . . . . . . 199 5.17 Spectres de G a (rouge) et G b (noir) en fonction du désaccord à 2 photons. . . . . . . . . . . 200 5.18 Démonstration expérimentale d'une "lame séparatrice quantique". . . . . . . . . . . . . . . 201 3 Spectres d'absorption de la sonde en présence d'un champ de contrôle. . . . . . . . . . . . . . . . . . . . . . . . . . . . . Schéma, . . . . . . . . . . . . . . . . . . . . . . . 207 6.207205 6.2 Schéma de niveaux de la transition 5S 1/2 → 6P 1/2Schéma du dispositif expérimental. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205 6.2 Schéma de niveaux de la transition 5S 1/2 → 6P 1/2 . . . . . . . . . . . . . . . . . . . . . . . 207 6.3 Spectres d'absorption de la sonde en présence d'un champ de contrôle. . . . . . . . . . . . . 207 . . . . Schéma, . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210Schéma du dispositif expérimental. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210 . . . . Schéma De Niveaux Équivalent, . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222Schéma de niveaux équivalent . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222 . . . . Schéma De Niveaux Équivalent, . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229Schéma de niveaux équivalent . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229 Degenerate four-wave mixing in absorbing media. &amp; R Abrams, Lind, Optics Letters. 2494Abrams & R Lind. Degenerate four-wave mixing in absorbing media. Optics Letters, vol. 2, no. 4, page 94, 1978. Generation of pair coherent states and squeezing via the competition of four-wave mixing and amplified spontaneous emission. Gs Agarwal, Physical Review Letters. 5774198Opt. ExpressGS Agarwal. Generation of pair coherent states and squeezing via the competition of four-wave mixing and amplified spontaneous emission. Physical Review Letters, vol. 57, no. 7, page 827, 1986. [Agha 10] I Agha, G Messin & P Grangier. Generation of pulsed and continuous-wave squeezed light with Rb 87 vapor. Opt. Express, vol. 18, no. 5, page 4198, 2010. Coherent and collimated blue light generated by four-wave mixing in Rb vapour. A Akulshin, R Mclean, &amp; A Sidorov, Opt. Express. 172522861A. M Akulshin, R McLean & A Sidorov. Coherent and collima- ted blue light generated by four-wave mixing in Rb vapour. Opt. Express, vol. 17, no. 25, page 22861, 2009. Continuous-wave laser operation and quantum efficiency of titanium-doped sapphire. P Albers, &amp; G Stark, Huber, J. Opt. Soc. Am. B. 31134P Albers, E Stark & G Huber. Continuous-wave laser operation and quantum efficiency of titanium-doped sapphire. J. Opt. Soc. Am. B, vol. 3, no. 1, page 134, 1986. Vapour pressure equations for the metallic elements : 298-2500 K. C Alcock, Itkin &amp; M Horrigan, Can. Metall. Q. C Alcock, V Itkin & M Horrigan. Vapour pressure equations for the metallic elements : 298-2500 K. Can. Metall. Q., 1984. Vapor pressure of the metallic elements. Handbook of chemistry. C Alcock, Itkin &amp; M Horrigan, C Alcock, V Itkin & M Horrigan. Vapor pressure of the metallic elements. Handbook of chemistry, 2001. Nonabsorption hyperfine resonances in a sodium vapour irradiated by a multimode dye-laser. G Alzetta, &amp; G Moi, Orriols, Il Nuovo Cimento B. G Alzetta, L Moi & G Orriols. Nonabsorption hyperfine reso- nances in a sodium vapour irradiated by a multimode dye-laser. Il Nuovo Cimento B, 1979. Atom correlations and spin squeezing near the Heisenberg limit : Finite-size effect and decoherence. Axel Andre, &amp; Md Lukin, Phys. Rev. A. 65053819Axel Andre & MD Lukin. Atom correlations and spin squee- zing near the Heisenberg limit : Finite-size effect and decoherence. Phys. Rev. A, vol. 65, no. 053819, 2002. Nonclassical states of light and atomic ensembles : Generation and New Applications. Axel Andre, Thèse de doctorat -HarvardAxel Andre. Nonclassical states of light and atomic ensembles : Generation and New Applications. Thèse de doctorat -Harvard, 2005. Quantum memory for squeezed light. J Appel, D Figueroa, M Korystov, &amp; A Lobino, Lvovsky, Physical Review Letters. 100093602J Appel, E Figueroa, D Korystov, M Lobino & A Lvovsky. Quan- tum memory for squeezed light. Physical Review Letters, vol. 100, no. 093602, 2008. Green and ultraviolet quasi-phase-matched second harmonic generation in bulk periodically-poled KTiOPO4. A Arie, Rosenman, Mahal, M Skliar, &amp; M Oron, Katz, Optics Communications. 142265A Arie, G Rosenman, V Mahal, A Skliar, M Oron & M Katz. Green and ultraviolet quasi-phase-matched second harmonic ge- neration in bulk periodically-poled KTiOPO4. Optics Communi- cations, vol. 142, page 265, 1997. Quantum memory of a squeezed vacuum for arbitrary frequency sidebands. M Arikawa, D Honda, &amp; S Akamatsu, Nagatsuka, Phys. Rev. A. M Arikawa, K Honda, D Akamatsu & S Nagatsuka. Quantum memory of a squeezed vacuum for arbitrary frequency sidebands. Phys. Rev. A, 2010. Coherent Population Trapping in Laser Spectroscopy. Progress in optics. Ennio Arimondo, Ennio Arimondo. Coherent Population Trapping in Laser Spectro- scopy. Progress in optics, 1996. Interactions between light waves in a nonlinear dielectric. J A Armstrong, Bloembergen, &amp; Ducuing, Ps Pershan, Physical Review. 1276JA Armstrong, N Bloembergen, J Ducuing & PS Pershan. Inter- actions between light waves in a nonlinear dielectric. Physical Review, vol. 127, no. 6, pages 1918-1939, 1962. Experimental tests of realistic local theories via Bell's theorem. Alain Aspect, &amp; G Grangier, Roger, Physical Review Letters. 477460Alain Aspect, P Grangier & G Roger. Experimental tests of rea- listic local theories via Bell's theorem. Physical Review Letters, vol. 47, no. 7, page 460, 1981. A Guide to Experiments in Quantum Optics. Hans-Albert Bachor, &amp; Timothy, C Ralph, Livre. Hans-Albert Bachor & Timothy C. Ralph. A Guide to Experiments in Quantum Optics. Livre, 2004. Optical parametric amplification. R Baumgartner, &amp; R Byer, IEEE Journal. R Baumgartner & R Byer. Optical parametric amplification. IEEE Journal, 1979. Nondegenerate four-wave mixing in rubidium vapor : The diamond configuration. F Becerra, Willis, &amp; L Rolston, Orozco, Phys. Rev. A. 78013834F Becerra, R Willis, S Rolston & L Orozco. Nondegenerate four-wave mixing in rubidium vapor : The diamond configuration. Phys. Rev. A, vol. 78, no. 013834, 2008. On the einstein-podolsky-rosen paradox. Bell, Physics. JS Bell. On the einstein-podolsky-rosen paradox. Physics, 1964. Physique quantique. Michel Le Bellac, 742Michel Le Bellac. Physique quantique. page 742, 2007. Traitement non destructif des signaux optiques. K Bencheikh, Thèse de doctorat -LKBK Bencheikh. Traitement non destructif des signaux optiques. Thèse de doctorat -LKB, 1996. Quantum cryptography : Public key distribution and coin tossing. C Bennett, &amp; G Brassard, Proceedings of IEEE International. IEEE InternationalC Bennett & G Brassard. Quantum cryptography : Public key distribution and coin tossing. Proceedings of IEEE International, 1984. Teleporting an unknown quantum state via dual classical and Einstein-Podolsky-Rosen channels. C Bennett, C Brassard, Crepeau &amp; R Jozsa, Physical Review Letters. 70131895C Bennett, G Brassard, C Crepeau & R Jozsa. Teleporting an unknown quantum state via dual classical and Einstein-Podolsky- Rosen channels. Physical Review Letters, vol. 70, no. 13, page 1895, 1993. Quantum information and computation. C Bennett, &amp; D Divincenzo, Nature. 404247C Bennett & D DiVincenzo. Quantum information and computa- tion. Nature, vol. 404, page 247, 2000. Destabilization of dark states and optical spectroscopy in Zeeman-degenerate atomic systems. Dana Berkeland, &amp; M Boshier, Phys. Rev. A. 65033413Dana Berkeland & M Boshier. Destabilization of dark states and optical spectroscopy in Zeeman-degenerate atomic systems. Phys. Rev. A, vol. 65, no. 033413, 2002. Observation of electromagnetically induced transparency. K Boller, Atac Imamoglu, &amp; S Harris, Physical Review Letters. 66202593K Boller, Atac Imamoglu & S Harris. Observation of electroma- gnetically induced transparency. Physical Review Letters, vol. 66, no. 20, page 2593, 1991. Degenerate fourwave mixing as a possible source of squeezed-state light. R Bondurant, J H Kumar, &amp; M Shapiro, Maeda, Phys. Rev. A. 301343R Bondurant, P Kumar, JH Shapiro & M Maeda. Degenerate four- wave mixing as a possible source of squeezed-state light. Phys. Rev. A, vol. 30, no. 1, page 343, 1984. Experimental quantum teleportation. D Bouwmeester, Jian-Wei Pai, K Mattle, M Eibl, H Weinfurter &amp; Anton, Zeilinger, Nature. 3906660D Bouwmeester, Jian-Wei PAI, K Mattle, M Eibl, H Weinfurter & Anton Zeilinger. Experimental quantum teleportation. Nature, vol. 390, no. 6660, pages 575-579, 1997. The physics of quantum information. europhysicsnews.org. D Bouwmeester, &amp; A Ekert, Zeilinger, D Bouwmeester, A Ekert & A Zeilinger. The physics of quantum information. europhysicsnews.org, 2001. Four-wave parametric interactions in a strongly driven two-level system. R Boyd, P Raymer, &amp; D Narum, Harter, Phys. Rev. A. 241411R Boyd, M G Raymer, P Narum & D Harter. Four-wave parame- tric interactions in a strongly driven two-level system. Phys. Rev. A, vol. 24, no. 1, page 411, 1981. Robert W Boyd, Non linear Optics. Livre. Robert W. Boyd. Non linear Optics. Livre, 2008. Ultraslow propagation of matched pulses by four-wave mixing in an atomic vapor. Vincent Boyer, C Mccormick, Ennio Arimondo, &amp; Paul, D Lett, 99143601arXivVincent Boyer, C. F McCormick, Ennio Arimondo & Paul D Lett. Ultraslow propagation of matched pulses by four-wave mixing in an atomic vapor. arXiv, vol. 99, no. 14, page 143601, 2007. Entangled images from four-wave mixing. Vincent Boyer, Alberto M Marino, Raphael C Pooser, &amp; Paul, D Lett, Science. 3215888544Vincent Boyer, Alberto M Marino, Raphael C Pooser & Paul D Lett. Entangled images from four-wave mixing. Science, vol. 321, no. 5888, page 544, 2008. Quantum information with continuous variables. &amp; P S Braunstein, Van Loock, Reviews of Modern Physics. 77513S Braunstein & P Van Loock. Quantum information with conti- nuous variables. Reviews of Modern Physics, vol. 77, page 513, 2005. Four-wave-mixing stopped light in hot atomic rubidium vapour. R Camacho, &amp; J Vudyasetu, Howell, Nature Photonics. 3103R Camacho, P Vudyasetu & J Howell. Four-wave-mixing stopped light in hot atomic rubidium vapour. Nature Photonics, vol. 3, page 103, 2009. Decoherence and multipartite entanglement. A Carvalho, &amp; A Mintert, Buchleitner, Physical Review Letters. 93230501A Carvalho, F Mintert & A Buchleitner. Decoherence and multipartite entanglement. Physical Review Letters, vol. 93, no. 230501, 2004. Quantum limits on noise in linear amplifiers. C Caves, Physical Review D. 2681817C Caves. Quantum limits on noise in linear amplifiers. Physical Review D, vol. 26, no. 8, page 1817, 1982. Quantum information with continuous variables of atoms and light. Livre. Nicolas J Cerf &amp; Gerd Leuchs, Nicolas J. Cerf & Gerd Leuchs. Quantum information with conti- nuous variables of atoms and light. Livre, 2007. Mapping photonic entanglement into and out of a quantum memory. K Choi, Julien Deng, &amp; H J Laurat, Kimble, Cohen-Tannoudji 01Claude Cohen-Tannoudji. 45206670Claude Cohen-Tannoudji. Photons et atomesK Choi, L Deng, Julien Laurat & H J Kimble. Mapping photonic entanglement into and out of a quantum memory. Nature, vol. 452, no. 06670, 2008. [Cohen-Tannoudji 96] Claude Cohen-Tannoudji, Jacques Dupont-Roc & Gilbert Gryn- berg. Processus d'interaction entre photons et atomes. 1996. [Cohen-Tannoudji 01] Claude Cohen-Tannoudji, Jacques Dupont-Roc & Gilbert Gryn- berg. Photons et atomes. 2001. Squeezing of intracavity and travelingwave light fields produced in parametric amplification. &amp; C Mj Collett, Gardiner, Phys. Rev. A. 3031386MJ Collett & C Gardiner. Squeezing of intracavity and traveling- wave light fields produced in parametric amplification. Phys. Rev. A, vol. 30, no. 3, page 1386, 1984. Feasibility of a quantum memory for continuous variables based on trapped ions : from generic. Thomas Coudreau, Samuel Grosshans, Guibal &amp; Luca, Guidoni, Journal of Physics B. 40413Thomas Coudreau, F Grosshans, Samuel Guibal & Luca Guidoni. Feasibility of a quantum memory for continuous variables based on trapped ions : from generic . . . . Journal of Physics B, vol. 40, page 413, 2007. Interface quantique atomes-champs en régime de variables continues. J Cviklinski, Thèse de doctorat -LKBJ Cviklinski. Interface quantique atomes-champs en régime de variables continues. Thèse de doctorat -LKB, 2008. Génération, stockage et manipulation d'états non classiques pour des ensembles atomiques et des champs électromagnétiques. A Dantan, Thèse de doctorat -LKBA Dantan. Génération, stockage et manipulation d'états non clas- siques pour des ensembles atomiques et des champs électromagné- tiques. Thèse de doctorat -LKB, 2005. Sub-Poissonian processes in quantum optics. L Davidovich, Reviews of Modern Physics. 681127L Davidovich. Sub-Poissonian processes in quantum optics. Re- views of Modern Physics, vol. 68, no. 1, page 127, 1996. Subnatural linewidth biphotons with controllable temporal length. S Du, C Kolchin, G Belthangady, &amp; S Yin, Harris, Physical Review Letters. 100183603S Du, P Kolchin, C Belthangady, G Yin & S Harris. Subnatural linewidth biphotons with controllable temporal length. Physical Review Letters, vol. 100, no. 183603, 2008. Inseparability criterion for continuous variable systems. L Duan, J Ignacio Giedke, &amp; Cirac, Zoller, Physical Review Letters. 84122722L Duan, G Giedke, J. Ignacio Cirac & P Zoller. Inseparability cri- terion for continuous variable systems. Physical Review Letters, vol. 84, no. 12, page 2722, 2000. Long-distance quantum communication with atomic ensembles and linear optics. L Duan, J Ignacio Md Lukin, &amp; Cirac, Zoller, Nature. 414413L Duan, MD Lukin, J. Ignacio Cirac & P Zoller. Long-distance quantum communication with atomic ensembles and linear optics. Nature, vol. 414, page 413, 2001. Colloquium : Quantum networks with trapped ions. L Duan, &amp; Christopher Monroe, Reviews of Modern Physics. 821209L Duan & Christopher Monroe. Colloquium : Quantum networks with trapped ions. Reviews of Modern Physics, vol. 82, page 1209, 2010. Quantum Enhancement of the Zero-Area Sagnac Interferometer Topology for Gravitational Wave Detection. Tobias Eberle, Sebastian Steinlechner, &amp; J Bauchrowitz, Physical Review Letters. 104251102Tobias Eberle, Sebastian Steinlechner & J Bauchrowitz. Quantum Enhancement of the Zero-Area Sagnac Interferometer Topology for Gravitational Wave Detection. Physical Review Letters, vol. 104, no. 251102, 2010. Can quantum-mechanical description of physical reality be considered complete ? Physical Review. A Einstein, &amp; N Podolsky, Rosen, A Einstein, B Podolsky & N Rosen. Can quantum-mechanical description of physical reality be considered complete ? Physical Review, 1935. Squeezing in detuned degenerate optical parametric oscillators. Claude Fabre, Giacobino, &amp; L Heidmann, Lugiato, Quantum Optics. 2159Claude Fabre, E Giacobino, A Heidmann & L Lugiato. Squeezing in detuned degenerate optical parametric oscillators. Quantum Optics, vol. 2, no. 159, 1990. Claude Fabre, Quantum fluctuations in light beams. Les Houches Session LXIII. Claude Fabre. Quantum fluctuations in light beams. Les Houches Session LXIII, June 27 -July 28, 1995., 1997. Quantum Optics, from one mode to many modes. Claude Fabre, Les HouchesClaude Fabre. Quantum Optics, from one mode to many modes. Les Houches, pages 1-81, 2008. Ionization yield of radiations. II. The fluctuations of the number of ions. U Fano, Physical Review. 72126U Fano. Ionization yield of radiations. II. The fluctuations of the number of ions. Physical Review, vol. 72, no. 1, page 26, 1947. Laser-induced line-narrowing effects in coupled Doppler-broadened transitions. M Feld, &amp; A Javan, Physical Review. 1772540M Feld & A Javan. Laser-induced line-narrowing effects in cou- pled Doppler-broadened transitions. Physical Review, vol. 177, no. 2, page 540, 1969. Simulating physics with computers. R Feynman, International journal of theoretical physics. 216467R Feynman. Simulating physics with computers. International journal of theoretical physics, vol. 21, no. 6, page 467, 1982. Observation of electromagnetically induced transparency in collisionally broadened lead vapor. J Field, &amp; S Hahn, Harris, Physical Review Letters. 67223062J Field, K Hahn & S Harris. Observation of electromagnetically induced transparency in collisionally broadened lead vapor. Phy- sical Review Letters, vol. 67, no. 22, page 3062, 1991. Amplitude squeezing in a Mach-Zehnder fiber interferometer : Numerical analysis of experiments with microstructure fiber. M Fiorentino, P Sharping, &amp; A Kumar, Porzio, Opt. Express. 102128M Fiorentino, J Sharping, P Kumar & A Porzio. Amplitude squee- zing in a Mach-Zehnder fiber interferometer : Numerical analysis of experiments with microstructure fiber. Opt. Express, vol. 10, no. 2, page 128, 2002. Pulse matching and correlation of phase fluctuations in Lambda systems. Michael Fleischhauer, &amp; T Richter, Phys. Rev. A. 5132430Michael Fleischhauer & T Richter. Pulse matching and correlation of phase fluctuations in Lambda systems. Phys. Rev. A, vol. 51, no. 3, page 2430, 1995. Dark-state polaritons in electromagnetically induced transparency. Michael Fleischhauer, &amp; Md Lukin, Physical Review Letters. 84225094Michael Fleischhauer & MD Lukin. Dark-state polaritons in elec- tromagnetically induced transparency. Physical Review Letters, vol. 84, no. 22, page 5094, 2000. Electromagnetically induced transparency : Optics in coherent media. Michael Fleischhauer, Atac Imamoglu, &amp; Jonathan, P Marangos, Reviews of Modern Physics. 772Michael Fleischhauer, Atac Imamoglu & Jonathan P Marangos. Electromagnetically induced transparency : Optics in coherent media. Reviews of Modern Physics, vol. 77, no. 2, pages 633- 673, 2005. . C J , Foot. Atomic Physics. C J. Foot. Atomic Physics. 2005. Experimental test of local hiddenvariable theories. &amp; J S Freedman, Clauser, Physical Review Letters. 2814938S Freedman & J Clauser. Experimental test of local hidden- variable theories. Physical Review Letters, vol. 28, no. 14, page 938, 1972. Continuous-wave electromagnetically induced transparency : A comparison of V, Lambda, and cascade systems. D Fulton, Shepherd, &amp; B Moseley, Sinclair, Phys. Rev. A. 5232302D Fulton, S Shepherd, R Moseley & B Sinclair. Continuous-wave electromagnetically induced transparency : A comparison of V, Lambda, and cascade systems. Phys. Rev. A, vol. 52, no. 3, page 2302, 1995. Handbook of stochastic methods. gbv.de. C Gardiner, C Gardiner. Handbook of stochastic methods. gbv.de, 1985. Input and output in damped quantum systems : Quantum stochastic differential equations and the master equation. C Gardiner, &amp; Mj Collett, Phys. Rev. A. 316C Gardiner & MJ Collett. Input and output in damped quantum systems : Quantum stochastic differential equations and the master equation. Phys. Rev. A, vol. 31, no. 6, 1985. C Gardiner, &amp; P Zoller, Quantum noise. Livre. C Gardiner & P Zoller. Quantum noise. Livre, 1991. Analysis of electromagnetically induced transparency and slow light in a hot vapor of atoms undergoing collisions. R Ghosh, &amp; J Le Goldfarb, Gouët, 023817Phys. Rev. A. 80Thèse de doctorat -LKBAmplification paramétrique d'images en cavité : Effets classiques et quantiquesR Ghosh, F Goldfarb & J Le Gouët. Analysis of electromagneti- cally induced transparency and slow light in a hot vapor of atoms undergoing collisions. Phys. Rev. A, vol. 80, no. 023817, 2009. [Gigan 04] S Gigan. Amplification paramétrique d'images en cavité : Effets classiques et quantiques. Thèse de doctorat -LKB, 2004. V Delaubert & Nicolas Treps. Continuouswave phase-sensitive parametric image amplification. S Gigan, Lopez, Journal of Modern Optics. 535809S Gigan, L Lopez, V Delaubert & Nicolas Treps. Continuous- wave phase-sensitive parametric image amplification. Journal of Modern Optics, vol. 53, no. 5, page 809, 2006. Quantum cryptography. Nicolas Gisin, Ribordy, Tittel &amp; H Zbinden, Reviews of Modern Physics. 74145Nicolas Gisin, G Ribordy, W Tittel & H Zbinden. Quantum cryp- tography. Reviews of Modern Physics, vol. 74, page 145, 2002. Coherent and incoherent states of the radiation field. Roy Glauber, Physical Review. 1316Roy Glauber. Coherent and incoherent states of the radiation field. Physical Review, vol. 131, no. 6, pages 2766-2788, 1963. Double-lambda microscopic model for entangled light generation by four-wave-mixing. Q Glorieux, Dubessy, Guidoni, Guibal, Jp Likforman, Coudreau &amp; Ennio Arimondo, Phys. Rev. A. 82033819Q Glorieux, R Dubessy, L Guidoni, S Guibal, JP Likforman, T Coudreau & Ennio Arimondo. Double-lambda microscopic mo- del for entangled light generation by four-wave-mixing. Phys. Rev. A, vol. 82, no. 033819, 2010. Strong quantum correlations in four wave mixing in 85. Q Glorieux, Guidoni, Guibal, &amp; T Coudreau Jp Likforman, Coudreau, Q Glorieux, L Guidoni, S Guibal, JP Likforman & T Coudreau Coudreau. Strong quantum correlations in four wave mixing in 85 Rb vapor. Proceedings of SPIE. SPIE7727Rb vapor. Proceedings of SPIE, vol. 7727, no. 772703, 2010. Microscopic model for phase sensitive amplification in FWM in a double lambda system. Q Glorieux, in preparationQ Glorieux. Microscopic model for phase sensitive amplification in FWM in a double lambda system. in preparation, 2011. Synergetics : an introduction : nonequilibrium phase transitions and self-organization in physics, chemistry and biology. cdsweb.cern.ch. H Haken, H Haken. Synergetics : an introduction : nonequilibrium phase transitions and self-organization in physics, chemistry and bio- logy. cdsweb.cern.ch, 1983. Fiber-based optical parametric amplifiers and their applications. J Hansryd, &amp; M Andrekson, Westlund, IEEE Journal of Quantum Electronics. J Hansryd, P Andrekson & M Westlund. Fiber-based optical para- metric amplifiers and their applications. IEEE Journal of Quantum Electronics, 2002. Optical pumping. W Happer, Reviews of Modern Physics. 442169W Happer. Optical pumping. Reviews of Modern Physics, vol. 44, no. 2, page 169, 1972. Entanglement, Decoherence and the Quantum Classical Boundary. S Haroche, Physics Today. 0736S Haroche. Entanglement, Decoherence and the Quantum Classi- cal Boundary. Physics Today, vol. 07, page 36, 1998. Nonlinear optical processes using electromagnetically induced transparency. S Harris, Field &amp; Atac, Imamoglu, Physical Review Letters. 64101107S Harris, J Field & Atac Imamoglu. Nonlinear optical processes using electromagnetically induced transparency. Physical Review Letters, vol. 64, no. 10, page 1107, 1990. S Harris, Electromagnetically induced transparency. Electronics and Laser Science Conference. S Harris. Electromagnetically induced transparency. Electronics and Laser Science Conference, 1997. Light speed reduction to 17 metres per second in an ultracold atomic gas. L Hau, Harris, &amp; C Dutton, Behroozi, Nature. 3976720L Hau, S Harris, Z Dutton & C Behroozi. Light speed reduction to 17 metres per second in an ultracold atomic gas. Nature, vol. 397, no. 6720, 1999. Squeezed light at the rubidium D1 line. G Hétet, Glöckl, &amp; C Pilypas, Harb, Journal of Physics B. 40221G Hétet, O Glöckl, K Pilypas & C Harb. Squeezed light at the rubidium D1 line. Journal of Physics B, vol. 40, page 221, 2007. Einstein coefficients, cross sections, f values, dipole moments, and all that. C Robert, Hilborn, Robert C Hilborn. Einstein coefficients, cross sections, f values, dipole moments, and all that. 2002. Linear inputoutput method for quantum fluctuations in optical bistability with two-level atoms. L Hilico, Claude Fabre, &amp; E Reynaud, Giacobino, Phys. Rev. A. 4674397L Hilico, Claude Fabre, S Reynaud & E Giacobino. Linear input- output method for quantum fluctuations in optical bistability with two-level atoms. Phys. Rev. A, vol. 46, no. 7, page 4397, 1992. Quantum theory of multiwave mixing. VIII. Squeezed states. D Holm, &amp; Murray Sargent, Phys. Rev. A. 352150D Holm & Murray Sargent. Quantum theory of multiwave mixing. VIII. Squeezed states. Phys. Rev. A, vol. 35, page 2150, 1987. Storage and retrieval of a squeezed vacuum. K Honda, M Akamatsu, Y Arikawa, &amp; K Yokoi, Akiba, Physical Review Letters. 100093601K Honda, D Akamatsu, M Arikawa, Y Yokoi & K Akiba. Sto- rage and retrieval of a squeezed vacuum. Physical Review Letters, vol. 100, no. 093601, 2008. Electromagnetically Induced Transparency. Atac Imamoglu, &amp; S Boiler, Harris, Atac Imamoglu, K Boiler & S Harris. Electromagnetically Induced Transparency. 1991. Narrowing of electromagnetically induced transparency resonance in a Doppler-broadened medium. A Javan, H Kocharovskaya, &amp; Lee, O Marlan, Scully, Phys. Rev. A. 66013805A Javan, O Kocharovskaya, H Lee & Marlan O Scully. Narro- wing of electromagnetically induced transparency resonance in a Doppler-broadened medium. Phys. Rev. A, vol. 66, no. 013805, 2002. Quantum optics of traveling-wave attenuators and amplifiers. J Jeffers, Imoto &amp; R Loudon, Phys. Rev. A. 473346J Jeffers, N Imoto & R Loudon. Quantum optics of traveling-wave attenuators and amplifiers. Phys. Rev. A, vol. 47, no. 3346, 1993. Effect of atomic noise on optical squeezing via polarization self-rotation in a thermal vapor cell. J Johnsson, Ping Koy Hope, Lam, &amp; J Dantan, Cviklinski, Phys. Rev. A. 73023806Johnsson, J Hope, Ping Koy Lam, A Dantan & J Cviklinski. Effect of atomic noise on optical squeezing via polarization self-rotation in a thermal vapor cell. Phys. Rev. A, vol. 73, no. 023806, 2006. Experimental demonstration of quantum memory for light. Brian Julsgaard, J Ignacio Sherson, Jaromir Cirac, &amp; Fiurasek, S Eugene, Polzik, Nature. 4327016Brian Julsgaard, J Sherson, J. Ignacio Cirac, Jaromir Fiurasek & Eugene S Polzik. Experimental demonstration of quantum memory for light. Nature, vol. 432, no. 7016, 2004. Dispersive line shapes and optical pumping in a three-level system. M Kaivola, &amp; O Thorsen, Poulsen, Phys. Rev. A. 32207M Kaivola, P Thorsen & O Poulsen. Dispersive line shapes and optical pumping in a three-level system. Phys. Rev. A, vol. 32, no. 207, 1985. Angular correlation of comptonscattered annihilation photons and hidden variables. L Kasday, &amp; C Ullman, Wu, Il Nuovo Cimento B. 252633L Kasday, J Ullman & C Wu. Angular correlation of compton- scattered annihilation photons and hidden variables. Il Nuovo Ci- mento B, vol. 25, no. 2, page 633, 1975. The quantum internet. H J Kimble, Nature. 45307127H J Kimble. The quantum internet. Nature, vol. 453, no. 07127, 2008. Quantum fluctuations in optical systems. P Knight, Les Houches Session LXIII. P Knight. Quantum fluctuations in optical systems. Les Houches Session LXIII, 1995. Generation of narrow-bandwidth paired photons : Use of a single driving laser. P Kolchin, C Du, G Belthangady, &amp; S Yin, Harris, Physical Review Letters. 97113602P Kolchin, S Du, C Belthangady, G Yin & S Harris. Generation of narrow-bandwidth paired photons : Use of a single driving laser. Physical Review Letters, vol. 97, no. 113602, 2006. Squeezed-state generation via forward degenerate four-wave mixing. P Kumar, &amp; Shapiro ; D Kupriyanov, O Mishina, &amp; E Giacobino, Phys. Rev. A. 301568Quantum memory for light via stimulated off. resonant Raman process : beyond the threelevel Lambda-scheme approximation. arXivP Kumar & JH Shapiro. Squeezed-state generation via forward degenerate four-wave mixing. Phys. Rev. A, vol. 30, no. 1568, 1984. [Kupriyanov 10] D Kupriyanov, O Mishina & E Giacobino. Quantum memory for light via stimulated off-resonant Raman process : beyond the three- level Lambda-scheme approximation. arXiv, 2010. Bright squeezed light by secondharmonic generation in a monolithic resonator. P Kürz, &amp; K Paschotta, Fiedler, EPL. 246449P Kürz, R Paschotta & K Fiedler. Bright squeezed light by second- harmonic generation in a monolithic resonator. EPL, vol. 24, no. 6, page 449, 1993. Applications of Quantum Electro-Optic Control and Squeezed Light. Ping Koy Lam, Thèse de doctorat -CamberraPing Koy Lam. Applications of Quantum Electro-Optic Control and Squeezed Light. Thèse de doctorat -Camberra, pages 1-202, 1998. . A Lambrecht, Thomas Coudreau, &amp; A Steinberg, Squeezing with cold atoms. EPL. 362A Lambrecht, Thomas Coudreau & A Steinberg. Squeezing with cold atoms. EPL, vol. 36, no. 2, 1996. Heralded entanglement between atomic ensembles : preparation, decoherence, and scaling. Julien Laurat, L Choi, C Deng, &amp; H J Chou, Kimble, Physical Review Letters. 99180504Julien Laurat, K Choi, L Deng, C W Chou & H J Kimble. Heral- ded entanglement between atomic ensembles : preparation, deco- herence, and scaling. Physical Review Letters, vol. 99, no. 180504, 2007. Generation and detection of squeezed states of light by nondegenerate four-wave mixing in an optical fiber. M Levenson, Alain Shelby, Aspect, &amp; Df Reid, Walls, Phys. Rev. A. 321550M Levenson, R Shelby, Alain Aspect, MD Reid & DF Walls. Ge- neration and detection of squeezed states of light by nondegene- rate four-wave mixing in an optical fiber. Phys. Rev. A, vol. 32, no. 1550, 1985. Numerical investigation of the quantum fluctuations of optical fields transmitted through an atomic medium. A Lezama, H Valente, &amp; M Failache, Martinelli, Phys. Rev. A. 77013806A Lezama, P Valente, H Failache & M Martinelli. Numerical in- vestigation of the quantum fluctuations of optical fields transmit- ted through an atomic medium. Phys. Rev. A, vol. 77, no. 013806, 2008. Observation of quantum interference between dressed states in an electromagnetically induced transparency. Y Li, &amp; M Xiao, Phys. Rev. A. 514959Y Li & M Xiao. Observation of quantum interference between dressed states in an electromagnetically induced transparency. Phys. Rev. A, vol. 51, no. 4959, 1995. Enhancement of nondegenerate four-wave mixing based on electromagnetically induced transparency in rubidium atoms. Y Li, &amp; M Xiao, Optics Letters. 21141064Y Li & M Xiao. Enhancement of nondegenerate four-wave mixing based on electromagnetically induced transparency in rubidium atoms. Optics Letters, vol. 21, no. 14, page 1064, 1996. The transition time induced narrow linewidth of the electromagnetically induced transparency in caesium vapour. L Li, C Peng, H Liu, &amp; Guo, Yu-Ao Chen, Journal of Physics B. 379L Li, X Peng, C Liu, H Guo & Yu-Ao Chen. The transition time in- duced narrow linewidth of the electromagnetically induced trans- parency in caesium vapour. Journal of Physics B, vol. 37, no. 9, 2004. Enhancement of entanglement for two-mode fields generated from four-wave mixing with the help of the auxiliary atomic transition. G Li, &amp; M Tan, Macovei, Phys. Rev. A. 76053827G Li, H Tan & M Macovei. Enhancement of entanglement for two-mode fields generated from four-wave mixing with the help of the auxiliary atomic transition. Phys. Rev. A, vol. 76, no. 053827, 2007. Using a pair of rectangular coils in the MOT for the production of cold atom clouds with large optical density. Y Lin, P Chou, &amp; Dwivedi, Yu-Ao Chen, Opt. Express. 1663753Y Lin, H Chou, P Dwivedi & Yu-Ao Chen. Using a pair of rec- tangular coils in the MOT for the production of cold atom clouds with large optical density. Opt. Express, vol. 16, no. 6, page 3753, 2008. Observation of coherent optical information storage in an atomic medium using halted light pulses. C Liu, C Dutton, &amp; L Behroozi, Hau, Nature. 4096819C Liu, Z Dutton, C Behroozi & L Hau. Observation of coherent optical information storage in an atomic medium using halted light pulses. Nature, vol. 409, no. 6819, 2001. Coherent population trapping and Fano profiles. B Lounis &amp; Claude Cohen-Tannoudji, J. Phys. II France. 579B Lounis & Claude Cohen-Tannoudji. Coherent population trap- ping and Fano profiles. J. Phys. II France, page 579, 1992. Nondegenerate four-wave mixing in a double-Lambda system under the influence of coherent population trapping. B Lu, &amp; M Burkett, Xiao, Optics Letters. 2310804B Lu, W Burkett & M Xiao. Nondegenerate four-wave mixing in a double-Lambda system under the influence of coherent population trapping. Optics Letters, vol. 23, no. 10, page 804, 1998. On the squeezing obtainable in parametric oscillators and bistable absorption. L Lugiato, &amp; G Strini, Optics Communications. 41167L Lugiato & G Strini. On the squeezing obtainable in parame- tric oscillators and bistable absorption. Optics Communications, vol. 41, no. 1, page 67, 1982. Quantum noise and correlations in resonantly enhanced wave mixing based on atomic coherence. Md Lukin, Michael Matsko, &amp; Fleischhauer, O Marlan, Scully, Physical Review Letters. 8291847MD Lukin, AB Matsko, Michael Fleischhauer & Marlan O Scully. Quantum noise and correlations in resonantly enhanced wave mixing based on atomic coherence. Physical Review Letters, vol. 82, no. 9, page 1847, 1999. Dark-state polaritons in electromagnetically induced transparency. &amp; Michael Md Lukin, Fleischhauer, Phys. Rev. Lett. 84225094MD Lukin & Michael Fleischhauer. Dark-state polaritons in elec- tromagnetically induced transparency. Phys. Rev. Lett, vol. 84, no. 22, page 5094, 2000. Resonant nonlinear optics in phase-coherent media. Md Lukin, &amp; Hemmer, O Marlan, Scully, Advances in Atomic Molecular and Optical Physics. 42347MD Lukin, PR Hemmer & Marlan O Scully. Resonant nonlinear optics in phase-coherent media. Advances in Atomic Molecular and Optical Physics, vol. 42, page 347, 2000. Rb atomic absorption line reference for single Sr+ laser cooling systems. A Madej, &amp; J Marmet, Bernard, Applied Physics B : Lasers and Optics. 67229A Madej, L Marmet & J Bernard. Rb atomic absorption line re- ference for single Sr+ laser cooling systems. Applied Physics B : Lasers and Optics, vol. 67, page 229, 1998. Electromagnetically induced transparency. J P Marangos, Journal of Modern Optics. 453471J P Marangos. Electromagnetically induced transparency. Journal of Modern Optics, vol. 45, no. 3, page 471, 1998. Optical amplification in a nonlinear fibre interferometer. M Marhic, &amp; J Hsia, Jeong, Electronics letters. M Marhic, C Hsia & J Jeong. Optical amplification in a nonlinear fibre interferometer. Electronics letters, 1991. Squeezing and intermode correlations in laser diodes. F Marin, Bramati, Giacobino, &amp; J Zhang, Poizat, Physical Review Letters. 754606F Marin, A Bramati, E Giacobino, T Zhang & J Poizat. Squee- zing and intermode correlations in laser diodes. Physical Review Letters, vol. 75, no. 4606, 1995. Tunable delay of Einstein-Podolsky-Rosen entanglement. R C A M Marino, V Pooser, &amp; P D Boyer, Lett, Nature. 4577231859A M Marino, R C Pooser, V Boyer & P D Lett. Tunable de- lay of Einstein-Podolsky-Rosen entanglement. Nature, vol. 457, no. 7231, page 859, 2009. Phase-Sensitive Amplification by Four-Wave Mixing in an Atomic Vapor. M Alberto, J Marino, Clark, Lance, &amp; Jones, D Paul, Lett, Bulletin of the APS DAMOP. Alberto M Marino, J Clark, A Lance, K Jones & Paul D Lett. Phase-Sensitive Amplification by Four-Wave Mixing in an Atomic Vapor. Bulletin of the APS DAMOP, 2010. Strong relative intensity squeezing by four-wave mixing in rubidium vapor. C Mccormick, V Boyer, E Arimondo, &amp; P D Lett, Optics Letters. 322178C. F McCormick, V Boyer, E Arimondo & P D Lett. Strong re- lative intensity squeezing by four-wave mixing in rubidium vapor. Optics Letters, vol. 32, no. 2, page 178, 2007. Strong low-frequency quantum correlations from a fourwave-mixing amplifier. C Mccormick, Alberto M Marino, Vincent Boyer, &amp; Paul, D Lett, Phys. Rev. A. 78443816C. F McCormick, Alberto M Marino, Vincent Boyer & Paul D Lett. Strong low-frequency quantum correlations from a four- wave-mixing amplifier. Phys. Rev. A, vol. 78, no. 4, page 43816, 2008. Squeezing in the audio gravitational-wave detection band. K Mckenzie, B Nicolai, W Grosse, &amp; S Bowen, Whitcomb, Physical Review Letters. 93161105K McKenzie, Nicolai B Grosse, W Bowen & S Whitcomb. Squee- zing in the audio gravitational-wave detection band. Physical Re- view Letters, vol. 93, no. 161105, 2004. Quantum Enhancement of the Zero-Area Sagnac Interferometer Topology for Gravitational Wave Detection. M Mehmet, Müller-Ebhardt &amp; Roman, Schnabel, Physical Review Letters. 104251102M Mehmet, H Müller-Ebhardt & Roman Schnabel. Quantum En- hancement of the Zero-Area Sagnac Interferometer Topology for Gravitational Wave Detection. Physical Review Letters, vol. 104, no. 251102, 2010. Elements of Quantum Optics. Pierre Meystre, &amp; Murray Sargent, Pierre Meystre & Murray Sargent. Elements of Quantum Optics. 2007. Stimulated Raman process in a scattering medium applied to the quantum memory scheme. O Mishina, Larionov, &amp; I Sheremet, Sokolov, Phys. Rev. A. 78042313O Mishina, N Larionov, A Sheremet & I Sokolov. Stimulated Ra- man process in a scattering medium applied to the quantum me- mory scheme. Phys. Rev. A, vol. 78, no. 042313, 2008. Quantum theory of parametric amplification. B Mollow, &amp; Roy Glauber, I. Physical Review. 1601076B Mollow & Roy Glauber. Quantum theory of parametric ampli- fication. I. Physical Review, vol. 160, page 1076, 1967. Spectroscopic and laser characteristics of Ti :Al2O3. Pf Moulton, PF Moulton. Spectroscopic and laser characteristics of Ti :Al2O3. . J. Opt. Soc. Am. B. 31125J. Opt. Soc. Am. B, vol. 3, no. 1, page 125, 1986. . Raymond Ooi, Q Sun, M Zubairy, &amp; Marlan, O Scully, no. 013820Phys. Rev. A. 75R Raymond Ooi, Q Sun, M S Zubairy & Marlan O Scully. Phys. Rev. A, vol. 75, no. 013820, 2007. Buffer-gas-induced shift and broadening of hyperfine resonances in alkali-metal vapors. P Oreto, Jau, Post, &amp; W Kuzma, Happer, Phys. Rev. A. 69042716P Oreto, Y Jau, A Post, N Kuzma & W Happer. Buffer-gas-induced shift and broadening of hyperfine resonances in alkali-metal va- pors. Phys. Rev. A, vol. 69, no. 042716, 2004. Transparence induite électromagnétiquement et mémoire quantique dans une vapeur de césium. J Ortalo, Thèse de doctorat -LKBJ Ortalo. Transparence induite électromagnétiquement et mémoire quantique dans une vapeur de césium. Thèse de doctorat -LKB, 2009. Bright squeezed light from a singly resonant frequency doubler. M J Paschotta, P Collett, Kürz, &amp; Fiedler, -Albert Hans, Bachor, Physical Review Letters. 723807Paschotta, MJ Collett, P Kürz, K Fiedler & Hans-Albert Bachor. Bright squeezed light from a singly resonant frequency doubler. Physical Review Letters, vol. 72, no. 3807, 1994. Efficient Nd : YAG laser frequency doubling with periodically poled. Zhiping Pasiskevicius, Wang, &amp; F Tellefsen, Laurell, KTP. APL. 377116Pasiskevicius, Zhiping Wang, J Tellefsen & F Laurell. Efficient Nd : YAG laser frequency doubling with periodically poled KTP. APL, vol. 37, page 7116, 1998. Unitary phase operator in quantum mechanics. D Pegg, &amp; S Barnett, EPL. 66D Pegg & S Barnett. Unitary phase operator in quantum mecha- nics. EPL, vol. 6, no. 6, 1988. Phase properties of the quantized singlemode electromagnetic field. D Pegg, &amp; S Barnett, Phys. Rev. A. 391665D Pegg & S Barnett. Phase properties of the quantized single- mode electromagnetic field. Phys. Rev. A, vol. 39, no. 1665, 1989. Generation of squeezed light by intracavity frequency doubling. S Pereira, H Xiao, &amp; J Kimble, Hall, Phys. Rev. A. 384931S Pereira, M Xiao, H J Kimble & J Hall. Generation of squeezed light by intracavity frequency doubling. Phys. Rev. A, vol. 38, no. 4931, 1988. Generation of 740 mW of blue light by intracavity frequency doubling with a first-order quasi-phase-matched KTiOPO4 crystal. M Pierrou, H Laurell, &amp; T Karlsson, Kellner, Opt. Express. 244205M Pierrou, F Laurell, H Karlsson & T Kellner. Generation of 740 mW of blue light by intracavity frequency doubling with a first-order quasi-phase-matched KTiOPO4 crystal. Opt. Express, vol. 24, no. 4, page 205, 1999. M Pollnau, Grivas &amp; L Laversenne, Ti, Sapphire waveguide lasers. Laser Physics. M Pollnau, C Grivas & L Laversenne. Ti : Sapphire waveguide lasers. Laser Physics, 2007. Quantum physics : The squeeze goes on. S Eugene, Polzik, Nature. 4537191Eugene S Polzik. Quantum physics : The squeeze goes on. Nature, vol. 453, no. 7191, 2008. Quantum correlated light beams from non-degenerate four-wave mixing in an atomic vapor : the D1 and D2 lines of 85Rb and 87Rb. A M R C Pooser, V Marino, K Boyer, &amp; P D Jones, Lett, Opt. Express. R C Pooser, A M Marino, V Boyer, K Jones & P D Lett. Quantum correlated light beams from non-degenerate four-wave mixing in an atomic vapor : the D1 and D2 lines of 85Rb and 87Rb. Opt. Express, 2009. Generation of squeezed states via degenerate four-wave mixing. &amp; Df Md Reid, Walls, Phys. Rev. A. 313MD Reid & DF Walls. Generation of squeezed states via degene- rate four-wave mixing. Phys. Rev. A, vol. 31, no. 3, pages 1622- 1635, 1985. Colloquium : the Einstein-Podolsky-Rosen paradox : from concepts to applications. Md Reid, W Drummond, . Bowen &amp; E Cavalcanti, Reviews of Modern Physics. MD Reid, P Drummond, W Bowen & E Cavalcanti . . . . Collo- quium : the Einstein-Podolsky-Rosen paradox : from concepts to applications. Reviews of Modern Physics, 2009. Vers une mémoire quantique dans des pièges à ions. Sebastien Rémoville, Thèse de doctorat -MPQ -Paris DiderotSebastien Rémoville. Vers une mémoire quantique dans des pièges à ions. Thèse de doctorat -MPQ -Paris Diderot, 2009. Photon noise reduction by passive optical bistable systems. Claude S Reynaud, Fabre, &amp; A Giacobino, Heidmann, Phys. Rev. A. 401440S Reynaud, Claude Fabre, E Giacobino & A Heidmann. Photon noise reduction by passive optical bistable systems. Phys. Rev. A, vol. 40, no. 1440, 1989. Experimental vacuum squeezing in rubidium vapor via self-rotation. J Ries, &amp; A Brezger, Lvovsky ; P Schwendimann, Sigmund &amp; K Zeile, Phys. Rev. A. 68025801Phys. Rev. AJ Ries, B Brezger & A Lvovsky. Experimental vacuum squee- zing in rubidium vapor via self-rotation. Phys. Rev. A, vol. 68, no. 025801, 2003. [Schwendimann 88] P Schwendimann, E Sigmund & K Zeile. Model for laser action in vibronic systems. Phys. Rev. A, vol. 37, no. 3018, 1988. Quantum Optics. O Marlan, Scully &amp; Muhammad Suhail, Zubairy, Marlan O Scully & Muhammad Suhail Zubairy. Quantum Optics. 1997. Generation of squeezed states and twin beams via non-degenerate four-wave mixing in a Lambda system. M Shahriar, &amp; Pr Hemmer, Optics Communications. 158273M Shahriar & PR Hemmer. Generation of squeezed states and twin beams via non-degenerate four-wave mixing in a Lambda system. Optics Communications, vol. 158, page 273, 1998. The principles of nonlinear Optics. Livre. Y R Shen, Siegman 86] Siegman. Lasers. LivreY R. Shen. The principles of nonlinear Optics. Livre, 2003. [Siegman 86] Siegman. Lasers. Livre, 1986. Generation of continuous variable Einstein-Podolsky-Rosen entanglement via the Kerr nonlinearity in an optical fiber. C Silberhorn, Ping Koy Lam, O Weiß, &amp; N König, Korolkova, Physical Review Letters. 864267C Silberhorn, Ping Koy Lam, O Weiß, F König & N Korolkova. Generation of continuous variable Einstein-Podolsky-Rosen en- tanglement via the Kerr nonlinearity in an optical fiber. Physical Review Letters, vol. 86, no. 4267, 2001. Peres-Horodecki separability criterion for continuous variable systems. Christoph Simon, Physical Review Letters. 842726Christoph Simon. Peres-Horodecki separability criterion for continuous variable systems. Physical Review Letters, vol. 84, no. 2726, 2000. The optical Kerr effect and quantum optics in fibers. Sizmann &amp; Gerd, Leuchs, Progress in optics. 39373A Sizmann & Gerd Leuchs. The optical Kerr effect and quantum optics in fibers. Progress in optics, vol. 39, page 373, 1999. Observation of squeezed states generated by four-wave mixing in an optical cavity. R E Slusher, L Hollberg, &amp; J Yurke, Mertz, Physical Review Letters. 552409R E Slusher, L Hollberg, B Yurke & J Mertz. Observation of squee- zed states generated by four-wave mixing in an optical cavity. Phy- sical Review Letters, vol. 55, no. 2409, 1985. Squeezed states in optical cavities : A spontaneous-emission-noise limit. R E Slusher, L Hollberg, Yurke, &amp; J Mertz, Valley, Phys. Rev. A. 313512R E Slusher, L Hollberg, B Yurke, J Mertz & J Valley. Squee- zed states in optical cavities : A spontaneous-emission-noise limit. Phys. Rev. A, vol. 31, no. 3512, 1985. Rubidium 85 D Line Data. online publication. D Steck, D. Steck. Rubidium 85 D Line Data. online publication, 2008. In-line phasesensitive amplification of multi-channel CW signals based on frequency nondegenerate four-wave-mixing in fiber. R Tang, Devgan, &amp; P Grigoryan, Kumar, Opt. Express. 16129046R Tang, P Devgan, V Grigoryan & P Kumar. In-line phase- sensitive amplification of multi-channel CW signals based on fre- quency nondegenerate four-wave-mixing in fiber. Opt. Express, vol. 16, no. 12, page 9046, 2008. The Wigner representation of quantum mechanics. V Tatarskiȋ, Physics-Uspekhi. V Tatarskiȋ. The Wigner representation of quantum mechanics. Physics-Uspekhi, 1983. Nicolas Treps &amp; Claude Fabre, Criteria of quantum correlation in the measurement of continuous variables in optics. arXiv. Nicolas Treps & Claude Fabre. Criteria of quantum correlation in the measurement of continuous variables in optics. arXiv, 2004. Teleportation of quantum states. L Vaidman, Phys. Rev. A. 491473L Vaidman. Teleportation of quantum states. Phys. Rev. A, vol. 49, no. 1473, 1994. Role of inhomogeneous broadening in lasing without inversion in ladder systems. G Vemuri, &amp; Gs Agarwal, Phys. Rev. A. 531060G Vemuri & GS Agarwal. Role of inhomogeneous broadening in lasing without inversion in ladder systems. Phys. Rev. A, vol. 53, no. 1060, 1996. Analysis of sub-Doppler linewidths in inversionless amplification. G Vemuri, &amp; B Nageswara Agarwal, Rao, Phys. Rev. A. 543695G Vemuri, GS Agarwal & B Nageswara Rao. Analysis of sub- Doppler linewidths in inversionless amplification. Phys. Rev. A, vol. 54, no. 3695, 1996. Sub-Doppler resolution in inhomogeneously broadened media using intense control fields. G Vemuri, &amp; B Nageswara Agarwal, Rao, Phys. Rev. A. 532842G Vemuri, GS Agarwal & B Nageswara Rao. Sub-Doppler reso- lution in inhomogeneously broadened media using intense control fields. Phys. Rev. A, vol. 53, no. 2842, 1996. Quantum Optics. D F Walls &amp; Gerard, J Milburn, 425D F. Walls & Gerard J. Milburn. Quantum Optics. page 425, 2008.
sample_16456
0.5154
arxiv
ASDA : Analyseur Syntaxique du Dialecte Algérien dans un but d'analyse sémantique Imène Guellil i_guellil@esi.dz Laboratoire de méthode de conception de système LMCS Ecole Supérieure d'Informatique ESI Alger Algérie Faiçal Azouaou f_azouaou@esi.dz Laboratoire de méthode de conception de système LMCS Ecole Supérieure d'Informatique ESI Alger Algérie ASDA : Analyseur Syntaxique du Dialecte Algérien dans un but d'analyse sémantique La fouille d'opinions et analyse de sentiments au sein des médias sociaux représente une piste de recherche suscitant un grand intérêt de la communauté scientifique. Néanmoins avant de procéder à cette analyse, nous sommes confrontés à un ensemble de problématiques. La première concerne la richesse des langues et dialectes au sein de ces médias. Afin de répondre à cette problématique, nous proposons dans ce papier une approche de construction et d'implémentation d'un analyseur syntaxique d'un dialecte arabe (le dialecte algérien) nommé ASDA servant à étiqueter les termes d'un corpus donné. Nous récupérons ainsi une table d'étiquetage contenant pour chaque terme son radicale, différents préfixes et suffixes, nous permettant de déterminer les différentes parties grammaticales, une sorte d'étiquetage POS 1 . Cet étiquetage, nous servira par la suite dans le traitement sémantique de ce dialecte, c'est-à-dire la traduction automatique de ce dernier ainsi que l'analyse de sentiment de messages rédigés en ce dialecteMots ClefDialecte arabe, Dialecte algérien, analyseur syntaxique, analyse de sentiments, lexique du dialecte.AbstractOpinion mining and sentiment analysis in social media is a research issue having a great interest in the scientific community. However, before begin this analysis, we are faced with a set of problems. In particular, the problem of the richness of languages and dialects within these media. To address this problem, we propose in this paper an approach of construction and implementation of Syntactic analyzer named ASDA. This tool represents a parser for the Algerian dialect that label the terms of a given corpus. Thus, we construct a labeling table containing for each term its stem, different prefixes and suffixes, allowing us to determine the different grammatical parts a sort of POS tagging. This labeling will serve us later in the semantic processing of the Algerian dialect, like the automatic translation of this dialect or sentiment analysis 1 POS : Part Of SpeechKeywordsDialecte algérien, analyseur syntaxique, analyse de sentiments, lexique du dialecte Identify applicable sponsor/s here. If no sponsors, delete this text box (sponsors). Introduction L'émergence des médias sociaux a conduit à l'explosion de la quantité de données générées par les utilisateurs. La fouille de ce contenu représente une mine d'or pour plusieurs disciplines et même autre que l'informatique. Néanmoins, confronté à la richesse des opinions, sentiments et émotions présents sur ces médias, une des pistes de recherche de la fouille des médias sociaux suscite un grand intérêt de la part de la communauté de recherche. Cette piste n'est autre que la fouille d'opinion et analyse de sentiments. Cependant, une des caractéristiques majeures du contenu présent au sein des médias sociaux est la richesse des langues et dialectes auxquels font appel les utilisateurs [1]. Récemment, un intérêt considérable a été donné aux dialectes arabes et surtout à la variété de ce dialecte se trouvant au sein des médias sociaux. L'identification et le traitement de dialecte a été même considéré comme le premier composant du prétraitement pour n'importe quel problème NLP (traduction automatique, recherche d'information, sans oublié la fouille d'opinion et analyse de sentiments) [2]. Parmi les dialectes arabes les plus recensé, nous trouvant le dialecte algérien. Ce dernier est caractérisé par l'absence de standard et de ressources [3]. Il diffère de l'arabe classique en termes de représentation linguistique (phonologique et morphologique), et de lexique ainsi que dans la représentation syntaxique. Tous ces aspects rendent les outils NLP qui ont été développé pour le traitement de la langue arabe impuissants devant un tel dialecte [3]. Nous avons cependant constaté que la plupart des travaux effectués se basent sur le dialecte égyptien et tunisien. En ce qui concerne le dialecte algérien très peu de travaux y ont touché [4]. Les travaux ayant traité ce dialecte, se concentrent sur l'aspect linguistique en général en omettant les différentes écritures possibles au sein des médias sociaux. Nous n'avons cependant recensé aucun travail traitant de la syntaxe ou encore du découpage des termes manipulés dans le dialecte algérien. Pour répondre à cette problématique, nous proposons au sein de ce papier un analyseur syntaxique du dialecte algérien. Ce dernier extrait d'un même terme plusieurs parties (correspondant aux verbes, noms, adjectifs, conjonctions, sans oublié les pronoms personnels avec lesquels est conjugué un verbe, pronoms COD, COI, la forme d'un verbe, adjectifs possessifs pour les noms, etc.). Notons seulement que pour construire cet analyseur, nous avons tout d'abord enrichit un lexique de traduction entre le dialecte algérien et le français, à l'aide de différentes extensions phonologiques. A partir de cet analyseur, nous pourrons produire une table d'étiquetage de tous les termes servant par la suite différents traitements sémantiques du dialecte algérien tels que la traduction automatique et l'analyse de sentiments. Notre article est organisé comme suit : Nous présentons d'abord les travaux reliés à notre problématique, c'est-à-dire les travaux traitant des dialectes arabes en général et dialecte algérien en particulier en section 2. Nous exposons ensuite notre approche de construction d'analyseur syntaxique au sein de la section 3. Nous implémentons cette dernière à l'aide du langage java au sein de la section 4. Enfin, nous concluons notre article par une synthèse en section 5 Les travaux étudiés Plusieurs études ont été menées sur le traitement du langage naturel en arabe. Cependant la plupart des techniques traditionnelles se sont focalisées sur le traitement du MSA (arabe classique) [2]. Néanmoins ces dernières années, l'intérêt de traitement des dialectes arabes a augmenté. Cette augmentation peut être attribuée à plusieurs facteurs tels que l'usage étendu des dialectes arabes au sein des médias sociaux [4]. Pour bien présenter les choses, nous allons diviser cette section en deux parties : la première présentant les travaux sur le traitement des dialectes arabes en général, la deuxième présentant les travaux menés sur le dialecte algérien en particulier. Traitement des dialectes arabes en général En se basant sur l'étude de l'état de l'art [4], nous classons les travaux menés sur le ANLP (traitement de langage naturel du dialecte arabe), en quatre catégories principales : 1) Analyse basique du langage, 2) Construction des ressources pour les dialectes arabe, 3) Identification des différents dialectes et 4) Analyse sémantique. L'analyse basique du langage consiste à étiqueter les différentes partie d'un corpus à l'aide d'une analyse morphologique ou encore l'analyse syntaxique et orthographique. Ces travaux veillent cependant au respect des différentes règles syntaxiques. Plusieurs travaux ont été menés au sein de cette catégorie, parmi ces derniers nous citons les travaux de HABECH et al. dans [5], qui présentent un analyseur et générateur morphologique, nommé MAGED. Cet outil peut analyser le dialecte levantine (le dialecte de la Syrie, le Liban, l'Israël, la Palestine ainsi que la Jordanie) et convertir par la suite le MSA (l'arabe classique) au levantine. Les règles orthographiques de cet outil ont été détaillées par la suite dans l'article de HABASH et al. dans [6]. En ce qui concerne l'analyse syntaxique, SADAT et al. dans [7] présentent un ensemble de règles grammaticales fournissant des ressources de traduction du dialecte tunisien au MSA ainsi qu'à d'autres langues définis. Pour l'analyse orthographique, les travaux s'orientent vers la proposition de conventions orthographiques servant à construire des modèles pour le traitement des dialectes arabes tel que l'égyptien [8]. Les travaux s'orientant sur la construction de ressources pour les dialectes arabes concernent : la construction de lexiques et de corpus. La construction de lexique se fait en premier lieu manuellement, leurs enrichissement se fait par la suite à l'aide de dictionnaire de langues tels que l'arabe, l'anglais, etc. Ceci à pu être fait pour la construction d'un lexique irakien par GRAFF et al. dans [9], ainsi que pour le lexique tunisien par BOUJELBANE et al. dans [10]. La construction de corpus quant à elle inclue l'identification des règles de bases (tels que les différentes écritures de voyelles). Cette construction fait appel à une autre catégorie de travaux qui n'est autre que l'identification de dialectes [11]. Ces corpus peuvent également être construits à l'aide de corpus parallèle, comme cela a été fait pour le dialecte algérien par SMAÏLI et al. dans [10]. L'identification des différents dialectes a pu être effectuée dans deux axes de recherches (textuelle et vocale). Dans le cadre de l'identification textuelle, ELFARDY et al. dans [13] propose une approche supervisée basée sur le niveau phrase afin de différencier entre l'arabe classique et le dialecte égyptien. L'équipe de SADAT et al. considèrent que le problème d'identification des différents dialectes arabe peut être traité à l'aide d'un modèle du langage Markovien Ngram [2]. Ce modèle est utilisé pour calculer la probabilité qu'un texte en entré soit dérivé d'un langage donné. Pour la classification des différents dialectes arabes, ces auteurs font appel à un classificateur bayésien naîf. En ce qu'est de la reconnaissance vocale du dialecte, la plupart des travaux menés s'orientent vers la reconnaissance vocale en premier lieu pour ensuite identifier le dialecte [14]. Pour la dernière catégorie de travaux gérant l'analyse sémantique des dialectes arabes, la plupart des auteurs se consacrent au traitement de la traduction. Traitement du dialecte Algérien En ce qui concerne les travaux effectués sur le dialecte algérien, nous pouvons en premier lieu citer le travail de SAADANE al dans [3], qui peut être classé au sein de la catégorie traitant de l'analyse basique des dialectes arabe et plus précisément celle se concentrant sur la présentation de règle orthographiques. Les auteurs de cet article se basent sur le modèle orthographique CODA 2 (Conventions orthographiques pour les dialectes arabes) proposé par HABASH et al. dans [8], pour le dialecte égyptien. Ces auteurs débutent leur travail en comparant le dialecte algérien au dialecte tunisien et égyptien. Ils présentent par la suite les différentes variations phonologiques entre le dialecte algérien, égyptien et tunisien, tel que le q, g, ʔ, ou k pour la lettre arabe ‫,)ق(‬ le dj pour la lettre ‫)ج(‬ ou encore γ pour(‫)غ‬ ou θ pour ‫.)ث(‬ Ces auteurs proposent également l'ajout des deux lettres (yn) comme suffixes aux noms pour former leurs pluriels ainsi que la présence du caractère n en début des verbes qui prévoit que le verbe est conjugué à la première personne du singulier. Ils finissent par les différentes variations lexicales. Ils présentent ensuite le CODA algérien tout en présentant les différentes extensions effectuées au CODA égyptien. Pour les travaux sur la construction de ressources, nous recensons deux travaux de MEFTOUH et al. dans [19] et SMAÏLI et al dans [12]. Le travail de MEFTOUH et al. est certainement le premier des travaux ayant traité le dialecte algérien. Cet article présente une analyse linguistique d'une catégorie de dialecte algérien qui n'est autre que le dialecte d'Annaba (Est de l'Algérie). Il expose également la méthodologie suivie par les auteurs afin de construire un corpus parallèle entre l'arabe classique (MSA) et le dialecte arabe. Ce corpus servira par la suite à la traduction automatique des textes écrits en dialecte arabe vers le MSA. Pour cela, ces auteurs présentent les spécifications du dialecte d'Annaba. Ils présentent également les généralités reliées à ce dialecte tel que la traduction des pronoms personnels, l'ajout des suffixes, la formulation de la phrase interrogative et négative en dialecte d'Annaba, etc. Le deuxième travail (tels que les préfixes au début des verbes, le pluriel des noms féminin, etc). Ces auteurs finissent leur travail en exposant le premier moteur de traduction entre le MSA et dialecte Algérien. Cependant, ce dernier ne donne pas de très bons résultats (surtout pour l'Algérois). Les auteurs soulèvent des difficultés de traduction du dialecte algérois (plus que le dialecte d'Annaba). Ces derniers expliquent cela par le fait que le dialecte d'Annaba est beaucoup plus proche de l'arabe classique MSA que le dialecte algérois. Après analyse de ces travaux nous constatons les problématiques suivantes :  Le manque de papiers traitant du dialecte algérien ainsi que la non couverture de plusieurs catégories de recherche pour ce dialecte (celles concernant l'analyse syntaxique, construction de lexique ainsi que les différentes analyses sémantiques).  Dans l'analyse orthographique des dialectes algériens ( [3] et [19] Contribution Pour répondre aux problématiques citées précédemment, nous proposons une approche d'analyse et de traitement du dialecte algérien. Cette approche analyse le dialecte algérien au sein des médias sociaux dans le but de construire un analyseur syntaxique des termes d'un corpus donné. Nous visons plusieurs objectifs par cette approche. D'abord nous comptons analyser les termes du dialecte algérien utilisé dans les médias sociaux. Pour ce faire, nous nous appuyons sur un corpus de données extrait précédemment. Nous extrayons par la suite le modèle de termes de ce corpus, qui pourrait également être utilisé dans de futurs travaux, dans le cadre d'enrichissement de lexique du dialecte algérien. L'analyse effectuée servira plusieurs traitements dont le prétraitement des termes, l'extraction et enrichissement de lexique ainsi qu'à la construction d'un analyseur syntaxique servant à étiqueter les termes d'un corpus donné. L'analyseur syntaxique permettra la construction d'une table d'étiquetage des termes d'un corpus. Notons que la table d'étiquetage de tous les termes du corpus nous servira par la suite dans de futurs travaux où nous nous intéresserons à l'analyse sémantique du dialecte algérien dans les médias sociaux. Par aspect sémantique, nous désignons la traduction automatique ainsi que l'analyse de sentiments. Afin d'éclaircir la situation, nous divisons notre contribution en deux parties : 1) analyse du dialecte algérien, analysant les termes les plus utilisés au sein des médias sociaux et 2) traitement de ce dialecte en présentant un analyseur syntaxique des différents termes. Nous détaillons ces deux parties dans ce qui suit : Analyse du dialecte Algérien au sein des médias sociaux Pour pouvoir effectuer cette analyse nous nous basons sur un corpus de données que nous avons extrait dans un précédent travail, de la page de Facebook 3 (reconnu être le média social le plus populaire) [1]. Notre premier constat est que les algériens au sein de cette page (ainsi que dans d'autres pages), font appel au dialecte algérien ainsi qu'au français pour communiquer (rarement à l'anglais). Ce qui fait appel à une autre problématique reconnu par le « code Switching » (c'està-dire faire appel à plusieurs langues et dialecte au sein du même discours. Nous pouvons donc trouver des commentaires de la forme : « inchlah nafozo ma3kom » (en dialecte, signifiant, si dieu le veux, nous gagnerons avec vous), « Dommage qu'en Algérie il ne marche que par défaut en plus du fait qu'il ne fonctionne pas en mode hors connexion » (en français) ou encore « mais nchallah ghadi nab9a ntélécharger ghi manah » (un mélange entre le français et le dialecte algérien, signifiant mais si dieu le veux nous n'allons plus télécharger que ce de cet opérateur). Afin d'étudier l'ensemble des mots utilisés dans ce corpus, nous avons en premier lieu construit un modèle de termes, qui contient pour chaque terme sa fréquence d'utilisation dans le corpus (dans le but de trier les termes par rapport à leur fréquence d'apparition). Nous avons ensuite filtré les termes pour ne garder que ceux appartenant au dialecte algérien (avec leurs fréquences d'utilisation bien sûre). Nous pouvons illustrer les étapes de cette partie au sein de la " Fig. 1 Traitement du dialecte Algérien au sein des médias sociaux Cette partie reçoit en entré un corpus en dialecte algérien devant être traité dans le but de concevoir une table d'étiquetage où chaque terme de ce lexique sera étiqueter. Le but principal de cet étiquetage est de pouvoir extraire différentes parties grammaticales encapsulées dans le même mot. Cette table pourra donc nous servir dans de futurs travaux afin de procéder à plusieurs analyses sémantiques telles que la traduction ou l'analyse de sentiment. Néanmoins pour pouvoir aboutir à cet analyseur syntaxique, le terme doit être préalablement prétraité et un lexique de dialecte doit être construit et enrichit à l'aide de règles phonologiques. Nous illustrons les étapes de cette partie au sein de la " Fig. 2 En se penchant sur ce lexique, nous avons constaté qu'il a été effectué dans un but linguistique, la représentation de lettre en français est donc loin de celle utilisée au sein des médias sociaux. Par exemple le « ‫ح‬ » a été représenté par « ḥ », le « ‫غ‬ » par « ġ », le « ‫ش‬ » par « š », etc. Néanmoins, d'après tous les exemples que nous venons de citer précédemment, nous pouvons constater qu'au sein des médias sociaux, aucun utilisateur ne fait appel à ces lettres pour s'exprimer. La première étape de l'amélioration de ce lexique est donc de changer ces lettres par les lettres les plus utilisés au sein des médias sociaux. Vu que le but primaire de notre travail est de pouvoir traiter le dialecte algérien dans un contexte d'analyse de sentiment. Nous devons donc intégrer des termes représentant le sentiment de la population à notre lexique. Dans un premier temps, nous comptons uniquement extraire les verbes, adjectifs et noms reconnus avoir une polarité intense au sein de SentiWordNet 5 (tels que excellent, lamentable, love, disrespect, hate,…), sans oublié leurs traduction vers le dialecte algérien. Notons seulement que SentiWordNet est une ressource très utilisés dans les travaux de recherche traitant de l'analyse de sentiment. D'après l'analyse du modèle de termes construit précédemment, nous pouvons constater l'apparition de plusieurs termes dont la fréquence est élevée. Néanmoins ces derniers ne sont pas inclus au sein de notre lexique. Parmi ces derniers nous pouvons citer : « fi » qui signifie « dans », « ana » qui signifie « moi », « nchallah » qui signifie « si dieu le veut », etc. nous définissons donc une partie de notre lexique reconnue par (particules : conjonctions et pronoms) où nous définissons la traduction de ces termes. Néanmoins, comme nous l'avons cité précédemment, un même terme peut s'écrire différemment selon l'utilisateur. Après analyse des différents termes ayant le même sens mais qui diffèrent au sein d'une lettre ou deux, nous pouvons extraire des règles de convention entre les lettres nous permettant d'enrichir le lexique obtenu. Ces conventions ne sont autre que l'enrichissement des mots contenant le son « q » par « k et 9 », le son « k » par « q et 9 », le son « h » par 7 ou encore le son « ch » par « che et sh », ect. 3) La construction d'un analyseur syntaxique : Après une analyse détaillée de la structure des éléments : verbes, noms et adjectif, nous avons pu dégager une syntaxe générale du dialecte algérien les concernant. Pour les verbes, nous nous intéressons au mode impératif et indicatif. Notons seulement que pour le mode indicatif, nous nous concentrons, que sur le temps présent (nous comptons étendre cet analyseur au autres temps dans de futurs travaux). Nous nous penchons également sur la négation (ne…pas), les pronoms COD (me, le, la, les…) ainsi que les pronoms COI (me, lui, leur,…). Vu que notre recherche sera orientée par la suite vers l'analyse de sentiments dans les médias sociaux, prenant par exemple deux verbes exprimant un sentiment et une émotion tels que : aimer et pleurer. La TABLE.I cidessous, présente les différents changements que présentent ces deux verbes pour l'impératif et le présent ainsi que pour la négation et les différents pronoms Pour les noms, nous nous intéressons à la combinaison de ces derniers avec les adjectifs possessifs. Néanmoins pour pouvoir généraliser la terminaison, nous identifions plusieurs cas en rapport au genre et au nombre du nom ainsi que le genre et le nombre de l'adjectif possessif. Par exemple pour le nom « ktab » (qui veut dire livre), l'ajout du "i" à la fin dans ktabi signifie mon livre, l'ajout du kom dans ktabkom signifie votre livre, etc. Concernant les adjectifs, nous n'avons pu faire cette généralisation que pour le féminin où l'adjectif prend « a » à la fin pour passer du masculin au féminin. Nous pouvons prendre l'exemple de l'adjectif « sghir : petit » qui deviendra « sghira » au féminin ou encore « meskine : pauvre » qui deviens « meskina ». Nous présentons à la" Fig. 3 A travers ces différents passage, l'étiquetage de ce terme sera de cette forme mandirhach (type : verbe, radical :dir, pronom personnel : n, pronom_COD :ha, pronom_COI :-, négation : true). L'étiquetage des termes combiné à des règles de traduction nous permettra dans de futurs travaux à procéder à la traduction d'un corpus du dialecte algérien vers une autre langue. Cet étiquetage nous servira également au sein de l'analyse de sentiments des utilisateurs des médias sociaux vis-à-vis d'un sujet donnée. Implémentation Notre approche a été implémentée au sein de l'environnement Windows 7, à l'aide du langage de programmation java ( Nous présentons au sein de la " Fig. 4", ci-dessous, les mots reconnus à partir des messages présentés, ainsi que leurs différents découpages syntaxiques. Notez seulement que pour chaque mot, nous devons également garder sa position (c'està-dire le numéro de message auquel il appartient ainsi que sa position au sein de ce message). Pour des besoins de clarté d'affichage, nous présentons au sein de cette maquette un regroupement des différentes tables d'étiquetage selon la partie grammaticale (c'est-à-dire que nous présentons une table pour les verbes, une pour les noms, une autre pour les adjectifs et la dernière pour les conjonction et pronoms). Bibliographie [12], représente la suite du premier. Le but de ce dernier est de procéder à une traduction entre le dialecte algérois et le MSA. Ce dernier se consacre sur deux types de dialectes : l'Algérois et le dialecte d'Annaba. Pour ce faire, les auteurs construisent deux dictionnaires (le premier MSA-Algérois et le deuxième MSA-Annaba) et ce à partir des sites de diffusion de film et d'émissions Algériennes. Ils construisent par la suite un dictionnaire du dialecte se basant sur les différences existantes entre les dialectes Algérien et le MSA 2 Convention Orthography for Dialectal Arabic Fig. 4 4Fig. 4 Interface de l'application De ce fait, nous pouvons citer les travaux de MOHAMED et al. dans [15] où les auteurs présentent un traducteur de l'arabe classique vers le dialecte égyptien. Dans l'article de JEHL et al. dans [16], les auteurs ont collecté un ensemble de pairs de phrases bilingues pour entrainer un système de traduction statistique. Ceci afin de traduire des messages de microblogs dans les différents dialectes des pays du golf, levantine, égyptien, etc. D'autres tâches sémantiques consistent à utiliser le traitement du dialecte arabe pour l'analyse de sentiments et de subjectivité. Par exemple, dans [17], les auteurs se focalisent sur le traitement de dialectes arabes, plus précisément sur la manière d'extraire les caractéristiques ayant le plus grand impact sur l'analyse de sentiments. Dans [18], les auteurs présentent un classificateur de sentiment des expressions courantes du dialecte arabe. Ces derniers se basent sur les commentaires extraits de Facebook. auteurs de cet état de l'art [4], terminent leur analyse en présentant un tableau synthétisant les travaux effectués dans chacune des quatre catégories tout en distinguant entre les différents dialectes traités. A partir de ce dernier, nous pouvons constater que la plupart des travaux menés concernent les dialectes : égyptien, levantine, tunisien et irakien. Néanmoins, nous n'avons pu recenser sur ce tableau que trois travaux concernant le dialecte algérien.Les ), les auteurs présentent certaines conventions entre les lettre arabes et celle utilisées en dialectes tels que γ pour ‫)غ(‬ ou θ pour ‫.)ث(‬ Néanmoins ces conventions sont valables d'un point de vue linguistique seulement. Dans le cas d'exploitation, de ces connaissances dans le cadre des médias sociaux, elles ne donneraient pas un bon résultat, puisque aucun des utilisateurs de ces médias ne fait appel au caractère γ pour ‫)غ(‬ et θ pour ‫.)ث(‬  Aucun des travaux effectués sur le dialecte algérien ne prévoit l'exploitation de ces résultats dans le cadre d'analyse de sentiments dans les médias sociaux. De ce fait les concepts présentés, les verbes analysés sont très générales et non dirigés vers ce type d'analyse particulière. Nous présentons dans la section suivante notre approche visant à résoudre les problèmes identifiés ci-dessus. " . "Fig .1. Analyse du dialecte algérien dans les médias sociaux En se penchons sur les termes appartenant au dialecte, nous pouvons extraire un ensemble de constats: Le premier constat concerne le besoin de prétraitement de certains termes. Par exemple nous remarquons que les3 https://www.facebook.com termes bezzzzzzaf, Sahiiiit, sahbiii contiennent la répétition d'une certaine lettre (z dans le premier terme, i dans le deuxième et troisième). Des termes sous cette forme ne peuvent donc pas être reconnus par le lexique avant que cette exagération ne soit traitée.  Le deuxième constat concerne l'analyse phonologique de certains sons utilisés dans les médias sociaux. Cette analyse servira à enrichir notre lexique de dialecte- français. Les sons détectés sont les suivants : Pour le son ‫,)غ(‬ les utilisateurs font appel à la combinaison des deux lettres (gh), par exemple : ghaya, ghalta, ghiba, etc. En ce qui concerne le son ‫,)ق(‬ la plupart des travaux étudiés font référence aux différentes lettres k et q. Pour notre part nous constatons l'apparition du chiffre (9) pour remplacer ce son, par exemple: wa9tach, na9sin, t9oul. Cet appel aux chiffres remplaçant les lettres se fait beaucoup ressentir au sein des médias sociaux, par exemple pour la lettre ‫,)ع(‬ les utilisateurs font appel au chiffre (3) (3yana, ma3kom, ma3andek), ou encore pour la lettre ‫,)ح(‬ qui est représentée par le chiffre 7 (Ch7al, sa7, 7ala). Noter seulement que la lettre ‫,)ع(‬ peut également être représenté à l'aide des deux lettres (aa) et ‫)ح(‬ à l'aide de h (Néanmoins h peut également représenter la lettre ‫)ه(‬ comme dans hayla). Pour le son ‫,)ش(‬ il peut être représenté par ch (machi, chokran, Manich), che (makache, matgoloche, matahbasche) ou encore sh (kash, Wesh, bash). Le ‫)و(‬ peut également être écrit de différentes manières, à l'aide du w (wa9tach), des deux lettre oua (houa), oui (touil). Le son ‫,)ي(‬ peut être obtenu à l'aide de la lettre y (khoya, kayna, yi). Le son ‫,)خ(‬ peut être obtenu grâce aux deux lettres kh(khoya, khir). Le son ‫,)ج(‬ peut être représenté soit à l'aide de la lettre j (haja, nji) ou encore la combinaison des deux lettre dj (hadja, ydji). La dernière remarque que nous pouvons faire concerne les voyelles en arabe ou en dialecte (reconnu par tachkil). Nous ne parlerons, néanmoins que d'el fatha (qui s'effectue à l'aide d'un petit trait sur la lettre comme dans َ ‫.)ب‬ Nous avons cependant constaté que cette fatha pouvait s'écrire en dialecte, à l'aide de « a » (rabi) ou « e » (rebi). De même pour la damma (tel que dans َ ‫.)ب‬ Cette dernière est représentée soit à l'aide de « o » (khoya) ou «ou » (khouya).  Le troisième et dernier constat concerne l'analyse syntaxique des différents termes. Contrairement aux autres langues, l'analyse syntaxique, peut concerner un seule terme. Par exemple, la phrase « Je t'ajoute… » en français, est reconnu au sein de notre dialecte par « nzidlek » où le n représente je, zid représente le verbe « ajouter » et lek représente le pronom COI « te ». Nous pouvons citer un autre exemple concernant les noms, la phrase « mon dieu » sera représenter par « rabi » en dialecte. Ce terme peut donc être divisé en deux parties : nom qui est « rab » et l'adjectif possessif mon qui est « i ». De même pour les adjectifs où le « a » à la fin désigne le féminin. Par exemple pour « sghira », vu que « sghir » désigne petit, donc en ajoutant le « a » à la fin, ça désignera « petite ». Les différents constats auxquels nous avons pu aboutir au sein de cette étape, nous servirons pour concevoir les différentes techniques et algorithmes des prochaines étapes. Fig .2. Traitement du dialecte algérien dans les médias sociaux 1) Le prétraitement des termes : D'après les résultats d'analyse effectués précédemment, rappelons qu'un terme peut contenir des exagérations (bezzzzzzzzzzaf). Avant de procéder à l'étiquetage des termes, nous devons tout d'abord vérifier que le terme n'est pas dans cette catégorie. Notons que la recherche de répétitions de lettre peut se faire à l'aide des expressions régulière. Pour les termes contenant des exagération, nous devons tous d'abord supprimer les lettres répétés. Nous devons également garder trace des mots contenant des exagérations car ceci ne pourra qu'accentuer le sentiment.2) La construction et enrichissement d'un lexiquedialecte-français: S'appuyant sur les caractéristiques du dialecte algérien présenté au sein de l'analyse lexicale, nous avons pu extraire du net 4 un lexique contenant la traduction entre les termes du dialecte algérien et le français. Ce dernier contient 228 verbes, 73 adjectifs, 297 noms, ainsi que d'autre nom et expressions particulières (reliés au domaine médical et autre). Dans le cadre de ce travail, nous nous concentrons sur les verbes, adjectifs et noms. Nous laissons la partie domaine particulier et expressions particulière, à traiter dans d'autre travaux.". Afin d'éclaircir les choses, nous présentons au sein de cette partie trois aspects : 1) Le prétraitement de termes, 2) la construction et enrichissement d'un lexique dialecte-français et 3) la construction d'un analyseur syntaxique. TABLE . .II. Traitement syntaxique des verbes en dialecte algérienVerbe/ préfixes et suffixes Le mode impé- ratif Présent à l'aide des prono msn/t/ y/i Négation Ma…ch Pronoms COD ni/ek,k/o u/h,ha/n a/ kom/ho m Pronoms COI Li/ lek/lou,lha/ ena, elna,lna/ elkom/lko m/ elhom/lho m Aimer hab habi habou nhab thab/ thabi yhab/ ihab/ thab nhabou thabou yhabou manhabch mathabch/ mathabich maybabch/ mathabch manhabouch mathabouch mayhabouch yhabni yhabek yhabou/ yhabha yhabna yhabkom yhabhom yhabli yhablek yhablou/ yhabelha yhabena/ yhabelna yhabelkom yhabelhom Pleurer ebki ebkiou ebkiw nebki tebki yebki/ tebki nebkou / nebkiw tebkou/ tebkiw yebkou / yebkiw manebkich matebkich mayebkich/ tebkich nebkouch/ nebkiwch matebkouch/ matebkiwch mayebkouch/ mayebkiwch yebkini yebkik yebkih/ yebkiha yebkina yebkikom yebkihom yebkili yebkilek yebkilou/ yebkilha yebkilna yebkilkom yebkilhom appel aux différents termes de fortes intensités extraits de « SentiWordNet », tels que : aimer, détester, splendid, etc. En premier temps, nous extrayons les termes de « SentiWordNet » ayant une valence (qu'elle soit positive ou négative) égale à 1 (100%). C'est-à-dire les termes étant strictement positif ou strictement négatif. Nous procédons ensuite à la traduction manuelle de ces termes vers le Français ainsi que vers le dialecte Algérien .Nous ajoutons une partie particules (conjonction et pronoms) à notre lexique de base, tels que : dans, de, moi, etc. Nous finissons par ajouter les différentes extensions phonologiques permettant à chaque mot d'avoir différentes manière d'écriture par exemple : oq3od qui est enrichie en oq3oud, ok3od, ok3oud, ouq3od, ouq3oud, ouk3od, ouk3oud, o93od, o93oud. Pour aboutir à tous ces termes, nous avons simplement procéder aux enrichissements phonologiques présentés ci-dessus. Pour ce cas, nous étendons l'apparition de « o » par « ou » et « q » par « k » et « 9 ». Notons que pour un seul terme nous obtenons 9 autres termes.Pour le corpus de traitement, nous nous sommes basés sur un ensemble de messages extrait sur la page Facebook de l'opérateur de téléphonie Algérien « Mobilis » 6 . Nous avons par la suite extrait manuellement les messages rédigés en dialecte algérien (notez que nous comptons par la suite automatiser cette tâche à l'aide d'un travail sur la détection du dialecte algérien au sein des messages). Nous présentons au sein de la "Fig. 4", cinq de ces messages.Pour le traitement de ces messages, nous devons d'abord, découper chaque message en mots. Chaque mot sera ensuite analysé pour voir s'il contient une exagération (répétition d'un caractère pour accentuer un sentiment) de la forme : marooooooooooooook. Une fois le terme détecté, cette exagération sera supprimée à l'aide des expressions http://www.mobilis.dz/ régulières. Le terme obtenu peut par la suite être analysé syntaxiquement.Pour procéder à l'analyse syntaxique d'un terme, nous avons tout d'abords implémenté l'automate en construisant en premier lieu sa table de transition[20,21] (considéré également comme la matrice d'adjacence dans le cas des graphes). Cette dernière a ensuite été implémentée à l'aide d'un algorithme vérifiant l'appartenance d'un terme à notre dialecte et en étiquetant chaque partie des termes acceptés. Le but de ce travail est de pouvoir récupérer une table d'étiquetage de toutes les parties syntaxiques et ce de tous les termes reconnus par notre automate. Par exemple, nous pouvons constater que le terme tro7, se compose d'un radical « roh » qui fait partie des verbes (ce dernier signifie aller en français). Ce terme est également composé d'un préfixe « t » (indiquant le pronom personnel associé à ce verbe). Il ne contient cependant aucune exagération, aucun préfixe ou suffixe de négation et aucun pronom COD, ni même COI.JRE 8 SE), sous l'IDE Eclipse. En ce qui concerne le stockage des lexiques et corpus étudiés, nous utilisons le tableur Excel 2007. Nous n'avons pas besoin d'utiliser une base de données puisque le nombre de nos enregistrements est pour l'instant limité. Néanmoins, nous comptons par la suite utiliser une base de données Nosql pour le stockage de nos corpus extraits des médias sociaux. Afin d'implémenter notre approche, nous avons procédé comme suit : Nous enrichissons, en premier lieu, notre lexique de traduction entre le dialecte algérien et le français. Pour cela nous faisons 6 table d'étiquetage est la première résultante d'un grand travail de recherche se consacrant à la fouille d'opinion et analyse de sentiments des commentaires au sein des média sociaux en particulier et sur l'intégralité du web en général. Pour cela, nous nous basons sur la première des problématiques citée au sein de notre précédent travail dans [1], c'est-à-dire concernant le traitement des différentes langues et dialectes (plus précisément, le dialecte Algérien) . Conclusion L'objectif de ce travail est de présenter, ASDA, un analyseur syntaxique du dialecte algérien. Ce dernier permettra par la suite, la traduction automatique et l'analyse de sentiments de messages rédigés en ce dialecte. Pour ce faire, nous nous sommes d'abord concentrés sur l'analyse des dialectes arabes et plus précisément le dialecte algérien. Contrairement aux autres travaux [3,19,12], nous avons considéré un environnement particulier pour l'utilisation de ce dialecte qui n'est autre que les médias sociaux. Nous avons analysé le style d'écriture au sein de ces médias, puis proposé un certain nombre de formalismes nous aidant à extraire et enrichir un lexique de traduction entre le dialecte algérien et le français. Une fois ce lexique construit nous nous sommes concentrés sur l'analyse syntaxique des différents termes d'un corpus donné au sein des médias sociaux. Pour ce faire nous avons proposé un analyseur syntaxique sous forme d'automate aidant au découpage et étiquetage des termes. Enfin, nous avons présenté la maquette d'implémentation de notre approche, prenant en entrés un ensemble de messages en dialecte algérien et dégageons une table d'étiquetage des différents termes de ces messages. Cette table servira par la suite à la traduction automatique et analyse de sentiments des messages en dialecte algérien. Cette approche présente cependant un certain nombre de failles qui peuvent être amélioré à l'aide des points suivants :  Intégrer à cette approche une partie de détection automatique du dialecte algérien, ce qui nous permettra de filtrer les messages écrit en dialecte des autres messages rédigés en français ou en anglais.  Cette approche ne traite que les verbes en mode impératif et indicatif présent, ça serait intéressent d'intégrer les autres temps, tels que le passé et le futur, etc.  Cette approche procède à une analyse terme par terme, or que le dialecte algérien est riche en terme d'expression. Il serait donc intéressent d'intégrer une analyse niveau phrase et non niveau terme.5 http://www.flipsnack.com/95C5C758B7A/dictionnairearabe-algerien.html 5 http://sentiwordnet.isti.cnr.it/ Social big data mining: A survey focused on opinion mining and sentiments analysis. Imene ; Guellil, Kamel Boukhalfa, 12th International Symposium on.IEEE. Programming and Systems (ISPS)Guellil, Imene;Boukhalfa, Kamel, "Social big data mining: A survey focused on opinion mining and sentiments analysis," in Programming and Systems (ISPS), 2015 12th International Symposium on.IEEE, vol., no., pp.1-10, 28-30 April 2015. Automatic identification of arabic dialects in social media. Fatiha Sadat, Kazemi, Farnazeh, Atefeh Farzindar, Proceedings of the first international workshop on Social media retrieval and analysis. the first international workshop on Social media retrieval and analysisACMSADAT, Fatiha, KAZEMI, Farnazeh, et FARZINDAR, Atefeh. Automatic identification of arabic dialects in social media. In : Proceedings of the first international workshop on Social media retrieval and analysis. ACM, 2014. p. 35-40.. A Conventional Orthography for Algerian Arabic. Houda Saadane, Nizar Habash, ANLP Workshop. 69SAADANE, Houda et HABASH, Nizar. A Conventional Orthography for Algerian Arabic. In : ANLP Workshop 2015. 2015. p. 69. Natural Language Processing for Dialectical Arabic: A Survey. Abdulhadi Shoufan, Al-Ameri , Sumaya , ANLP Workshop. 36SHOUFAN, Abdulhadi et AL-AMERI, Sumaya. Natural Language Processing for Dialectical Arabic: A Survey. In : ANLP Workshop 2015. 2015. p. 36. MAGEAD: A morphological analyzer and generator for the Arabic dialects. Nizar Habash, Owen Rambow, Proceedings of the 21st International Conference on Computational Linguistics and the 44th annual meeting of the Association for Computational Linguistics. the 21st International Conference on Computational Linguistics and the 44th annual meeting of the Association for Computational LinguisticsAssociation for Computational LinguisticsHABASH, Nizar et RAMBOW, Owen. MAGEAD: A morphological analyzer and generator for the Arabic dialects. In :Proceedings of the 21st International Conference on Computational Linguistics and the 44th annual meeting of the Association for Computational Linguistics. Association for Computational Linguistics, 2006. p. 681-688. Morphophonemic and orthographic rules in a multi-dialectal morphological analyzer and generator for arabic verbs. Nizar Habash, Owen Rambow, International Symposium on Computer and Arabic Language (ISCAL). Riyadh, Saudi ArabiaHABASH, Nizar et RAMBOW, Owen. Morphophonemic and orthographic rules in a multi-dialectal morphological analyzer and generator for arabic verbs. In :International Symposium on Computer and Arabic Language (ISCAL), Riyadh, Saudi Arabia. 2007. Collaboratively Constructed Linguistic Resources for Language Vari-ants and their Exploitation in NLP Applications-the case of Tunisian Arabic and the Social Media. Fatiha Sadat, Mallek, Fatma, Sellami, Rahma, Workshop on Lexical and Grammatical Resources for Language Processing. 102SADAT, Fatiha, MALLEK, Fatma, SELLAMI, Rahma, et al.Collaboratively Constructed Linguistic Resources for Language Vari-ants and their Exploitation in NLP Applications-the case of Tunisian Arabic and the Social Media. In :Workshop on Lexical and Grammatical Resources for Language Processing. 2014. p. 102. Conventional Orthography for Dialectal Arabic (CODA): Principles and Guidelines--Egyptian Arabic-Version 0. Nizar Y Habash, Mona T Diab, Rambow, C Owen, HABASH, Nizar Y., DIAB, Mona T., et RAMBOW, Owen C. Conventional Orthography for Dialectal Arabic (CODA): Principles and Guidelines--Egyptian Arabic-Version 0.7-March 2012. 2014. Lexicon Development for Varieties of Spoken Colloquial Arabic. David Graff, Buckwalter, Jin Tim, Hubert, Proceedings of the Fifth International Conference on Language Resources and Evaluation (LREC). the Fifth International Conference on Language Resources and Evaluation (LREC)GRAFF, David, BUCKWALTER, Tim, JIN, Hubert, et al. Lexicon Development for Varieties of Spoken Colloquial Arabic. In :Proceedings of the Fifth International Conference on Language Resources and Evaluation (LREC). 2006. p. 999-1004. Building bilingual lexicon to create Dialect Tunisian corpora and adapt language model. Rahma Boujelbane, Benayed, Siwar, Lamiahadrich Belguith, 88BOUJELBANE, Rahma, BENAYED, Siwar, et BELGUITH, LamiaHadrich. Building bilingual lexicon to create Dialect Tunisian corpora and adapt language model. ACL 2013, 2013, p. 88. YADAC: Yet another Dialectal Arabic Corpus. Rania Al-Sabbagh, Roxana Girju, LREC. 2012. AL-SABBAGH, Rania et GIRJU, Roxana. YADAC: Yet another Dialectal Arabic Corpus. In :LREC. 2012. p. 2882-2889. Sentence Level Dialect Identification in Arabic. Heba Elfardy, Mona T Diab, ELFARDY, Heba et DIAB, Mona T. Sentence Level Dialect Identification in Arabic. In :ACL (2). 2013. p. 456-461. Saudi accented Arabic voice bank. Mansour Alghamdi, Alhargan, Alkanhal Fayez, Mohammed, Journal of King Saud University-Computer and Information Sciences. 20ALGHAMDI, Mansour, ALHARGAN, Fayez, ALKANHAL, Mohammed, et al.Saudi accented Arabic voice bank. Journal of King Saud University-Computer and Information Sciences, 2008, vol. 20, p. 45-64. Transforming standard Arabic to colloquial Arabic. Emad Mohamed, Mohit, Behrang, Oflazer, Proceedings of the 50th Annual Meeting of the Association for Computational Linguistics: Short Papers. the 50th Annual Meeting of the Association for Computational Linguistics: Short PapersAssociation for Computational Linguistics2MOHAMED, Emad, MOHIT, Behrang, et OFLAZER, Kemal. Transforming standard Arabic to colloquial Arabic. In :Proceedings of the 50th Annual Meeting of the Association for Computational Linguistics: Short Papers-Volume 2. Association for Computational Linguistics, 2012. p. 176-180. Twitter translation using translation-based cross-lingual retrieval. Laura Jehl, Hieber, Felix, Stefan Riezler, Proceedings of the Seventh Workshop on Statistical Machine Translation. the Seventh Workshop on Statistical Machine TranslationAssociation for Computational LinguisticsJEHL, Laura, HIEBER, Felix, et RIEZLER, Stefan. Twitter translation using translation-based cross-lingual retrieval. In :Proceedings of the Seventh Workshop on Statistical Machine Translation. Association for Computational Linguistics, 2012. p. 410-421. SAMAR: Subjectivity and sentiment analysis for Arabic social media. Abdul-Mageed, Muhammad, Mona Diab, Sandra Kübler, Computer Speech & Language. 281ABDUL-MAGEED, Muhammad, DIAB, Mona, et KÜBLER, Sandra. SAMAR: Subjectivity and sentiment analysis for Arabic social media. Computer Speech & Language, 2014, vol. 28, no 1, p. 20-37. . Abdel Hedar, Rahman, M M Doss, Mining, Networks&apos;arabic Slang, Comments, HEDAR, Abdel Rahman et DOSS, M. M. MINING SOCIAL NETWORKS'ARABIC SLANG COMMENTS. Building Resources for Algerian Arabic Dialects. Smaïli, Abbas Kamel, Meftouh Mourad, Karima , 15th Annual Conference of the International Communication Association Interspeech. SMAÏLI, Kamel, ABBAS, Mourad, MEFTOUH, Karima, et al.Building Resources for Algerian Arabic Dialects. In :15th Annual Conference of the International Communication Association Interspeech. 2014. A study of a non-resourced language: an Algerian dialect. Karima Meftouh, Bouchemal, Nadjette, Smaïli, Kamel, SLTU. 2012. MEFTOUH, Karima, BOUCHEMAL, Nadjette, et SMAÏLI, Kamel. A study of a non-resourced language: an Algerian dialect. In : SLTU. 2012. p. 125-132. Automates lexicaux avec structure de traits. Olivier Blanc, Anne Dister, Actes de RECITAL. BLANC, Olivier et DISTER, Anne. Automates lexicaux avec structure de traits. Actes de RECITAL, 2004, p. 23-32. Introduction à la calculabilité. Dunod. Pierre Wolper, WOLPER, Pierre. Introduction à la calculabilité. Dunod, 2006.
sample_16554
0.9411
arxiv
Estudo e Implementação de Algoritmos de Roteamento sobre Grafos em um Sistema de Informações Geográficas Rudini Menezes Sampaio rudini@comp.ufla.br Departamento de Ciência da Computação UFLA -Universidade Federal de Lavras DCC Horácio Hideki Yanasse INPE -Instituto Nacional de Pesquisas Espaciais LAC -Laboratório Associado de Computação e Matemática Aplicada Estudo e Implementação de Algoritmos de Roteamento sobre Grafos em um Sistema de Informações Geográficas RESUMOEste artigo discute alguns dos principais algoritmos de roteamento em grafos, como menor caminho, árvore de custo mínimo, carteiro chinês e caixeiro viajante, e apresenta sua implementação em um Sistema de Informações Geográficas. Palavras-Chave. Pesquisa Operacional, Algoritmos de Roteamento, Teoria dos Grafos. Introdução Nesse documento, apresenta-se um estudo de alguns dos principais problemas de roteamento em grafos, como Menor Caminho, Árvore de Custo Mínimo, Carteiro Chinês e Caixeiro Viajante, bem como o desenvolvimento e a implementação em um Software gráfico e prático de algoritmos que os solucionem em tempo hábil. Descreve-se ainda o desenvolvimento de um aplicativo que permite a visualização e manipulação de grafos sobre arquivos de figura e a execução dos algoritmos desenvolvidos sobre diversos contextos, possibilitando o seu uso em casos de Fotos de Satélites, GPS, Mapas e outros. Menor caminho O problema do menor caminho é bastante conhecido e tem como objetivo obter um percurso mínimo entre dois ou mais vértices de um grafo. Neste caso, um grafo pode representar uma malha rodoviária, distâncias geográficas e etc... Além de ser clara a aplicabilidade dessas técnicas para o problema de motoristas, correios ou serviços de emergência, existe uma motivação muito mais importante para se começar a estudá-los: a determinação dos menores caminhos aparece constante e consistentemente como um subproblema de problemas mais complexos em grafos. Algoritmo de Dijkstra: Entre um dado ponto e os demais No algoritmo de Dijkstra, o objetivo é obter o menor caminho entre um dado vértice fixo e todos os demais vértices do grafo. Por exemplo, saber a distânica mínima de São Paulo para todas as cidades do Estado. O algoritmo consiste basicamente em fazer uma visita por todos os nós do grafo, iniciando no nó fixo dado e encontrando sucessivamente o nó mais próximo, o segundo mais próximo, o terceiro mais próximo e assim por diante, um por vez, até que todos os nós do grafo tenham sido visitados. Na figura 1, exemplificamos a execução do algoritmo de Dijkstra no Sistema, com um grafo sobre um mapa de uma cidade, cujas arestas representam as ruas. Algoritmo de Floyd: Entre todos os pares de pontos É muito comum o caso de ser necessário o menor caminho entre todos os pares de nós de um grafo. Como exemplo podemos citar a preparação de tabelas indicando distâncias entre todas as cidades em mapas rodoviários de estados ou regiões, ou obter o menor caminho que parta de um nó dado, passe por alguns nós intermediários dados em ordem de prioridade e chegue em um nó final. Possui muitas aplicações, como entrega de encomendas em hora marcada por empresas distribuidoras de produtos, etc. A idéia geral desse algoritmo é atualizar a matriz de menores distâncias n vezes (onde n é o número de nós do grafo) procurando na K-ésima interação por melhores distâncias entre pares de nós que passem pelo vértice K. Nas figuras 2, 3 e 4, exemplificamos a execução do algoritmo de Floyd no Sistema, com um grafo com as possíveis jogadas do Cavalo no tabuleiro de xadrez, um grafo com uma fotografia de satélite, onde as arestas representam as rodovias, e outro grafo com o mapa da cidade de São José dos Campos, em São Paulo, onde as arestas representam as ruas. Árvore de custo mínimo (Algoritmo de Prim) O Problema da Árvore de Custo Mínimo é encontrar uma árvore que contenha todos os vértices do grafo e cuja soma das arestas seja mínima. Este problema aparece, por exemplo, no seguinte contexto: é dado um mapa de n cidades rurais com uma matriz listando as distâncias euclidianas entre todos os pares possíveis de cidades e deseja-se obter o menor comprimento de rodovias necessárias para unir todas elas. Outro contexto importante seria para auxiliar na decisão de onde se localizar postos de emergência ou delegacias de polícia em uma cidade, por exemplo. Além dessas aplicações, a solução desse problema é de grande utilidade para a solução de outros problemas mais complexos em grafos, tais como o do caixeiro viajante. O Algoritmo de Prim é um algoritmo "guloso" cuja idéia básica é: Escolhendo um nó arbitrário inicialmente, visite todos os nós do grafo escolhendo como próximo a ser visitado o nó mais "perto" de um dos vértices já visitados. Nas figuras 5 e 6, exemplificamos a execução do algoritmo de Prim no Sistema, com um grafo sobre um mapa de uma cidade, onde as arestas representam as ruas, e outro grafo com uma fotografia de satélite, onde as arestas representam as rodovias. Carteiro Chinês Considere o caso de um carteiro responsável pela correspondência de uma área da cidade. O carteiro deverá sempre começar o percurso em um nó inicial (os Correios), deverá passar por todas as ruas (arestas) e retornar ao nó inicial. Figura 7: Pontes de Königsberg Euler provou que não existe solução para esse problema e que, para isso, nenhum vértice do grafo pode ter grau ímpar. Assim, para se realizar um ciclo euleriano em um grafo, este deverá ser modificado de modo a tornar de grau par todos os seus nós de grau ímpar. Para isso, é necessário combinar dois a dois todos os seus nós de grau ímpar. Esse problema de combinação é chamado de "Pairwise Matching", e foi resolvido por Edmonds. Em alto nível, o algoritmo de solução do carteiro chinês é: O problema em si está no conceito de aresta Ponte ou Bridge. Para sabermos se uma aresta é ponte ou não, deveremos eliminá-la do grafo e verificar se o grafo resultante é ou não conexo. Na figura 8, exemplificamos a execução do algoritmo do Carteiro Chinês no Sistema, com um grafo sobre uma fotografia de satélite, onde as arestas representam rodovias. Note que algumas arestas estão duplicadas, pelo matching. Figura 1 : 1Algoritmo de Dijstra sobre Mapas Uma solução óbvia é repetir o algoritmo de Dijkstra sucessivamente para todos os nós do grafo. Uma solução mais eficiente é conhecida como algoritmo de Floyd, que utiliza programação dinâmica. Figura 2 :Figura 3 : 23Algoritmo de Floyd sobre o Tabuleiro Execução em verde para a seqüência de nós Algoritmo de Floyd sobre Fotos de Satélite Execução em verde para a seqüência de nós 3, 31, 27, 23, 39, 10, 41 e 3, sobre a foto de satélite Figura 4 : 4Algoritmo de Floyd sobre Mapas Execução em verde para a seqüência de nós 65-55-17-38-60, representando os pontos turísticos da cidade. Figura 5 : 5Algoritmo de Prim sobre Mapas Figura 6 : 6Algoritmo de Prim sobre Fotos de Satélite A questão mais natural a se perguntar é: a fim de minimizar a distância total que o carteiro percorre, como deverá ser a sua rota de forma que ele passe por todas as ruas ao menos uma vez ? Essa questão é conhecida como o Chinese Postman Problem, nome derivado do fato de ter sido no jornal Chinese Mathematics em 1952 a primeira vez em que esse problema foi discutido. A história desse problema é bastante interessante. No século XVIII, os moradores da cidade russa de Königsberg queriam realizar um desfile que pudesse passar pelas sete (Figura 7) pontes sobre o rio Prevel apenas uma vez e passaram o problema para o matemático suíço Leonhard Euler resolver. PASSO 2 : 2Dos nós adjacentes ao nó de partida escolha um cuja aresta que o ligue ao nó de partida não seja uma Ponte (ou seja, a sua eliminação não torna o grafo desconexo) e vá para ele. Elimine do grafo a aresta entre esses nós. Faça o nó de partida ser esse novo nó escolhido. Vá para PASSO 2. PASSO 1 : 1Seja M o conjunto de todos os nós de grau ímpar do grafo. Digamos que existam m deles. PASSO 2: Encontre a combinação de pares de nós de M cuja soma das distâncias seja mínima. PASSO 3: Encontre as arestas dos menores caminhos entre os dois nós que compõem cada um dos m/2 pares obtidos no passo 2. PASSO 4: Para cada um dos pares obtidos em passo 2, adicione ao grafo as arestas obtidos no passo 3. O grafo resultante não contém nó de grau ímpar. PASSO 5: Encontre um Ciclo Euleriano, que é a solução para o problema do carteiro chinês. O ciclo Euleriano é um percurso que começa em um nó de partida, passa por todos os nós do grafo e termina no nó de partida. A obtenção do Ciclo Euleriano depende da execução do algoritmo de "Matching", pois o grafo não pode conter nós de grau ímpar. PASSO 1: Se não existem nós adjacentes ao nó de partida, então PARE. O Ciclo euleriano já foi descrito. Caso contrário, vá para PASSO 2.4.1 Ciclo Euleriano Figura 8: Carteiro Chinês sobre Fotos de satélite5. Caixeiro ViajanteDe todos os problemas de cobrimento de nós, o mais conhecido é o Problema do Caixeiro Viajante, cujo objetivo é encontrar a rota de menor distância que inicie em um dado nó de um grafo, visite todos os membros de um conjunto específico de nós do grafo uma única vez e retorne ao nó inicial.PASSO 1: Encontre a Árvore T de custo mínimo do grafo. PASSO 2: Seja n0 o número de nós de grau ímpar dos n nós de T (n0 é par). Encontre o matching mínimo dos pares desses n0 nós (Edmonds). Seja M o grafo das arestas da solução do matching. Seja H=MUT, um grafo. PASSO 3: O grafo H não contém nós de grau ímpar. Encontre um Ciclo Euleriano sobre H, que é a solução aproximada do problema do Caixeiro Viajante. Na figura 9, exemplificamos a seqüência de execução do algoritmo. Nesse exemplo, o percurso obtido não chega a ser 1% pior que o percurso ótimo. Nas figuras 10 e 11, exemplificamos a execução do algoritmo aproximativo do Caixeiro Viajante no Sistema, com um grafo semelhante ao da figura 9, e com um grafo sobre o tabuleiro de xadrez. 6. Conclusões Este trabalho foi desenvolvido em um projeto do LAC/INPE voltado para a implementação de algoritmos em Sistemas Geográficos de Informação, como o software ARC-INFO (ESRI), em uso no projeto. Este trabalho foi desenvolvido ainda permitindo a possível introdução de novos algoritmos ao sistema, tornando-se uma boa ferramenta de comparação dos algoritmos de roteamento em grafos. como Carteiro Chinês em Grafos Orientados, Rural Postman Problem, Carteiro Chinês com Capacidade da Mochila e Problemas de Localização de Facilidades (p-medianas) Figura 9: Seqüência de Passos do Caixeiro Viajante Figura 10: Caixeiro Viajante no Sistema Figura 11: Caixeiro Viajante sobre o Tabuleiro O Sistema implementado permite ainda a manipulação gráfica da estrutura do grafo, possibilitando a inclusão de novos nós e arestas, bem como o seu reposicionamento, como pode ser visto na figura 12. Figura 12: Reposicionamento de vértices no Sistema O sistema permite ainda a visualização em zoom do grafo e da execução dos algoritmos, como pode ser visto na figura 13.Para esse problema, assumimos uma particularização muito utilizada, que é quando o grafo é totalmente conectado e satisfaz a desigualdade triangular. Mesmo assim, esse problema ainda é NP- Difícil. Assim, ao invés de buscar algoritmos exatos, é mais interessante tentar obter algoritmos polinomiais aproximativos. O algoritmo aproximativo utilizado foi desenvolvido por Christofides em 1976, que provou que o percurso obtido não é maior que 50% do ótimo. O algoritmo, descrito a seguir, pode ainda ser melhorado adicionando as otimizações OPT2 e OPT3. Outros algoritmos ainda devem ser implementados, . Figura. 137Figura 13: Visualização do grafo em zoom no Sistema 7. Bibliografia Introduction to Algorithms. T Cormen, C Leiserson, R Rivest, MIT Press2° ediçãoCormen, T.; Leiserson, C.; Rivest, R., Introduction to Algorithms, MIT Press, 2° edição, 2001. Combinatorial Optimization -Algorithms and Complexity. C Papadimitriou, K Steiglitz, Dover PublicationsMineola, New YorkPapadimitriou, C.; Steiglitz, K., Combinatorial Optimization -Algorithms and Complexity, Dover Publications, Mineola, New York, 1998. The Design and Analysis of Computer Algorithms. A V Aho, J E Hopcroft, J D Ullman, Addison-WesleyAho, A.V.; Hopcroft, J.E.; Ullman, J.D., The Design and Analysis of Computer Algorithms, Addison-Wesley, 1974. . R C Larson, A R Odoni, Prentice HallUrban Operations ResearchLarson, R.C.; Odoni, A.R., Urban Operations Research, Prentice Hall, 1981. Algoritmos e heurísticas, EDUFF. R E Campello, N Maculan, Campello, R.E.; Maculan, N., Algoritmos e heurísticas, EDUFF, 1994.
sample_16583
0.9779
arxiv
Einstein contra la mecánica cuántica …el azar, la ignorancia y nuestra ignorancia sobre el azar… * Juan Pablo Paz Departamento de Física Juan José Giambiagi" FCEyN UBA Pabellón 1Ciudad Universitaria1428Buenos AiresArgentina Einstein contra la mecánica cuántica …el azar, la ignorancia y nuestra ignorancia sobre el azar… * 1 Einstein nunca pudo reconciliarse con la mecánica cuántica que es a la vez la teoría física más exitosa y más anti-intuitiva de la historia. La crítica más aguda contra esta teoría fue presentada por Einstein en 1935 en un célebre trabajo publicado junto con sus colaboradores Podolsky y Rosen (EPR). El cuestionamiento de EPR no dio lugar al derrumbe de la mecánica cuántica sino que permitió exhibir con toda crudeza las extrañas propiedades de esta teoría. Los avances de la física de fines del siglo XX demostraron que las ideas de EPR sobre lo incompleta que era la mecánica cuántica eran incorrectas. En este trabajo resumimos los ingredientes principales de la mecánica cuántica y exponemos los cuestionamientos de Einstein hacia ella. Nos concentramos en el análisis de la paradoja de EPR y en la forma en la que puede verificarse la validez de la mecánica cuántica a través de la detección de violaciones a las desigualdades de Bell. Finalmente, resumimos algunos avances recientes que apuntan a usar las propiedades más extrañas de la física cuántica para desarrollar tecnologías que podrían modificar la transmisión y el procesamiento de la información en el siglo XXI. I. Introducción Albert Einstein fue, sin duda, uno de los más grandes científicos de la historia. Sus ideas revolucionaron el pensamiento humano mostrando que, por ejemplo, conceptos tan básicos como el tamaño de los objetos y la duración de los intervalos de tiempo no tienen un carácter absoluto sino que, por el contrario, dependen del observador. La Teoría de la Relatividad nos obligó a repensar conceptos básicos que están anclados en nuestro sentido común, ese conjunto de ideas que consideramos como obvias y que se forjan en nuestras experiencias cotidianas. Hoy, a más de cien años del nacimiento de la Relatividad hay miles de científicos que la comprenden y aplican a la perfección. Más aún, a lo largo de estos cien años ha sido posible reconciliar algunas de sus ideas más extrañas con nuestro sentido común. Para ello muchas veces solemos apelar a metáforas, como por ejemplo: la vida en un espacio curvo puede imaginarse pensando en lo que le ocurriría a un ser plano condenado a existir sobre la superficie de una esfera; o bien la materia curva el espacio-tiempo de manera análoga a como una cama elástica se deforma al apoyar sobre ella un objeto masivo, etc. Estas analogías tienen sus defectos y no siempre resultan precisas, pero al menos es posible imaginarlas. 1 La teoría de la relatividad se desarrolló en sus comienzos como una empresa familiar: Einstein la concibió trabajando en soledad. Es bien conocida la anécdota que cuenta que cerca de 1920 Sir Arthur Eddington fue reporteado por un periodista que le mencionó el rumor que por ese entonces afirmaba que en el mundo solamente había tres personas que comprendían la teoría de la relatividad. Eddington (¿bromeando?) preguntó: "¿Y quién es el tercero?" Por esos años había otra rama de la física en pleno desarrollo: la física cuántica. Contrariamente a lo que sucedía con la relatividad, eran decenas los físicos que trabajaban activamente en su desarrollo. La mecánica cuántica fue una creación colectiva que surgió luego de un esfuerzo material e intelectual impresionante. En este artículo nos referiremos a ese capítulo de la física, la física cuántica. En particular nos referiremos a los cuestionamientos de Albert Einstein hacia la mecánica cuántica. Einstein, con su trabajo sobre el efecto fotoeléctrico, contribuyó sustancialmente al desarrollo de la mecánica cuántica. Sin embargo, jamás fue capaz de aceptar sus consecuencias y siempre la aborreció. Para citar solamente alguna de sus opiniones escritas basta mencionar las siguientes. En 1912 en una carta a Heinrich Zangger afirmaba, de manera algo irreverente: "Cuanto más éxitos logra, más tonta me parece". Más adelante, en 1930 en una carta dirigida a Max Born decía: "Todavía no me resigno a creer que los métodos estadísticos de la mecánica cuántica sean la última palabra, pero por el momento soy el único que sostiene esa opinión". En otra carta dirigida a Max Born, Einstein acuñó, en 1944, su famosa frase: "Usted cree que Dios juega a los dados, mientras que yo creo en la existencia de leyes y de orden en un mundo al que, de una manera brutalmente especulativa, estoy tratando de comprender". En 1950, hacia el final de su vida y en una época de gloria de la física cuántica, Einstein se atrevió a afirmar que "...a pesar de sus notables avances parciales, el problema está lejos de tener una solución satisfactoria". ¿Qué era lo que más le molestaba a Einsten de la física cuántica? La respuesta es sencilla: Su insatisfacción se originaba en el indeterminismo. La mecánica cuántica es una teoría no-determinista. Afirma que es posible realizar muchas veces el mismo experimento y obtener siempre resultados diferentes. Para colmo de males, la mecánica cuántica afirma que el indeterminismo es de naturaleza fundamental y que no se origina en ninguna limitación de nuestro instrumental. Es decir, de acuerdo a ella, la razón por la cual al repetir un experimento obtenemos resultados diferentes no es la falta de precisión en los artefactos que utilizamos para preparar el objeto antes de efectuar la medición, ni tampoco la falta de control en los aparatos de medición. Por último, y esto resultaba intolerable para Einstein, la mecánica cuántica afirma que el indeterminismo tampoco puede atribuirse a nuestra ignorancia sobre los detalles del objeto estudiado. Einstein hubiera aceptado de buena gana una teoría que, con modestia, se limitara a predecir probabilidades. En cambio, le resultaba intolerable la mecánica cuántica que de manera contundente, afirma que las probabilidades no surgen de nuestra ignorancia ni de nuestra incapacidad de controlar todas las variables experimentales sino que tienen un origen fundamental e inexplicable. Estas características de la física cuántica no solamente le molestaban a Einstein, sino que todavía molestan a casi todos los físicos cuánticos, que se cuentan por decenas de miles. Paradójicamente, siendo la física cuántica la teoría científica mejor testeada de la historia, todavía no se han acallado los debates sobre su interpretación. Estos debates comenzaron desde la concepción de la teoría y Einstein tuvo un notable protagonismo en muchos de ellos. Las predicciones de la física cuántica son múltiples y sumamente precisas. Por ejemplo, puede predecir que cada vez que iluminemos un átomo de Helio se emitirá un electrón siempre que la longitud de onda de la luz sea menor que 50.425931 ± 0.000002 nanómetros. Por otra parte, esta predicción teórica es contrastada con el resultado de los experimentos donde se comprueba que los electrones son emitidos para longitudes de onda menores que 50.4259299 ± 0.0000004 nanómetros. El acuerdo entre la teoría y el experimento es notable: ¡una precisión comparable a la que tendríamos si fuéramos capaces de predecir la distancia entre Ushuaia y La Quiaca con un error menor que diez centímetros! 2 Predecir propiedades de los átomos con precisión asombrosa puede ser impresionante pero alejado de la vida cotidiana. Sin embargo, a partir de este tipo de logros es que la física cuántica ha permitido el desarrollo de tecnologías que cambiaron el mundo y nuestra forma de vida: sin ella no se hubiera desarrollado la energía nuclear, ni la microelectrónica, ni el láser, ni ninguna de las tecnologías optoelectrónicas que revolucionaron las comunicaciones, ni las técnicas modernas de diagnóstico médico por imágenes, etc. ¡Casi todas las tecnologías relevantes del siglo XX se basan en la mecánica cuántica! Sin embargo, pese a sus asombrosas predicciones, ninguno de las decenas de miles de científicos cuánticos es capaz de "comprender" esta teoría. No es capaz de tornarla compatible con el sentido común. Richard Feynman, uno de los científicos más brillantes de la segunda mitad del siglo XX afirmaba, en forma provocadora, que "nadie entiende la mecánica cuántica". Y lo hacía en el contexto de una reflexión profunda: para Feynman, nadie es capaz de hacerse una imagen correcta del mundo microscópico usando los conceptos que generamos para describir el mundo macroscópico. Al hacer eso, caemos inevitablemente en preguntarnos, ¿cómo es posible que la naturaleza se comporte de este modo? Nadie lo entiende. Pero los hechos confirman que la naturaleza se comporta tal como lo predice la mecánica cuántica. Este trabajo está organizado de la siguiente manera. En la Sección 2 presentaremos los ingredientes básicos de la física cuántica. Intentaremos hacer una presentación desprovista de tecnicismos matemáticos. Comenzaremos por describir los famosos principios de complementariedad e incertidumbre. Luego discutiremos brevemente las curiosas predicciones cuánticas para los sistemas compuestos, para lo que introduciremos la noción de entrelazamiento. En la Sección 3 presentaremos la crítica crucial que Einstein realizó junto con sus colaboradores Boris Podolsky y Nathan Rosen en un celebrado trabajo publicado en 1935 (y que, paradójicamente, ¡se ha convertido en el trabajo emitidos por los átomos de Helio, lo cual entra en abierta contradicción con los resultados de los experimentos científico mas citado de todos los publicados por Einstein!). En la Sección 4 presentaremos un argumento formulado originalmente por John Bell, y que en su momento fue considerado como uno de los trabajos más importantes de la historia de la ciencia: mostraremos que es posible discernir experimentalmente entre las predicciones cuantitativas que surgen de todas las teorías en las que el azar se origina en la ignorancia y las predicciones realizadas por la mecánica cuántica. En la Sección 5, resumiremos los resultados de los experimentos que confirman las predicciones cuánticas y que invalidan a un enorme conjunto de modelos alternativos que comúnmente se denominan "teorías realistaslocales". En la Sección 6, resumiré los esfuerzos recientes para utilizar las propiedades más anti intuitivas de la mecánica cuántica para desarrollar nuevas tecnologías que, en el futuro, pueden afectar drásticamente la forma en que almacenamos, transmitimos y procesamos la información. II. Mecánica Cuántica La mecánica cuántica nació hace más de un siglo. Lo hizo de manera turbulenta cuando un grupo cada vez más grande de físicos tomó conciencia de que la emisión y absorción de la luz por la materia no podía ser comprendida dentro del marco de las leyes de la física formuladas hasta ese momento. Por esa época reinaban sobre la física el electromagnetismo de Maxwell, la mecánica de Newton y la termodinámica de Boltzmann. La formulación de la nueva mecánica fue una tarea titánica que recayó en personalidades como Planck, Einstein, Bohr, Heisenberg, Schrödinger, Dirac, Fermi, de Broglie, von Neumann, Born, Pauli y muchos otros. El desarrollo de esta teoría comenzó en 1900 y concluyó cerca de 1930, cuando adquirió finalmente coherencia y solidez internas. Sin embargo, los debates sobre los fundamentos y la interpretación de la mecánica cuántica no se han acallado y muchos todavía consideran que existen problemas abiertos, como el famoso "problema de la medición". Teniendo presente que la mecánica cuántica ya cuenta con su mayoría de edad evitaremos utilizar aquí un enfoque histórico para presentarla. Tal enfoque puede ser encontrado en la mayoría de los libros de divulgación científica (o en la mayor parte de los libros de texto) escritos hasta el presente. Por el contrario, apelaremos a una introducción "brutal" describiendo las bases conceptuales y los aspectos mas anti-intuitivos de la física cuántica. El lector deberá creer que esta construcción teórica no es usada por los físicos debido a su naturaleza perversa. La razón para el éxito de la mecánica cuántica es mucho más pragmática: es el único marco teórico capaz de predecir los resultados de los experimentos que se realizan cotidianamente en nuestros laboratorios. Algunos autores afirman que en la actualidad vivimos una segunda revolución cuántica. Después de más de un siglo de física cuántica recién ahora existen las tecnologías como para ponerla a prueba hasta sus últimas consecuencias y para aprovecharla para desarrollar una nueva generación de tecnologías. ¿Qué es lo que ha cambiado en estos años? Si bien la física cuántica surgió como un modelo para explicar el comportamiento de los átomos, su desarrollo se basó en experimentos, como los de emisión y absorción de luz por la materia, que siempre involucraban cantidades macroscópicas de átomos. 3 Durante mucho tiempo la manipulación de átomos o moléculas de a una a la vez pareció algo totalmente inconcebible. Inclusive algunos renombrados autores pensaron que esta era una limitación de principio. Argumentaban que, por su carácter probabilístico, la mecánica cuántica solamente era aplicable a conjuntos de muchos sistemas idénticos. Pero en la actualidad, la mecánica cuántica está siendo puesta a prueba (y confirmada en sus aspectos mas anti-intuitivos) en experiencias que involucran cantidades cada vez mas pequeñas de átomos que son manipulados individualmente. Por ejemplo, en las actuales "trampas de iones" es posible manipular átomos de a uno, ubicarlos en lugares predeterminados del espacio y someterlos a todo tipo de análisis. Las más notables predicciones cuánticas que involucran fenómenos como el entrelazamiento no-local entre las partes de un sistema compuesto no solamente han sido comprobadas sino que han abierto la puerta a nuevas tecnologías que seguramente modificarán la forma en la que concebimos el procesamiento y la transmisión de la información. La segunda revolución cuántica es la que viene de la mano de la preparación y el aprovechamiento del entrelazamiento a escala macroscópica. Tal vez esa revolución nos permita avanzar en la incorporación de algunas de las ideas más raras de la mecánica cuántica a nuestro sentido común. A. Complementariedad e incertidumbre Quien conozca la obra teatral "Copenhague", escrita por Michael Frayn, recordará las intensas discusiones entre Niels Bohr y Werner Heisenberg, que en Buenos Aires fueron interpretados magistralmente por Juan Carlos Gene y Alberto Segado. Bohr y Heisenberg discutían sobre la complementariedad y la incertidumbre. Estos son dos de los ingredientes básicos de la mecánica cuántica, que ponen de manifiesto cuán extraño es el comportamiento de la naturaleza a escala microscópica. El principio de complementariedad es un verdadero atentado contra nuestra intuición. En su versión más general afirma lo siguiente: si preparamos un objeto de manera tal que la propiedad A toma un valor preciso, entonces siempre existe otra propiedad B cuyo valor está completamente indeterminado. En ese caso, afirmamos que las propiedades A y B son "complementarias". Tal vez la formulación que hemos elegido presentar aquí suena un poco abstracta pero vale la pena pensar un poco sobre su contenido. El principio se aplica a situaciones muy habituales en las que sometemos a un objeto a algún proceso de preparación tal que si posteriormente medimos repetidamente la propiedad A siempre obtenemos el mismo valor. Lo sorprendente es que el principio de complementariedad afirma que "entonces, siempre existe otra propiedad B cuyo valor esta completamente indeterminado". ¿Qué quiere decir esto? Simplemente significa que si preparamos el sistema en un estado en el que la propiedad A tiene un valor preciso y medimos la propiedad B entonces obtendremos resultados completamente aleatorios. Si repetimos muchas veces este procedimiento (es decir, preparamos el sistema con un valor de A y medimos la propiedad B) obtendremos resultados diferentes, distribuidos de manera totalmente azarosa. Construir una teoría sobre la base de un principio como este parece un verdadero acto de renunciamiento intelectual. En efecto, nunca antes de la mecánica cuántica la física se había planteado una limitación epistemológica de este tipo. Siempre se había pensado que los objetos que componen el Universo no solamente pueden ser caracterizados por propiedades mensurables (o sea, propiedades que toman valores susceptibles de ser medidos experimentalmente). También, la física siempre aceptó aquello cuya validez resulta obvia a partir de nuestro sentido común: todas las propiedades de un objeto deberían poder determinarse simultáneamente. Por supuesto, la determinación simultánea de los valores de todas las propiedades de un objeto podría ser una tarea técnicamente difícil. Pero las dificultades técnicas o instrumentales son siempre vistas como desafíos, como obstáculos que se pueden superar. En cambio, el principio de complementariedad nos habla de otra cosa: nos enfrenta a una limitación de principio. Nos dice que no todas las propiedades de un objeto son compatibles entre sí. Los valores de las propiedades complementarias no pueden ser determinados simultáneamente si no que son como dos caras de un objeto que nunca pueden ser vistas al mismo tiempo. El proceso que llevó a que los físicos se vieran forzados a aceptar la validez de un principio tan desagradable como el de complementariedad fue largo y plagado de debates. Pero fue el único remedio para poder formular una teoría cuyas predicciones estuvieran de acuerdo con los resultados de los experimentos. El ejemplo mas conocido de propiedades complementarias es el de la posición de un objeto, a la que denotaremos con la letra "R", y su momento, denotado con la letra "P" (el momento de un objeto es el producto de su masa por su velocidad). Posición y momento son variables complementarias. Esto contradice todo lo establecido por la física clásica, la física de Newton, que establece que un objeto siempre puede caracterizarse por su posición y su velocidad. La velocidad nos dice como se modifica la posición con el tiempo. De esa forma, al moverse todo objeto describe una trayectoria. En cambio, la mecánica cuántica nos dice que para comprender el mundo microscópico debemos abandonar la idea de que las partículas evolucionan siguiendo trayectorias. Si no renunciamos a las trayectorias no podremos explicar ninguno de los famosos experimentos donde se observa la interferencia de ondas de materia. Es necesario aceptar que en el mundo microscópico cuando las partículas se dirigen desde una fuente hasta un detector no siguen trayectorias bien definidas sino que se deslocalizan, se desdoblan y siguen todas las trayectorias posibles. Este es un fenómeno raro y anti-intuitivo, pero no hay más remedio que aceptarlo para poder comprender la curiosa naturaleza del mundo microscópico. El principio de incertidumbre está íntimamente relacionado con el de complementariedad. En algún sentido es la versión cuantitativa del anterior. Se aplica a situaciones en las que preparamos un objeto en un estado en el que su posición R no toma un valor preciso sino que cuando lo medimos obtenemos valores distribuidos con una dispersión ∆R alrededor del valor más probable. 4 En una situación de este tipo, si medimos el momento del objeto tampoco obtendremos siempre el mismo valor sino que comprobaremos que los resultados tienen una dispersión ∆P. El principio de incertidumbre establece que: la posición R y el momento P de un objeto son propiedades complementarias y sus varianzas ∆R y ∆P satisfacen la siguiente relación: 2 / h ≥ ∆ ∆ P R En esta desigualdad, h está relacionada con la famosa constante de Planck y tiene el valor: kg m 34 10 05 . 1 − × = h 2 /s. La desigualdad matemática tiene un impacto profundo: como el producto de las dos dispersiones debe ser mayor que una cierta cantidad entonces debe cumplirse que cuanto más pequeña sea la varianza en la posición ∆R, más grande debe ser el valor de la varianza en momento ∆P (y viceversa). La pequeñez del valor de (un número con treinta y tres ceros detrás del punto decimal) explica el motivo por el cual las consecuencias de los principios de complementariedad e incertidumbre no son perceptibles en la escala macroscópica. Por ejemplo, si preparamos una partícula de 1 gramo en un estado donde la posición está determinada con una incerteza de ∆R =1cm, entonces el principio de incertidumbre establece que nunca podremos determinar la velocidad con una incerteza menor que 10 h -28 m/seg. Claramente ningún instrumento de medición es capaz de detectar una desviación tan pequeña. No es posible dejar de sorprenderse por las implicancias de los principios de complementariedad y de incertidumbre, que fueron establecidos respectivamente por Niels Bohr y Werner Heisenberg alrededor de 1925. Ponen en evidencia cuan extraña es la mecánica cuántica y es imposible aceptarlos sin antes intentar demolerlos: Einstein, y cualquier persona en su sano juicio, preguntaría: "¿Cómo es posible que podamos preparar un objeto de modo tal que la propiedad A tiene un valor preciso, pero que sea imposible darle un valor preciso a otra propiedad complementaria B? Esta pregunta NO tiene respuesta dentro de la mecánica cuántica. Dicha teoría acepta este hecho sorprendente como una propiedad de la naturaleza y a partir de eso formula un modelo que tiene una notable capacidad predictiva. Con todo dramatismo, la mecánica cuántica se yergue hoy, a más de cien años de su nacimiento, como la única teoría compatible con los resultados experimentales modernos. B. ¿Indeterminismo o ignorancia? A lo largo del siglo XX los físicos hicieron numerosos intentos por encontrar alternativas a la mecánica cuántica y desarrollar teorías que fueran más aceptables para nuestro sentido común. La clase de modelos que naturalmente podrían competir con la mecánica cuántica incluye a aquellos en los que la complementariedad no es una propiedad fundamental sino que es fruto de nuestras limitaciones. Por ejemplo, podríamos imaginar que la naturaleza es tal que cada vez que fijamos el valor de alguna propiedad A perturbamos el objeto de manera tal que afectamos el valor de B. En un mundo como ese, la razón por la cual una medición de B da lugar a resultados aleatorios es nuestra incapacidad de controlar todas las propiedades de los objetos o, equivalentemente, nuestra ignorancia sobre detalles del mundo microscópico que todavía son inaccesibles a nuestras limitadas posibilidades experimentales. Einstein, y cualquier persona razonable, hubieran estado dispuestos a aceptar un mundo de estas características. En ese caso, la mecánica cuántica no proveería una descripción completa de la naturaleza sino solamente daría una descripción parcial. En la próxima Sección, presentaremos un famoso argumento formulado por Einstein en 1935 que intentaba demostrar precisamente esto: que la descripción del mundo provista por la mecánica cuántica es incompleta. Más adelante veremos cómo, sorprendentemente, los notables avances de la física de fines del siglo XX fueron capaces de demostrar la falsedad del argumento de Einstein. Es notable, pero la física ha sido capaz de demostrar que el azar no se origina en nuestra ignorancia. Sin embargo, hasta ahora debemos reconocer nuestra ignorancia sobre las causas que originan el azar. Por último, es oportuno aclarar que los principios de complementariedad e incertidumbre discutidos más arriba no forman parte de los postulados básicos en los que se funda la versión moderna de la mecánica cuántica. En efecto, estos no son verdaderos "principios" sino consecuencias de axiomas todavía más fundamentales que debido a su complejidad matemática no serán discutidos aquí. C. El spin, la más cuántica de las propiedades El spin es una propiedad de algunas partículas que fue descubierta en 1922 en experimentos realizados por Otto Stern y Wolfgang Gerlach. Una partícula con spin lleva consigo un pequeño imán que, como todo imán, tiene dos polos y puede describirse utilizando una flecha imaginaria (un vector) que se dirige desde el polo sur hacia el norte del mismo. La longitud de la flecha (el módulo del vector) es proporcional a la intensidad del imán. Como veremos, imaginar al spin como una flecha es una sobre-simplificación ya que este personaje tiene muchas características sorprendentes. La más sorprendente de todas ellas es la siguiente: cuando medimos la proyección del spin a lo largo de una dirección cualquiera obtenemos sólo dos valores posibles. Conviene detenerse un poco a pensar en este resultado. La proyección del spin en la dirección ∧ Z es la longitud de la sombra proyectada por la flecha que representa al spin a lo largo de esa dirección. Lo que acabamos de afirmar equivale a decir que siempre que medimos el tamaño de la sombra del spin en cualquier dirección obtenemos solamente dos valores. Además, resulta que estos dos valores son de igual magnitud y de signo contrario (es conveniente notar que la proyección de un vector sobre un eje tiene signo positivo o negativo según cual sea la dirección hacia la que se dirija la proyección de la punta de la flecha). 5 Como dijimos, el tamaño de la flecha que representa al spin está relacionado con la intensidad del imán. Por lo tanto, su valor no se mide en metros sino en otras unidades que resultan ser las mismas que aparecen en la famosa constante de Planck . En efecto, los dos valores que se obtienen a partir de la medición de cualquier componente del spin de una partícula como el electrón (o cualquier otra de las llamadas "partículas de spin 1/2") son siempre + h /2 y -h /2. h Para medir la proyección del spin a lo largo de una dirección cualquiera necesitamos un aparato como el descripto en la Figura 1. Dicho aparato mide la proyección del spin sobre el eje que en la Figura denominamos ∧ Z . Al pasar por 5 Restringiremos nuestra discusión al caso de partículas con "spin 1/2'' para las cuales lo anterior es cierto: la medición del spin siempre da lugar a dos resultados; hay otras partículas para las cuales el número de resultados es mayor pero las consideraciones que realizamos aquí se aplican también a ellas, con algunas pequeñas variantes. una región con un campo magnético inhomogéneo la trayectoria de un pequeño imán se desviará en un ángulo que depende del valor de la proyección del imán en la dirección del campo magnético del aparato. Esto no es difícil de comprender, si el campo externo es más intenso en la parte superior del aparato entonces los imanes que ingresen al mismo con su polo norte apuntando hacia arriba se desviarán en esa misma dirección (moviéndose hacia zonas donde el campo magnético es más intenso. Groseramente, podemos pensar que en ese caso la fuerza que tendería a desplazar al polo norte del imán hacia arriba es mayor que la que empujaría al polo sur hacia abajo). Por el contrario, si un imán ingresa al aparato con su polo norte apuntando hacia abajo tenderá a desviarse en esa misma dirección moviéndose hacia zonas donde el campo magnético es menor (al igual que en el caso anterior podemos razonar groseramente diciendo que la fuerza que empuja el polo sur hacia abajo será mayor que la que tiende a mover el polo norte hacia arriba). En consecuencia, el dispositivo de la Figura logra que las partículas se desvíen de manera diferente según sea la orientación de su spin. Al realizar este experimento por primera vez, Stern y Gerlach observaron un resultado sorprendente: las partículas incidentes (átomos de plata, en ese caso) se desviaban siguiendo solamente dos trayectorias distintas (y que entre estas dos no había un continuo de desviaciones intermedias). Eso indica que, como dijimos más arriba, la proyección del spin en la dirección ∧ Z sólo toma dos valores posibles. A partir de aquí a estos dos valores los llamaremos Z= +1 y Z= -1. 6 Figura 1: Cuando un haz de partículas con spin 1/2 atraviesa un campo magnético que aumenta en la dirección ∧ Z se divide en dos componentes (una para cada valor de la componente ∧ Z del spin). La medición de la proyección del spin a lo largo de cualquier dirección puede hacerse rotando el aparato descripto en la Figura 1 (haciendo coincidir la dirección deseada con eje ∧ Z de la Figura). Realizando experimentos como el descripto se observa el mismo fenómeno: siempre las partículas se desvían hacia arriba o hacia abajo. Nunca hay desviaciones intermedias. Por lo tanto nos vemos obligados a concluir que las componentes del spin a lo largo de cualquier dirección toman solamente dos valores. En lo que sigue vamos a utilizar la siguiente notación: las letras minúsculas â, , , …, , , ∧ Z serán usadas para denotar diferentes direcciones del espacio. Las proyecciones del spin a lo largo de cada una de estas direcciones será denotada con la correspondiente letra mayúscula: A, B, C,…, X, Y, Z (o sea, A será la componente del spin a lo largo de la dirección â). A partir de los experimentos que acabamos de describir debemos concluir que los valores medidos de las propiedades A, B, C,…, X, Y, Z, son siempre +1 o -1. D. El spin y la complementariedad El hecho de que solamente obtengamos dos resultados en la medición de cualquier componente del spin es realmente extraño. En efecto, esto nos dice que el spin no puede describirse con una flecha ordinaria ya que si imaginamos que esa flecha tiene componentes cuyos valores son iguales a +1 o -1 en cualquier dirección llegaríamos inevitablemente a una contradicción. No es difícil convencerse de esto razonando "por el absurdo": por simplicidad imaginemos al spin como una flecha que apunta en alguna dirección del plano del papel y supongamos que sus componentes a lo largo de dos direcciones perpendiculares son iguales a +1. Una flecha como esta se observa en la Figura 2. Examinando esa figura es fácil darse cuenta que, usando el teorema de Pitágoras, la componente de esa flecha a lo largo de una dirección que forma un ángulo de 45º grados con las anteriores tendría un valor igual 2 . ¡Pero esto es incompatible con los resultados experimentales que nos indican que si medimos la componente del spin a lo largo de esa dirección también obtendremos los valores +1 o -1! Evidentemente, el spin es un vector muy extraño ya que los valores medidos para cada una de sus componentes no nos permiten formarnos una imagen coherente del spin como un vector. ¿Cómo resuelve la mecánica cuántica este problema? Pues bien, lo hace apelando al principio de complementariedad: establece que las componentes del spin a lo largo de tres direcciones perpendiculares son propiedades complementarias, y por lo tanto no pueden ser determinados simultáneamente. Figura 2: Un vector que tiene componentes iguales a +1 en dos direcciones perpendiculares tiene una componente igual a 2 a lo largo de una dirección intermedia. Esto nos muestra que no es posible formarse una imagen intuitiva del spin como un vector ordinario ya que si midiéramos el spin en la dirección intermedia también obtendríamos que su proyección toma los valores +1 o -1. El carácter complementario de las componentes del spin a lo largo de tres direcciones perpendiculares ( , , ∧ Z ) se puede poner en evidencia analizando los resultados de secuencias de experimentos como el descripto en la Figura 1. Por ejemplo, supongamos que realizamos primero una medición de la componente ∧ Z del spin tal como describimos más arriba. Utilizamos un aparato como el de la Figura 1 y observamos que las partículas se desvían hacia arriba o hacia abajo. Seguidamente, introducimos las partículas que tienen Z=+1 (aquellas que se desviaron hacia arriba) y las introducimos en un aparato que mide la componente del spin a lo largo de la dirección (perpendicular a ∧ Z ). ¿Cuál es el resultado? Pues bien, si repetimos muchas veces este experimento podemos comprobar que en la mitad de los casos obtenemos X=+1 (las partículas se desvían hacia la derecha) y en la otra mitad obtenemos X=-1 (las partículas se desvían hacia la izquierda). Por lo tanto, concluimos que la medición de la propiedad X realizada sobre partículas que tienen Z=+1 da lugar a resultados completamente aleatorios. Esto es precisamente lo que muestra el carácter complementario de las propiedades X y Z. Algo análogo ocurre con la propiedad Y (que es complementaria a las dos anteriores). E. Entrelazamiento entre las partes de un sistema compuesto Hasta aquí hemos descripto propiedades sorprendentes de la mecánica cuántica, pero todavía debemos analizar la más sorprendente de todas ellas. En efecto, de acuerdo a la mecánica cuántica la naturaleza de los sistemas compuestos es profundamente anti-intuitiva. La física clásica y el sentido común indican que una descripción completa del sistema compuesto es equivalente a una descripción completa de cada una de sus componentes. Sin embargo esto es falso en el mundo cuántico. Por el contrario, de acuerdo a la mecánica cuántica es posible que un sistema compuesto tenga sus propiedades máximamente determinadas, aunque las propiedades de cada una de sus partes sean completamente aleatorias. ¿Cómo es esto? Consideremos una propiedad de un sistema formado por dos partículas. Para fijar ideas, consideremos la propiedad X 12 =X 1 X 2 para un sistema de dos partículas de spin 1/2. De acuerdo a la mecánica cuántica esta propiedad también puede tomar dos valores que son: X 12 =+1 y X 12 =-1. Esto no es sorprendente ya que X 12 se define como el producto de X 1 y X 2 . Ambos factores pueden tomar los valores ±1 y por lo tanto el producto de ellos también será igual a +1 o -1. Por ejemplo, podríamos obtener X 12 =-1 como el producto de X 1 =+1 y X 2 =-1 o bien como el producto de X 1 =-1 y X 2 =+1. Pero la mecánica cuántica nos dice que las propiedades de un sistema compuesto no necesariamente deben determinarse a partir de mediciones sobre las partes. Por ejemplo, para determinar el valor de la propiedad X 12 tenemos la opción de determinar por separado los valores de X 1 y X 2 . Pero también tenemos otras opciones, podemos determinar X 12 sin medir ambos factores por separado. Para eso hay que interactuar directamente con el todo y no con las partes. Esto puede ser difícil en la práctica, sobre todo, cuando el sistema compuesto se fragmenta naturalmente y las partes viajan en direcciones diferentes. Pero la mecánica cuántica nos plantea no solamente que esto es posible sino que si logramos hacerlo podremos observar comportamientos muy extraños. Por ejemplo, podríamos determinar que el valor de la propiedad "colectiva" X 12 resulta ser X 12 =-1. Naturalmente, si repetimos esta medición verificaríamos que obtenemos siempre el mismo resultado: X 12 =-1. Pero ahora, si realizamos mediciones de X 1 en el primer fragmento, observaríamos que los valores obtenidos son totalmente azarosos. Lo mismo ocurriría si midiéramos X 2 . Pero verificaríamos que si multiplicamos los valores obtenidos en estas mediciones "locales" el resultado sería siempre el mismo: verificaríamos que X 1 X 2 =-1. Apelando a una metáfora, la mecánica cuántica permite que un objeto tenga una propiedad colectiva con un valor preciso (por ejemplo X 12 =-1) pero que en ese objeto coexistan todavía dos alternativas drásticamente distintas para sus partes: (en este caso esas alternativas son (X 1 =+1, X 2 =-1) y (X 1 =-1,X 2 =+1)). Cuando un objeto tiene este comportamiento decimos que se encuentra en un "estado entrelazado" (en inglés se utiliza el nombre "entangled state", que ha dado lugar a más de una traducción al español). Los estados entrelazados no tienen ninguna contraparte clásica. En estos estados la identidad del todo está perfectamente definida pero la identidad de las partes está máximamente indeterminada. De acuerdo a Erwin Schrödinger, uno de los padres de la física cuántica, la existencia del entrelazamiento es la característica que hace que esta materia sea verdaderamente irreconciliable con la intuición clásica. Es importante que describamos con más detalle el ejemplo más sencillo de entrelazamiento. Para esto basta con completar el ejemplo que acabamos de presentar. Consideremos dos partículas de spin 1/2. Tal como lo hicimos más arriba, denotamos a las componentes del spin de cada partícula en las direcciones de los ejes e como X 1 , X 2 , Y 1 , Y 2 . Sabemos que las propiedades X 1 e Y 1 son complementarias entre sí y, por lo tanto, no pueden ser determinadas simultáneamente. Lo mismo sucede con las propiedades X 2 e Y 2 . Sin embargo, la mecánica cuántica permite la existencia de estados donde las propiedades están bien determinadas simultáneamente. Es decir, pese a la complementariedad de las propiedades X e Y para cada partícula, las propiedades colectivas X 12 e Y 12 NO son complementarias (aunque estén construidas a partir de ingredientes complementarios). Es posible diseñar y construir un aparato de medición que determine simultáneamente el valor de las propiedades X 12 e Y 12 (omitiremos aquí toda discusión técnica al respecto, baste decir que para que este aparato funcione es necesario controlar las interacciones entre ambas partículas de manera muy sutil). Supongamos que determinamos simultáneamente X 12 e Y 12 y obtenemos que dichas propiedades toman valores X 12 =-1 e Y 12 =-1. Como dijimos más arriba, si realizamos mediciones locales (separadamente medimos las componentes del spin de cada partícula) verificaremos que los resultados obtenidos son aleatorios. Pero observaremos que los resultados de los experimentos sobre las partes están fuertemente correlacionados. Por ejemplo, observaremos que los productos de los resultados siempre son negativos: X 1 X 2 =-1 e Y 1 Y 2 =-1. Estas correlaciones son extremadamente fuertes y, como veremos, pueden utilizarse para predecir comportamientos que entran en violenta contradicción con la intuición clásica. III. El ataque final de Einstein contra la mecánica cuántica En 1935 Einstein, Podolsky y Rosen (EPR) publicaron en el Physical Review un artículo con un título provocativo en el que preguntaban: "¿Puede considerarse que la descripción cuántica de la realidad física es completa?". En el trabajo argumentaban que la respuesta a esta pregunta es negativa. Einstein creía haber encontrado un argumento que permitía demostrar que en la mecánica cuántica anidaba el germen de su propia destrucción. Sin embargo, como veremos, su profecía resultó ser incorrecta (hoy sabemos con certeza que si este germen existe, no es aquel encontrado por Einstein en 1935). En su célebre trabajo, EPR establecen en primer lugar una serie de requisitos que toda teoría que aspire a describir la realidad física debe cumplir. De acuerdo a los autores, las teorías físicas tienen que tener a los "elementos de la realidad" como principales protagonistas. EPR proveen una definición operacional para distinguir aquellas propiedades de la naturaleza que deben ser considerados "elementos de la realidad". Esta definición es la siguiente: Si somos capaces de predecir con certeza el valor de alguna propiedad de un objeto sin perturbarlo en modo alguno, entonces esa propiedad debe ser considerada un "elemento de la realidad". La idea es simple: si nuestra predicción no afecta en modo alguno al sistema, la propiedad en cuestión tiene que tener un sustrato real, su valor debe de estar "escrito" en el objeto en cuestión. Estos criterios propuestos por EPR para toda teoría física pueden ser discutidos en el plano epistemológico o filosófico, pero suenan aceptables para la mayoría de las personas. El objetivo del trabajo de EPR es demostrar que la mecánica cuántica no cumple con estos principios y que, por lo tanto, no puede ser considerada una descripción completa de la realidad física. La clave del trabajo de EPR consiste en analizar las propiedades de los estados entrelazados. El nudo del argumento EPR (en la versión desarrollada más tarde por David Bohm) es el siguiente: consideremos un sistema compuesto por dos partículas de spin 1/2 que es preparado de modo tal que sus propiedades X 12 e Y 12 (definidas más arriba) toman los valores X 12 =-1 y Y 12 =-1. Consideremos además que las partículas 1 y 2 pueden ser separadas y llevadas a laboratorios distantes que llamaremos Labo-1 y Labo-2. Utilizaremos laboratorios tan separados como queramos, como para que ninguna perturbación material generada durante las mediciones realizadas en el Labo-1 tenga tiempo suficiente para propagarse hasta el Labo-2 (y viceversa). Tal como discutimos más arriba, si en el Labo-1 medimos la propiedad X 1 sobre la primera partícula podemos predecir el resultado que obtendríamos si midiéramos X 2 en el Labo-2. En efecto, sabemos que si obtenemos X 1 =+1 entonces con certeza podemos predecir que si midiéramos X 2 deberíamos obtener el resultado X 2 =-1. Análogamente, si obtenemos X 1 =-1 entonces predecimos con certeza que si decidiéramos medir X 2 obtendremos el valor X 2 =+1. Por lo tanto el valor de la propiedad X 2 siempre puede ser predicha con certeza a partir de los resultados de experiencias realizadas en el Labo-1, que es un laboratorio tan distante que ninguno de los eventos que ocurren en su interior puede alterar el estado de las cosas para la partícula 2. En consecuencia, estamos obligados a concluir que X 2 debe ser un "elemento de la realidad". Lo mismo debe pasar con Y 2 ya que podríamos predecir con certeza su valor a partir de experimentos del mismo tipo, que involucran medir la propiedad Y 1 sobre la primera partícula. La conclusión a la que nos conduce este razonamiento es que tanto X 2 como Y 2 son "elementos de la realidad" y por lo tanto tienen que tener un lugar dentro de una teoría física completa. Sin embargo, para la mecánica cuántica estas propiedades son complementarias y sus valores no pueden ser definidos simultáneamente. En consecuencia, concluyen EPR: la mecánica cuántica no puede proveer una descripción completa de la realidad física. El trabajo de EPR recibió una rápida (y breve) respuesta de Niels Bohr quien hizo notar que el argumento de EPR no expone en realidad ninguna contradicción interna de la mecánica cuántica. Por otra parte Bohr destacó que el argumento de EPR utiliza un razonamiento "contra-fáctico" ya que mezcla resultados de experimentos reales con resultados de experimentos imaginarios. En efecto: en el primer laboratorio tenemos que decidir que propiedad mediremos para la partícula 1. Podríamos elegir medir X 1 o bien podríamos elegir medir Y 1 . Pero no podemos hacer las dos cosas a la vez. El argumento EPR mezcla sutilmente los resultados de ambas mediciones ya que en definitiva ambas son necesarias si pretendemos otorgar el status de "elementos de realidad" tanto a la propiedad X 2 como a Y 2 . Efectivamente, aquí hay un razonamiento contra-fáctico. Pero es un razonamiento que cualquier persona sensata estaría dispuesta a hacer. Si la partícula 2 se encuentra en el Labo-2, nada puede saber sobre cuál es la propiedad que el experimentador decidirá medir en el Labo-1. En consecuencia, deberíamos estar dispuestos a aceptar que, pese a que no podemos realizar los dos experimentos sino que debemos elegir uno de ellos, tanto las propiedades X 2 como Y 2 deben estar escritas en la segunda partícula (o sea, deben ser "elementos de la realidad"). En cambio, la mecánica cuántica no nos permite razonar de esta forma. Asher Peres acuñó una frase que describe la actitud que debería tener un físico pragmático ante la posibilidad de caer en razonamientos contra fácticos. No debería olvidar nunca que los experimentos que no se realizan no tienen resultados. A. Las variables ocultas y las teorías realistas-locales, ¿una escapatoria? Queda claro que el argumento de EPR no demuestra una inconsistencia interna de la mecánica cuántica sino que pone en evidencia que esta teoría no satisface ciertos criterios de muy razonable apariencia. Naturalmente debemos preguntarnos si es posible que exista una alternativa compatible con los resultados de los experimentos (que hasta el día de hoy coinciden con las predicciones de la mecánica cuántica) y que además sea compatible con el sentido común o, más precisamente, con los postulados de EPR. Una teoría de estas características fue mencionada más arriba. Podríamos imaginar que existen en la naturaleza grados de libertad microscópicos que todavía no hemos sido capaces de descubrir. Estos grados de libertad son usualmente denominados "variables ocultas". Si existieran variables ocultas, podríamos concebir la posibilidad de que nuestra ignorancia sobre su comportamiento y su naturaleza es la responsable de la aleatoriedad que observamos en los resultados de ciertos experimentos. Es decir, podríamos concebir la posibilidad de que al repetir muchas veces el mismo experimento sin controlar el comportamiento de las variables ocultas estuviéramos generando sistemas que en realidad no son idénticos entre sí. En cada realización experimental, en cada evento, los resultados de los experimentos estarían completamente determinados por los valores ocultos. Pero al repetir muchas veces el mismo experimento podríamos obtener resultados distintos distribuidos de manera aparentemente aleatoria. Esta aleatoriedad sería simplemente una consecuencia de nuestra ignorancia. El trabajo de EPR tuvo la virtud de exponer de manera sistemática cuales son las propiedades que nuestro sentido común le reclama a las teorías físicas. Las teorías compatibles con el sentido común son aquellas que se engloban con el nombre de teorías realistas locales. Diremos que una teoría es "realista" (una palabra que tal vez tiene connotaciones demasiado fuertes como para ser utilizada aquí) si acepta el hecho de que todas las propiedades observables (los elementos de realidad) de los sistemas físicos tienen valores precisos que en última instancia determinan los resultados de las mediciones que efectuemos sobre ellas. Estas teorías incluyen a las que aceptan la existencia de variables ocultas. De acuerdo a ellas la realidad física se describe en su nivel más profundo mediante un modelo en el que los resultados de todos los posibles experimentos están escritos de algún modo en los objetos. Es decir, en este contexto el realismo es sinónimo de determinismo. Toda aleatoriedad debe originarse en nuestra limitada capacidad de control o de conocimiento. Diremos que una teoría es "local" si no admite la posibilidad de que exista acción a distancia o propagación instantánea de cualquier tipo de señal o perturbación. En estas teorías, separando suficientemente dos partes de un sistema (llevándolas a laboratorios muy distantes) garantizamos que las acciones que realicemos en un laboratorio no tendrán ninguna influencia sobre lo que suceda en el otro laboratorio. La posibilidad de que exista alguna teoría más fundamental que la mecánica cuántica basada en variables ocultas fue considerada por numerosos autores. La discusión sobre este asunto se aplacó luego de que John von Neumann publicara un teorema en el que se demostraba que no era posible construir una teoría de este tipo que diera lugar a las mismas predicciones que la mecánica cuántica. Sin embargo a principios de los años 60, John Bell puntualizó que el teorema de von Neumann contenía un error, una hipótesis demasiado restrictiva que hacía que sus consecuencias no fueran trascendentes. El propio Bell, comenzó a explorar entonces la posibilidad de construir teorías de variables ocultas dando lugar a una serie de trabajos de consecuencias notables. IV. Desigualdades de Bell: mecánica cuántica contra teorías realistaslocales Los trabajos de John Bell permitieron que la discusión sobre la existencia de teorías de variables ocultas pasara del terreno de la filosofía al de la física, en el cual la validez de los modelos es sometidos al juicio de los experimentos. Es interesante notar que la intención de John Bell al comenzar sus investigaciones era encontrar argumentos a favor del punto de vista de Einstein. Bell expuso su posición ideológica con elocuencia: "Yo pensaba que la superioridad intelectual de Einstein sobre Bohr en este punto era enorme: una distancia gigante entre un hombre que veía claramente lo que se necesitaba (Einstein) y un oscurantista (Bohr)". Paradójicamente, con sus trabajos Bell logró exactamente lo contrario de lo que se proponía: descubrió la forma en la cual el punto de vista de Einstein podía demostrarse falso a partir de los resultados de experimentos reales. La trascendencia de los trabajos de Bell no puede subestimarse. Los mismos han tenido un impacto enorme en las últimas décadas. En breves palabras, Bell demostró que todas las teorías realistas locales conducen a predicciones cuantitativas sobre resultados experimentales concretos. Asimismo, demostró que estas predicciones pueden entrar en contradicción con las de la mecánica cuántica. En consecuencia, la validez de uno u otro modelo (el cuántico o aquel basado en nuestro sentido común) puede ser sometida al juicio de la ciencia experimental. A primera vista resulta sorprendente que sea posible derivar predicciones para todas las teorías realistas locales. Estas predicciones toman la forma de desigualdades matemáticas que restringen los valores que pueden tomar las probabilidades de eventos registrados en laboratorios distantes cuando se realizan experimentos sobre las partes de un sistema compuesto. Estas relaciones matemáticas se conocen con el nombre de "desigualdades de Bell". En lo que sigue presentaremos una deducción sencilla de una de estas desigualdades (que no fue presentada por Bell sino por David Mermin en 1981). A. Un experimento sencillo realizado en dos laboratorios Consideremos ahora una situación como la analizada en el trabajo de EPR (en la versión desarrollada por David Bohm). Tomamos un sistema compuesto por dos partículas de spin 1/2. Determinamos simultáneamente los valores de las propiedades X 12 =-1 e Y 12 =-1, creando de este modo un estado entrelazado cuyas propiedades discutimos más arriba. Luego llevamos a cada partícula a un laboratorio distinto (Labo-1 y Labo-2). Ambos laboratorios están espacialmente separados y la distancia entre ellos es tal que no hay posibilidad de propagación de ninguna señal de un laboratorio a otro durante el tiempo en que transcurren nuestros experimentos. En cada laboratorio un experimentador medirá la componente del spin de su partícula a lo largo de alguna de las tres direcciones que indicamos como â, o en la Figura 3 (las tres direcciones forman un ángulo de 120º grados entre sí). Los experimentadores que actúan en cada uno de sus laboratorios eligen al azar en cual de las tres direcciones miden el spin. Podemos pensar que cada experimentador tiene a su disposición un aparato como el que aparece en la Figura 3. Dicho aparato tiene un selector con tres posiciones. Cuando el selector apunta hacia la izquierda el aparato mide la componente â del spin, si el selector apunta hacia arriba el aparato mide la componente y si apunta hacia la derecha mide la componente . Cualquiera de esas mediciones da lugar solamente a dos resultados: +1 o -1. El experimento se repite muchas veces y en cada repetición el sistema se prepara de manera idéntica, ambas partículas se separan y cada experimentador elige al azar (y de manera totalmente independiente) la posición del selector de su aparato y registra el valor que obtiene en su medición. Figura 3: para poner a prueba la versión más sencilla de las desigualdades de Bell es necesario un aparato que mide el valor de la componente â, o de una partícula de spin 1/2. Como cada experimentador puede elegir medir una de tres propiedades (A, B, o C) las mediciones realizadas en los dos laboratorios se pueden agrupar en nueve configuraciones. Sin mucho esfuerzo podemos hacer una lista de todas ellas. Colocando en primer lugar la propiedad medida en el Labo-1 y en segundo lugar la que se mide en el Labo-2, las nueve configuraciones son: A 1 -A 2 , B 1 -B 2 , C 1 -C 2 , A 1 -B 2 , B 1 -A 2 , A 1 -C 2 , C 1 -A 2 , B 1 -C 2 y C 1 -B 2 . B. El experimento según las teorías realistas locales Pensemos de qué manera describiría esta situación experimental una teoría realista local. En primer lugar, cualquier teoría de este tipo debe aceptar que antes de que el experimentador que trabaja en el Labo-1 decida que propiedad medirá, el resultado de dicha medición debe tener existencia real en la partícula 1. Esto es así porque las tres propiedades que el experimentador puede medir (que denotamos como A, B o C) son "elementos de la realidad". En efecto, el argumento EPR debería ser suficiente para convencernos de esto: los valores de estas propiedades podrían ser predichos con certeza si hiciéramos el experimento adecuado en el Labo-2. Entonces, todas las teorías realistas locales deben aceptar que cada partícula viaja hacia su detector llevando un conjunto de instrucciones consigo que indican el resultado de cualquier medición. Es tentador utilizar una metáfora biológica: Cada partícula lleva consigo genes que determinan los valores de las propiedades A, B, C. Podríamos denotar a estas instrucciones con una terna de números (A,B,C) que indican los valores que se obtendrían si se midiera el valor de alguna de estas tres propiedades. Por ejemplo si la partícula lleva un gen del tipo (+1,-1,+1) quiere decir que si el experimentador decidiera medir A o C obtendría en ambos casos el valor +1 mientras que si midiera B el resultado sería -1. Es evidente que, como solamente hay dos resultados posibles para la medición de cada una de las tres propiedades, tan solo hay ocho genes posibles para cada partícula. En la siguiente Tabla presentamos la lista exhaustiva de todos ellos: Partícula 1 Partícula 2 (+1,+1,+1) (-1,-1,-1) (+1,+1,-1) (-1,-1,+1) (+1,-1,+1) (-1,+1,-1) (+1,-1,-1) (-1,+1,+1) (-1,+1,+1) (+1,-1,-1) (-1,+1,-1) (+1,-1,+1) (-1,-1,+1) (+1,+1,-1) (-1,-1,-1) (+1,+1,+1) Genes posibles Por otra parte, toda teoría realista local debe aceptar que los genes que lleva la partícula 1 tienen que estar correlacionados con los que lleva la partícula 2. En efecto, esto debe ser así porque si los dos experimentadores decidieran medir la misma propiedad verificarían que obtienen resultados opuestos. Por lo tanto, el gen que lleva la primera partícula determina completamente al gen de la segunda. Por ejemplo, si la primera partícula lleva un gen del tipo (+1,-1,+1) la segunda debe llevar un gen complementario, del tipo (-1,+1,-1). C. La desigualdad de Bell más sencilla El descubrimiento fundamental de Bell es que todas las teorías que aceptan la existencia de genes deben satisfacer ciertas restricciones, que toman la forma de desigualdades matemáticas. Presentaremos aquí la versión más sencilla de estas desigualdades. Invitamos al lector a realizar un intento por seguir el siguiente razonamiento, que resultará crucial para el resto de nuestro argumento. Supongamos que la primera partícula lleva el gen (+1,+1,+1). En ese caso, la segunda llevará el gen (-1,-1,-1). Entonces, aunque los dos experimentadores midan propiedades distintas los resultados que obtendrán serán siempre opuestos: en el Labo-1 siempre se obtendrá el resultado +1 mientras que en el Labo-2 siempre se obtendrá el resultado -1. Una situación idéntica tiene lugar si el gen que lleva la primera partícula es (-1,-1,-1) ya que en ese caso también los resultados serán siempre opuestos. Si las partículas fueran generadas únicamente con estos dos tipos de genes entonces deberíamos concluir que los resultados obtenidos en ambos laboratorios serían siempre opuestos. Por supuesto, esta no es una hipótesis razonable ya que no sabemos nada sobre el mecanismo subyacente que produce genes diferentes (esas son, precisamente, las variables ocultas). Pero, aunque parezca mentira, es posible deducir una propiedad muy sencilla que se debe cumplir para todos los otros genes (o sea, aquellos en los que hay una instrucción que es distinta de las otras dos como es el caso de los genes (+1,+1,-1) y (+1,-1,+1)). Es fácil mostrar que para todos esos genes habrá cinco configuraciones para las cuales los resultados obtenidos en Labo-1 y Labo-2 serán distintos y cuatro configuraciones para las cuales estos resultados serán iguales. Para ver que esto es cierto es suficiente con hacer un análisis exhaustivo de lo que sucede con cada uno de los genes. Por ejemplo, si el gen que lleva la primera partícula es (+1,+1,-1), tal como está indicado en la Figura 4, los resultados de los experimentos serán opuestos siempre que el primer y segundo experimentador midan respectivamente las propiedades A 1 -A 2 , A 1 -B 2 , B 1 -B 2 , B 1 -A 2 y C 1 -C 2 . En cambio, los resultados serán idénticos siempre que los experimentadores realicen las mediciones de las propiedades A 1 -C 2 , C 1 -A 2 , B 1 -C 2 y C 1 -B 2 . El lector puede comprobar que para todos los genes en los que las tres instrucciones no sean idénticas se verifica este mismo resultado: siempre hay cinco configuraciones de los detectores para los que los resultados obtenidos en ambos laboratorios son opuestos y hay cuatro para las cuales los resultados son idénticos (recordemos que si las instrucciones son idénticas entonces los resultados siempre serán distintos). Si los experimentadores eligen al azar las configuraciones de sus detectores, entonces podemos concluir que por lo menos en 5 de cada 9 experimentos los resultados serán opuestos. Figura 4: Para el gen (+1,+1,-1) hay cinco configuraciones de los detectores que dan lugar a que el resultado registrado en el Labo-1 sea diferente que el registrado en el Labo-2 mientras que hay cuatro configuraciones para las cuales los resultados son idénticos. Esto se repite para todos los genes en los que las tres instrucciones no son iguales. Esta predicción es totalmente independiente de la naturaleza de las variables ocultas. Esta conclusión es tan importante que merece ser repetida. Para toda teoría realista local predecimos que la probabilidad P R-L de que se obtengan resultados diferentes debe cumplir la siguiente desigualdad: P R-L (Labo-1 ≠ Labo-2)≥5/9=0.5555… (2) D. El experimento según la mecánica cuántica La mecánica cuántica también realiza una predicción para el valor de la probabilidad de que se obtengan resultados diferentes en ambos laboratorios. Esta predicción es drásticamente diferente de la de las teorías realistas locales. En efecto, de acuerdo a la mecánica cuántica la probabilidad de obtener resultados distintos es: P Cuant (Labo-1 ≠ Labo-2)=1/2=0.5(3) Para llegar a esta conclusión es necesario utilizar el formalismo matemático de la mecánica cuántica. Sin embargo, podemos hacer un intento por explicar su origen de manera sencilla (el lector no interesado está invitado a omitir la lectura de este párrafo). Si realizamos mediciones sucesivas de componentes de un spin de una partícula en direcciones perpendiculares sabemos que, como las proyecciones perpendiculares del spin definen magnitudes complementarias, los resultados de la segunda medición estarán distribuidos al azar con una probabilidad del 50% para cada uno de los dos valores posibles. En cambio, si realizamos mediciones sucesivas en dos direcciones â y , que forman un ángulo , la mecánica cuántica establece que la probabilidad de que los resultados de ambas mediciones serán iguales es ) 2 / ( cos ) ( 2 θ ∧ ∧ = = b a A B P Si las direcciones â y forman un ángulo de 120º grados, como en el caso de la Figura 4, la probabilidad de que los resultados de dos mediciones sucesivas sean iguales es 1/4 (o sea, en el 25% de los casos obtendremos resultados iguales y en el 75% obtendremos resultados distintos 7 ). Con este ingrediente estamos en condiciones de deducir cual es la predicción que la mecánica cuántica realiza para el experimento analizado en las secciones anteriores. Para calcular la probabilidad de que los resultados del Labo-1 sean diferentes de los del Labo-2 tenemos que analizar todos los casos posibles. Presentaremos aquí el estudio de uno de ellos y dejaremos para el lector interesado el examen del resto, que se realiza con un razonamiento similar. Supongamos que en el Labo-1 se midió la propiedad A y se obtuvo el valor +1. En ese caso sabemos que si midiéramos la propiedad A en el Labo-2 obtendríamos con certeza el valor (-1). En consecuencia podemos afirmar que la partícula que se encuentra en el Labo-2 está en el estado de spin -1 en la dirección â. Nos interesa calcular en ese caso cual es la probabilidad de obtener el valor -1 para la medición de las componentes â, o . Para eso podemos analizar todos los casos posibles. Si medimos A (lo que ocurre en la tercera parte de los casos) obtendremos el resultado -1 con probabilidad 1. En cambio, si medimos B o C (lo que ocurre en las restantes dos terceras partes de los casos) podemos apelar al resultado que mencionamos más arriba y afirmar que ∧ b ∧ c 7 Esto se debe a que el coseno de un ángulo de 60º es igual a 1/2 obtendremos el valor -1 con probabilidad 1/4. En conclusión si en el Labo-1 se mide A=+1 la probabilidad de que los resultados de las mediciones realizadas en el Labo-2 sean distintas resulta ser (1+1/4+1/4)/3=1/2, que es justamente el resultado que mencionamos más arriba. Razonando de igual modo para los restantes resultados posibles para las mediciones realizadas en el Labo-1 llegamos a la misma conclusión y de ese modo demostramos la validez de la predicción cuántica expresada más arriba. El contraste entre la predicción cuántica y la predicción de cualquier teoría realista-local es drástico: de acuerdo a la mecánica cuántica en la mitad de los experimentos obtendremos resultados diferentes y en la otra mitad los resultados serán idénticos. Esto es incompatible con la predicción de cualquier teoría realista local ya que de acuerdo a todas ellas los resultados deben ser diferentes por lo menos en el 55.5% de los experimentos. ¿Quién tiene razón, la mecánica cuántica o las teorías realistas locales? Para dirimir este debate, debemos realizar el experimento y comprobar cual de las dos predicciones es la correcta. V. La violación de las desigualdades de Bell Después de los trabajos de Bell varios grupos se lanzaron a realizar experimentos como los descriptos en la sección anterior. Cabe aclarar que ninguno de estos grupos lo hizo con la esperanza de detectar violaciones a las predicciones cuánticas. Por el contrario, a esa altura del siglo XX nadie dudaba que la mecánica cuántica saldría airosa en su confrontación contra las teorías de variables ocultas. Para poder realizar estos experimentos fue necesario superar varios obstáculos tecnológicos y los primeros resultados en los que se detectaron claras violaciones a las desigualdades de Bell fueron obtenidos recién en 1982 por Alain Aspect en Paris. El experimento de Aspect fue un verdadero tour de force por el que debería hacerse acreedor al premio Nóbel de física. Fue realizado utilizando pares de fotones entrelazados generados a partir del decaimiento de átomos de Calcio. Cuando este tipo de átomo decae en una cascada S-P-S emite dos fotones que tienen casi la misma frecuencia y que están entrelazados en su polarización. Este grado de libertad de los fotones se comporta de manera muy similar al spin de una partícula de spin 1/2. Para realizar su experimento Aspect no solamente tuvo que perfeccionar su fuente de pares de fotones entrelazados (que para esa época eran toda una novedad). Una vez producidos cada uno de los fotones se dirigía hacia un extremo distinto del laboratorio donde se habían montado dos estaciones de trabajo idénticas que jugaban el rol del Labo-1 y el Labo-2 que mencionamos más arriba. Estas estaciones constaban de un detector que cumplía el papel del instrumento de medición que ilustramos en la Figura 3. En el experimento, en cada estación de trabajo los fotones se encontraban con un espejo que cambiaba de orientación de manera azarosa. Para cada una de estas direcciones los fotones eran enviados a detectores diferentes en los que se medía la polarización en alguna dirección (las que juegan un papel equivalente a las direcciones â, o de la Figura 3). Aspect invirtió un esfuerzo considerable para asegurarse de que los espejos variaran su orientación suficientemente rápido y que los detectores estuvieran suficientemente separados como para poder garantizar que no existía conexión causal posible entre los registros tomados en ambos extremos del laboratorio. La longitud del laboratorio era de alrededor de 10 metros y los espejos cambiaban de posición en tiempos del orden de varios nano-segundos (hay que recordar que la luz recorre una distancia de casi treinta centímetros en un nano-segundo). ∧ b ∧ c Los resultados de los experimentos de Aspect fueron concluyentes para la mayoría de los físicos, que por otra parte no dudaban sobre la validez de la mecánica cuántica. Sin embargo, un núcleo de escépticos continuó intentando producir experimentos todavía más concluyentes. Para ellos, los resultados de Aspect podían ser criticados desde distintos ángulos. Por cierto, teniendo en cuenta las implicancias fundamentales del resultado del experimento, se justifica tener una actitud que en otro contexto podría ser calificada de exageradamente conservadora. Los problemas del experimento de Aspect eran fundamentalmente dos. Por un lado los ángulos de los espejos no variaban de manera totalmente aleatoria y por lo tanto era posible imaginar algún mecanismo (inverosímil pero imaginable) por el cual los fotones pudieran "conspirar" para que el experimento pareciera favorecer a la mecánica cuántica aún cuando la teoría subyacente fuera realista local. Por otra parte, el tiempo de respuesta de los detectores era demasiado largo lo cual traía aparejadas limitaciones en la sincronización de eventos (el tiempo de respuesta y el tiempo característico de la emisión en cascada era comparable). Por otra parte, la baja eficiencia de los detectores originaba otro problema potencial: no todos los eventos son registrados y no hay manera de garantizar que el subconjunto de eventos que dan lugar a la señal medida sea una muestra nosesgada del total. Si bien parece completamente razonable aceptar que esto es cierto, en el contexto de este experimento aún este tipo de suposiciones "razonables" son puestas en discusión. Debido a esta, y a muchos otros cuestionamientos más técnicos, durante las últimas dos décadas del siglo XX se realizaron muchos otros experimentos para testear la violación de las desigualdades de Bell. En la actualidad las técnicas disponibles para generar pares de fotones entrelazados han avanzado notablemente. Los métodos más modernos utilizan un fenómeno que se conoce como conversión paramétrica inversa. Este fenómeno se observa cuando ciertos cristales son iluminados con un láser intenso. Para ciertos cristales no-lineales se produce el proceso de conversión de un fotón del láser en un par de fotones que tienen frecuencias cercanas (en este proceso se conserva la energía y, por lo tanto, la suma de las frecuencias de los fotones emitidos es igual a la frecuencia del láser incidente). El par de fotones resulta estar entrelazado en su polarización. Los fotones generados de este modo han sido utilizados para realizar un gran número de experimentos en los que se demuestra la violación de desigualdades de Bell. Los experimentos actuales involucran distancias mucho mayores que las usadas en el experimento de Aspect. En 2001 el grupo dirigido por Anton Zeillinger en Innsbruck presentó resultados de un notable experimento donde se detectaban violaciones a las desigualdades de Bell con fotones que recorrían varios centenares de metros antes de ser detectados). Poco después, Nicolas Gisin detectó señales claras de violaciones a las desigualdades de Bell en experimentos donde los fotones viajaban decenas de kilómetros (desplazándose por fibras ópticas que corren bajo la superficie del lago de Ginebra). En la actualidad, la existencia de violaciones a las desigualdades de Bell es un hecho que goza de un abrumador consenso a partir de la acumulación de una enorme cantidad de resultados experimentales. VI. El entrelazamiento como un recurso físico El entrelazamiento es una propiedad de la mecánica cuántica que fue reconocida desde sus primeros años. Por ejemplo, es bien sabido que para construir un modelo razonable del átomo de Helio es necesario aceptar que los spines de sus dos electrones están entrelazados. En efecto, los estados entrelazados en sistemas de dos spines surgen muy naturalmente y juegan un rol muy importante en muchos fenómenos de la física atómica y molecular. Ningún físico medianamente informado consideraría al entrelazamiento como una propiedad exótica de la física cuántica. Sin embargo, el tipo de entrelazamiento al que la mayoría de los físicos está acostumbrada es aquel que se produce entre las partes de sistemas microscópicos. En ese contexto las consecuencias paradojales de este fenómeno no se ponen de manifiesto. Pero es evidente que, tal como fue analizado en el trabajo de EPR, cuando el entrelazamiento está presente a escala macroscópica es responsable de buena parte de los misterios de la física cuántica. Desde hace mucho tiempo que somos concientes de la utilidad de almacenar energía, por ejemplo en una batería. Una vez almacenada es posible utilizarla para prender una lámpara, mover un motor, etc. En definitiva, sabemos que la energía almacenada es útil para realizar trabajo. Sólo recientemente se llegó a la conclusión de que es posible concebir al entrelazamiento como un recurso físico. La pregunta que surge en este contexto es ¿cuál es el tipo de tareas que necesitan del entrelazamiento para su ejecución? Sólo recientemente se comenzó a abordar esta pregunta y se demostró claramente que, al igual que la energía, podríamos almacenar este recurso y utilizarlo para realizar tareas vinculadas con el procesamiento y la transmisión de la información. La exploración de las posibilidades que abre el uso del entrelazamiento como recurso físico es un campo relativamente nuevo y la demora en su desarrollo se debe a que sólo recientemente se comprobó que es posible generar, preservar y manipular pares de objetos entrelazados sobre distancias macroscópicas. A. Teleportación Por el momento se conocen tan sólo unas pocas tareas que requieren del entrelazamiento para ser completadas. Una de ellas es la teleportación. Este nombre fantástico se utiliza para denominar a una tarea que tiene un objetivo mucho más modesto que aquel procedimiento que aparece en muchas series de ciencia ficción (Star trek, entre ellas). La teleportación es un proceso mediante el cual el estado de un sistema es trasladado de un laboratorio a otro distante. Para realizar esta tarea es necesario contar con un par de objetos entrelazados que tengan la misma constitución material que el objeto a teleportar (o sea, si queremos teleportar un átomo necesitamos de un par de átomos idénticos en un estado entrelazado). El protocolo de la teleportación, desarrollado en 1993, es el siguiente. Uno de los miembros del par de objetos entrelazados (objeto 1) se transporta al laboratorio de destino y el otro de los integrantes del par (objeto 2) se mantiene en el laboratorio donde está el objeto a teleportar (objeto 3). Es importante destacar que este primer paso involucra el movimiento (transporte) de materia desde el punto donde se encuentra el objeto 3 (el objeto a teleportar) hasta el lugar de destino: la teleportación requiere el transporte de materia. Sin embargo, la materia que se transporta se encuentra en un estado que nada tiene que ver con el estado del objeto a teleportar. El segundo paso del procedimiento consiste en medir un conjunto de propiedades colectivas del objeto a teleportar (objeto 3) y el miembro del par que quedó en su mismo laboratorio (objeto 2). Los valores de las propiedades conjuntas se registran mediante instrumentos convenientemente construidos (omitimos todos los detalles técnicos al respecto) y son transmitidos por un canal ordinario hasta el lugar de destino en el que, como mencionamos antes, se encuentra el segundo miembro del par original (el objeto 1). En resumen, el segundo paso del protocolo de teleportación involucra una medición de una propiedad colectiva y la transmisión de información clásica (el resultado de la medición). Finalmente, el último paso consiste en aplicar una acción física concreta sobre el objeto 1 que depende del resultado de las mediciones efectuadas en el segundo paso (o sea, para cada resultado posible realizamos una acción física posible que puede ser, por ejemplo, mover el objeto una cierta distancia o modificar su momento en una cierta magnitud que dependen del resultado de la medición realizada). La mecánica cuántica garantiza que después de realizar esta acción, el objeto 1 quedará preparado en el mismo estado en el que se encontraba el objeto a teleportar. Las primeras experiencias de teleportación se realizaron con fotones en el laboratorio de Anton Zeillinger en Innsbruck. El uso de fotones entrelazados presenta una serie de ventajas ya que los métodos de producción de pares se han perfeccionado notablemente. Sin embargo, por razones técnicas, la teleportación con fotones y técnicas ópticas lineales solamente permite alcanzar una eficiencia del 75%. Los experimentos más resonantes con estos métodos fueron realizados por el grupo de Zeillinger que en el año 2004 logró teleportar estados de un fotón entre las dos riveras del río Danubio utilizando fibras ópticas instaladas en el sistema de cloacas de la elegantísima Viena. El grupo de Gisin también alcanzó resultados notables sobre distancias de varios kilómetros recorridos bajo la superficie del lago de Ginebra. La teleportación de estados de átomos fue lograda en notables experimentos realizados por los grupos de David Wineland (en Boulder, EEUU) y de Rainer Blatt (en Innsbruck). En estos casos ambos grupos utilizaron trampas de iones. Esta tecnología permite manipular con mucha precisión el estado interno de átomos ionizados y al mismo tiempo controlar su ubicación y movimiento. Es una tecnología ideal para implementar experimentos como los de teleportación pero por el momento no permite alcanzar separaciones macroscópicas. En efecto, los experimentos de teleportación en trampas de iones han alcanzado distancias de unas pocas decenas de micrones. B. Computación cuántica La computación cuántica es otra de las aplicaciones que requieren de la manipulación del entrelazamiento para su concreción. Esta nueva disciplina comenzó a desarrollarse a partir de los trabajos de Richard Feynman en 1982. Feynman abrió la puerta para reformular un nuevo paradigma computacional motivado directamente por las leyes de la física. En su trabajo pionero, Feynman notó que la simulación computacional de los sistemas cuánticos es altamente ineficiente si se la implementa en cualquier computadora ordinaria. En este contexto, la noción de eficiencia está definida a partir del estudio de la dependencia de los recursos necesarios para resolver un cierto problema con el tamaño de dicho problema. En el caso de la física cuántica es bien sabido que para simular un objeto se necesitan utilizar recursos cuya dependencia con el tamaño del objeto es exponencial. Esto quiere decir que, por ejemplo, para simular el comportamiento de un sistema de 41 spines necesitamos el doble de memoria que para un sistema de 40 spines. De hecho, las computadoras más poderosas de la actualidad no son suficientes para resolver las ecuaciones de la mecánica cuántica para un sistema de alrededor de 50 spines. El motivo de la dificultad en la simulación de los sistemas cuánticos es, precisamente, el entrelazamiento. En cambio, si un objeto compuesto evoluciona visitando estados que nunca están entrelazados, puede ser estudiado eficientemente en una computadora ordinaria. A partir de los trabajos de Feynman un grupo cada vez más grande de científicos comenzaron a trabajar sobre la idea de construir otro tipo de computadoras, en las cuales el "hardware" evolucione de acuerdo a las leyes de la mecánica cuántica. El estudio del poder computacional de este tipo de computadoras, que son denominadas "computadoras cuánticas", es un campo de estudio abierto. Por cierto, no son demasiados los resultados demostrados de manera rigurosa en este terreno. Sin embargo, se sabe que existen ciertos problemas matemáticos que tendrían una solución eficiente utilizando computadoras cuánticas pero que sin embargo no poseen una solución eficiente conocida que pueda ser ejecutada en las computadoras ordinarias. El ejemplo más importante es el problema de la factorización de números enteros. En ese caso, en 1994 Peter Shor demostró la existencia de un algoritmo cuántico que es capaz de encontrar los factores primos de un número entero en un tiempo que depende polinomialmente del tamaño del número (medido por el número de bits que son necesarios para almacenarlo). Por el contrario, no existe ningún algoritmo clásico que permita resolver el problema de la factorización entera en tiempo polinomial. Cabe aclarar que si bien el entrelazamiento es el principal sospechoso a la hora de buscar responsables del poder de la computación cuántica, este hecho no ha sido demostrado rigurosamente. Por el contrario, es un tema de debate álgido y hasta el momento no se ha demostrado que dicho recurso sea realmente necesario (aunque la mayoría de los investigadores mantiene esa sospecha). La construcción de una computadora cuántica es uno de los desafíos tecnológicos de las próximas décadas. VII. Comentarios y metáforas finales ¿Cuál es la imagen del Universo que nos provee la mecánica cuántica? No responderemos completamente esta pregunta aquí sino que solo resumiremos los ingredientes de esta visión a los que nos hemos referido en este trabajo. La mecánica cuántica postula la existencia de propiedades observables de un objeto que son incompatibles entre sí. Esto es algo novedoso y profundo. Para asimilarlo es necesario cambiar radicalmente nuestra visión de la realidad física. En primer término deberíamos admitir que al hablar de las propiedades de un objeto podemos generar cierta confusión. Esta terminología nos induce a pensar en algo que es propio del objeto, que le pertenece solamente a él. Por el contrario, la mecánica cuántica establece que aquello a lo que llamamos propiedades (o que más técnicamente denominamos como una "magnitud física observable") es en realidad un canal mediante el cual el objeto interactúa con el mundo que lo rodea. El legado del principio de complementariedad es que los objetos tienen distintas ventanas con las que se conectan con el resto del Universo y que existen ventanas que no son compatibles entre sí. Aquello que llamamos "posición" o "momento" son en realidad idealizaciones que lo único que expresan son distintos mecanismos de interacción (canales) por los cuales los objetos de la naturaleza pueden afectarse mutuamente. Lo que la mecánica cuántica nos enseña es que hay ciertos mecanismos de interacción que son compatibles entre sí y que, por el contrario, hay otros que no lo son. Cuando un objeto interactúa con el mundo que lo rodea mediante el "canal de posición", no puede hacerlo mediante el "canal de momento" y viceversa. En definitiva, la mecánica cuántica nos enseña que los objetos tienen distintas caras y que no todas ellas pueden ser vistas al mismo tiempo. La esencia del principio de complementariedad es esa y ese es un hecho fundamental. Otra de las enseñanzas de la física cuántica es que el acto de medición no es un hecho pasivo. Probablemente este sea uno de los aspectos más controvertidos de la mecánica cuántica. En efecto, coloca al observador en un lugar diferente del que tradicionalmente le otorgaba la física. Anteriormente se pensaba que las perturbaciones inherentes a la observación podían ser minimizadas. Se pensaba que era posible concebir al acto de observar como una acción asimilable a la de revelar algo que está escrito en el objeto estudiado. La mecánica cuántica derribó ese paradigma y lo reemplazó por otro en el que el acto de observar es siempre una interacción. Muchas veces se presenta este hecho como una ventana por la cual puede colarse el subjetivismo. Pero la física cuántica no dice eso sino que establece que el proceso de medición no puede dejar de objetivarse. No puede dejar de describirse como una interacción física. Pero claro, la forma en la que la física cuántica combina esto con la existencia de propiedades incompatibles no puede dejar de sorprendernos. En efecto, si interactuamos con un objeto mediante un cierto canal, determinamos el valor de una de sus propiedades y creamos un estado en el que los valores de sus caras complementarias están completamente indefinidos. Lo sorprendente y anti-intuitivo es que no es posible concebir a este como un estado de ignorancia sobre los valores de las caras complementarias. Por el contrario, debe ser tratado como una superposición de todas ellas. Probablemente la lección cuántica que nos resulte más difícil de digerir siga siendo aquella que sintetiza la frase de Asher Peres: los experimentos que no se realizan no tienen resultados. Por último, las predicciones cuánticas para los sistemas compuestos son ciertamente sorprendentes pero a la luz de lo dicho anteriormente no deberían parecerlo tanto. La mecánica cuántica nos dice que podemos encontrar un conjunto de propiedades globales de un sistema compuesto que sean complementarias a todas las propiedades de cualquiera de sus partes. Cuando medimos ese conjunto de propiedades colectivas de un sistema compuesto preparamos al objeto en un estado en el que todas las alternativas de sus facetas complementarias están presentes. Ese es un estado entrelazado en el cual los valores de las propiedades de las partes, que son complementarias con las propiedades medidas, están completamente indefinidos. Es importante destacar que para que este estado mantenga sus propiedades más notables (el entrelazamiento) es vital que permanezca aislado de todo tipo de interacciones con el medio (que típicamente tienen lugar a través de canales locales). Si el objeto permanece aislado y no es afectado por ningún mecanismo que induzca su decoherencia entonces seguirá comportándose como un todo. Será un objeto extendido, una unidad no-local, pese a que sus partes se hayan desplazado a lugares distantes. Las manifestaciones del comportamiento cuántico de objetos compuestos cuyas partes entrelazadas están separados por distancias macroscópicas son realmente sorprendentes. El siglo XXI será, sin duda, el siglo donde el estudio, la ingeniería y el aprovechamiento de este tipo de estados darán lugar al desarrollo de novedosas tecnologías cuánticas que, tal vez, contribuyan a que alguna vez la afirmación de Richard Feynman "nadie entiende la mecánica cuántica" deje de ser cierta. La influencia de Einstein en el pensamiento científico moderno se pone en evidencia mencionando algunas frases llamativas que no tendrían sentido sin su contribución: "el tiempo se dilata", "las longitudes se contraen", "vivimos en un espacio-tiempo curvo", "la luz modifica su trayectoria al pasar cerca del sol", etc Por el contrario, la física "clásica" predice que para cualquier longitud de onda algunos electrones serán ¡En un centímetro cúbico de aire hay cerca de un billón de billones de átomos! Los estadísticos caracterizan una situación como esta diciendo que ∆R es la "varianza" de la distribución de los resultados de la medición de R En un lenguaje más técnico, los valores de las componentes del spin son siempre múltiplos de la cantidad /2 ; en esas unidades dichas componentes toman simplemente los valores +1 o -1.h
sample_16618
0.9847
arxiv
Mathématique constructive Roger Apéry Mathématique constructive arXiv:1705.05581v2 [math.HO] 19 Aug 20 Qui veut tuer son chien l'accuse de la rage. » Pour combattre une dissidence religieuse, philosophique ou politique, un pouvoir commence toujours par la discréditer, en lui ôtant son caractère de doctrine soutenue par des chercheurs de bonne volonté attachés à leur conviction intime par des arguments solides pour la présenter comme une entreprise criminelle (hérétique, asociale) vouée à la disparition. Selon la caricature présentée par ses adversaires sous le nom d'intuitionnisme, la conception constructive détruirait une grande part de la mathématique classique, notamment l'axiome de choix et ses conséquences ; contrairement au caractère objectif de la science, elle adopterait comme critère de vérité l'intuition particulière de chaque mathématicien, elle ne serait qu'une singularité historique, liée à une métaphysique particulière destinée à disparaitre ; elle n'exprimerait que l'angoisse de quelques mathématiciens. À défaut de convaincre, ce texte pourra dissiper des malentendus : nous montrons que la conception constructive ne mutile pas la mathématique classique, mais au contraire l'enrichit. Nous ne traitons pas de l'axiome de choix dont la discussion n'est pas essentielle. Nous indiquons les critères objectifs de preuve utilisés par les mathématiciens constructifs. Enfin, aucun argument solide ne permet d'affirmer que L. Kronecker, H. Poincaré ou H. Weyl étaient plus angoissés que Cantor, Hilbert ou Russell. cercles idéaux, non des traits et des ronds dessinés. La conception platonicienne reporte sur le monde mathématique le désir d'absolu et d'éternité de l'esprit humain. Les principales affirmations du platonisme mathématique sont les suivantes : 1 o Toute question mathématique concerne des objets aussi réels (et même plus réels) que les astres, les animaux ou les végétaux ; elle a donc une réponse (éventuellement inconnue) affirmative ou négative : c'est la logique bivalente et son corollaire, le principe du tiers exclu. 2 o La notion d'ensemble, définie par Cantor comme « un groupement en un tout d'objets bien distincts de notre intuition et de notre pensée( 1 ) », est simple, primitive et constitue à elle seule le fondement de toutes les mathématiques. Par exemple, le nombre 1 est défini par Russell comme l'ensemble de tous les ensembles E non vides tels que x ∈ E et y ∈ E ⇒ x = y. 3 o L'existence simultanée de tous les êtres mathématiques exige de traiter comme une unité achevée tout ensemble infini ; c'est la doctrine de l'infini actuel soutenue par Leibniz et étendue par Cantor pour des raisons métaphysiques. « Je suis tellement pour l'infini actuel qu'au lieu d'admettre que la nature l'abhorre, je tiens qu'elle l'affecte partout, pour mieux marquer la perfection de son auteur. Ainsi, je crois qu'il n'y a aucune partie de la matière qui ne soit, je ne dis pas divisible, mais actuellement divisée, et par conséquent, la moindre particule doit être considérée comme un monde plein d'une infinité de créatures différentes » (Leibniz). « Sans un petit grain de métaphysique, il n'est pas possible, à mon avis, de fonder une science exacte. La métaphysique telle que je la conçois est la science de ce qui est, c'est-à-dire de ce qui existe, donc du monde tel qu'il est en soi et pas tel qu'il nous apparait » (Cantor). « La plus haute perfection de Dieu est la possibilité de créer un ensemble infini et son immense bonté le conduit à le créer » (Cantor). Les difficultés de la théorie cantorienne se manifestèrent sous forme d'antinomies. L'édifice s'effondra quand Russell montra que le monde cantorien lui-même, c'est-à-dire l'ensemble de tous les ensembles, est contradictoire. Le formalisme Le formalisme, conçu par Hilbert et poussé à l'extrême par Bourbaki, veut créer un ordre mathématique dont les commandements sont les suivants : 1 o Que la règlementation des méthodes autorisées soit suffisamment rigide pour empêcher toute discussion. 2 o Que l'on ne rencontre pas de contradiction et, en particulier, que l'on évite les paradoxes. 3 o Que l'on conserve la mythologie du transfini qu'Hilbert appelle le « paradis créé pour nous par Cantor ». Cet objectif est atteint par la méthode suivante : 1 o Rejeter l'ordre ancien en lui reprochant simultanément d'être trop libéral (mot d'ordre : « À bas Euclide », lancé par Bourbaki) et d'être autoritaire (Hilbert traitant Kronecker de Verbotsdiktator). 2 o Considérer comme infranchissable le fossé entre les mathématiques et les autres disciplines. 3 o Attribuer la réussite de l'application des mathématiques aux autres sciences à l'« harmonie préétablie » (Leibniz) ou à un « miracle » (Bourbaki). 4 o Réduire la mathématique au texte écrit, ce qui rejette à la fois comme inexistant le monde platonicien et comme épiphénomène la pensée du mathématicien. 5 o Refuser comme dénués de sens les concepts d'espace, de temps, de liberté. 6 o « Imposer au domaine mathématique des bornes en grande partie arbitraires » (Bourbaki, Théorie des ensembles, p. E IV.67). 7 o Pratiquer le double langage( 2 ), d'une part en laissant croire qu'une seule école possède la « bonne mathématique » et en adoptant la terminologie des platoniciens ; d'autre part en considérant les mathématiques comme un simple jeu, où, par exemple, « les mots "il existe" dans un texte formalisé n'ont pas plus de "signification" que les autres, et [où] il n'y a pas à considérer d'autres types d'"existence" dans les démonstrations formalisées( 3 ) » (Bourbaki). 8 o Extirper l'intuition, notamment en refusant l'usage des figures dans l'enseignement. 9 o Considérer comme « métamathématiques » toutes les questions gênantes sur la structure des mathématiques. 10 o Uniformiser les esprits par l'enseignement des « mathématiques modernes », où on laisse croire aux enfants qu'entourer des petits objets par une ficelle est une activité mathématique au lieu de leur apprendre à compter, à calculer et à examiner les propriétés des figures. 11 o Créer un dieu mathématique à plusieurs personnes qui tente d'assurer son immortalité en renouvelant périodiquement ses membres et qui assure l'unité de la communauté mathématique en révélant périodiquement les bonnes définitions et les bonnes théories. Hilbert espérait démontrer la cohérence de sa conception, mais Gödel, en montrant que toute théorie contenant au moins l'arithmétique élémentaire contient des résultats vrais mais non démontrables par l'axiomatique, mettait en évidence l'échec du formalisme hilbertien. Il faut distinguer entre la méthode formaliste et la philosophie formaliste. Tous les logiciens utilisent la méthode formaliste pour préciser les types de déductions valables ; la philo-sophie formaliste considère le texte formalisé non comme un outil commode, mais comme la seule réalité mathématique (les physiciens connaissent une distinction analogue entre la méthode positive, qui est la méthode de tous, et le positivisme, qui est la philosophie de quelques-uns). On fixe une théorie mathématique en indiquant les propriétés de départ (axiomes) et les règles de déduction admises. Le scepticisme vis-à-vis de certains principes traduit généralement un dogmatisme sous-jacent qui refuse d'expliciter ses propres principes et de les laisser critiquer. Ainsi les formalistes, qui soumettent à une critique poussée les propriétés mathématiques élémentaires, avalent sans examen les règles traditionnelles de logique, en refusent la mise en cause, oublient que ces règles, issues de l'expérience courante comme la géométrie euclidienne, n'ont comme elle qu'un champ d'application limité. Ils ne sont pas sûrs de la vérité de 2 + 2 = 4, considèrent comme un axiome gratuit, donc susceptible d'être rejeté, qu'en enlevant le dernier signe de deux suites isomorphes on obtient des suites isomorphes, ce qui entraine l'« axiome » de Peano selon lequel deux nombres naturels ayant mêmes successeurs sont égaux. Par contre, ils considèrent comme évident et incontestable l'axiome logique de Peirce selon lequel, quelles que soient les propositions p, q, on peut déduire de la proposition (p ⇒ q) ⇒ p la proposition p ; toute mise en cause du principe du tiers exclu leur apparait non comme une opinion discutable, mais comme un scandale intolérable. Le mathématicien idéal selon le constructivisme Selon la conception constructive, il n'y a pas de mathématique sans mathématicien. En tant qu'êtres de raison, les êtres mathématiques n'existent que dans la pensée du mathématicien et non dans un monde platonicien indépendant de l'esprit humain ; quant aux textes mathématiques, ils ne prennent un sens que par une interprétation qui exige un lecteur connaissant le langage utilisé par l'auteur du texte. Le mathématicien idéal se définit par un certain comportement mental dont la pensée effective du mathématicien concret n'est qu'une image approchée. Les hypothèses nécessaires pour l'activité mathématique sont les suivantes : 1 o On peut toujours ajouter un nouveau signe à une formule ; en particulier, après tout nombre entier, on peut en considérer un autre. 2 o Le mathématicien raisonne toujours en appliquant des règles de déduction explicitement précisées. 3 o Tout résultat démontré est définitivement acquis. 4 o L'aptitude à tirer des déductions ne se détériore pas et ne s'améliore pas. Toutes ces propriétés supposent que le mathématicien satisfasse aux conditions suivantes : 1 o Il est immortel, c'est-à-dire qu'il peut toujours continuer un calcul inachevé. 2 o Il est imperméable à la douleur, aux passions, aux souffrances, ce qui maintient la rigueur nécessaire de sa pensée. 3 o Grâce à une mémoire parfaite, il n'oublie ni ne déforme aucun résultat acquis. 4 o Il ne se fatigue pas et effectue des performances sans entrainement préalable. Les mathématiciens suppléent à leur différence évidente avec le mathématicien idéal : 1 o Par l'entraide : l'erreur qui échappe à un mathématicien peut être décelée par un autre. 2 o Par les mémoires mécaniques (textes manuscrits ou imprimés) qui suppléent aux défaillances de la mémoire individuelle. 3 o Par les machines à calculer qui leur permettent d'effectuer en un temps raisonnable des calculs que, sans machine, leur vie n'aurait pas suffi à achever. S'il extrapole la réalité, le mathématicien constructif refuse les hypothèses fantastiques des platoniciens. En effet : 1 o Il ne se croit pas éternel : l'activité mathématique a eu un commencement. 2 o Il croit que les êtres mathématiques sont des êtres de raison ; ils apparaissent au moment où le mathématicien les définit et non antérieurement à tout mathématicien. 3 o Il constate que la mathématique se déroule dans le temps. Un raisonnement est une méthode pour montrer que si certaines affirmations sont supposées vraies avant, d'autres deviennent vraies après. 4 o Son immortalité lui permet d'atteindre des nombres aussi grands qu'il veut, mais pas de définir tous les nombres ; il croit à l'infini potentiel, pas à l'infini actuel. Alors que les mathématiciens idéaux sont interchangeables, les mathématiciens concrets sont divers, et chacun d'entre eux se modifie dans le temps ; cette diversité entraine dans l'activité mathématique une part subjective qui ne peut être supprimée. Cette part subjective se manifeste dans la création, dans l'apprentissage, dans la reproduction. Malgré son importance, ce n'est pas elle qui constitue la différence entre mathématique statique et mathématique constructive. Mathématique et durée Comme le platonicien et contrairement au formaliste, le mathématicien constructif reconnait une certaine réalité aux objets mathématiques, mais les différencie essentiellement des objets matériels, en ne leur attribuant que les propriétés susceptibles de démonstration. Une distinction analogue différencie les héros de roman des personnages historiques. Une question concernant Vercingétorix admet une réponse, même si elle échappe à nos moyens d'investigation ; la même question concernant Don Quichotte n'a pas de réponse si celle-ci ne peut être déduite des affirmations du roman de Cervantès. En revanche, l'existence d'ensembles de réels plus nombreux que l'ensemble des entiers et moins nombreux que l'ensemble des réels n'a pas de réponse, car, comme Paul Cohen l'a démontré, ni cette existence ni sa négation ne peuvent être déduites des définitions usuelles des réels : l'ensemble des réels, comme Don Quichotte, est un être essentiellement incomplet. Le mathématicien constructif refuse le tabou philosophique interdisant de parler de temps et de liberté, car toute activité mathématique exige un esprit libre opérant dans le temps. Laissant au moraliste le temps irréversible, ce fameux « temps perdu » qui ne se rattrape jamais, les mathématiciens, comme les musiciens, utilisent un temps reproductible. Une statue, un tableau, un monument, essentiellement situés dans l'espace, se maintiennent par euxmêmes ; les forces extérieures peuvent les user ou les détruire, mais ne sont pas nécessaires à leur maintien ; l'examen de leurs diverses parties s'opère selon un ordre arbitraire et pendant une durée arbitraire. Au contraire, la musique se situe essentiellement dans le temps. Une mélodie n'est pas un ensemble, mais une suite de notes subtilement reliées : contrairement aux monuments qui perdurent, la mélodie disparait ; pour réapparaitre, elle doit être reproduite ; elle est conservée par des procédés de mémorisation artificiels (partitions musicales, disques). Nous connaissons les outils ou les dessins de nos ancêtres préhistoriques, nous ignorons leurs paroles ou éventuellement leurs chants. De même, un raisonnement mathématique, essentiellement fragile, doit être refait pour être compris : un texte mathématique se lit la plume à la main. Bien que la durée semble moins contraignante qu'en musique, l'examen d'un raisonnement mathématique exige d'embrasser simultanément à chaque étape les prémisses, la conclusion, la règle de raisonnement utilisée ; une compréhension authentique s'adresse à l'ensemble des articulations du raisonnement, de façon que le résultat apparaisse dû à une méthode applicable à d'autres problèmes et non à un heureux hasard. Schématiquement, l'activité mathématique comporte deux phases, caractérisées par la boutade : 5 % d'inspiration, 95 % de transpiration. Dans la première phase, l'activité est mentale, subjective, indépendante du langage, étroitement liée à la durée intuitive. Malgré ses deux faiblesses (fugacité et incommunicabilité), cette phase constitue l'activité mathématique authentique. Dans la seconde phase, le mathématicien note, formalise, traduit (partiellement) son intuition en termes communicables ; chacun peut examiner ses résultats devenus objectifs. Les diverses exécutions d'une oeuvre musicale ne sont jamais rigoureusement identiques, elles dépendent de la personnalité du chef d'orchestre. De même, la reproduction d'un raisonnement contient une part subjective irréductible ; en rappelant qu'un chien dévorant une oie emmagasine de la graisse de chien et non de la graisse d'oie, H. Poincaré illustre la nécessité pour chacun d'incorporer à sa propre personnalité toute connaissance extérieure. Celui qui possède des textes mathématiques dont il ne comprend pas l'articulation ne possède rien. Quelques outils et concepts des mathématiques constructives Nombres naturels Comme Bourbaki (Théorie des ensembles, chap. I, § 1), nous commençons les mathématiques par l'étude d'assemblages de signes extraits d'un alphabet ; un tel assemblage est une suite, non un ensemble. Tous les mathématiciens s'accordent sur la philosophie des signes : tout signe est indestructible, peut être reproduit sans changement ni usure autant de fois qu'on le désire, peut servir à construire des formules de longueur arbitraire. Un texte mathématique se présente comme une suite d'arguments correctement déduits, non comme un ensemble d'affirmations en vrac. Les assemblages construits avec un alphabet à un seul signe, noté |, sont les nombres naturels. L'assemblage vide est noté 0, les assemblages |, ||, |||, sont notés respectivement 1, 2, 3. Devant une question mathématique élémentaire, par exemple rechercher s'il existe un entier naturel qui vérifie une propriété simple (c'est-à-dire une propriété qui peut être effectivement décidée pour chaque entier donné), trois situations se rencontrent pratiquement : a) on connait une solution ; b) on peut montrer que l'existence d'une solution conduit à une contradiction ; c) on ne sait pas. Les mathématiciens s'accordent sur la réponse au problème dans les cas a) et b). Les différences d'attitude apparaissent dans le cas c), qui est le plus intéressant (il recouvre tous les problèmes mathématiques non résolus, c'est-à-dire toute la mathématique vivante). Une attitude empiriste n'admettrait que des réponses à des questions déjà tranchées. L'attitude statique considère notre incapacité de répondre comme une infirmité humaine, mais admet une réponse « en soi ». L'attitude constructive est intermédiaire. Devant une proposition p non tranchée, le mathématicien constructif ne refuse pas toujours de poser p ou non p. Mais il n'admet la validité de cette expression logique (application du principe du tiers exclu à l'énoncé p) que s'il possède un algorithme qui au bout d'un nombre fini d'étapes permettra de trancher, quelle que soit par ailleurs la longueur de l'algorithme. Comme un tel algorithme n'existe pas toujours, il y a donc des énoncés auxquels le principe du tiers exclu ne s'applique pas. Suite de nombres Une suite d'entiers (ou de rationnels) est un processus qui associe à chaque nombre naturel un entier (ou un rationnel) u(n), noté encore u n . C'est à l'occasion des suites d'entiers qu'apparait le point crucial du débat : infini actuel ou infini potentiel. Selon la conception constructive, une suite infinie, par exemple la suite des nombres naturels, n'est jamais finie, c'est-à-dire n'est jamais achevée : après tout nombre entier, on peut en construire un autre ; c'est la conception de l'infini potentiel qui fut soutenue par Gauss et Poincaré. Il n'existe pas d'ensemble effectivement infini. Une propriété qui exige de tester tous les éléments d'une suite ne relève pas de la loi du tiers exclu. On appelle suite fugace une suite dont tous les éléments effectivement calculés sont nuls, mais dont on ignore si le calcul de nouveaux éléments donnera toujours des zéros. Des problèmes importants posés aux mathématiciens équivalent à la question de savoir si une suite fugace est nulle ou non (conjecture de Fermat ou de Riemann). La comparaison de deux suites u n et v n revient à examiner si la suite |u n − v n | est nulle. L'existence de suites fugaces montre que, contrairement aux nombres (naturels, entiers relatifs ou rationnels), deux suites ne sont pas nécessairement égales ou inégales. Logique constructive Platoniciens et formalistes utilisent une même logique « classique », que nous comparons à la logique constructive. On distingue la logique propositionnelle qui examine les propositions complexes bâties à l'aide de propositions élémentaires et de connecteurs (généralement ¬, ∧, ∨, ⇒, ⇔) et la logique des prédicats (à une ou plusieurs places) qui utilise notamment les quantificateurs ∀, ∃. La logique classique n'a besoin que des connecteurs ∧, ¬ et du quantificateur ∀ ; les connecteurs ∨, ⇒ et le quantificateur ∃ sont, selon les classiques, des abréviations : p ∨ q signifie ¬(¬p ∧ ¬q) p ⇒ q signifie ¬(p ∧ ¬q) ∃x P(x) signifie ¬ ∀x ¬P(x). Certains énoncés complexes bâtis avec des propositions élémentaires indéterminées constituent des thèses logiques, c'est-à-dire sont considérés comme « vrais » quelles que soient les propositions considérées, par exemple : p ⇒ (q ⇒ p). Toutes les thèses de la logique classique sont vraies en logique constructive ; autrement dit, contrairement à la légende, la mathématique constructive ajoute quelque chose à la mathématique classique et ne lui retranche rien. L'originalité de la logique constructive est l'introduction de connecteurs que nous noterons∨,⇒, et d'un quantificateur que nous noterons∃, qui ne peuvent s'exprimer en logique classique. p∨ q signifie : il existe un procédé régulier qui permet soit d'affirmer p, soit d'affirmer q. ∃x P(x) signifie : il existe un procédé régulier qui permet de construire un élément vérifiant la propriété P. C'est un faux problème de demander qui a raison, du classique affirmant la thèse p∨¬p, qui n'est pour lui que l'abréviation de ¬(¬p∧¬¬p) et se déduit du principe de non-contradiction, et du constructiviste qui nie la thèse p∨¬p, qui supposerait une méthode pour résoudre tous les problèmes mathématiques. En toute rigueur, le mathématicien classique qui accepte le principe du tiers exclu et le mathématicien constructif qui le rejette ne parlent pas de la même chose. Même avec les connecteurs constructifs, il existe des propositions pour lesquelles le tiers exclu s'applique. Les arguments mettant en cause le flou des affirmations courantes ne justifient pas le rejet du tiers exclu : la mathématique exige l'existence d'énoncés que l'on puisse nécessairement affirmer ou nier. Le tiers exclu cesse de s'appliquer pour des propositions dont la démonstration ou la réfutation exigerait de décider d'une infinité de questions. Il arrive qu'une méthode adéquate permette de trancher un problème par un raisonnement fini, mais ce n'est pas toujours le cas. Les symboles constructifs∨,⇒,∃ n'acquièrent un sens précis qu'après une définition précise d'un procédé régulier. Les diverses définitions de la calculabilité tentées par les logiciens se sont révélées équivalentes( 4 ). Le continu constructif Trois illusions contribuent à l'adoption du continu classique : la « continuité » des grandeurs physiques, l'intuition géométrique, les constructions mathématiques de Cauchy, Weierstrass, Dedekind ou Cantor. Une grandeur physique n'est jamais un nombre réel, mais présente une certaine indétermination ; par exemple, il n'y a pas de sens à définir la longueur d'une règle avec une erreur inférieure au rayon de l'atome. La droite réelle a des propriétés qui choquent l'intuition : il existe un ouvert de mesure < ε contenant tous les rationnels contrairement aux apparences. La définition des réels par les coupures de Dedekind ou les suites de Cauchy est insuffisante, puisque, d'après le théorème de Cohen, l'hypothèse du continu ou sa négation peut être ajoutée comme axiome sans créer de contradiction. À la place du continu « classique », nous présentons le continu constructif. La notion primitive n'est pas le réel dont la définition par les coupures de Dedekind exige une question décidable pour tout rationnel, mais le duplexe constitué par une suite de rationnels et un régulateur de convergence. Un duplexe est constitué par une suite de rationnels et un régulateur de convergence, c'est-à-dire une suite u(n) de rationnels et une suite c(n) d'entiers tels que : m, m ′ c(n) ⇒ |u(m) − u(m ′ )| < 2 −n . On définit la valeur absolue d'un duplexe, le maximum, le minimum, la somme, la différence, le produit de deux duplexes et, pour tout duplexe non nul, son inverse. Ces opérations ont toutes les propriétés classiques. On pose x = 0 s'il existe une suite d(n) telle que : m d(n) ⇒ |u(m)| < 2 −n . Il faut distinguer x = 0 (x différent de 0), qui signifie simplement que x ne peut être nul, et x # 0 (x séparé de 0), qui signifie qu'il existe un entier m tel que |x| > 1 m . La notion de duplexe équivaut à celle de suite contractante d'intervalles rationnels et à celle de coupure constructive ( 5 ). Nombres irrationnels et transcendants Dès 1899, Émile Borel soulignait le caractère non constructif des démonstrations d'irrationalité et de transcendance et donnait la première mesure de transcendance de e. Depuis, on ne se contente pas d'affirmer l'irrationalité ou la transcendance de telle ou telle constante de l'analyse, mais on indique une mesure d'irrationalité ou de transcendance. Par exemple, on ne se contente pas de dire que π ou e π est transcendant, mais on précise que, pour chaque rationnel p q , π − p q > q −42 e π − p q > q −c log log q . Pour presque tout réel α > 1, c'est-à-dire sauf sur un ensemble de mesure nulle, les α n sont « bien répartis » sur le groupe additif de R/Z ; néanmoins, un problème important et non résolu est de nommer un α tel que les α n soient bien répartis. Les traités de théorie des nombres posent, et éventuellement résolvent, de nombreux problèmes d'effectivité qui, dans une optique non constructive, ne pourraient pas être posés. Nous espérons avoir montré que l'école constructiviste, loin de renier aucun des résultats des mathématiques classiques, pose les problèmes de façon plus fine ; c'est à ce titre qu'elle demande qu'on reconnaisse l'intérêt de ses méthodes et l'importance de ses résultats( 6 ). G Cantor, Beiträge zur Begründung der transfiniten Mengenlehre », Mathematische Annalen. Heidelberg; Hildesheim, OlmsSpringer46Réimprimé dans G. Cantor, Gesammelte AbhandlungenG. Cantor, « Beiträge zur Begründung der transfiniten Mengenlehre », Mathematische Annalen, vol. 46, 1895, p. 481-512. Réimprimé dans G. Cantor, Gesammelte Abhandlungen, Heidelberg, Springer, 1932, et Hildesheim, Olms, 1966, p. 282-311. Les Provinciales de Pascal montrent comment le double langage permet à deux groupes qui défendent des thèses opposées de s'unir pour en écraser un troisième. Les Provinciales de Pascal montrent comment le double langage permet à deux groupes qui défendent des thèses opposées de s'unir pour en écraser un troisième. Théorie des ensembles. N Bourbaki, IV.711Paris, Hermann, nouvelle éditionN. Bourbaki, Théorie des ensembles, Paris, Hermann, nouvelle édition, 1970, p. E IV.71, note 1. Une suite contractante d'intervalles est définie par une suite d'intervalles ]un, vn[ tels que : ∀n un < u n+1 < v n+1 < vn et ∀n ∃m |vm − um| < 2 −n. Une suite contractante d'intervalles est définie par une suite d'intervalles ]un, vn[ tels que : ∀n un < u n+1 < v n+1 < vn et ∀n ∃m |vm − um| < 2 −n . sans professer ouvertement une philosophie constructiviste ou intuitionniste, n'en ont pas moins apporté des résultats relevant de méthodes constructives, et dont l'importance a été unanimement reconnue. Est-il besoin de rappeler que, depuis la première version de ce texte, R. Apéry, à un âge où l'on n'est plus éligible pour la médaille Fields (limite d'âge : quarante ans ; pas de limite pour les prix Nobel !), a démontré l'irrationalité de ζ(3), nombre qui résistait depuis Euler à tous les efforts pour en déterminer la nature. Ce résultat étonna la communauté mathématique. A D Peut-Être Est-Ce Là Le, C L Gelfond, A Siegel, Baker, point qu'au début certains n'osèrent y croire. (N.d.É.Peut-être est-ce là le sens des travaux de certains mathématiciens qui, tels A. D. Gel- fond, C. L. Siegel et A. Baker, sans professer ouvertement une philosophie constructiviste ou intuitionniste, n'en ont pas moins apporté des résultats relevant de méthodes construc- tives, et dont l'importance a été unanimement reconnue. Est-il besoin de rappeler que, depuis la première version de ce texte, R. Apéry, à un âge où l'on n'est plus éligible pour la médaille Fields (limite d'âge : quarante ans ; pas de limite pour les prix Nobel !), a dé- montré l'irrationalité de ζ(3), nombre qui résistait depuis Euler à tous les efforts pour en déterminer la nature. Ce résultat étonna la communauté mathématique, au point qu'au début certains n'osèrent y croire. (N.d.É.) J.-P Bibliographie, B Azra, Jaulin, Récursivité, Paris, Gauthier-Villars, Bishop, Foundations of constructive analysis. New York, McGraw-HillBibliographie J.-P. Azra et B. Jaulin, Récursivité, Paris, Gauthier-Villars, 1973. E. Bishop, Foundations of constructive analysis, New York, McGraw-Hill, 1967. S Boolos, R C Jeffrey, Computability and logic. CambridgeCambridge University Press2 e éd. revue et augmentéeS. Boolos et R. C. Jeffrey, Computability and logic, Cambridge, Cambridge University Press, 1974 ; 2 e éd. revue et augmentée, 1980. Théorie des ensembles. Bourbaki, Paris, HermannBourbaki, Théorie des ensembles, Paris, Hermann, 1954-1957. M Davis, L York ; R, Goodstein, Recursive analysis. Amsterdam, North-HollandMcGraw-HillM. Davis, Computability and unsolvability, New York, McGraw-Hill, 1958. R. L. Goodstein, Recursive analysis, Amsterdam, North-Holland, 1961. Enumerability, decidability, computability: an introduction to the theory of recursive functions. Hermes. SpringerHermes, Enumerability, decidability, computability: an introduction to the theory of recursive functions, Heidelberg, Springer, 1965. Les Fondements des mathématiques : intuitionnisme, théorie de la démonstration. A Heyting, Paris, Gauthier-VillarsA. Heyting, Les Fondements des mathématiques : intuitionnisme, théorie de la démonstration, Paris, Gauthier-Villars, 1955. D Hilbert, » Über Das Unendliche, Mathematische Annalen, Traduction par J. Largeault, « Sur l'infini », dans Logique mathématique : textes. Paris95D. Hilbert, « Über das Unendliche », Mathematische Annalen, vol. 95, 1926, p. 161-190. [Traduction par J. Largeault, « Sur l'infini », dans Logique mathématique : textes, Paris, Armand Colin, 1972, p. 215-245.] N D Jones, Computability theory: an introduction. New YorkAcademic PressN. D. Jones, Computability theory: an introduction, New York, Academic Press, 1973. Introduction to metamathematics. S C Kleene, Amsterdam, North-HollandS. C. Kleene, Introduction to metamathematics, Amsterdam, North-Holland, 1952. The foundations of intuitionistic mathematics, especially in relation to recursive functions. C Kleene, R E Vesley, Amsterdam, North-HollandC. Kleene et R. E. Vesley, The foundations of intuitionistic mathematics, especially in relation to recursive functions, Amsterdam, North-Holland, 1965. Computability and decidability: an introduction for students of computer science. J Loeckx, SpringerHeidelbergJ. Loeckx, Computability and decidability: an introduction for students of computer science, Heidelberg, Springer, 1972. Lorenzen, Einführung in die operative Logik und Mathematik. Heidelberg, Springer2 e éd.Lorenzen, Einführung in die operative Logik und Mathematik, Heidelberg, Springer, 1955 ; 2 e éd., 1969. Mal ′ cev, Algorithms and recursive functions, Groningue, Wolters-Noordhoff. A I , A. I. Mal ′ cev, Algorithms and recursive functions, Groningue, Wolters- Noordhoff, 1970. Theory of algorithms, Jérusalem, Israël Program for Scientific Translations. A A Markov, A. A. Markov, Theory of algorithms, Jérusalem, Israël Program for Scientific Translations, 1961. V A Ouspenski, Leçons sur les fonctions calculables. Paris, HermannV. A. Ouspenski, Leçons sur les fonctions calculables, Paris, Hermann, 1966. Recursive Peter, ; H Poincaré, Theory of recursive functions and effective computability. New York; Paris, Flammarion; Paris, Flammarion; Paris, Flammarion, 1908. H. Rogers; New YorkMcGraw-HillLa science et l'hypothèsePeter, Recursive functions, New York, Academic Press, 1967. H. Poincaré, La science et l'hypothèse, Paris, Flammarion, 1902. --, La valeur de la science, Paris, Flammarion, 1905. --, Science et méthode, Paris, Flammarion, 1908. H. Rogers, Theory of recursive functions and effective computability, New York, McGraw-Hill, 1967. Constructive real numbers and constructive function spaces, Providence. A Shanin, American Mathematical SocietyA. Shanin, Constructive real numbers and constructive function spaces, Providence, American Mathematical Society, 1968. H , Das Kontinuum: kritische Untersuchungen über die Grundlagen der Analysis. Leipzig; Paris, VrinTraduction par J. Largeault dans Le continu et autres écritsH. Weyl, Das Kontinuum: kritische Untersuchungen über die Grundlagen der Analysis, Leipzig, Veit & Comp., 1918. [Traduction par J. Largeault dans Le continu et autres écrits, Paris, Vrin, 1994.] Recursive function theory and logic. A Yasuhara, Academic PressNew YorkA. Yasuhara, Recursive function theory and logic, New York, Academic Press, 1971.
sample_16775
0.9136
arxiv
On adjustment for temperature in heatwave epidemiology: a new method and toward clarification of methods to estimate health effects of heatwaves Honghyok Kim honghyok@uic.edu Division of Environmental and Occupational Health Sciences School of Public Health University of Illinois Chicago ChicagoIllinoisUSA Michelle L Bell School of the Environment Yale University 1086 SPHPI MC 923, 1603 W. Taylor St60612New Haven, ChicagoCT, ILUSA, USA On adjustment for temperature in heatwave epidemiology: a new method and toward clarification of methods to estimate health effects of heatwaves Corresponding author: Honghyok Kim Conflicts of Interests The authors declare they have nothing to disclose. Defining the effect of exposure of interest and selecting an appropriate estimation method are prerequisite for causal inference. Understanding the ways in which association between heatwaves (i.e., consecutive days of extreme high temperature) and an outcome depends on whether adjustment was made for temperature and how such adjustment was conducted, is limited. This paper aims to investigate this dependency, demonstrate that temperature is a confounder in heatwave-outcome associations, and introduce a new modeling approach to estimate a new heatwave-outcome relation:where HW is a daily binary variable to indicate the presence of a heatwave; R(Y) is the risk of an outcome, Y; T is a temperature variable; OT is optimal temperature; and Z is a set of confounders including typical confounders but also some types of T as a confounder. We recommend characterization of heatwave-outcome relations and careful selection of modeling approaches to understand the impacts of heatwaves under climate change. We demonstrate our approach using real-world data for Seoul, which suggests that the effect of heatwaves may be larger than what may be inferred from the extant literature. An R package, HEAT (Heatwave effect Estimation via Adjustment for Temperature), was developed and made publicly available. INTRODUCTION Heatwaves have become more frequent, severe, and prolonged due to climate change (1). Epidemiology have shown health impacts and health disparities during heatwave events (2)(3)(4), thereby informing policy to save lives by improved heat responses and preparedness (5). Timely location-specific epidemiological evidence can provide valuable information on how to address public health burdens (6,7). Time-series and case-crossover studies on the effects of heat on health typically investigate single days of high temperature (8,9), whereas studies on heatwaves focus on consecutive days with extreme high temperatures (10,11). Both single days of heat and heatwaves are detrimental to human health and such harms are projected to be more severe and frequent due to climate change. Understanding the differences between the health impacts of heatwaves and high temperatures is important to inform policies aimed to protect public health, such as heat action plans. Some epidemiological studies on heatwaves and health adjust for temperature (12)(13)(14)(15) whereas others do not (16,17). The meaning and interpretation of heatwave-outcome associations, depending on whether such adjustment was made, is not well studied. Some studies discussed this issue from a statistical standpoint (13,18). However, understanding the meaning of heatwave-outcome associations requires conceptualizing the effect of heatwaves and identifying estimation methods relevant to the conceptualized effects (19,20). We demonstrate that heatwave-outcome associations depend on whether adjustment for temperature is conducted and how such adjustment is made. We propose a novel modeling approach to estimate heatwave-outcome relations and propose a conceptualization of the effect of heatwaves with causal diagrams. We demonstrate how modeling approaches impact causal inference using an example with real-world data. DEFINING A HEATWAVE Heatwaves are not defined consistently in research and policy (11,21,22), although they are generally defined based on duration and intensity. For example, the U.S. National Weather Service defines a heatwave as "a period of abnormally hot weather generally lasting ≥2 days" (22). Heat warning systems sometimes rely on heat indices (23,24) which are designed to measure thermal comfort by integrating ambient temperature (T) and humidity. It is unclear whether heat indices are better causal factors of health outcomes than T alone (25,26). A multicountry epidemiological study (26) found that humidity does not appear to be a causal factor to non-accidental mortality risk. Numerous epidemiological studies have defined a heatwave based on T, without consideration of humidity (11). We follow this convention. Commonly used methods to define heatwaves considers duration (at least a certain number of continuous days, often ≥2 days) and intensity (T exceeding a specified threshold value, THW such as the 98 th percentile of T distribution) (11). Epidemiological research often uses a daily binary variable to indicate the presence of a heatwave for day t, HWt. For example, using a definition of a heatwave as ≥2 consecutive days with T≥THW, if Tt<THW, HWt=0. If Tt≥THW, and either of the surrounding days exceed THW thereby generating two consecutive days exceeding THW (i.e., Tt-1≥THW or Tt+1≥THW), HWt=1, meaning that day t is categorized as a heatwave day. While high temperature is one characteristic of a heatwave (i.e., intensity), high temperature may occur for conditions other than a heatwave with a single day of heat or consecutive days that are hot but do not exceed THW. For clarification, we define high temperature, HT, as T>optimal temperature (OT), a temperature at which risk of a health outcome is minimal such as minimum mortality temperature (27,28). We refer to conditions where HT<THW (i.e., days with T>OT but T<THW) or HT≥THW (i.e., days with T>THW) as moderately HT (MHT) or extremely HT (EHT), respectively. For this paper, we define heatwaves as having at least two consecutive days with EHT, meaning days with T≥THW, as has been applied previously (11). There is no standard value for THW, and a variety of THW approaches have been applied (e.g., 95 th , 97 th , 98 th , and 99 th temperature percentiles). DEFINING THE EFFECT OF A HEATWAVE Defining the effect of exposure of interest with knowledge about potential causal pathways is a prerequisite for causal inference (19,20). Reflecting available public health or surveillance data (e.g., vital records, national insurance claims)(10), time-series and case-crossover studies investigated associations of heatwaves with mortality, hospitalizations, and emergency department visits in general populations, often with different methods. The findings of such studies are sometimes discussed without articulation of how different modeling approaches can affect the meaning of associations (not estimates). In this section, we conceptualize the effect of a heatwave; in the following section, we address the dependence of heatwave-outcome associations on estimation methods. Multiple causal pathways and causal effects of interest Causal pathways through which exposure to EHT on consecutive days (i.e., heatwave) impacts health differ from those for single days of HT that includes MHT. There are many dimensions to consider, such as difference in susceptibility between cumulative biological stress by extreme heat and the stress by moderate heat, adaptive behaviors to extreme heat, and disrupted social, economic, and health systems during heatwave events (7,(29)(30)(31)(32)(33). The Intergovernmental Panel on Climate Change (IPCC)'s Sixth Assessment Report (1) highlights cascading effects by weather-related disasters, meaning that heatwaves can indirectly increase health risks by impacting socioeconomic infrastructures (1) in addition to direct health impacts (i.e. physiological effects by heat exposure). We formulate potential causal pathways. Figure 1A is the simplest directed acyclic graph (DAG) that shows the causal effect of HW on a health outcome (Y): HW→Y. HW indicates the occurrence of a heatwave in ambient environment, not exposure to a heatwave. Figure 1B is an extension of Figure 1A including exposure to a heatwave (E): HW→E→Y. Figure 1C is an extension of Figure 1B that considers protection (P) to avoid E. For example, people can use air conditioning, visit cooling centers, and avoid outdoor activities during a heatwave: HW→P1→E→Y. There may be a set of factors, Q, that impact P1. For example, some people may need to stay outside (e.g., workers of essential services) or may not avoid exposure (e.g., not using air conditioning due to worry about energy costs and being unaware of governmental subsidies (5)). There is another protection regardless of HW such as indoor built-environment (e.g., architecture designed with natural ventilation and cooling): P2→E→Y. In a population, HW is unlikely to be perfectly correlated with E because some people may be exposed to a heatwave and others may not (e.g., different indoor/outdoor activity patterns). Figure 1D is another extension of Figure 1B, including the effect of HW on the infrastructure (I) (HW→E→I and HW→I) and directly heat-related outcome, Y1 and other outcome, Y2 due to impacted I: I→Y1 and I→Y2. I collectively denotes socioeconomic infrastructure (e.g., health systems, transportation networks, power supplies). Recall cascading effects discussed in IPCC's report (1). For example, whether health systems are heat-resilient to prevent a systemic failure of health services should be considered as a causal component (7). Critical patients with heatrelated illness can be at risk of losing receiving timely treatment if emergency departments are overwhelmed by incoming patients exposed to excess heat. Overburdened hospitals may struggle to provide timely medical treatments to patients with conditions other than heat-related illnesses. This can exacerbate their health issues, as highlighted in Y2. A heatwave can increase the risk of power outages (34) and traffic chaos (e.g., increased risk of traffic crashes (35), road closures, rutting, and buckling (36)) may occur, impacting accessibility to necessary services and hospitals. Grocery stores and pharmacies may temporarily close, especially under national/state of emergency and/or power outages, resulting in water, food, and medicine insecurities. Figure 1E In causal mediation context, we can define the effect of HW as the relation between: 1) HW and Y1 through E and P; 2) HW and Y1 through I; and 3) HW and Y2 through I. We call #1 a direct effect of HW. We call 2# and #3 indirect effects of HW. These definitions presume that physiological pathways (e.g., heat toxicity through heat exposure) are subsumed in the direct effect. The indirect effects work through I. We define the relation between HW and Y (Y1+Y2) as the sum of these three effects. We call this HW-Y relation the total effect of HW as the main interest in this paper, representing the population-averaged effect. Many studies have used HW rather than E (10,11), and such data is more readily available. There are many reasons why HW is used. For example, aside from policy implications, the use of HW may avoid unmeasured confounding that would arise if E is used. We relegate detail to Appendix A. HW-Y relation We define HW-Y relation as E[R(Y)|HW=1, Z]/E[R(Y)|T=OT, Z], where R(Y) is the risk of Y and Z is a set of confounders. Z includes typical confounders such as seasonality, time-trend, and humidity but also lag effects/cumulative exposure effects of T not related to a heatwave on R(Y) at HW=1 and lag effects of a heatwave on R(Y) at T=OT. Note that T=OT means HW=0 (i.e., OT<THW). We relegate the definition of lag effect and cumulative exposure effect to Appendix B. Confounding by temperature is not widely discussed in heatwave epidemiology. We will discuss this in the first sub-section of the next section. Counterfactuality for a reference risk Many counterfactuals for HW-Y relation could exist: the concept that a heatwave increases R(Y) from 'a' reference risk (i.e., the risk would have been if the episode had not occurred). This T=OT), given that many studies have estimated heat-related premature mortality as HT deviated from OT (8,9). A reference risk could be what R(Y) would have been with T<THW. Some studies estimate an excess mortality risk during a heatwave event by comparing the mortality rate during the event with a historically mean mortality rate during non-heatwave periods (37,38). That periods could include days with T<OT, days with T=OT, and days with T<THW. Such average risk appears to serve as another counterfactual risk because the average may differ from the mortality risk at OT. Other studies estimate an effect of heatwaves in comparison to the risk related to single days of heat, referred to as an added effect of heatwaves (18). The counterfactual risk of this added effect is not straightforward due to the gap between statistical concepts and epidemiological concepts. We will review this added effect in the first sub-section of the next section. ISOLATING THE EFFECT OF A HEATWAVE FROM THE EFFECT OF TEMPERATURE The health effect of HW may differ than that of MHT for physiological pathways, including susceptibility by predisposing factors (e.g., drug use, illness, genetics) (30,33). We propose to distinguish HW and MHT considering whether HW can increase R(Y) by impacting I. Health systems, transportation networks, and power grids can be disrupted during extreme heat (1). Heat safety actions and responses can be activated if temperature exceeds a certain intensity threshold, including disaster preparedness of health systems (7), governmental subsidies for electricity bills (5), electricity demand management (39), and railroad speed limits (40). Evidence shows higher association with for extreme heat than for moderate heat fatal traffic crashes (35) and with road buckling (36). Studies suggest that R(Y) can depend on I and this dependence may be more strongly related to HW than MHT, meaning that potential causal pathways related to I should be considered in interpreting heatwave-outcome associations. For example, authors hypothesized that temporal decrease in heatwave-mortality associations resulted from prevention plans, although they did not directly measure such plans (41). To isolate HW from T, we introduce DAGs for the effect of T on Y ( Figure 2A). Given epidemiological studies on both heatwaves and temperature and their policy implications, we propose that temperature effect should be regarded as two parts: heatwave effect (HW) and temperature effect not related to a heatwave (T NH ) ( Figure 2B). Some investigators may be interested in temperature effect including extreme heat (waves) (Figure 3: T effect). Others may want to investigate only heatwaves ( Figure 3: HW effect (i.e., HW-Y relation)). Dependency of HW-Y association on how to address temperature Traditionally, HW-Y association is estimated by comparing health risk on heatwave days and risk on non-heatwave days (11). For example, suppose a Poisson regression model in time-series studies, log( [ ! ]) = + " ! + (Model 1) where Yt is an outcome at day t and exp( " ) is rate ratio (RR), which could be approximately risk ratio when temporal change in the population-at-risk is negligible (e.g., mortality in a general population). Confounders typically include seasonality, time-trend, and humidity. There exist two methods to address T (12)(13)(14)(15)(16)(17)(18) in efforts to disentangle effects of HW from those of HT. We review these two herein. Some studies do not adjust for T when estimating effects of HW (16, 17) (Model 1) because EHT is one component of HW (i.e., intensity). Other studies adjusted for basic T (e.g., T of the same day (Lag0), previous day(s) (e.g., Lag1, Lag2 temperatures (12-15))). We use Tt, Tt-1,…, Tt-L to denote Lag0, Lag1,…, LagL T. We refer to these two methods as traditional approaches: non-adjustment for T (Traditional Approach #1); adjustment for basic T (Traditional Approach #2). HW-Y association not adjusted for T (Traditional Approach #1) indicates the difference between R(Y) on heatwave days and a weighted average of R(Y) on non-heatwave days. The latter risk would be averaged from that of three different types of non-heatwave days: non-heatwave days with T<OT, non-heatwave days with T=OT, and non-heatwave days with T>OT, the latter of which is a day with HT but not satisfying the heatwave definition. The weight would be the number of days for each type of non-heatwave days. Thus, the counterfactual risk of this HW-Y association would be R(Y) at an unclear T<THW. The approach of estimating the HW-Y association without adjustment for T may not be relevant for causal inference on HW-Y relation. This association is confounded by T NH due to the backdoor path of Y-T NH -T-HW ( Figure 2B). T NH is correlated with HW: for m≥0, if HWt-m=0, (42)). This confounding by T NH t-l and/or HWt-l can be articulated by clarifying R(Y). R(Y) on a heatwave day depends on increased risk due to HW but also increased risks due to lagged effects or cumulative exposure effects (27,28,(43)(44)(45)(46) of T NH before the heatwave if they exist. In a similar vein, R(Y) on a non-heatwave day depends on increased risks due to T NH but also increased risks due to lagged effects of HW preceding that day if they exist. Thus, adjustment for T NH and HWt-l is required for analysis that aims to estimate " as the causal impact of HW on Y. See Appendix C for additional illustrations. |T NH t-m|>0 and if HWt-m=1, T NH t-m=0 Traditional Approach #2 adjusts for basic T. For example, in a piecewise Poisson regression, The meaning of this adjusted association is statistically straightforward, but its epidemiological concept is not straightforward. By adjusting for Tt,…,Tt-L, the effects of Tt,…,Tt-L of heatwaves are not subsumed into the estimand. How much lag effects and cumulative exposure effects of T including T NH or HW are adjusted for depends on L and methods to adjust for basic T (e.g., linear terms or splines in regression models). These two complicate the definition of what effect of a heatwave is targeted by this adjusted association regarding its counterfactual risk and causal components of that effect. We relegate our investigation on this effect to Appendix D. log( [ ! ]) = + " ! + #,% ! #& + ',% ! '& + ⋯ + #,( ! !)( ! #& + ',( " !)( '& ' + (Model 2) where T LT =OT -T if T ≤OT, Another issue to consider is perception and communication across stakeholders. The concept of this added effect (18), that a heatwave poses additional risk on top of the risk already increased by high temperatures, refers to a different aspect of heatwave risk than the total effect. News media outlets, political authorities, and local communities commonly discuss a heatwave episode in terms of increases deaths/hospitalizations by a certain number compared to the risk that would have been if T had been under normal conditions, not to the risk already increased by single days of T (3,47,48). Our defined HW-Y relation aligns with this perception (Figure 3: HW effect). Novel approach to estimate HW-Y relation Therefore, we propose a novel modeling approach to estimate HW-Y association that represents the defined HW-Y relation. We replace T HT in Model 2 with T HT* . We set T H* =T H if HWt=0 and T H* =0 if HWt=1 and adjust for a vector, V: Only summer seasons (June-August) were analyzed. T was daily 24-hour mean temperature. We defined heatwave as T exceeding the 99 th percentile (28.7 o C) of the year-round T distribution for at least two consecutive days (11). We fit quasi-Poisson regression models and Models 1-3. log( [ ! ]) = + " ! + #,% ! #& + ',% ! '& * + ⋯ + #,( ! !)( ! #& + ',+ !)+ '& * + ! + (Model 3). Adjustment for Tt and Tt-1 was considered. A natural cubic spline (NCS) of the day of season, dummy variables of year, and interaction between these two were included to adjust for timetrend and seasonality. Dummy variables of day of the week and NCS of two-day moving average of PM10 and O3 were added. We conducted analyses with NCS of Tt and NCS of Tt-1 without HWt to identify OT (21.7°C). Table 1 presents associations between HW and non-accidental mortality, including for Lag1 of HW (the second row). The first row shows associations without the lag effect presented in Figure 4. Associations including the lag effect was generally higher than associations without the lag effect. We should note subgroup-specific HW-Y association. Subgroup-specific HW-Y relations depend on the distribution of I, P, Q, and/or risk factors to Y (not drawn in Figure 1) (49) and the reference risk. The associations can further depend on confounding by temperature if the confounding is differential and is not adequately addressed. Our novel approach adjusts for this confounding is based on the well-defined reference risk. Results Figure 4 presents associations between DISCUSSION While no standard definition for a heatwave exists, we followed the convention of defining a heatwave based on intensity and duration (11). Stakeholders often use weather-based metrics and health impact-based approach (11,21). The implications of how different definitions of a heatwave impacts health estimates merits further research. We suggest that a health impact-based approach should consider total, direct, and indirect effects and clearly define a reference risk. In Figure 2. Directed acyclic graphs for the relation between ambient temperature (T) and a health outcome (Y). A. A simple conceptualization; B. A conceptualization of distinguishing a heatwave (HW) and non-heatwave related T (T NH ). Note. Subscripts t, and t-1 denote time t and time t-1. Tt-1→Tt and Yt-1→Yt denote an autocorrelation process. HW Y HW E Y A. B. C. D. E. HW E Y 1 I Y 2 HW E Y P 1 P 2 Q I Y 2 HW E Y P 1 P 2 Q ! ! "# ! !$% "# "# ! "# !$% $ ! $ !$% ! ! ! !$% B. $ ! $ !$% ! ! ! !$% A. … … A. The use of HW rather than E Many epidemiological studies use T measured from monitoring stations or modeled estimates of T at residence (10,11), not E, and although they are correlated, not perfectly so. Some may argue that such use of T introduces exposure misclassification because individuals are not necessarily exposed to a heatwave (i.e., through P1 and P2 in Figure 1C). This viewpoint holds if E-Y relation is the causal effect of interest. However, there are other viewpoints that advocate the use of HW and T. First, HW-Y relation can be of interest, which is policy-relevant. Some institutions and organizations (e.g., government agencies, community organizations) have policies related the occurrence of heatwaves in their jurisdictions (e.g., heatwave action plans) and are interested in how public health is impacted by heatwaves in the population through many causal pathways ( Figure 1). HW-Y relation would represent a population averaged total effect that presents an overall picture of the health impact in a population of interest, including exposed and unexposed groups. We call this crude HW-Y relation 'with respect to E' because this would be a weighted average of two stratum-specific relations: HW-Y relation for E=1 (those who would be exposed to heatwaves during heatwaves) and HW-Y relation for E=0 (those who would be unexposed to heatwaves during heatwaves). If a heatwave is harmful, HW-Y relation for E=1 will be positive and HW-Y relation for E=0 will be the null. Crude HW-Y relation would be meaningful to estimate the health impact of the total effect of HW (e.g., attributable fractions/numbers) when the size of the population is (usually) known but the size of exposed and unexposed groups is unknown. If HW-Y relation is of interest, the use of HW, not E, will not necessarily result in exposure misclassification, demonstrating that the use of HW or E should depend on what to infer. Second, even if E-Y relation is of interest, the use of E may introduce confounding by a set of unmeasured factors, U, that impact E and Y. Figure A1 shows why. The use of an ambient variable, X, can be seen as an instrumental variable method to avoid unmeasured confounding (50). For example, very short-term variation of individuals' behaviors and moods (e.g., working under stressful conditions outside) is not related to the occurrence of a heatwave in the atmosphere but may impact Y and affect behavioral patterns that thereby impact E. Built environment may also differ, impact E (e.g., insulation, greenspace) and Y (e.g., chemical emissions from building materials), but is not related to the occurrence of a heatwave. The use of HW can avoid this unmeasured confounding. Figure A1. Instrumental variable (X) methods: similarity between the use of an ambient variable (X) in environmental epidemiology and the use of a treatment assignment variable (X) in randomized clinical trials instead of an actual exposure/treatment variable (E) in order to avoid confounding by a set of unmeasured factors (U) that increase the likelihood of E and increase the risk of an outcome (Y) While the use of HW has the aforementioned benefits, HW-Y association may not be generalizable to another population regarding either HW-Y or E-Y relations because the existence and the degree of causal pathways in Figure 1 would differ across populations, which is analogous to a lack of generalizability of instrumental variable analyses such as intent-to-treat effect estimates due to different degrees of non-adherence across populations (51). While meta-analyses suggest consistently positive estimates of HW-Y associations (e.g., HW-mortality association), estimates are variable across study populations (10,11). This highlights why location-specific HW-Y association is needed for public health protections. X E Y U B. Epidemiological concept of lag effects and cumulative exposure effects In disciplines outside environmental epidemiology, the term lag may have the connotation of induction period in epidemiology taxonomy (52). We adopt the term induction period for clarification, henceforth. Then, lag(ged) effect should mean the health effect of exposure with an induction period. For example, there exist Lag0 effect (i.e., the induction period is zero day, thus instantaneous effect) of one-day exposure, Lag1 effect (i.e., the induction period is one day) of one-day exposure, and so on. We call them L0(1d), L1(1d), and so on. Effects of cumulative exposure to T are possible because one-day exposure to high T may not be enough to exceed a certain biological threshold to manifest the effect of T (e.g., thrombosis advanced by heat stress from one-day exposure is not adequate to progress pathological responses leading to death), which may differ by predisposing factors of individuals. We refer to Lag0 effect of two-day exposure as L0(2d), refer to Lag1 effect of two-day exposure as L1(2d), refer to Lag0 effect of three-day exposure as L0(3d), and so on. For mortality and hospitalizations, a few days of induction periods are plausible through other pathways aside from biological pathways. For example, suppose that a person was expected to heat, had symptoms, and got hospitalized. That person received a medical treatment in an intensive care unit for two days but was pronounced dead unfortunately. In this case, the induction period for the effect of heat on this death is two days. Suppose that a person with diabetes was unable to use insulin treatments due to an out-of-electricity refrigerator due to power outage during the episode. That person got hospitalized after the episode when hospitals that were overburdened during the episode became available but eventually passed away after the heatwave. In this case, the induction period for the (indirect) effect of that heatwave on the death or the hospitalization is not zero day. Suppose two people who lived in a different community got cardiac arrest during a heatwave. One person was timely transported to a hospital by an ambulance and survived. Transportation of the other person to a hospital was delayed due to traffic chaos, underwent to a critical stage, and passed away after a few days of medical treatments. The induction period for the (total) effect of that heatwave on the death of the second person is a few days. The findings of many epidemiological studies suggest acute effects of HT on mortality (e.g., L0(1d), L0(2d), L1(1d), L1(2d)) (9,14,27,43,53,54), which are plausible, considering multiple causal pathways (e.g., impacted infrastructure), including biological plausibility and cascading effects ( Figure 1). C. Confounding by temperature in estimating HW-Y relation We illustrate why lag effects and cumulative exposure effects of T can confound HW-Y association by clarifying R(Y) at HW=1 and R(Y) at HW=0. The bottom graph of Figure A2 shows representation of different lag effects and cumulative exposure effects of HT as time-series of increased daily outcome rates on non-heatwave days (u-2, u-1) and on heatwave days (u, u+1). The size of the increased risks is hypothetical for illustration. The top graph of Figure A1 shows hypothetical T time-series. Increased risks on heatwave days can come from not just HT of heatwave days, but also HT of non-heatwave days via lag effects (e.g., L1, L2) and/or partial cumulative exposure effects (e.g., L0(2d), L1(2d), L0(3d)): See Appendix B for L0, L1, L2, (1d), (2d), and (3d) notations. Some of the effects of HT of non-heatwave days would be subsumed to " in Model 1 (orange boxes on u and u+1), which is confounding. We note that the possibility of effects of low T of non-heatwave days on the risk on heatwave days may not be ruled out for some populations, which is not presented in Figure A2, considering global variation of temperaturemortality associations and temperature distributions (43). This figure also shows why R(Y) of non-heatwaves would be a weighted average from R(Y) of three different types of non-heatwave days, which impacts " in Model 1: non-heatwave days with T<OT (not displayed in Figure A1), non-heatwave days with T=OT (e.g., u-2 in Figure A2), and non-heatwave days with T>OT (e.g., u-1 in Figure A2). Figure A2. An illustration of how the increased risk on heatwave days and non-heatwave day can be decomposed into different increased risks by lag effects and cumulative exposure effects of T. We provide an illustration of the confounding in the context of regression models. First, we show how regression coefficients of basic T are related to the effects presented in Figure A2 for illustrational simplicity. Suppose Lag0 HT (HTt), Lag1 HT (HTt-1), Lag2 HT (HTt-2) variables. These three variables can be used to capture L0(1d), L0(2d), L0(3d), L1(1d), L1(2d), and L2(1d). For example, in a cumulative exposure model, log( [ ! ]) = + ( , ! , !)" , !), ) where ( ,•) denotes a function that represents the effect of three-day exposure to HT and indicates a set of the regression coefficients with respect to HTt, HTt-1, and HTt-2. One example of this model is an (unweighted) moving average model (55) L0 (3d) L0 (1 st ,1d) L0 (2 nd ,1d) L0 (1d) L1 (1d) L2 (1d) L1 (1 st ,1d) L1 (2d) L0 (2d) Temperature Daily temperature (T) Effect of one-day exposure (1d) to T of the non-heatwave day before the first day of a heatwave (i.e., u-1) on the risk at that day (Lag0 effect, L0), at the next day (Lag1 effect, L1), or at the day after next (Lag2 effect, L2): L0 (1d) This color indicates an increased risk by an effect of exposure to T of heatwave day(s) (i.e., u and/or u+1) on the risk at that day or later (i.e., u or u+1) This color indicates an increased risk by an effect of exposure to T of the non-heatwave day before the first day of a heatwave (i.e., u-1) on the risk at that day or later (i.e., u-1, u, or u+1) L0 (3d) L1 (1d) L2 (1d) L0 (1 st ,1d) Effect of one-day exposure (1d) to T of the first day (1 st ) of a heatwave (i.e., u) on the risk at that day (Lag0 effect, L0), or at the next day (Lag1 effect, L1): L0 (2 nd ,1d) Effect of one-day exposure (1d) to T of the second day (2 nd ) of a heatwave (i.e., u+1) on the risk at that day (Lag0 effect, L0) L0 (1st,2 nd ,2d) Effect of cumulative two-day exposure (2d) to T of the first two days of a heatwave (1 st ,2 nd ) (i.e., u and u+1) on the risk at the second day (Lag0 effect, L0) L1 (1 st ,1d) Effect of cumulative three-day exposure (3d) to T of three days (one-day exposure to T of the nonheatwave day before the first day of a heatwave (i.e., u-1) + cumulative two-day exposure to T of the first two days of a heatwave (i.e., u and u+1) on the risk at the the third day (i.e., u+1) (Lag0 effect, L0) L1 (2d) L0 (2d) Effect of cumulative two-day exposure (2d) to high T of two days (one-day exposure to T of the non-heatwave day before the first day of a heatwave (i.e., u-1) + one-day exposure to T of the first day of a heatwave (i.e., u)) on the risk at the second day (Lag0 effect, L0), or at the day after the second day (Lag1 effect, L1): that day (i.e., u-1) the next day (i.e., u) the day after next (i.e., u+1) that day (i.e., u) the next day (i.e., u+1) the second day (i.e., u) the day after the second day (i.e., u+1) log( [ ! ]) = + * ! + !)" + !), 3 Instead, an unconstrained distributed lag model can be used as follows: log( [ ! ]) = + % ! + " !)" + , !), * would differ from % + " + , if the contribution of each HT on ! through all the effects of HT is unequal (42,56). Otherwise, * would be equal to % + " + , . In time-series analysis and case-crossover analyses, the estimation of these coefficients is affected by mortality displacement as a set of unmeasured risk factors (57) and competing risk (45), which is beyond the scope of this paper. All these models may capture the effects of HT as the sum of the effect of T NH and the effect of HW (Figure 2 and Figure 3). Note that * , % , " , and , cannot distinguish lag effects and cumulative exposure effects if both types of the effect co-exist because they are represented by the regression coefficients simultaneously (45). With respect to % , " , and , , we list only the effects presented in Figure A2 as follows: • % is related to the L0 effects of HW (i.e., L0(1 st , 1d), L0(2 nd , 1d) and L0(1 st , 2 nd , 2d)), the L0 effects of T NH (i.e, L0(1d), L0(2d), L0(3d)). • " is related to the L1 effect of HW (i.e., L1(1 st , 1d)), a L0 effect of HW (i.e., L0(1 st , 2 nd , 2d)), the L1 effects of T NH (i.e., L1(1d), L1(2d)), and L0 effects of T NH (i.e., L0(2d), L0(3d)). • , is related to the L2 effect of T NH (i.e., L2(1d)) and a L0 effect of T NH (L0(3d)). While HWt is correlated with T NH variables, Model 1 does not include T NH variables such that the rate ratio of HWt is confounded by T NH and HWt-l. Traditional Approach #2 includes HT variables such that they may adjust for T NH and HWt-l, but they may adjust for some of the effects of HWt, meaning possible overadjustment for the rate ratio of HWt, which is reviewed in the main text and Appendix D. D. Added effect of heatwaves from Traditional Approach #2 Here, we provide additional illustrations of how the estimand can differ when Traditional Approach #2 is used. Figure A3A illustrates the concept of the estimand of Traditional Approach #2. Basic T are expected to capture the increased risks by T deviated from OT. HW is expected to capture the increased risk that is not fully explained by basic T. The latter can be seen as the increased risk adjusted for single days of T. D.1. Statistical concepts Note that splines may be used instead of piecewise linear terms for parameterization of basic T. In this case, the increased risk not fully explained by basic T may differ because a spline function may explain some data points at EHT that is also categorized as a heatwave ( Figure A3B). The degree to which basics Ts explain increased risks depends on the specification of a spline function (e.g., spline types, degrees of freedom) and distribution of data points. D.2. Epidemiological concepts of the added effect of heatwaves The illustration above, which is statistical, does not fully describe the meaning of HW-Y association adjusted for basic T in epidemiological sense. To discover its meaning, we need to fill the gap between this statistical concept and the epidemiological concepts (i.e., lag effects of T and effects of cumulative exposure to T in terms of the manifestation of R(Y)) (Appendix B) (e.g., Figure A2). To fill this gap, Figure A4 shows how adjustment for basic T can adjust for components of increased risks in time-series, which is an extension of Figure A2. Figure A4A illustrates what basic Lag0 T would adjust for (dashed lines). The more lagged variables are adjusted for, the more components of increased risks would be adjusted for (dashed lines in Figures A4A-C). HW-Y association adjusted for basic T would be estimated to represent the remaining components of increased risks. For adjustment for basic Lag0 T or for basic Lag0 T and basic Lag1 T, the estimated association would be positive, but this may not necessarily represent the effects of heatwaves on R(Y) because HT of non-heatwave days also increases R(Y) on heatwave days (yellow plain boxes in Figures A4A and A4B). As an extreme case, HW-Y association adjusted for Lag0, Lag1, and Lag2 Ts may be null because Lag0, Lag1, and Lag2 Ts explain away all the increased risks due to heatwaves ( Figure A4C), whereas the association may be positive if the effect of heatwaves lasts for than three days. We stress that HW-Y association adjusted for basic T may not represent HW-Y relation because the association may also include the increased risk from T NH if there exist lag effects or cumulative exposure effect of T NH (See yellow boxes on heatwave days in Figure A4A and Figure A4B). and made it publicly available at the first author's GitHub (hyperlink to be added). Researchers can use this package to apply our novel modeling approaches to estimate HW-Y relation. E.2. Adjustment for confounding by temperature to estimate HW-Y relation. This sub-section elucidates Model 3 regarding adjustment for confounding by temperature. We illustrate this with an excerpt of the time-series dataset for South Korea, Seoul ( Figure A5). All variables except for FHWt-1, !)" '& * * * , * s, and * * s were introduced in the main text; we will introduce these below. For illustrational simplicity, we consider only Lag0 T (Tt)and Lag1 T (Tt-1). Our R package, HEAT, allows researchers to consider ≤Lag7 in analysis. Recall that we need to adjust for Ts (See Appendix C) and to avoid adjustment for some of the increased risks due to HW on heatwave days (i.e., overadjustment (58)) that arises when Traditional D. Novel approach , a cyclic graph, integrates Figures 1C-D, where the compromised infrastructure can impact P1, such as power outages resulting in the failure of air conditioning: HW→I→P1. E -Y relation would be the effect of interest if how much an individual's exposure to heatwaves increases the risk of Y via physiological pathways. HW-Y relation represents the health impacts of heatwaves via both physiological pathways and other pathways, which is policy-relevant. counterfactual statement can reflect many forms. The defined HW-Y relation is based on E[R(Y)|T=OT, Z], meaning what R(Y) would have been if there had been no effects of T deviating from OT-the absence of the lag effects/cumulative exposure effects of T on R(Y) at ; Tt is autocorrelated with Tt-l for l>0. For the perfect negative correlation between HWt and |T NH t|, this confounding corresponds to the aforementioned weighted average of R(Y) on non-heatwave days as a counterfactual risk because the effects of T NH t on R(Y) exist for only HWt=0, not HWt=1. Regarding correlations of HWt with T NH t-l and correlations of HWt-l with T NH t, if there exist lagged effects of cumulative exposure of T or lagged effects of HW, which is likely (9, 13), this association is further confounded by these effects: backdoor paths of Yt-T NH t-l-Tt-l-Tt-HWt and/or Yt-HWt-l-Tt-l-Tt-HWt (when lag effects of HW are not measured or considered in the association which indicates low temperature (LT) and T H =T-OT if T>TO, which indicates HT, #& indicates the regression coefficient for LT, and ' indicates the regression coefficient for HT. JH is the maximum lag period for JH+1 of the effective exposure time-window for HT. JL is the maximum lag period for JL+1 of exposure time-window for LT. HW-Y association adjusted for basic T does not represent HW-Y relation because the effect of T on R(Y), including EHT that is a component of HW, is explained away by the adjustment. This adjusted association has been called an added effect of heatwaves (18), meaning how much consecutive days of EHT additionally increases risk after the risk from increased single days of T (Tt,…,Tt-L). , is a vector of the coefficients corresponding to each element of Vt. All the components of Vt differ depending on day t. If day t is the first day of a heatwave, ! = ( !)" '& , !), '& , … , !)+ '& ); if t is the second day of a heatwave, ! = (0, !), '& , … , !)+ '& ); …, if t is the K-1 th day of a heatwave, !)+ '& ); and if t is the K th day of a heatwave, ! = (0,0, … , 0, !)+ '& conclusion, causal inference on health impacts of heatwaves should be based on clarifications of the effect of interest and estimation methods relevant to a defined effect. Diligent selection of modeling approaches and careful interpretation of heatwave-outcome associations are necessary to understand actual impacts of heatwaves under climate change and guide policymakers. Our findings indicate that traditional modeling approaches may underestimate the public health burden of heatwaves. Figure 1 . 1Directed acyclic graphs (A-D) and a directed cyclic graph (E) for clarifying the effect of heat waves. Figure 3 . 3An illustration of the difference between the effect of HW and the effect of T NH . Figure 4 . 4Percentage increases in the risk of non-accidental mortality associated with heatwaves by sociodemographic factors and by different modeling approaches regarding how to address temperature. The vertical lines indicate 95% confidence intervals. Figure A3 . A3An illustration for the statistical concept of the estimand of Traditional Approach #2. Each circle indicates a hypothetical data point. G indicates an (weighted) average of temperature lagged variables, based on the link between weights of a moving average and coefficients of distributed lag (non-linear) models(56). An added effect of a heatwave An effect of single days of HTs An effect of single days of LTs High temperature (An added effect of a heatwave An effect of single days of HTs A.B. Figure A4 . A4An illustration of how adjustment for temperature can differently adjust for increased risks E. The novel modeling approaches E.1. R package, HEAT We created an R package, HEAT (Heatwave effect Estimation via Adjustment for Temperature) ). K can be the maximum duration of heatwaves in dataset minus 1 or JH. We relegate detailed illustrations of Model 3 and how to consider lag effects of HW to Appendix E, including our R package to help researchers apply our approaches.APPLICATION Methods We conducted time-series analysis for Seoul, South Korea, 2006-2013 to demonstrate how HW- Y association can vary by modeling approaches to address temperature. This dataset, which has been described previously (45), includes daily 24-hour average of temperature and PM10, daily 8- hour moving average maximum of O3, holidays, calendar time, and daily non-accidental deaths (International Classification of Disease 10th Revision, A00-R99). Using mortality data from Statistics Korea, we calculated non-accidental deaths by age (≤64 years, ≥65 years), sex (male, female), educational attainment (<high school graduation (<12 years), ≥high school graduation (≥12 years)). Clarifying the effect of interest and using appropriate epidemiological methods relevant to estimate the effect is essential for causal inference. Our conceptualization for the effect of heatwaves using causal diagrams considers multiple pathways through which heatwaves can impact health directly and indirectly. Our approach is aligned with IPCC's recent report on impacts of climate change, with cascading effects, and is relevant for policy implications. We showed how the HW-Y association depends on modeling approaches to address temperature. Since traditional approaches do not estimate our defined HW-Y relation, we proposed novel modeling approaches to estimate that relation. Our data analysis indicates that the effect of heatwaves on mortality in Seoul, SouthKorea is higher, based on our novel approach, than what would have been estimated using traditional approaches, suggesting that the traditional approaches underestimate the impacts of heatwaves on health. Our estimate may reflect the total effect of heatwaves on non-accidental mortality.There are direct and indirect effects of heatwaves. Epidemiological research on separating them will provide unique insights into heat responses and preparedness. This requires additional data that are rarely used in studies of heatwave epidemiology, as commonly used datasets, including our analyses presented for Seoul, addressed only total effect. For example, to identify indirect effects of HW via I-related pathways, data for compromised infrastructure, such as overburdened health systems and power outages, are necessary. Some studies used data on the prevalence of air conditioning that can indirectly imply P, meaning that the prevalence may be a surrogate of HW-E correlation and HW-Y relation may differ across strata of the prevalence. This type of variable may be useful, although this is an indirect measure (not measuring the actual use of personal protection). To separate Y1 and Y2, outcome classification should be performed considering causal pathways in future research. Table 1 . 1Percentage increases (95% confidence intervals) in the risk of non-accidental mortality associated with heatwaves with and without one-day lag effect of heatwaves using our novel approach.Sex Age Educational attainment Model All Male Female 20-64yr 65+yr Low High 3 15.2 (1.3, 30.9) 8.6 (-8.9, 29.5) 23.6 (2.5, 49.0) 6.0 (-18.7, 38.2) 19.0 (1.9, 39.0) 20.5 (2.1, 42.4) 4.5 (-16.2, 30.3) 3 + Lag1 22.1 (-1.4, 51.1) -2.2 (-26.7, 30.7) 60.0 (17.1, 118.5) 12.0 (-27.7, 73.4) 29.1 (-0.2, 67.1) 21.7 (-7.8, 60.5) 17.3 (-18.5, 68.9) L0(1 st ,2 nd ,2d) L0 (1 st ,1d) L0 (2 nd ,1d)Increased riskThis pattern indicates adjustment for increased risks that T of a non-heatwave day contributes to This pattern indicates adjustment for increased risks that T of a heatwave day contributes toL0 (1 st ,2 nd ,2d) L0 (1 st ,1d) L0 (2 nd ,1d) Increased risk L0 (1 st ,2 nd ,2d) L0 (1 st ,1d) L0 (2 nd ,1d) Increased risk A. Adjustment for basic Lag0 T B. Adjustment for basic Lag0 T and Lag1 T C. Adjustment for basic Lag0 T, Lag1 T, and Lag2 T L0 (1 st ,2 nd ,2d) L0 (1 st ,1d) L0 (2 nd ,1d) L0 (1d) Increased riskL1 (1d) L2 (1d) L1 (1 st ,1d) L0 (2d) Heatwave days Non-heatwave day with high temperature u u+1 u-1 L0 (1d) L1 (2d) L0 (3d) L1 (1d) L2 (1d) L1 (1 st ,1d) L0 (2d) Heatwave days Non-heatwave day with high temperature u u+1 u-1 L0 (1d) L0 (3d) L1 (1d) L2 (1d) L1 (1 st ,1d) L0 (2d) Heatwave days Non-heatwave day with high temperature u u+1 u-1 L0 (1d) L0 (3d) L1 (2d) L1 (2d) Non-heatwave day with high temperature L1 (1d) L2 (1d) L1 (1 st ,1d) L0 (2d) Heatwave days u u+1 u-1 L0 (3d) L1 (2d) AppendixApproach #2 is used (See Appendix D). For example, in terms of theFigure A1example, Model 3 estimates HW-Y relation as only the red boxes inFigure A4D.We introduce the variables, ! '& * and !)" '& * that were introduced in the main text. ! '& * and !)"'& * adjust for any increased risks due to HT of non-heatwave days on these non-heatwave days because their values are >0 when HW=0 (See red boxes inFigure A5B). They do not make the overadjustment because their values are zero when HW=1 (See the yellow-shaded rows in the green boxes inFigure A5B). Model 3 also adjusts for ! #& and !)" #& because there may be increased risks due to LT (See red boxes inFigure A5B). !)" '& * also adjusts for one-day lag effect of HW on the following non-heatwave day, which can be separately estimated instead of being adjusted for by !)" '& * (See the next subsection). By adjusting for them, the counterfactual risk of HW-Y relation is set to be the risk at OT. This is because any increased risks on non-heatwave days due to T deviating from OT are adjusted for.Lastly, we introduce the variable, ! , that was introduced in the main text. This variable adjusts for the increased risks on heatwave days due to HT of the preceding non-heatwave days (See the value in the blue box for ! inFigure A5B). This adjustment is necessary because lag effects or any partial cumulative exposure effects of HT from non-heatwave days are not the effect of heatwaves (e.g., orange boxes on days u and u+1 inFigure A2).E.3. Lag effects of HWThis sub-section illustrates how to separately estimate lag effects of HW, not adjusting for them by variables that adjust for confounding by temperature. We note that the other difference between !)" ' * and !)" ' * * is the values in the blue boxes inFigure A4C. !)" ' * * contains the information of ! . So, if !)" ' * * is used, ! is redundant. In this case, one may not use ! or may use !)" ' * * * that does not contain the information of ! . The difference between !)" ' * * and !)" ' * * * in terms of estimation is that the parameter is restricted to be identical for both !)" ' * * * and ! or not. Either of these two would be fine to use for the adjustment, unless lag effects of HT of non-heatwave days on R(Y) on heatwave days are likely to be different than effects of HT of non-heatwave days on R(Y) on non-heatwave days.We stress that how to generate lagged variables of ' * makes difference. One way is /,!)0if HWt=0 and /,!)0 ' * =0 if HWi,t=1 for j>0. This way creates /,!)0 ' * . Another is to generate lag variables using /,! ' * itself. This way creates /,!)0 ' * * . As shown earlier, the use of either of these two must be based on whether researchers want to estimate lag effects of HW (by using FHWt-j) or adjust for them.It is possible that exposure to HT of a heatwave may have its health effect with a long induction period such that it would increase the risk on the next heatwave. ! adjusts for this effect. We need not to adjust for this but to subsume such increased risks into 1 . Then, l-th component in ! must be set as 0 if t-l is a day of the previous heatwave. We denote the corrected ! as ! * Thus, to estimate lag effects of HW, Model 3 will becomeE.3. Splines in place of piecewise regression for adjusting for confounding by temperature.Model 3 is a piecewise regression regarding T. For adjustment purposes, non-linear temperatureresponse association can also be modeled by using a spline function such as natural cubic spline Lag variables of T * , !)+ * can be generated in the two ways as described above.To include 4 !,4 , !)5 * * or !)5 * * * should be used instead: !)5 * * is set as 0 during heatwave days.Also, l-th component in ! 23 must be set as 0 if t-l is a day of the previous heatwave. We refer to the corrected as ! 23 * . Then the model becomesFigure A5. An excerpt of daily time-series for temperature variables, a heatwave indicator, and an indicator of the subsequent day after heatwavesNote: The yellow-highlighted rows indicate heatwave days. For illustration, here, we defined heatwave as T exceeding the 97 th percentile (27.6 o C) of the year-round T distribution for at least two consecutive days. The data analysis in the main text used the 99 th percentile (28.7 o C), not the 97 th percentile.A. Data-structureYear Month Day Day of the Week(New variable introduced in this study)Variables to adjust for temperature as a confounder (piecewise regression) Note. !"# & * * * = !"# & * * − ! to remove redundancy(New variable introduced in this study)Variables to adjust for temperature as a confounder (splines) Note. !"# * * * = !"# * * − ! to remove redundancy (New variable introduced in this study) An indicator variable to estimate one-day lag effect of HWB. Highlights for adjustment for confounding by temperatureYear Month Day Day of the WeekC. Highlights for adjustment for or estimation of lag effects of heatwaves.Year Climate change 2022: Impacts, adaptation and vulnerability. H-O Pörtner, D C Roberts, H Adams, C Adler, P Aldunce, Ali E Begum, R A Betts, R Kerr, R B Biesbroek, R , 2022Geneva, SwitzerlandPörtner H-O, Roberts DC, Adams H, Adler C, Aldunce P, Ali E, Begum RA, Betts R, Kerr RB, Biesbroek R. Climate change 2022: Impacts, adaptation and vulnerability. IPCC Geneva, Switzerland:; 2022. Mortality in Chicago attributed to the July 1995 heat wave. S Whitman, G Good, E R Donoghue, N Benbow, W Shou, S Mou, American Journal of Public Health. 87Whitman S, Good G, Donoghue ER, Benbow N, Shou W, Mou S. Mortality in Chicago attributed to the July 1995 heat wave. American Journal of Public Health 1997; 87: 1515-1518. Heatrelated deaths during the July 1995 heat wave in Chicago. J C Semenza, C H Rubin, K H Falter, J D Selanikio, W D Flanders, H L Howe, J L Wilhelm, New England Journal of Medicine. 335Semenza JC, Rubin CH, Falter KH, Selanikio JD, Flanders WD, Howe HL, Wilhelm JL. Heat- related deaths during the July 1995 heat wave in Chicago. New England Journal of Medicine 1996; 335: 84-90. Heat wave: A social autopsy of disaster in Chicago. E Klinenberg, University of Chicago pressKlinenberg E. Heat wave: A social autopsy of disaster in Chicago. University of Chicago press; 2015. The nature and impacts of the July 1999 heat wave in the midwestern United States: learning from the lessons of 1995. M A Palecki, S A Changnon, K E Kunkel, Bulletin of the American Meteorological Society. 82Palecki MA, Changnon SA, Kunkel KE. The nature and impacts of the July 1999 heat wave in the midwestern United States: learning from the lessons of 1995. Bulletin of the American Meteorological Society 2001; 82: 1353-1368. Iterative management of heat early warning systems in a changing climate. J J Hess, K L Ebi, Annals of the New York Academy of Sciences. 1382Hess JJ, Ebi KL. Iterative management of heat early warning systems in a changing climate. Annals of the New York Academy of Sciences 2016; 1382: 21-30. Climate change and extreme heat events: how health systems should prepare. L Patel, K C Conlon, C Sorensen, S Mceachin, K Nadeau, K Kakkad, K W Kizer, NEJM Catalyst Innovations in Care Delivery. 3: CAT. 21.0454Patel L, Conlon KC, Sorensen C, McEachin S, Nadeau K, Kakkad K, Kizer KW. Climate change and extreme heat events: how health systems should prepare. NEJM Catalyst Innovations in Care Delivery 2022; 3: CAT. 21.0454. Global, regional, and national burden of mortality associated with non-optimal ambient temperatures from 2000 to 2019: a three-stage modelling study. Q Zhao, Y Guo, T Ye, A Gasparrini, S Tong, A Overcenco, A Urban, A Schneider, A Entezari, A M Vicedo-Cabrera, The Lancet Planetary Health. 5Zhao Q, Guo Y, Ye T, Gasparrini A, Tong S, Overcenco A, Urban A, Schneider A, Entezari A, Vicedo-Cabrera AM. Global, regional, and national burden of mortality associated with non-optimal ambient temperatures from 2000 to 2019: a three-stage modelling study. The Lancet Planetary Health 2021; 5: e415-e425. Estimating the cause-specific relative risks of non-optimal temperature on daily mortality: a two-part modelling approach applied to the Global Burden of Disease Study. K G Burkart, M Brauer, A Y Aravkin, W W Godwin, S I Hay, J He, V C Iannucci, S L Larson, S S Lim, J Liu, The Lancet. 398Burkart KG, Brauer M, Aravkin AY, Godwin WW, Hay SI, He J, Iannucci VC, Larson SL, Lim SS, Liu J. Estimating the cause-specific relative risks of non-optimal temperature on daily mortality: a two-part modelling approach applied to the Global Burden of Disease Study. The Lancet 2021; 398: 685-697. Heatwave and health impact research: A global review. S Campbell, T A Remenyi, C J White, F H Johnston, Health & Place. 53Campbell S, Remenyi TA, White CJ, Johnston FH. Heatwave and health impact research: A global review. Health & Place 2018; 53: 210-218. Impact of heatwave on mortality under different heatwave definitions: a systematic review and meta-analysis. Z Xu, G Fitzgerald, Y Guo, B Jalaludin, S Tong, Environment International. 89Xu Z, FitzGerald G, Guo Y, Jalaludin B, Tong S. Impact of heatwave on mortality under different heatwave definitions: a systematic review and meta-analysis. Environment International 2016; 89: 193-203. Heat waves in the United States: mortality risk during heat waves and effect modification by heat wave characteristics in 43 US communities. G B Anderson, M L Bell, Environmental Health Perspectives. 119Anderson GB, Bell ML. Heat waves in the United States: mortality risk during heat waves and effect modification by heat wave characteristics in 43 US communities. Environmental Health Perspectives 2011; 119: 210-218. The impact of heat waves on mortality. A Gasparrini, B Armstrong, Epidemiology. 2268Gasparrini A, Armstrong B. The impact of heat waves on mortality. Epidemiology 2011; 22: 68. Weather-related mortality: how heat, cold, and heat waves affect mortality in the United States. B G Anderson, M L Bell, Epidemiology. 20205Anderson BG, Bell ML. Weather-related mortality: how heat, cold, and heat waves affect mortality in the United States. Epidemiology 2009; 20: 205. Temporal changes in mortality impacts of heat wave and cold spell in Korea and Japan. W Lee, H M Choi, J Y Lee, D H Kim, Y Honda, H Kim, Environment International. 116Lee W, Choi HM, Lee JY, Kim DH, Honda Y, Kim H. Temporal changes in mortality impacts of heat wave and cold spell in Korea and Japan. Environment International 2018; 116: 136-146. Heat wave and mortality: a multicountry, multicommunity study. Y Guo, A Gasparrini, B G Armstrong, B Tawatsupa, A Tobias, E Lavigne, Coelho Mdszs, X Pan, H Kim, M Hashizume, Environmental Health Perspectives. 12587006Guo Y, Gasparrini A, Armstrong BG, Tawatsupa B, Tobias A, Lavigne E, Coelho MdSZS, Pan X, Kim H, Hashizume M. Heat wave and mortality: a multicountry, multicommunity study. Environmental Health Perspectives 2017; 125: 087006. Heat wave characteristics, mortality and effect modification by temperature zones: a time-series study in 130 counties of China. Z Sun, C Chen, M Yan, W Shi, J Wang, J Ban, Q Sun, M Z He, T Li, International Journal of Epidemiology. 49Sun Z, Chen C, Yan M, Shi W, Wang J, Ban J, Sun Q, He MZ, Li T. Heat wave characteristics, mortality and effect modification by temperature zones: a time-series study in 130 counties of China. International Journal of Epidemiology 2020; 49: 1813- 1822. Impact of high temperatures on mortality: is there an added heat wave effect. S Hajat, B Armstrong, M Baccini, A Biggeri, L Bisanti, A Russo, A Paldy, B Menne, T Kosatsky, Epidemiology. Hajat S, Armstrong B, Baccini M, Biggeri A, Bisanti L, Russo A, Paldy A, Menne B, Kosatsky T. Impact of high temperatures on mortality: is there an added heat wave effect? Epidemiology 2006: 632-638. Causal knowledge as a prerequisite for confounding evaluation: an application to birth defects epidemiology. M A Hernán, S Hernández-Díaz, M M Werler, A A Mitchell, American Journal of Epidemiology. 155Hernán MA, Hernández-Díaz S, Werler MM, Mitchell AA. Causal knowledge as a prerequisite for confounding evaluation: an application to birth defects epidemiology. American Journal of Epidemiology 2002; 155: 176-184. Causal models and learning from data: integrating causal modeling and statistical estimation. M L Petersen, M J Van Der Laan, Epidemiology. 25418Petersen ML, van der Laan MJ. Causal models and learning from data: integrating causal modeling and statistical estimation. Epidemiology 2014; 25: 418. The driving influences of human perception to extreme heat: A scoping review. A L Hass, J D Runkle, M M Sugg, Environmental Research. 197111173Hass AL, Runkle JD, Sugg MM. The driving influences of human perception to extreme heat: A scoping review. Environmental Research 2021; 197: 111173. Public Health Preparedness for Extreme Heat Events. J J Hess, N A Errett, G Mcgregor, T Busch Isaksen, Z S Wettstein, S K Wheat, K L Ebi, Annual Review of Public Health. 44Hess JJ, Errett NA, McGregor G, Busch Isaksen T, Wettstein ZS, Wheat SK, Ebi KL. Public Health Preparedness for Extreme Heat Events. Annual Review of Public Health 2023; 44: 301-321. Heatwave early warning systems and adaptation advice to reduce human health consequences of heatwaves. D Lowe, K L Ebi, B Forsberg, International Journal of Environmental Research and Public Health. 8Lowe D, Ebi KL, Forsberg B. Heatwave early warning systems and adaptation advice to reduce human health consequences of heatwaves. International Journal of Environmental Research and Public Health 2011; 8: 4623-4648. Heat waves and health outcomes in Alabama (USA): the importance of heat wave definition. S T Kent, L A Mcclure, B F Zaitchik, T T Smith, J M Gohlke, Environmental Health Perspectives. 122Kent ST, McClure LA, Zaitchik BF, Smith TT, Gohlke JM. Heat waves and health outcomes in Alabama (USA): the importance of heat wave definition. Environmental Health Perspectives 2014; 122: 151-158. Methods to calculate the heat index as an exposure metric in environmental health research. G B Anderson, M L Bell, R D Peng, Environmental Health Perspectives. 121Anderson GB, Bell ML, Peng RD. Methods to calculate the heat index as an exposure metric in environmental health research. Environmental Health Perspectives 2013; 121: 1111- 1119. The role of humidity in associations of high temperature with mortality: a multicountry, multicity study. B Armstrong, F Sera, A M Vicedo-Cabrera, R Abrutzky, D O Åström, M L Bell, B-Y Chen, M De Sousa Zanotti Stagliorio Coelho, P M Correa, T N Dang, Environmental Health Perspectives. 12797007Armstrong B, Sera F, Vicedo-Cabrera AM, Abrutzky R, Åström DO, Bell ML, Chen B-Y, de Sousa Zanotti Stagliorio Coelho M, Correa PM, Dang TN. The role of humidity in associations of high temperature with mortality: a multicountry, multicity study. Environmental Health Perspectives 2019; 127: 097007. Temperature and mortality in 11 cities of the eastern United States. F C Curriero, K S Heiner, J M Samet, S L Zeger, L Strug, J A Patz, American Journal of Epidemiology. 155Curriero FC, Heiner KS, Samet JM, Zeger SL, Strug L, Patz JA. Temperature and mortality in 11 cities of the eastern United States. American Journal of Epidemiology 2002; 155: 80-87. The impact of heat waves and cold spells on mortality rates in the Dutch population. M-M Huynen, P Martens, D Schram, M P Weijenberg, A E Kunst, Environmental Health Perspectives. 109Huynen M-M, Martens P, Schram D, Weijenberg MP, Kunst AE. The impact of heat waves and cold spells on mortality rates in the Dutch population. Environmental Health Perspectives 2001; 109: 463-470. An empirical mechanistic framework for heat-related illness. N Y Chan, M T Stacey, A E Smith, K L Ebi, T F Wilson, Climate Research. 16Chan NY, Stacey MT, Smith AE, Ebi KL, Wilson TF. An empirical mechanistic framework for heat-related illness. Climate Research 2001; 16: 133-143. Increased platelet and red cell counts, blood viscosity, and plasma cholesterol levels during heat stress, and mortality from coronary and cerebral thrombosis. W R Keatinge, S R Coleshaw, J C Easton, F Cotter, M B Mattock, R Chelliah, The American Journal of Medicine. 81Keatinge WR, Coleshaw SR, Easton JC, Cotter F, Mattock MB, Chelliah R. Increased platelet and red cell counts, blood viscosity, and plasma cholesterol levels during heat stress, and mortality from coronary and cerebral thrombosis. The American Journal of Medicine 1986; 81: 795-800. Heat stress and public health: a critical review. R S Kovats, S Hajat, Annual Reviews of Public Health. 29Kovats RS, Hajat S. Heat stress and public health: a critical review. Annual Reviews of Public Health 2008; 29: 41-55. Public versus expert knowledge and perception of climate change-induced heat wave risk: A modified mental model approach. P D Chowdhury, C E Haque, S M Driedger, Journal of Risk Research. 15Chowdhury PD, Haque CE, Driedger SM. Public versus expert knowledge and perception of climate change-induced heat wave risk: A modified mental model approach. Journal of Risk Research 2012; 15: 149-168. Heat stroke: role of the systemic inflammatory response. L R Leon, B G Helwig, Journal of Applied Physiology. 109Leon LR, Helwig BG. Heat stroke: role of the systemic inflammatory response. Journal of Applied Physiology 2010; 109: 1980-1988. G B Anderson, M L Bell, Lights out: impact of the August 2003 power outage on mortality in. New York, NY23189Anderson GB, Bell ML. Lights out: impact of the August 2003 power outage on mortality in New York, NY. Epidemiology 2012; 23: 189. Heat waves and fatal traffic crashes in the continental United States. C Y Wu, B F Zaitchik, J M Gohlke, Accident Analysis & Prevention. 119Wu CY, Zaitchik BF, Gohlke JM. Heat waves and fatal traffic crashes in the continental United States. Accident Analysis & Prevention 2018; 119: 195-201. The impacts of climate change on national road and rail networks. E Hooper, L Chapman, Emerald Group Publishing LimitedTransport and Climate ChangeHooper E, Chapman L. The impacts of climate change on national road and rail networks. Transport and Climate Change: Emerald Group Publishing Limited; 2012. Excess mortality related to the August 2003 heat wave in France. A Fouillet, G Rey, F Laurent, G Pavillon, S Bellec, C Guihenneuc-Jouyaux, J Clavel, E Jougla, D Hémon, International Archives of Occupational and Environmental Health. 80Fouillet A, Rey G, Laurent F, Pavillon G, Bellec S, Guihenneuc-Jouyaux C, Clavel J, Jougla E, Hémon D. Excess mortality related to the August 2003 heat wave in France. International Archives of Occupational and Environmental Health 2006; 80: 16-24. Socioeconomic position and excess mortality during the heat wave of 2003 in Barcelona. C Borrell, M Marí-Dell&apos;olmo, M Rodríguez-Sanz, P Garcia-Olalla, J A Caylà, J Benach, C Muntaner, European Journal of Epidemiology. 21Borrell C, Marí-Dell'Olmo M, Rodríguez-Sanz M, Garcia-Olalla P, Caylà JA, Benach J, Muntaner C. Socioeconomic position and excess mortality during the heat wave of 2003 in Barcelona. European Journal of Epidemiology 2006; 21: 633-640. Review of dynamic pricing programs in the US and Europe: Status quo and policy recommendations. Z Hu, J-H Kim, J Wang, J Byrne, Renewable and Sustainable Energy Reviews. 42Hu Z, Kim J-h, Wang J, Byrne J. Review of dynamic pricing programs in the US and Europe: Status quo and policy recommendations. Renewable and Sustainable Energy Reviews 2015; 42: 743-751. Impacts of climate change on operation of the US rail network. P Chinowsky, J Helman, S Gulati, J Neumann, J Martinich, Transport Policy. 75Chinowsky P, Helman J, Gulati S, Neumann J, Martinich J. Impacts of climate change on operation of the US rail network. Transport Policy 2019; 75: 183-191. Time trend in the impact of heat waves on daily mortality in Spain for a period of over thirty years. J Díaz, R Carmona, I Mirón, M Luna, C Linares, Environment International. 116Díaz J, Carmona R, Mirón I, Luna M, Linares C. Time trend in the impact of heat waves on daily mortality in Spain for a period of over thirty years (1983-2013). Environment International 2018; 116: 10-17. On inferences about lag effects using lag models in air pollution time-series studies. H Kim, J-T Lee, Environmental Research. 171Kim H, Lee J-T. On inferences about lag effects using lag models in air pollution time-series studies. Environmental Research 2019; 171: 134-144. Global variation in the effects of ambient temperature on mortality: a systematic evaluation. Y Guo, A Gasparrini, B Armstrong, S Li, B Tawatsupa, A Tobias, E Lavigne, Coelho Mdszs, M Leone, X Pan, Epidemiology. 25781Guo Y, Gasparrini A, Armstrong B, Li S, Tawatsupa B, Tobias A, Lavigne E, Coelho MdSZS, Leone M, Pan X. Global variation in the effects of ambient temperature on mortality: a systematic evaluation. Epidemiology (Cambridge, Mass) 2014; 25: 781. Modeling exposure-lag-response associations with distributed lag non-linear models. A Gasparrini, Statistics in Medicine. 33Gasparrini A. Modeling exposure-lag-response associations with distributed lag non-linear models. Statistics in Medicine 2014; 33: 881-899. Inter-mortality displacement hypothesis and short-term effect of ambient air pollution on mortality in seven major cities of South Korea: a time-series analysis. H Kim, J-T Lee, International Journal of Epidemiology. 49Kim H, Lee J-T. Inter-mortality displacement hypothesis and short-term effect of ambient air pollution on mortality in seven major cities of South Korea: a time-series analysis. International Journal of Epidemiology 2020; 49: 1802-1812. What is cold-related mortality? A multidisciplinary perspective to inform climate change impact assessments. K Arbuthnott, S Hajat, C Heaviside, S Vardoulakis, Environment International. 121Arbuthnott K, Hajat S, Heaviside C, Vardoulakis S. What is cold-related mortality? A multi- disciplinary perspective to inform climate change impact assessments. Environment International 2018; 121: 119-129. Has the impact of heat waves on mortality changed in France since the European heat wave of summer 2003? A study of the 2006 heat wave. A Fouillet, G Rey, V Wagner, K Laaidi, P Empereur-Bissonnet, Le Tertre, A Frayssinet, P Bessemoulin, P Laurent, F , De Crouy-Chanel, P , International Journal of Epidemiology. 37Fouillet A, Rey G, Wagner V, Laaidi K, Empereur-Bissonnet P, Le Tertre A, Frayssinet P, Bessemoulin P, Laurent F, De Crouy-Chanel P. Has the impact of heat waves on mortality changed in France since the European heat wave of summer 2003? A study of the 2006 heat wave. International Journal of Epidemiology 2008; 37: 309-317. Extreme heatwaves: Surprising lessons from the record warmth. Morit A, Nature. 608MORIT A. Extreme heatwaves: Surprising lessons from the record warmth. Nature 2022; 608. Four types of effect modification: a classification based on directed acyclic graphs. T J Vanderweele, J M Robins, Epidemiology. 18VanderWeele TJ, Robins JM. Four types of effect modification: a classification based on directed acyclic graphs. Epidemiology 2007; 18: 561-568. Instruments for causal inference: an epidemiologist's dream? Epidemiology. M A Hernán, J M Robins, Hernán MA, Robins JM. Instruments for causal inference: an epidemiologist's dream? Epidemiology 2006: 360-372. Interpreting the results of intention-to-treat, perprotocol, and as-treated analyses of clinical trials. V A Smith, C J Coffman, M G Hudgens, The Journal of American Medical Association. 326Smith VA, Coffman CJ, Hudgens MG. Interpreting the results of intention-to-treat, per- protocol, and as-treated analyses of clinical trials. The Journal of American Medical Association 2021; 326: 433-434. A dictionary of epidemiology. M Porta, Oxford university pressPorta M. A dictionary of epidemiology. Oxford university press; 2014. Temperature-mortality relationship in North Carolina, USA: Regional and urban-rural differences. H M Choi, C Chen, J-Y Son, M L Bell, Science of The Total Environment. 787147672Choi HM, Chen C, Son J-Y, Bell ML. Temperature-mortality relationship in North Carolina, USA: Regional and urban-rural differences. Science of The Total Environment 2021; 787: 147672. Difference in temporal variation of temperature-related mortality risk in seven major South Korean cities spanning 1998-2013. H Kim, H Kim, G Byun, Y Choi, H Song, J-T Lee, Science of The Total Environment. 656Kim H, Kim H, Byun G, Choi Y, Song H, Lee J-T. Difference in temporal variation of temperature-related mortality risk in seven major South Korean cities spanning 1998- 2013. Science of The Total Environment 2019; 656: 986-996. Latency analysis in occupational epidemiology. H Checkoway, N Pearce, J L Hickey, J M Dement, Archives of Environmental Health: An International Journal. 45Checkoway H, Pearce N, Hickey JL, Dement JM. Latency analysis in occupational epidemiology. Archives of Environmental Health: An International Journal 1990; 45: 95- 100. Modelling lagged associations in environmental time series data: a simulation study. A Gasparrini, Epidemiology. 27835Gasparrini A. Modelling lagged associations in environmental time series data: a simulation study. Epidemiology 2016; 27: 835. Implications of mortality displacement for effect modification and selection bias. H Kim, J-T Lee, R D Peng, K C Fong, M L Bell, arXiv:220313982 2022arXiv preprintKim H, Lee J-T, Peng RD, Fong KC, Bell ML. Implications of mortality displacement for effect modification and selection bias. arXiv preprint arXiv:220313982 2022. Overadjustment bias and unnecessary adjustment in epidemiologic studies. E F Schisterman, S R Cole, R W Platt, Epidemiology. 20488Schisterman EF, Cole SR, Platt RW. Overadjustment bias and unnecessary adjustment in epidemiologic studies. Epidemiology 2009; 20: 488.
sample_16803
0.7382
arxiv
Classification supervisée en grande dimension. Applicationà l'agrément de conduite automobile 29 Oct 2010 Jean-Michel Poggi etuniv.paris5jean-michel.poggi@math.u-psud.frchristine.tuleau@math.u-psud.fr Christine Tuleau Laboratoire de Mathématique -U.M.R. C 8628 Statistique et Modélisation" Probabilités Université Paris-Sud Bât. 42591405Orsay CedexFrance Classification supervisée en grande dimension. Applicationà l'agrément de conduite automobile 29 Oct 2010CARTClassificationDiscriminationOndelettes Key words: CARTClassificationWavelets Ce travail est motivé par un problème réel appelé l'objectivation. Il consisteà expliquer l'agrément de conduite au moyen de critères "physiques", issus de signaux mesurés lors d'essais. Nous suggérons une approche pour le problème de la sélection des variables discriminantes en tentant de tirer profit du caractère fonctionnel des données. Le problème est mal posé, au sens où le nombre de variables explicatives est très supérieurà la taille de l'échantillon. La démarche procède en troisétapes : un prétraitement des signaux incluant débruitage par ondelettes, recalage et synchronisation, une réduction de la taille des signaux par compression dans une base d'ondelettes commune, et enfin l'extraction des variables utiles au moyen d'une stratégie incluant des applications successives de la méthode CART.AbstractThis work is motivated by a real world problem : objectivization. It consists of explaining the subjective drivability using physical criteria coming from signals measured during experiments. We suggest an approach for the discriminant variables selection trying to take advantage of the functional nature of the data. The problem is ill-posed, since the number of explanatory variables is hugely greater than the sample size. The strategy proceeds in three steps : a signal preprocessing, including wavelet denoising and synchronization, dimensionality reduction by compression using a common wavelet basis, and finally the selection of useful variables using a stepwise strategy involving successive applications of the CART method. Introduction Ce travail est motivé par un problème réel appelé l'objectivation. Il consisteà expliquer l'agrément de conduite traduisant un confort ressenti relativementà une prestation donnée, par exemple le comportement de la boîte de vitesses lors de la phase de mise en mouvement d'un véhicule, au moyen de critères "physiques", c'est-à-dire de variables issues de signaux (comme une vitesse, des couples ou encore la position de pédales) mesurés lors d'essais. Il s'agit d'utiliser cette quantification pour en tenir compte lors de la phase de conception du véhicule. Il s'inscrit dans la continuité de travaux menés par Renault portant sur la prestation décollageà plat pour un groupe moto-propulseurà boîte de vitesses robotisée (cf. Ansaldi [2]). Dans cet article, nous développons une approche alternative pour le problème de la sélection des variables discriminantes en tentant de plus tirer profit du caractère fonctionnel des données. De ce point de vue, ce travail peutêtre rapproché de l'analyse des données fonctionnelles. Citons Deville [11], Dauxois et Pousse [10] pour les travaux pionniers dans les années 70. Plus récemment, on peut citer par exemple, Leurgans et al. [22], Hastie et al. [20] et ces dernières années, Ferraty, Vieu [15], Ferré et al. ([17], [16]), Rossi et Conan-Guez [27], Biau et al. [5] ainsi que le texte de synthèse de Besse, Cardot [4]. En outre les deux livres de Ramsay, Silverman [25], [26] constituent une ressource précieuse. Dans ce travail, nous préférons utiliser la méthode CART particulièrement adaptée pour la sélection de variables. Comme cela est classique dans de nombreuses applications où les variables explicatives sont des courbes, le problème industriel qui nous occupe est mal posé, au sens où le nombre de variables explicatives est très supérieurà la taille de l'échantillon. L'un des exemples typiques de telles situations est fourni par les données d'expression du génome. On trouvera dans Dudoit et al. [13] la présentation de ce problème et de diverses méthodes de classification supervisée actuellement en compétition. On pourra aussi consulter Vannucci et al. [29] pour la situation où les variables explicatives sont des spectres, ce qui est classique en chimiométrie. Structurellement le problème industriel qui nous intéresse présente une particularité supplémentaire : nous disposons non pas d'une seule variable explicative qui est une courbe mais d'un grand nombre de variables fonctionnelles parmi lesquelles il faut choisir les plus influentes. Notre approche s'intéresse doncà un double problème de sélection : celle des variables fonctionnelles d'une part, et d'autre part pour chacune de ces courbes, la sélection de bons descripteurs discriminants. La démarche adoptée procède en troisétapes et utilise deux outils fondamentaux que sont d'une part la méthode des ondelettes (cf. Misiti et al. [24]) et d'autre part la méthode de classification non linéaire CART (cf. [7]). Les troisétapes sont constituées d'un prétraitement des signaux (incluant débruitage par ondelettes, recalage et synchronisation), d'une réduction de la dimension par compression dans une base d'ondelettes commune puis de l'extraction et sélection des variables utiles au moyen d'une stratégie incluant des applications successives de la méthode CART. Le plan de l'article est le suivant. Après cette introduction, le paragraphe 2 présente le contexte de l'application : le problème et les données. Dans le paragraphe 3, la démarche adoptée est détaillée. Enfin le paragraphe 4 regroupe quelqueséléments de conclusion. Les essaisà 140 kg de charge ontété menés séparément des essaisà 280 kg de charge. Pour chaque charge, 6 produits parmi les 12 possibles ontété testés : 4 pilotes ont comparé par paires ces 6 produits. Après analyse des résultats, 114 essaisà 140 kg et 118 essaisà 280 kg ontété retenus. Chacun de ces essais est représenté par un ensemble de 21 variables fonctionnelles qui correspondent aux signaux mesurés par les capteurs durant l'expérience. L'étude menée dans [2] s'articule autour de trois phases : • l'association d'un agrémentà chacun des produits. Pour chaque paire d'essais, le pilote précisait son essai préféré. A partir de ces données de comparaisons par paires età l'aide d'une méthode inspirée du "multidimensional scaling" (voir la thèse de Favre [14]) sont obtenus un classement des produits par pilote et un agrément consensuelà toute la population des pilotes, par charge. Cet agrément associeà un produit un rang de satisfaction (le rang 1étant celui du produit le plus apprécié); • l'extraction de critères puis sélection par analyse discriminante. A partir des signaux mesurés, de très nombreux critères sont générés puis, au moyen d'une analyse discriminante linéaire arborescente dite par moindresécarts (c'est-àdire basée sur un critère L 1 ), un petit nombre d'entre eux expliquant l'agrément, sont extraits; • le calcul d'intervalles de tolérance. Pour chacun des critères pertinents, un intervalle qui maximise l'agrément sous certaines contraintes sur les produits, est construit (ce point constitue d'ailleurs la contribution majeure de la thèse d'Ansaldi [2]). On se concentre, dans cet article, sur la deuxièmeétape en utilisant une approche plus fonctionnelle. Bien sûr, on ne considère que les données issues de la phase 1 qui sont seules détaillées dans le paragraphe suivant. L'agrément est le rang consensuel attribuéà chacun des 6 produits testés. Ceci conduità un problème de discrimination, au lieu d'un problème de régression avec une variableà expliquer ordinale discrète. Dans la suite, ne seront considérés que les essaisà 140 kg de charge (pour les essaisà 280 kg de charge, la démarche est identique et les résultats obtenus dans l'étude [2] sont semblables). Les données Les données sont constituées des couples ((X j i ) 1≤j≤J , Y i ) 1≤i≤n , où n = 114 et J = 21, et : -Y i représente le rang attribué au produit testé lors de l'essai i; -X j i représente la jè me variable fonctionnelle mesurée lors de l'essai i et est le signal {X j i (t)} t∈T i où T i est la grille temporelle régulière propreà l'essai i. Autrement dit, pour chacun des essais, on dispose de l'agrément et de 21 signaux (on parlera dans la suite, suivant le contexte, de signaux comme de variables fonctionnelles ou encore de courbes) pour la plupart d'environ 1000 points (en fait ils comportent entre 600 et 5000 points). Ces variables fonctionnelles sont principalement des positions, des vitesses, des accélérations, des couples et des régimes moteur, cependant pour des raisons de confidentialité la nature des variables ne peut pasêtre indiquée de façon plus précise. Notons que la fréquence d'échantillonnage de 250 Hz est la même pour tous les essais et correspondà une haute résolution temporelle. La distribution de l'agrément Y , après regroupement en 5 modalités, est donnée par les fréquences 33%, 17%, 17%, 18%, 15%. Seulement 5 modalités, et non 6, sont prises en considération, deux produits ayant obtenu le même agrément. L'examen des graphiques permet de formuler quelques remarques préliminaires concernant ces variables fonctionnelles : • elles sont observées sur une grille temporelle propreà l'essai, ce qui nécessitera des recalages temporels ; • elles peuventêtre d'allure générale et d'ordre de grandeur très différents,à la fois pour un même essai mais aussi au travers des différents essais, ce qui impliquera des recalages en ordonnée des courbes ; • elles présentent des caractéristiques temporelles très différentes, par exemple le rapport signal sur bruit,élevé en général, peut s'avérer modéré comme dans le cas de la variable 22 ou encore l'être localement comme c'est le cas pour ces quatre variables sauf la variable 14 qui est une fonction constante par morceaux. Il est clair qu'un débruitage, sansêtre en général crucial, peut s'avérer utile ; • la forme générale est souvent simple et peu de paramètres ou peu d'événements semblent suffisants pour la caractériser. Ceci permet d'espérerà la fois une ca-ractérisationéconome des variables fonctionnelles ainsi qu'une compression efficace. Remarque 1 La variabilité, entre les essais, des durées d'observation et celle des amplitudes des signaux mesurés, résultent des différences de conditions de roulage et de l'exécution plus ou moins scrupuleuse des consignes par les pilotes. La démarche Le cadre général dans lequel on se place est celui de la sélection de variables dans un problème de discrimination, et consisteà construire une fonction, génériquement notée F dans la suite, pour prédire Yà l'aide de : Y = F (X 1 , ..., X J ) Dans cette perspective, il sera utile de sélectionner parcimonieusement les variables fonctionnelles qui peuvent expliquer l'agrément, puis pour chacune d'elles, de ne retenir qu'un très faible nombre d'aspects la décrivant, pour des raisonsévidentes de robustesse. Autrement dit, on chercheà sélectionner ce que nous appelons dans ce contexte, des critères notés C j k , déduits des X j , de façonà prédire convenablement Y par : Y = F (C j 1 , . .., C j K ) avec K << J, typiquement de l'ordre de 5 pour l'application industrielle. Rappelons que dans le cadre de l'objectivation, il ne s'agit pas d'expliquer au mieux l'agrément en utilisant toutes les informations disponibles, comme par exemple les conditions de roulage, qui ont un impact certain, mais de l'expliquer partiellement en se restreignant exclusivementà des variables déduites des signaux mesurés de façonà pouvoir remonterà des paramètres de conception du véhicule. La démarche adoptée procède en troisétapes : • un prétraitement des signaux, incluant débruitage par ondelettes, recalage et synchronisation ; • une réduction de la taille des signaux par compression dans une base d'ondelettes commune ; • l'extraction des variables utiles au moyen d'une stratégie pasà pas procédant par des applications successives de la méthode CART. Détaillons successivement chacune de ces trois phases. Prétraitement des signaux Les données X j i = {X j i (t)} t∈T i sont prétraitées de façon d'une part,à les débruiter individuellement c'est-à-dire pour un essai et une variable fonctionnelle donnés et, d'autre part,à les rendre plus homogènes au moyen de recalages. Tronquer les signaux Avant ces deux traitements, on isole une phase qui est la seuleàêtre directement déduite de connaissances externes propres au problème. En effet, en dépit de consignes clairement définies, les durées d'enregistrement et les dates des différentesétapes de l'essai ne sont pas synchrones. Néanmoins, on peut définir deuxévénementsà réaligner : le "vrai" début de l'essai et sa "vraie" fin qui sont lisibles au travers des variables fonctionnelles 8 et 21. Ces deuxévénements correspondent physiquement au démarrage réel du véhicule età la définition de la fin de l'essai. On trouve dans la Figure 2, trois variables fonctionnelles X j correspondantà j = 8, 21, 7 pour les essais 7 et 19. Les deux premières servent de marqueur du "vrai" début de l'essai et de sa "vraie" fin, respectivement. La période utile de l'essai est visualisée sur les graphes de la variable fonctionnelle 7 par la portion de signal située entre les deux instants matérialisés par des lignes verticales. Bien sûr, ces instants varient en fonction de l'essai. Pour l'essai i, on note T i la grille T i convenablement tronquée aux extrémités. Débruiter les signaux A i et j fixés, le signal mesuré est contaminé par un bruit de capteur. Bien sûr, il convient de l'éliminer avant tout traitement de type recalage ou interpolation des données, qui conduiraità les modifier et donc altérer la nature stochastique du bruit qui affecte le signal utile. Comme l'atteste la Figure 1, la régularité locale de celui-ci peut beaucoup varier au cours du temps, il convient donc d'utiliser des techniques de débruitage adaptatives en espace. C'est le cas de celles basées sur les méthodes d'ondelettes (cf. Donoho, Johnstone [12] pour l'un des articles fondateurs, Vidakovic [30] pour un large tour d'horizon de ces méthodes et Misiti et al. [24] pour une introduction aisée). On considère le modèle suivant, usuel en traitement statistique du signal et réaliste dans cette application : Comme on peut le remarquer, le débruitage par ondelettes permet de supprimer de façon satisfaisante le bruit tout en préservant les composantesà haute fréquence du signal utile. Enfin, pouréliminer certains effets d'échelle, en partie liés aux conditions de roulage, les signaux sont normalisés en ordonnée. ∀t ∈ T i , X j i (t) = f j i (t) + η j i (t) où {η j i (t)} t∈ T i Remarque 2 Un autre prétraitement consisteà effectuer un recalage non linéaire en alignant pour tout j, les n signauxà l'aide de marqueurs convenablement choisis (cf. Bigot [6]). Ceci amèneraità considérer le problème plus sous un aspect de classification de formes. Cependant, cela serait extrêmement lourd et engendrerait une difficulté quantà la remontée dans le temps d'origine en particularisant de nouveau les variables fonctionnelles, et limiterait l'interprétation. En revanche, cela permettrait de poursuivre un objectif plus ambitieux consistantà aug-menter l'homogénéitéà Y fixé, en mettant au point le recalage pour chaque modalité de la réponse. Mentionnons que des méthodes de recalage temporel intermédiaires entre la solution adoptée et celle-ci sont envisageables, comme par exemple le type de méthode de recalage décrit dans [25] qui chercheà rapprocher des fonctions de leur moyenne. Compression des signaux A l'issue de la phase de prétraitement, on dispose donc pour chaque essai, de J = 21 signaux débruités, de m = 512 points. Chacun de ces signaux peut doncêtre représenté dans une base d'ondelettes ou de paquets d'ondelettes par très peu de coefficients (cf. Mallat [23] et Coifman, Wickerhauser [9]). Il suffit, par exemple, pour un signal donné, de sélectionner les coefficients les plus grands en valeur absolue, exploitant ainsi la capacité des ondelettesà concentrer l'énergie d'un signal (pour des classes très larges de signaux), en un très petit nombre de ses grands coefficients d'ondelettes. Le problème est ici de choisir, variable fonctionnelle par variable fonctionnelle, une base communeà tous les essais pour les représenter de façon compacte. Pour déterminer une base commune de décomposition, on peut se restreindreà un petit nombre de bases différentes comme les espaces d'approximation en ondelettes de résolution de plus en plus grossière. Comme 512 = 2 9 , seule une demie douzaine de bases, l'ondeletteétant choisie (ici on utilise l'ondelette de Daubechies presque symétrique d'ordre 4), sontà mettre en compétition. Le choix peutêtre : • effectué indépendamment de la variable Y et guidé par la définition d'un critère de qualité comme par exemple la moyenne de l'erreur d'approximation du signal par sa projection convenablement pénalisé. Afin de déterminer le niveau de décomposition de chacun des signaux j, on considère le critère EQ j (p) liéà l'énergie et défini comme suit : pour une variable fonctionnelle j et pour un individu i, soit X j i (t) le signal d'origine et A j i,p (t) le signal reconstruità partir des coefficients d'approximation du niveau p ; on définit l'erreur de la variable fonctionnelle j par EQ j (p) = 114 i=1 X j i (t) − A j i,p (t) 2 Remarque 4 Notons que, lorsque le niveau de décomposition p augmente, le nombre de coefficients et la qualité d'approximation diminuent. Le choix du niveau de décomposition résulte d'un compromis entre le nombre de coefficients retenus et la qualité d'approximation. Le choix du niveau de décomposition de la variable j consiste alorsà déterminer la plus petite valeur de p pour laquelle on détecte un changement de pente "suffisant" dans le graphe de (p, EQ j (p)) 1≤p≤9 etàôter 1à titre conservatoire. La Figure 4 esquisse la façon dont le niveau de décomposition lors de la compression par ondelettes est déterminé pour chacun des signaux. • basé sur un critère dépendant de la variable Y , comme par exemple l'erreur de classification d'un arbre CART (voir paragraphe suivant). L'emploi d'une procédure inspirée du premier choix ci-dessus avec recherche d'une cassure dans la répartition moyenne de l'énergie, conduità retenir majoritairement 16 coefficients et doncà réduire R J × mà R m j avec m j ≈ 300 ou 400 suivant la stratégie adoptée pour comprimer une variable fonctionnelle (d'ailleurs non discriminante) dont les fluctuationsà haute fréquence sont significatives. La Figure 5 présente pour deux variables fonctionnelles, les résultats obtenus après compression par ondelettes : le signal après compression superposé au signal prétraité est représenté dans le premier graphique, le second (en dessous) contient les coefficients d'approximation associés. Ceux-ci peuvent, bien sûr,être de taille différente puisque le niveau de décomposition retenu dépend de la variable considérée. Les deux graphiques du haut de la Figure 5 contiennent, pour l'essai 7 et pour deux variables fonctionnelles différentes, le signal après compression superposé au signal d'origine. Ils sont très proches bien que représentés par peu de coefficients. En effet, les deux graphiques du bas de la figure contiennent les coefficients d'approximation associés aux représentations comprimées. Ainsi, la forme des graphiques du haut et du bas de la figure se ressemblent sauf aux extrémités de l'axe des abscissesà cause d'extra-coefficients, engendrés par les prolongements appliqués aux signaux dans les calculs des coefficients par la transformée en ondelettes discrète (voir [24]). Remarque 5 Signalons que la connexion entre les développements sur des bases orthogonales d'ondelettes de processus stochastiques et les décompositions issues de la transformée discrète en ondelettes est donnée, par exemple, dans Amato et al. [1]. Remarque 6 Une autre approche associant plusétroitement les phases de compression et de sélection des variables discriminantes est proposée par Coifman, Saito [8]. Il s'agit de choisir une base optimale, parmi les bases associéesà une décomposition en paquets d'ondelettes, en maximisant la séparation entre classes. Elle n'est pas retenue ici, une voie médiane est empruntée : des gains massifs en compression sont obtenus même au prix d'un politique de sélection un peu conservative de façoǹ a ne pas trop obérer la phase suivante qui fera le choix des variables les plus discriminantes. On note C j = (C j,1 , ..., C j,K j ) le paquet des K j coefficients associésà la variable fonctionnelle X j . Sélection de variables par CART A la fin de l'étape précédente, il y a une réduction de la dimension de l'espace des variables, mais elle demeure insuffisante puisque l'on dispose de 114 individusà comparerà 300 ou 400 variables. Les nouvelles données ainsi construites sont donc : (((C j,k i ) 1≤k≤K j ) 1≤j≤J , Y i ) 1≤i≤n . On propose une procédure pasà pas basée sur la méthode CART. Celle-ci permet d'ajuster aux données, un modèle additif du type Y = F ((C j,k ) j,k ) où F est additive et plus précisément constante sur des polyèdres dont les côtés sont parallèles aux axes, sous la forme d'un arbre dyadique de décision. On peut se reporter au livre de Breiman et al. [7] les fondateurs de la méthode ou Hastie et al. [21] pour un rapide aperçu. Dans la suite, on considère l'erreur de classification définie comme usuellement mais en pénalisant les fausses classifications par le truchement de la matrice de coût définie par Γ(k, k ′ ) = |k−k ′ |, définition qui découle naturellement du fait que Y est une variable ordinale discrète. La procédure est présentée ci-dessous en cinq phases : 1. Pour chaque j, on construit l'arbre CART A j expliquant Y par le paquet de coefficients C j et on sélectionne, au moyen de l'importance des variables au sens de Breiman et al. [7] (voir aussi [19] et [18]), le paquet des coefficients utiles, notéC j , en seuillant l'importance comme illustré dans la Figure 6. On peut noter que les pics dans les graphes de l'importance des variables correspondent non pas seulement,à des marqueurs significatifs de la forme du signal mais bienà desévénements significatifs discriminants. 2. On en déduit un ordre sur les "nouvelles" variables fonctionnelles (c'est-à-dire sur les paquets (C j ) j ) au moyen de l'erreur de classification,évaluée par validation croisée, commise par l'arbre A j (voir Figure 7). 3. On construit une suite ascendante (M j ) j d'au plus J = 21 modèles CART emboîtés, en invoquant et en testant les paquets de variablesC j , pasà pas, suivant l'ordre précédemment obtenu. Autrement dit, M j explique Y par l'ensemble de paquets de coefficients (C l ) l≤j privés des paquets qui se sont révélés, après test, comme insuffisamment informatifs. A j , de la meilleureà la pire. Elle fluctue dans un rapport de 1à 3. Cet ordre sur les "nouvelles" variables fonctionnelles est celui qui sera utilisé pour les invoquer pasà pas. Une première façon de procéder, très dépendante du problème, consisteà ne retenir que les 5 premières variables, 5étant le nombre souhaité de critères. On obtient alors un arbre dont l'erreur de validation croisée est de 24 sur 114 pour 12 erreurs apparentes (c'est-àdire l'erreur de resubstitution). Une alternative consisteà considérer l'erreur de validation croisée sur la suite de modèles emboîtés induite par l'ordre issu du calcul de l'importance des variables. On sélectionne alors le modèle dont l'erreur est la plus faible. Enfin, si l'on examine l'arbre CART construit en se restreignantà ces 12 variables (cf. Figure 10), il est intéressant de noter que 5 variables seulementétiquettent les noeuds de l'arbre et 4 d'entre elles sont en tête du classement fourni par la Figure 9. Remarque 7 Terminons par une remarque générale dont la portée méthodologique est cruciale. Un inconvénient classique de l'usage des arbres de classification est leur instabilité, c'esta-dire que le classifieur construit peut fluctuer "beaucoup" pour des "petites" variations de l'échantillon d'apprentissage (cf. Hastie et al. [21]). Un remède désormais classiqueà cette propriété indésirable est d'utiliser le bagging qui permet de stabiliser la prédiction en utilisant non pas un classifieur mais l'agrégé d'un ensemble de classifieurs construits par rééchantillonnage bootstrap de l'échantillon d'apprentissage (voir Ghattas [18]). Suivant cette idée (voir Ghattas [19]), l'importance des variables et l'erreur de classification sontévaluées par rééchantillonnage. Plus précisément, pour la phase 1, on considère la moyenne des importances des variables calculées sur des arbres obtenus par rééchantillonnage n pour n, des 114 observations. Pour l'estimation de l'erreur de classification, elle estévaluée par validation croisée grâceà un schéma de découpage en 10 de l'échantillon puis stabilisée en randomisant cette phase de découpage. Conclusion Du point de vue de l'application, les critères qui ressortent comme les plus discriminants sont associésà quatre variables fonctionnelles. Parmi eux, deux sont très proches des critères obtenus par la méthode basée sur la méthode discriminante linéaire et deux sont nouveaux et considérés par les experts comme intéressants. Il faut noter que dans notre cas, ces critères ontété obtenus sans intégrer de connaissances a priori , sauf dans la phase de troncature de la grille temporelle des observations. Signalons cependant que les conditions d'arrêt dépendent de seuils fixés pour le moment en fonction de l'application. Complémentairementà ce travail, des avancées concernent l'étude théorique de pénalités adéquates pour faire de la sélection de variables dans des contextes voisins (cf. Sauvé, Tuleau [28]). Typiquement il s'agit d'utiliser une approche par sélection de modèle "à la Birgé-Massart" (cf. Barron, Birgé, Massart [3]) pour sélectionner des variables dans un modèle de régression non linéaire, au moyen d'applications répétées de la méthode CART. Des résultats de type inégalités oracles permettent de préciser la forme des pénalités convenables et peuvent suggérer des alternatives au choix ad-hoc effectués ici. On trouve dans laFigure 1, les quatre variables fonctionnelles X j correspondantà j = 4, 14, 17, 22 pour les essais 7 et 19. Figure 1 - 1Pour les essais 7 et 19, les quatre variables fonctionnelles X j correspondantà j = 4, 14, 17, 22, notées simplement V4, V14, V17 et V22. Elles sont observées sur une grille temporelle propreà l'essai et présentent des caractéristiques temporelles variées. Figure 2 - 2Pour les essais 7 et 19, les trois variables fonctionnelles X j correspondantà j = 8, 21, 7 notées simplement V8, V21 et V7 sur le graphique. Les deux premières servent de marqueur au "vrai" début de l'essai et sa "vraie" fin, respectivement. La période utile de l'essai est visualisée sur les graphes de la variable fonctionnelle 7 par la portion de signal située entre les deux instants matérialisés par des lignes verticales. est un bruit blanc. Dans ce cadre, le débruitage consisteà décomposer le signal dans une base d'ondelettes,à seuiller les coefficients de détail de façonàéliminer essentiellement ceux attribuables au bruit puisà reconstruire un signal débruité constitué de la somme d'une approximation lisse et de détailsà diverseséchelles correspondant aux fluctuations rapides du signal utile. On obtient ainsi une estimation {f j i (t)} t∈ T i , ou encore un signal débruité {X j i (t)} t∈ T i . LaFigure 3présente les résultats obtenus après débruitage par ondelettes des quatre variables fonctionnelles montrées enFigure 1. La méthode utilise l'ondelette de Daubechies presque symétrique d'ordre 4, un niveau de décomposition entre 3 et 5 (suivant les signaux) et le seuillage dit "universel" (cf. Donoho et Johnstone[12]). Figure 3 - 3et normaliser les signaux L'objectif de cetteétape est d'éliminer la dépendance en i de la grille temporelle. On procède pour chaque signal, tout d'abordà un recalage linéaire en temps en ramenant la grille T i sur l'intervalle [0, 1]. Puis, on effectue une interpolation linéaire du signal, suivie d'unéchantillonnage pour se ramenerà la grille régulièreà m points de [0, 1] (ici on fixe m = 512, valeur largement suffisante pour des durées de fenêtres actives comprises entre Pour l'essai 7, en haut de la figure les quatre signaux X j 7 (t) (j = 4, 14, 17, 22) et, en bas, leurs versions débruitées. Dans les deux derniers graphiquesà droite, un zoom sur une portion du premier signal permet d'apprécier la qualité du débruitage par ondelettes,à la fois efficace pour débruiter les parties lisses tout en préservant les composantesà haute fréquence du signal utile.300 et 700 observations). Un instant dans cette nouvelle "unité" de temps s'interprète comme la proportion de la durée de l'essaiécoulée. On dispose donc de { X j i (t)} t∈T , sur la grille fixe T = { 1 m , ..., m−1 m , 1}. Figure 4 - 4Pour les variables fonctionnelles 1, 2, 13 et 21, on représente (p, EQ(p)) 1≤p≤9 en trait plein, la plus petite valeur de p pour laquelle on détecte un changement de pente "suffisant" en traits pointillés et cette valeurôtée de 1 en traits pleins. Figure 5 - 5Pour l'essai 7 et pour les deux variables correspondantà j = 4, 22 :en haut, le signal après compression superposé au signal original (prétraité), en bas les coefficients d'approximation associés. Figure 6 - 6Pour les essais 7 et 19, et pour les variables correspondantà j = 17, 22, en haut les signaux prétraités, au milieu le paquet C j des coefficients d'approximation de niveau retenu et en bas l'importance de chacun de ces coefficients. Les coefficients utiles constituantC j sont ceux dont l'importance dépasse le seuil. Figure 7 - 7L'erreur de classificationévaluée par validation croisée des arbres le nombre de paquets de coefficients introduits erreur de classification du modèle Mj Figure 8 -Figure 9 89L'erreur de classification du modèle M jé valuée par validation croisée, en fonction de j, le nombre de paquets de coefficients introduits.4. On sélectionne ensuite les variables fonctionnelles pertinentes en choisissant celles définissant le modèle M j 0 minimisant l'erreur de classification. L'allure de celle-ci (cf. Figure 8) est attendue : elle décroît d'abord fortement avant de lentement croître lorsque les variables introduites n'apportent plus rienà la discrimination. 5. Enfin, en calculant l'importance des variables explicatives du modèle M j 0 : les coefficients {C j , j ∈ M j 0 } et en retenant la tête de ce classement, on sélectionne les critères pertinents (voir Figure 9 - 9Importance des variables calculée sur le modèle M j0 sélectionné précédemment et sélection finale des trois critères dont les importances ressortent nettement en tête. Figure 10 - 10Arbre dont l'erreur de classification,évaluée par validation croisée, est la plus faible. La campagne d'essais réalisée par Renault (cf. Ansaldi[2]) a conduità faire varier les facteurs suivants : le réglage de la boîte de vitesses, les conditions de roulage et les pilotes. Lors de ces essais, ontété mesurés d'une part l'agrément du pilote et d'autre part des données objectives consistant dans le relevé,à l'aide de capteurs, de plusieurs signaux temporels.Précisons quelqueséléments de terminologie utiles dans la suite. On appelle "produit" uńelément de {produits} = {conditions de roulage} × {3 réglages de la boite de vitesses} où {conditions de roulage} = {2 charges} × {2 angles pédale} × {2 vitesses pédale} ce qui conduit au plusà 24 produits (12 pour chacune des charges). On appelle "essai" unélément de {essais} = {7 pilotes} × {24 produits} conduisantà un maximum de 168 essais.2 Le contexte applicatif 2.1 Le problème Table 1 - 1Nombre d'erreurs commises sur l'échantillon d'apprentissage en fonction du nombre de variables retenues.LaTable 1donne, pour les modèles de cette suite dont le nombre de variables est inférieur a 15, l'erreur apparente et l'erreur de validation croisée. Le meilleur modèle est celui comportant 12 variables. L'erreur commise est de 17 sur 114 (15%) et l'erreur apparente de 8 sur 114 (7%), ce qui est très satisfaisant. RemerciementsLes auteurs remercient la Direction de la Recherche de Renault d'avoir misà leur disposition les données relatives aux essais qui motivent ce travail et, en particulier, Nadine Ansaldi pour les discussions associées. Cette collaboration se poursuit actuellement dans le cadre d'un contrat de recherche entre le laboratoire de mathématiques d'Orsay et la Direction de la Recherche de Renault.En outre, les auteurs remercient les deux rapporteurs anonymes de leurs remarques et suggestions qui ont contribué grandementà clarifier et améliorer la première version du manuscrit.Références Dimension reduction in functional regression with applications. U Amato, A Antoniadis, I De Feis, Comp. Stat. and Data. Anal. to appear inU. Amato, A. Antoniadis, and I. De Feis. Dimension reduction in functional regression with applications. to appear in Comp. Stat. and Data. Anal., 2005. Contributions des méthodes statistiquesà la quantification de l'agrément de conduite. N Ansaldi, Marne-la-ValléePhD thesisN. Ansaldi. Contributions des méthodes statistiquesà la quantification de l'agrément de conduite. PhD thesis, Marne-la-Vallée, 2002. Risk bounds for model selection via penalization. A R Barron, L Birgé, P Massart, Probability Theory and Related Fields. 113A.R. Barron, L. Birgé, and P. Massart. Risk bounds for model selection via penali- zation. Probability Theory and Related Fields, 113 :301-413, 1999. Modélisation statistique de données fonctionnelles. P Besse, H Cardot, Analyse de données. Hermes. G. GovaertP. Besse and H. Cardot. Modélisation statistique de données fonctionnelles. In G. Govaert, editor, Analyse de données. Hermes, 2003. Functional classification in Hilbert spaces. G Biau, F Bunea, M Wegkamp, IEEE Trans. Inf. Theory. 516G. Biau, F. Bunea, and M. Wegkamp. Functional classification in Hilbert spaces. IEEE Trans. Inf. Theory, 51(6) :2163-2172, 2005. Recalage des signaux et analyse de la variance fonctionnelle par ondelettes. J Bigot, GrenoblePhD thesisapplication au domaine biomédicalJ. Bigot. Recalage des signaux et analyse de la variance fonctionnelle par ondelettes ; application au domaine biomédical. PhD thesis, Grenoble, 2003. Classification And Regression Trees. L Breiman, J Friedman, R Olshen, C Stone, Chapman et HallL. Breiman, J. Friedman, R. Olshen, and C. Stone. Classification And Regression Trees. Chapman et Hall, 1984. Constructions of local orthonormal bases for classification and regression. R Coifman, N Saito, C. R. Acad. Sci. Paris, 319(Ser. 1R. Coifman and N. Saito. Constructions of local orthonormal bases for classification and regression. C. R. Acad. Sci. Paris, 319(Ser. 1) :191-196, 1994. Entropy-based algorithms for best basis selection. R Coifman, M Wickerhauser, IEEE Trans. Inform. Theory. 382R. Coifman and M. Wickerhauser. Entropy-based algorithms for best basis selection. IEEE Trans. Inform. Theory, 38(2) :713-719, 1992. Les analyses factorielles en calcul des probabilités et en statistique : essai d'étude synthétique. J Dauxois, A Pousse, Université Toulouse IIIPhD thesisJ. Dauxois and A. Pousse. Les analyses factorielles en calcul des probabilités et en statistique : essai d'étude synthétique. PhD thesis, Université Toulouse III, 1976. Méthodes statistiques et numériques de l'analyse harmonique. J C Deville, Annales de l'Insee. 15J.C. Deville. Méthodes statistiques et numériques de l'analyse harmonique. Annales de l'Insee, 15 :7-97, 1974. Ideal spatial adaptation by wavelet shrinkage. D Donoho, I Johnstone, Biometrika. 813D. Donoho and I. Johnstone. Ideal spatial adaptation by wavelet shrinkage. Biome- trika, 81(3) :425-455, 1994. Comparison of discrimination methods for the classification of tumors using gene expression data. S Dudoit, J Fridlyand, T Speed, Journal of the American Statistical Association. 97457S. Dudoit, J. Fridlyand, and T. Speed. Comparison of discrimination methods for the classification of tumors using gene expression data. Journal of the American Statistical Association, 97(457) :77-87, 2002. Ananlyse en normes L 1 et L 0 des distances et des préférences. Planification en analyse sensorielle. Application au confort d'accueil de sièges automobiles. C Favre, Université de Rennes IIPhD thesisC. Favre. Ananlyse en normes L 1 et L 0 des distances et des préférences. Planification en analyse sensorielle. Application au confort d'accueil de sièges automobiles. PhD thesis, Université de Rennes II, 1999. Curves discrimination : a nonparametric functional approach. F Ferraty, P Vieu, Computational Statistics and Data Analysis. 441-2F. Ferraty and P. Vieu. Curves discrimination : a nonparametric functional approach. Computational Statistics and Data Analysis, 44(1-2) :161-173, 2003. Discrimination de courbes par régression inverse fonctionnelle. L Ferré, N Villa, LIIIRevue de Statistique AplliquéeL. Ferré and N. Villa. Discrimination de courbes par régression inverse fonctionnelle. Revue de Statistique Aplliquée, LIII(1) :39-57, 2005. Functional sliced inverse regression analysis. L Ferré, A F Yao, Statistics. 376L. Ferré and A.F. Yao. Functional sliced inverse regression analysis. Statistics, 37(6) :475-488, 2003. Agrégation d'arbres de classification. B Ghattas, Revue de Statistique Appliquée. XLVIII2B. Ghattas. Agrégation d'arbres de classification. Revue de Statistique Appliquée, XLVIII(2) :85-98, 1999. Importance des variables dans les méthodes CART. B Ghattas, 24Revue de ModuladB. Ghattas. Importance des variables dans les méthodes CART. Revue de Modulad, 24 :29-39, 1999. Penalized discriminant analysis. T Hastie, A Buja, R Tibshirani, Annals of Statistics. 23T. Hastie, A. Buja, and R. Tibshirani. Penalized discriminant analysis. Annals of Statistics, 23 :73-102, 1995. The Elements of Statistical Learning. T Hastie, R Tibshirani, J Friedman, SpringerT. Hastie, R. Tibshirani, and J. Friedman. The Elements of Statistical Learning. Springer, 2001. Canonical correlation analysis when the data are curves. S Leurgans, R Moyeed, B Silverman, Journal of the Royal Statistical Society Series B. 55S. Leurgans, R. Moyeed, and B. Silverman. Canonical correlation analysis when the data are curves. Journal of the Royal Statistical Society Series B, 55 :725-740, 1993. A wavelet tour of signal processing. S Mallat, Academic PressS. Mallat. A wavelet tour of signal processing. Academic Press, 1998. M Misiti, Y Misiti, G Oppenheim, J-M Poggi, Les ondelettes et leurs applications. Hermes. M. Misiti, Y. Misiti, G. Oppenheim, and J-M. Poggi. Les ondelettes et leurs appli- cations. Hermes, 2003. Functional Data Analysis. J Ramsay, B Silverman, SpringerJ. Ramsay and B. Silverman. Functional Data Analysis. Springer, 1997. Applied Functional Data Analysis. J Ramsay, B Silverman, SpringerJ. Ramsay and B. Silverman. Applied Functional Data Analysis. Springer, 2002. Functional multi-layer perceptron : a non-linear tool for functional data analysis. F Rossi, B Conan-Guez, Neural networks. 181F. Rossi and B. Conan-Guez. Functional multi-layer perceptron : a non-linear tool for functional data analysis. Neural networks, 18(1) :45-60, 2005. Variable selection using CART. M Sauvé, C Tuleau, Preprint Université Paris XI Orsayen préparationM. Sauvé and C. Tuleau. Variable selection using CART. Preprint Université Paris XI Orsay, pages 1-30, 2005. en préparation. A decision theoretical approach to wavelet regression on curves with a high number of regressors. M Vannucci, P J Brown, T Fearn, Journal of Statistical Planning and Inference. 112M. Vannucci, P.J. Brown, and T. Fearn. A decision theoretical approach to wavelet regression on curves with a high number of regressors. Journal of Statistical Planning and Inference, 112 :195-212, 2003. Statistical modeling by wavelets. B Vidakovic, WileyB. Vidakovic. Statistical modeling by wavelets. Wiley, 1999.
sample_16946
0.7561
arxiv
Análisis estadístico ex post del conteo rápido institucional de la elección de gobernador del Estado de México en el año 2017 Arturo Erdely arturo.erdely@comunidad.unam.mx Facultad de Estudios Superiores Acatlán Universidad Nacional Autónoma de México Análisis estadístico ex post del conteo rápido institucional de la elección de gobernador del Estado de México en el año 2017 ResumenSe realiza un análisis estadístico de las estimaciones del conteo rápido institucional desde la perspectiva ideal de los resultados de los cómputos distritales de la elección de gobernador del Estado de México del año 2017, particularmente aspectos como la precisión de las estimaciones, el nivel de confianza de los intervalos, el posible sesgo respecto al cómputo distrital y las conclusiones que se derivaron y reportaron, con el objetivo de determinar el grado de cumplimiento de los objetivos de este ejercicio estadístico de carácter informativo. Introducción Por primera vez en la historia de los procesos electorales para elegir gobernador del Estado de México, en la elección del año 2017 se realizó un conteo rápido institucional según lo establecido en los artículos 355 al 382 del Reglamento de Elecciones del Instituto Nacional Electoral (INE, 2016), en lo sucesivo REINE, ejercicio que estuvo a cargo del Instituto Electoral del Estado de México (IEEM), y que el artículo 356 del citado REINE define como sigue: "Los conteos rápidos son el procedimiento estadístico diseñado con la finalidad de estimar con oportunidad las tendencias de los resultados finales de una elección, a partir de una muestra probabilística de resultados de actas de escrutinio y cómputo de las casillas electorales, cuyo tamaño y composición se establecen previamente, de acuerdo a un esquema de selección específico de una elección determinada, y cuyas conclusiones se presentan la noche de la jornada electoral." Una vez concluida la jornada electoral, toda la información relativa al conteo rápido se hace del conocimiento público, de acuerdo con lo establecido en el artículo 382 del REINE: "1. A más tardar al día siguiente de la jornada electoral, y al menos durante los próximos seis meses, el Instituto y el OPL, en suámbito de competencia, deberán publicar en sus páginas electrónicas lo siguiente: a) El protocolo de selección de la muestra; b) Las fórmulas de cálculo utilizadas para cada método establecido; c) El reporte de resultados de los conteos rápidos del día de la elección, y d) La base numérica utilizada en las estimaciones de los conteos rápidos, que deberá contener, al menos, la siguiente información: I. Casillas que fueron seleccionadas en la muestra, y II. Casillas que se integraron al cálculo final, cada una con el resultado de la elección. 2. Además, deberán publicar una versión de dicha información, escrita con lenguaje sencillo con el objetivo de facilitar la comprensión, entendimiento y utilidad de la realización de los conteos rápidos y sus resultados." Para el caso de la elección de gobernador del Estado de México del año 2017, toda la información que requiere el artículo anterior continúa disponible en la página electrónica del IEEM (2017a, 2017b) al menos hasta el mes de mayo de 2018 en que se escribe el presente trabajo, así como los resultados de los cómputos distritales que se obtuvieron pocos días después de la jornada electoral. El principal objetivo del presente trabajo es analizar ex post las estimaciones del conteo rápido 2017 desde la perspectiva de los resultados de los cómputos distritales, particularmente aspectos como la precisión de las estimaciones, el nivel de confianza de los intervalos, el posible sesgo respecto al cómputo distrital y las conclusiones que se derivaron y reportaron, y con ello poder determinar el grado de cumplimiento de los objetivos de este ejercicio estadístico. Lo anterior bien podría formar parte de una propuesta de auditoría a los conteos rápidos institucionales que actualmente no está contemplada en el REINE vigente, en contraste con el otro ejercicio de carácter informativo conocido como Programa de Resultados Electorales Preliminares (PREP) respecto al cual sí está contemplado una auditoría, véase el artículo 347 del REINE. Precisión De acuerdo con el artículo 373 del REINE: "Las muestras [de casillas electorales], entendidas como un subconjunto del espacio muestral [total de casillas], con que se inferirán los resultados de la elección respectiva, deberán cumplir con las siguientes características: a) Que todas y cada una de las casillas del marco muestral construido, tengan una probabilidad conocida y mayor que cero, de ser seleccionadas; b) Que se utilice un procedimiento aleatorio para la selección de las muestras, que respete las probabilidades de selección determinadas por el diseño; c) Que considere la posibilidad que abarque la mayor dispersión geográfica electoral posible, y d) La muestra deberá diseñarse con una confianza de noventa y cinco por ciento, y con una precisión tal, que genere certidumbre estadística en el cumplimiento de los objetivos requeridos por el tipo de elección." El Comité Técnico Asesor del Conteo Rápido (COTECORA) designado por el IEEM (2017a) elaboró el documento Criterios Científicos, Protocolo para Selección y Resguardo de la Muestra para la realización del Conteo Rápido en el que se especificó que el proceso de selección de la muestra de casillas para el conteo rápido sería un muestreo aleatorio estratificado, en donde al interior de cada estrato se seleccionarían casillas mediante muestreo aleatorio simple sin reemplazo. Como sea que se definan los estratos,éstos constituyen una partición de todo el espacio muestral (es decir del conjunto total de casillas electorales) en subconjuntos disjuntos, de modo que si K i es el número de casillas dentro del i-ésimo estrato, el muestreo aleatorio simple sin reemplazo dentro de dicho estrato garantiza que todas las casillas del estrato tengan una probabilidad 1/K i > 0 de resultar seleccionadas dentro de la parte de la muestra que corresponda a dicho estrato, cumpliendo con ello los incisos a) y b) del artículo 373. La estratificación del espacio muestral garantiza que todas las casillas tengan posibilidad de ser seleccionadas en la muestra, y que de todos y cada uno de los estratos habrá contribución en la muestra que se utilice para las estimaciones del conteo rápido, cumpliendo así con el inciso c) del artículo 373. El inciso d) del artículo 373 tiene que ver con la determinación del tamaño de muestra, esto es, de un total de K casillas cuál sería un número mínimo c < K de casillas tal que se cumpla el nivel de confianza requerido de 95 % y con la precisión que se establezca, que en esta elección se fijó mediante un margen de error ε = 0.5 % (medio punto porcentual). Si θ representa el porcentaje (desconocido) de la votación que obtendrá un candidato y θ es un estimador puntual de la cantidad desconocida θ, el cumplimiento del inciso d) del artículo 373 implica determinar un tamaño mínimo de muestra de c casillas tal que: P( | θ − θ | ≤ 0.5 % ) = 95 %.(1) Si en la elección participa un total de J ≥ 2 candidatos entonces la estimación para cada candidato j ∈ {1, . . . , J} podría requerir un tamaño de muestra distinto c (j) para cumplir con (1) así que se escoge un tamaño mínimo de muestra c igual al máximo de los valores c (1) , . . . , c (J) para poder garantizarlo. Aún así, el número c depende de las cantidades desconocidas θ 1 , . . . , θ J que son justamente las que se van a estimar, por lo que el COTECORA analizó y realizó ejercicios de simulación probabilística, con distintas formas de estratificación, utilizando resultados de elecciones anteriores recientes del Estado de México (de gobernador en el año 2011, presidencial en el año 2012 en lo concerniente a la votación del Estado de México, y la elección federal de diputados de 2015 en lo concerniente a la votación del Estado de México). Con base en lo anterior, dicho COTECORA estimó que era necesaria una muestra de al menos c = 1200 casillas de un total de K = 18605 casillas a instalarse para la elección del año 2017, utilizando como estratos los 45 distritos locales del Estado de México, así como un número de casillas por estrato proporcional a la lista nominal de cada estrato. Esto es, si n i es el tamaño de la lista nominal en el i-ésimo estrato entonces el número de casillas a seleccionar por muestreo aleatorio simple dentro de dicho estrato sería el número entero c i más próximo a (n i /n)c donde n = 45 i=1 n i es el tamaño total de la lista nominal de la elección en cuestión. Tomando en cuenta también la experiencia del INE en las elecciones federales del año 2015, donde de la muestra total solicitada, en el caso del Estado de México solo se recibió el 66 % de la misma hacia las 10:15 p.m. del día de la jornada electoral, el COTECORA decidió solicitar un número mayor de casillas, 1818 en este caso, ya que de repetirse la experiencia reciente del año 2015 la muestra efectiva a recibir sería de aproximadamente 66 % de 1818 que es igual a las 1200 casillas requeridas. Estoúltimo es importante enfatizarlo porque, por ejemplo, Barranco (2018), sin citar fuente alguna que le diera sustento, afirma lo siguiente: "Se prometió realizar el conteo rápido con el resultado de mil 800 casillas y finalmente no llegó a mil 300." Desde un principio el COTECORA definió como tamaño de muestra requerido 1200 casillas, y solicitó una muestra mayor de 1818 casillas previendo que no llegara toda la muestra de acuerdo a una experiencia anterior, nunca se prometió realizar la estimación con 1800 casillas. Más aún, de acuerdo con el Informe de resultados del Comité Técnico Asesor del Conteo Rápido (IEEM, 2017a) se recibió información de 1347 casillas, un poco más de las 1200 requeridas, lo cual se confirma además con el archivo de la Lista de casillas que se integraron en el cálculo final, cada una con los resultados de la votación recabada que contiene efectivamente 1347 registros de casillas para la estimación del conteo rápido. El objetivo de la presente sección es determinar, ahora con base en la información del cómputo distrital de 2017, si el tamaño de muestra de 1200 casillas estimado por el COTECORA era el adecuado para lograr la precisión deseada con el nivel de confianza requerido de 95 %, así como la precisión alcanzable con un tamaño de muestra como el que efectivamente se recibió para el conteo rápido de la elección de 2017 que fue de 1347 casillas. Como estimador puntual θ j para cada j ∈ {1, . . . , 8} (6 candidatos registrados, 1 categoría de candidatos no registrados y una categoría de voto nulo) en la fórmula (1) el COTECORA utilizó el estimador de razón siguiente: θ j = 45 i=1 K i y i,j 8 =1 45 i=1 K i y i,(2) donde y i,j es el número promedio de votos obtenido por el candidato o categoría j ∈ {1, . . . , 8} en la muestra del estrato (distrito local en este caso) i ∈ {1, . . . , 45}. Así que, para efectos del presente análisis, mediante la misma fórmula (2) se procedió a obtener una cantidad elevada de M muestras estratificadas simuladas de tamaños c = 1200 y c = 1347 a partir del cómputo distrital y con ellas se estimó el margen de error ε j para cada candidato o categoría j ∈ {1, . . . , 8} mediante el siguiente: 4. verificar si ε j ≤ 0.5 %. Esta forma de estimar los valores ε j para cada candidato o categoría j tiene fundamento en la forma usual de estimar cuantiles de forma no paramétrica, véase por ejemplo Mood et. al (1974) o Wasserman (2006. Utilizando los datos del cómputo distrital se obtiene el Cuadro 1 donde se aplicó el Algoritmo 1 para estimar la precisión alcanzable con 1200 y 1347 casillas, respectivamente, y se agrega unaúltima columna con las precisiones obtenidas y reportadas en las estimaciones del COTECORA. Estos resultados confirman que el tamaño y diseño muestral era el adecuado para lograr un margen de error de no más de 0.5 % con 1200 casillas. Como finalmente se recibió un número mayor de casillas al requerido (1347), para efectos de comparación se presentan las precisiones alcanzables y alcanzadas por candidato para ese tamaño de muestra, siendo en todos los casos menores a 0.5 % y muy similares en el caso de cada candidato en particular, solamente en el caso de la categoría voto nulo el margen de error del COTECORA sí resultó un tanto mayor a lo que debió haber sido, aunque la razón de esto se analizará más adelante, en la sección sobre sesgo. Cuadro 1: Precisiones alcanzables bajo muestras estratificadas de tamaños de 1200 y 1347 casillas, respectivamente, y las precisiones alcanzadas por las estimaciones del COTECORA. Nivel de confianza La desigualdad en (1) es equivalente a θ − 0.5 % ≤ θ ≤ θ + 0.5 % ,(3) y nos permite la interpretación alternativa que, con probabilidad 95 %, el porcentaje desconocido de votos θ estará en el intervalo [ a , b ] = [ θ − 0.5 % , θ + 0.5 % ](4) donde θ es un estimador puntual de θ con base en una muestra estratificada de c = 1200 casillas y una precisión (o margen de error) en este caso de 0.5 %. Nótese que la longitud del intervalo resultante es b − a = 1 %, es decir igual al doble del margen de error de 0.5 %. Por lo tanto, cual sea el método de estimación que se utilice para el conteo rápido, en congruencia con lo anterior, dichos métodos deben calcular intervalos con un nivel de confianza 95 % mismos que debieran resultar con longitudes no mayores a 1 %. El nivel de confianza para los intervalos que calculó el COTECORA fue establecido justamente en la página 4 del documento Criterios Científicos, Protocolo para Selección y Resguardo de la Muestra para la realización del Conteo Rápido (IEEM, 2017a) en el que se especificó que: "Todas las estimaciones del COTECORA estarán dadas en forma de intervalos de confianza del 95 %." En el Cuadro 2 se comparan los resultados del cómputo distrital con los intervalos de confianza 95 % estimados por el COTECORA. Como puede apreciarse, en todos los casos la longitud de los intervalos es menor a 1 %, cumpliendo con ello no sobrepasar el margen de error establecido de 0.5 % . Cuadro 2: Intervalos de confianza 95 % estimados por el COTECORA para cada candidato o categoría, con base en la muestra estratificada recibida de 1347 casillas. De los 9 intervalos estimados por el COTECORA, en 2 casos (candidato Del Mazo y voto nulo) el resultado del cómputo distrital quedó fuera del intervalo correspondiente. ¿Es esto un error de estimación? No necesariamente, porque si un intervalo se calculó a un nivel de confianza de 95 % esto significa que, como estimador estadístico, tiene una probabilidad de 95 % de contener al valor que pretende estimar, y una probabilidad de 5 % de no contenerlo. Laúnica forma de garantizar al 100 % que todos los intervalos contendrán los valores que pretenden estimar es utilizar en todos los casos un nivel de confianza del 100 %, pero esto daría por resultado en todos los casos intervalos [0 %, 100 %], lo cual es tan cierto como inútil. Con cualquier nivel de confianza que sea menor a 100 % (que en el caso de este conteo rápido fue de 95 %) no es posible garantizar al 100 % que todos los intervalos contengan el valor que se pretende estimar. Pero en un caso extremo tampoco resultaría aceptable que todos los intervalos fallaran en contener al valor que cada uno pretende estimar, aunque estrictamente la probabilidad de que esto suceda es positiva, quizás muy pequeña en algún sentido, pero no cero. De hecho, es posible estimar las probabilidades de que cierto número de intervalos no contengan el valor que pretenden estimar. Primero se hará un cálculo aproximado con el siguiente razonamiento: Se trata en este caso particular de 9 intervalos con nivel de confianza 95 % y por tanto la probabilidad de que cada uno no contenga el valor que pretende estimar es de 5 %. Si se tratara de intervalos independientes entre sí (que no es estrictamente el caso, y por ello se trata de una aproximación) podría considerarse una variable aleatoria X con distribución de probabilidad Binomial con parámetros p = 0.05 y r = 9 de modo que X represente el número de intervalos que no logran contener el valor que pretenden estimar, y por tanto los valores posibles para X son 0, 1, 2, . . . , 9. Su función de masa de probabilidades, véase por ejemplo Mood (1974), es la siguiente: P(X = x) = 9 x (0.05) x (0.95) 9−x , x = 0, 1, 2, . . . , 9.(5) Mediante la fórmula anterior la probabilidad de que a ningún intervalo se le escape el valor que pretende estimar sería igual a P(X = 0) = 63 %, o equivalentemente y por complemento, la probabilidad de que exista al menos un intervalo que no contenga el valor que pretende estimar es de 37 %. En el caso del Cuadro 2 se tuvieron 2 intervalos que no contuvieron el valor que pretendían estimar, y la probabilidad de que fallen 2 o más intervalos sería igual a: P(X ≥ 2) = 9 x = 2 9 x (0.05) x (0.95) 9−x = 7.1 %.(6) El cálculo anterior sería válido si los intervalos fuesen independientes entre sí, pero cierto grado de dependencia está garantizado ya que la suma de los porcentajes de votación obtenido por cada candidato y categoría debe ser igual a 100 %, y por tanto un cambio porcentual positivo/negativo para un candidato o categoría necesariamiente implica un cambio negativo/positivo para otro(s) candidato(s) o categoría(s) para que la suma se mantenga constante en 100 %. Así que una forma de estimar las probabilidades anteriores tomando en cuenta la dependencia entre candidatos es posible mediante el siguiente: Algoritmo 2 1. Simular M = 100000 muestras estratificadas de 1347 casillas cada una a partir del cómputo distrital; 2. con cada muestra estimar θ puntualmente para cada candidato con la fórmula (2); 3. mediante cada θ del paso anterior construir un intervalo como en (4) pero sumando y restando la precisión alcanzable para cada candidato bajo una muestra de 1347 casillas, de acuerdo con el Cuadro 1, para que en cada caso resulten intervalos de nivel de confianza 95 %; 4. para cada muestra y conjunto de 9 intervalos estimados, contabilizar el número X de intervalos que no contuvieron el porcentaje obtenido en el cómputo distrital; 5. calcular la proporción de muestras en las que hubo X intervalos que no contuvieron el porcentaje obtenido en el cómputo distrital. En el Cuadro 3 se muestran los resultados de aplicar el Algoritmo 2, y se comparan con las probabilidades que pueden obtenerse mediante la fórmula (5). No hay una gran diferencia porque se trata de 9 candidatos y categorías, con una cantidad menor de candidatos la dependencia entre ellos se incrementa y dichas probabilidades comenzarían a diferenciarse más de las que se obtienen bajo un supuesto de independencia. Cuadro 3: Estimación de probabilidades de que intervalos del COTECORA no contengan el porcentaje de votos del cómputo distrital, bajo dependencia (Algoritmo 2) y bajo independencia (Binomial). Del Cuadro 3 queda claro que, aún con los intervalos de confianza 95 % ideales, la probabilidad de que los 9 intervalos contuvieran (todos y cada uno) el valor que finalmente se obtendría en el cómputo distrital era de 62.3 %, y por complemento la probabilidad de que al menos un intervalo no contuviera el porcentaje que pretendía estimar era de 37.7 %. Para el caso que nos ocupa, que de acuerdo al Cuadro 2 dio como resultado que 2 de los 9 intervalos estimados por el COTECORA no contuvieron el porcentaje que pretendían estimar, la probabilidad de que esto sucediera y bajo condiciones ideales era de 9 %. Lo anterior, adaptado a una prueba de hipótesis estadística, estableciendo como hipótesis nula: H 0 : Los 9 intervalos fueron correctamente calculados el p-valor de la prueba sería justamente de 9 %, que bajo el estándar usual de utilizar 5 % (o menos) como umbral para rechazar una hipótesis nula, llevaría a no rechazar H 0 . Aún así, un p-valor mucho mayor quizás daría más tranquilidad que uno de 9 % que no se encuentra tan lejos de 5 % así que, si bien no se rechazaría la hipótesis nula, habría que ser cauto en darla por buena, por el peligro de cometer lo que se conoce en Estadística como Error Tipo II: aceptar H 0 incorrectamente. Esto es, por sí solo, el hecho de que 2 de 9 intervalos no contuvieran el porcentaje que pretendían estimar no es suficiente evidencia para descalificar la calidad de los intervalos estimados, pero tampoco es la adecuada para afirmar lo contrario. Esto se clarificará más adelante, en la sección sobre sesgo. Corona (2018), quien fuera consejero electoral del IEEM durante el proceso electoral en cuestión, afirma lo siguiente: "Tal vez la mejor evaluación del conteo rápido la hizo un asesor del consejero del INE, Marco Baños, de apellido Carriedo, quien afirmó que en las elecciones del 4 de junio fallaron los conteos rápidos del Estado de México y Coahuila, que ((necesitaban más solvencia en ese instrumento de información preliminar pero no la encontraron)). Carriedo sostuvo que en el primer estado la falla no tuvo la dimensión de Coahuila, pero también existió. ((Desestimarla con la lógica de qué tanto es tantito sería un error grave, porque en entornos crispados una décima o diez pueden ser la diferencia entre confianza y sospecha)). El conteo proyectó de 32.75 a 33.59 % la votación para Alfredo del Mazo; peroél registró 33.69 en los cómputos [distritales]. ((Se podrá decir que la tendencia de ganador fue correcta, pero el rango no fue preciso, quedó muy lejos del mínimo y rebasó el máximo previsto, otra vez.))" Con base en lo ya anteriormente expuesto en esta sección, descalificar una estimación por intervalo por el solo hecho de que no logró contener el porcentaje obtenido en los cómputos distritales no tiene fundamento estadístico, pues al ser un intervalo con nivel de confianza 95 % existe una probabilidad de 5 % de que no lo contenga, por la variabilidad propia de la aleatoriedad inherente a un muestreo probabilístico. La realidad es que sí hay un explicación para este caso particular, misma que se aborda más adelante, en la sección sobre sesgo. Y cuando el periodista Carriedo (2017) hace referencia a que "el rango no fue preciso" definitivamente no habla en términos estadísticos porque la precisión tiene que ver con la longitud del intervalo, que en todos los casos estuvo dentro de la meta planteada de ser no mayor a 1 % que es lo que corresponde a un margen de error de 0.5 %, véase el Cuadro 1. Sesgo El proceso de transmisión-recepción de información de las casillas seleccionadas para la muestra del conteo rápido se realizó mediante el procedimiento que se describe a continuación y que se ilustra en la Figura 1: A. Capacitadores-Asistentes Electorales del INE (CAEs) transcribieron información de las actas de escrutinio y cómputo en un formato especial para el conteo rápido. B. Los CAEs se comunicaron telefónicamente al centro de captura del IEEM para dictar la información de dicho formato. C. Los capturistas del IEEM introdujeron la información dictada por los CAEs en el sistema de cómputo ex profeso del IEEM, para ser consultada y procesada por el COTECORA. Figura 1: Diagrama del flujo de información desde su origen en la casilla de la muestra del conteo rápido hasta su destino para utilizarse en la estimación que realiza el COTECORA. Cada uno de los pasos A, B y C en la Figura 1 representa una posibilidad de que la información proveniente del acta de escrutinio y cómputo resulte alterada por la intervención humana. En principio el supuesto es que, de haber errores, sean no intencionales y por tanto de naturaleza azarosa, pero desde un rigor científico, las diferencias entre lo asentado en las actas y la información recibida por el COTECORA para realizar el conteo rápido, una vez que se conocen los cómputos distritales, son analizables estadísticamente para efecto de decidir si la hipótesis de que existe un "equilibrio razonable" entre errores de captura a favor y en contra (y por tanto errores al azar) para cada candidato es rechazable o no. Con el objeto de dar la mayor claridad posible a las ideas de la presente sección, se comenta primero un ejemplo que las ilustre de forma sencilla. Supongamos que se tienen datos de una moneda sobre la cual la hipótesis de interés es que se trata de una moneda equilibrada, y los datos recabados son los resultados de 21 volados que se han lanzado con ella. Si la hipótesis es correcta, se esperaría un "equilibrio" entre el número deáguilas y soles obtenidos, pero ese "equilibrio" no puede tomarse de forma estricta porque, para empezar, con un número impar de volados (21 en este ejemplo) es imposible obtener el mismo número deáguilas que de soles. Y aún con un número par de volados, no es difícil que con una moneda equilibrada se obtenga diferente número deáguilas y de soles. La ciencia Estadística se encarga precisamente de cuantificar qué tan probable es que se presenten diferencias de cierta magnitud bajo la hipótesis de interés, y con base en ello decidir si es rechazable una hipótesis de moneda equilibrada, por ejemplo. Esto ilustra el enfoque que se adopta en la presente sección para el análisis de diferencias entre la información recibida por el COTECORA respecto a las casillas de la muestra y la información de esas mismas casillas en el cómputo distrital. Dentro del conjunto de datos denominado Resultados de los Cómputos Distritales de la Elección de Gobernador 2017 (IEEM, 2017b) se identificaron las 1347 casillas utilizadas por el COTECORA para el conteo rápido, y se compararon los resultados de dichas casillas versus los datos contenidos en el conjunto de datos denominado Lista de casillas que se integraron en el cálculo final, cada una con los resultados de la votación recabada (IEEM, 2017a). A los resultados de las 1347 casillas recibidas por el COTECORA el día de la jornada electoral se restaron los resultados de esas mismas 1347 casillas pero con datos del cómputo distrital posterior. Si no hubiera habido errores de captura, todas las diferencias deberían haber sido igual a cero. No fue así, y dichas diferencias son sometidas a un análisis estadístico a continuación. Primero se presenta una estadística descriptiva de dichas diferencias, calculando para cada candidato o categoría el porcentaje de casillas en que la diferencia es cero (sin errores de captura), los porcentajes de casillas en que hubo errores de captura a favor y en contra de cada candidato, y finalmente la diferencia promedio de votos por casilla en cada caso (promedio de las diferencias), véase el Cuadro 4. Cuadro 4: Para cada candidato y categoría, porcentaje de casillas de la muestra sin error, con errores a favor y con errores en contra, y diferencia promedio de votos por casilla en cada caso. Del Cuadro 4, por ejemplo, de los candidatos registrados fue Del Mazo quien tuvo el menor porcentaje de casillas de la muestra sin error (84.1 %), con diferencias a favor en 7.6 % de ellas y diferencias en contra en 8.3 %, y la diferencia promedio de votos por casilla en su caso resultó predominantemente en contra (−0.19 votos por casilla), lo cual quiere decir que en la muestra recibida por el COTECORA el candidato Del Mazo estuvo sub-representado respecto al cómputo distrital. En contraste, por ejemplo, la candidata Gómez presentó 92.6 % de casillas de la muestra sin error, con 3.9 % de casillas con errores a favor y 3.5 % de casillas con errores en contra, así como una diferencia promedio de votos por casilla que resultó predominantemente a favor (+0.82 votos por casilla), lo cual quiere decir que en la muestra recibida por el COTECORA la candidata Gómez estuvo sobre-representada respecto al cómputo distrital. Qué tanto impacto tienen las sub/sobre representaciones para cada candidato, y estadísticamente qué tan significativas son, se analizará a continuación. En términos ideales, considerando errores humanos al azar, era de esperarse un porcentaje mayoritario de casillas sin error (como efectivamente ocurrió), un "razonable equilibirio" entre los porcentajes de casillas con errores a favor y en contra, e idealmente una diferencia promedio de votos por casilla igual a cero, ver fórmula (8) más adelante. Qué tan significativas son las desviaciones de cero de las diferencias promedio de votos por casilla para cada candidato o categoría se analizará ahora desde unaóptica de estadística inferencial. Con base en las diferencias de votos calculadas para cada candidato y categoría, interesa decidir para cada caso si la siguiente hipótesis estadística es rechazable o no: H 0 : Las diferencias a favor y en contra ocurrieron al azar (7) y en los casos que dicha hipótesis resulte rechazable se concluirá que existe un sesgo estadísticamente significativo respecto al cómputo distrital, a favor o en contra, según sea de signo positivo o negativo la diferencia promedio de votos por casilla correspondiente en el Cuadro 4. Se denotará mediante D a una variable aleatoria que cuantifica la diferencia, en número de votos, entre la votación de un candidato en una casilla específica de la muestra recibida por el COTECORA y la votación que efectivamente se asentó en el acta de escrutinio y cómputo de acuerdo al cómputo distrital. Se trata de una variable aleatoria discreta que asigna probabilidad positiva a que no haya error o diferencia, esto es P(D = 0) > 0, y cuyo rango de valores satisface {0} ⊂ Ran D ⊂ {. . . , −2, −1, 0, +1, +2, . . .}. Estrictamente Ran D es finito porque existe un máximo de diferencia posible ya que la votación en cualquier casilla está acotada. Si H 0 es verdadera entonces necesariamente P(D = d) = P(D = −d) para cualquier número entero d ya que ante errores al azar cualquier diferencia en una casilla sería tan susceptible de resultar a favor como en contra de cualquier candidato. Estoúltimo tiene una implicación para la esperanza de la variable aleatoria D : E(D) = d ∈ Ran D d P(D = d) = d > 0 d P(D = d) + d < 0 d P(D = d) = d > 0 d P(D = d) − −d > 0 (−d)P(D = −d) = 0.(8) Si d 1 , . . . , d 1347 son las diferencias calculadas para cada una de las casillas del conteo rápido para un determinado candidato (algunas serán cero, otras positivas, otras negativas), bajo la hipótesis de interés H 0 el signo positivo/negativo de las diferencias puede considerarse producto de una variable aleatoria S con distribución de probabilidad uniforme sobre el conjunto {−1, +1}, esto es que P(S = −1) = 1 2 = P(S = +1) (errores al azar), y por tanto el conjunto de diferencias observadas {d 1 , . . . , d 1347 } puede verse como una realización de la muestra aleatoria |d 1 |S 1 , . . . , |d 1347 |S 1347 donde las variables aleatorias S 1 , . . . , S 1347 son independientes e idénticamente distribuidas con distribución de probabilidad uniforme sobre el conjunto {−1, +1}. Definiendo las variables aleatorias D * k = |d k |S k para k ∈ {1, . . . , 1347} la diferencia promedio resultante es la variable aleatoria D * = 1 1347 1347 k=1 D * k = 1 1347 1347 k=1 |d k |S k y por consecuencia: E(D * ) = 1 1347 1347 k = 1 |d k |E(S k ) H 0 = 0 y V(D * ) = 1 1347 2 1347 k = 1 |d k | 2 V(S k ) H 0 = 1347 k = 1 d k 1347 2 (9) ya que bajo H 0 se tiene que E(S k ) = (−1) 1 2 + (1) 1 2 = 0 y la varianza V(S k ) = E(S 2 k ) − [E(S k )] 2 = (−1) 2 1 2 + (1) 2 1 2 − 0 2 = 1. Utilizando a D *p-valor = P H 0 ( | D * | > | d | )(10) donde el p-valor es la probabilidad de rechazar erróneamente H 0 . La práctica estadística común es decidir rechazar H 0 si el p-valor es menor a 5 % o bajo criterios más conservadores si es menor a 1 % y que es el que se adoptará en este análisis. La probabilidad (10) se puede estimar vía simulación, generando un número elevado de muestras {D * 1 , . . . , D * 1347 } bajo la hipótesis H 0 y calculando con cada una de ellas el valor correspondiente a D * . Los p-valores calculados para cada candidato y categoría se resumen en el Cuadro 5. Cuadro 5: Para cada candidato y categoría, p-valores de rechazar H 0 como se definió en (7), y diferencia promedio de votos por casilla en la muestra del conteo rápido. Lo que es posible concluir estadísticamente a partir de lo anterior es que difícilmente podría atribuirse a errores al azar las diferencias promedio por casilla observadas para la candidata Gómez y para la categoría de voto nulo, mientras que para los demás casos no es rechazable que se deban a errores al azar. Pero independientemente de que se rechace o no H 0 para cada candidato o categoría, es importante también cuantificar el efecto de estas diferencias promedio en los intervalos estimados por el COTECORA. Para ello se procede a estimar los intervalos a los que hubiera llegado el COTECORA si no hubiesen existido estas diferencias, utilizando las mismas precisiones alcanzadas por dicho comité (ver Cuadro 1) pero corrigiendo el centro del intervalo mediante el estimador puntual (2) calculado sobre las casillas de la muestra con los datos del cómputo distrital. Los resultados se presentan en el Cuadro 6. Cuadro 6: Estimación por intervalos del conteo rápido, con y sin errores de captura. Aunque ya se explicó en un sección anterior que en un momento dado el resultado del cómputo distrital puede quedar fuera de algún intervalo de confianza 95 % por el simple hecho de que existe una probabilidad de 5 % de que así suceda en un muestreo probabilístico, en este caso particular queda claro que fueron errores de captura los causantes de que así ocurriera en el caso del candidato Del Mazo y de la categoría del voto nulo, y por tanto es falso que esto se deba a una falta de "solvencia en ese instrumento de información preliminar" como lo afirmó el periodista Carriedo (2017). Así, por ejemplo, la sub-representación del candidato Del Mazo en la muestra, debido a errores de captura que bien pueden considerarse al azar, provocó que el intervalo estimado por el COTECORA tuviese extremos menores a los debidos. La sobre-representación de la candidata Gómez y del voto nulo, debido a errores de captura que además difícilmente son atribuibles al azar, provocó que los intervalos estimados por el COTECORA tuviesen extremos mayores a los debidos. Así que respecto a lo que señala Corona (2018): "Por lo tanto, no puedo afirmar que el conteo rápido del 4 de junio de 2017 se haya efectuado sin sesgo." es posible señalar queúnicamente respecto a la votación correspondiente a la candidata Gómez y a la categoría de voto nulo en la muestra del conteo rápido se presentó un sesgo estadísticamente significativo respecto al cómputo distrital (a favor en ambos casos) pero que no altera el resultado respecto al lugar que ocupa cada candidato en la estimación del conteo rápido. En el caso del candidato Del Mazo los errores de captura tienen más apariencia de errores al azar, pero fueron en cantidad y variabilidad suficiente para provocar que el intervalo estimado por el COTECORA no contuviera el porcentaje obtenido por dicho candidato en el cómputo distrital. De hecho no debiera sorprender que el candidato Del Mazo tuviera el menor porcentaje de casillas sin diferencias (84.1 %, ver Cuadro 4) ya que fue elúnico postulado por una coalición de partidos políticos: Partido Revolucionario Institucional (PRI), Partido Verde Ecologista de México (PVEM), Partido Nueva Alianza (NA) y Partido Encuentro Social (ES). Esto implica que había un total de 15 combinaciones distintas para votar y contabilizar votos para dicho candidato, 1 aumentando significativamente con ello las posibilidades de errores de captura en comparación con otros candidatos postulados por un solo partido o de forma independiente. El caso que sí resulta sorprendente es la categoría de voto nulo con un porcentaje similar de casillas sin diferencias (86.8 %), no queda clara la razón de semejante cantidad de errores siendo una sola categoría y con la agravante además de presentar un sesgo estadísticamente significativo respecto al cómputo distrital. Informe de resultados El artículo 380 del REINE, en su apartado 2 establece lo siguiente: "El día de la jornada electoral, el COTECORA deberá rendir un informe de avance de la integración de la muestra al Consejo General uÓrgano Superior de Dirección respectivo. El informe deberá realizarse cada hora a partir de las 21:00 horas de ese día y hasta la entrega de los resultados finales que haga el COTECORA a los propios Consejos Generales." En el documento Criterios Científicos, Protocolo para Selección y Resguardo de la Muestra para la realización del Conteo Rápido (IEEM, 2017a) el COTECORA estimó que: "[...] se esperaría contar con un tamaño de muestra efectivo de n = 1,200 casillas alrededor de las 10:00 pm del 4 de junio [de 2017]." De acuerdo con el Informe de resultados del Comité Técnico Asesor del Conteo Rápido (IEEM, 2017a) a las 21:10 horas el COTECORA había recibido una muestra de 1347 casillas con información suficiente de los 45 estratos (distritos electorales locales) considerados para conformar el diseño muestral y procedió hacia las 21:15 horas a elaborar el informe de resultados del conteo rápido. Lo anterior deja claro que el COTECORA cumplió con el tiempo marcado por el REINE y que incluso obtuvo una muestra ligeramente mayor a las 1200 casillas que previamente había estimado como suficientes para realizar las estimaciones de acuerdo al nivel de precisión y nivel de confianza previamente establecidos. Esto es importante enfatizarlo porque Barranco (2018) pregunta/afirma lo siguiente: "¿Por qué no se respetó lo anunciado y se adelantó la difusión del resultado del conteo rápido?" Barranco (2018) no especifica qué se anunció ni por quién, mucho menos aporta una fuente al respecto, pero no hubo adelanto alguno ya que el informe se realizó dentro de los tiempos que marca el REINE y de conformidad con los criterios científicos previamente establecidos. El apartado 3 del artículo 380 del REINE establece lo siguiente: "Sea cual fuere la muestra recabada y los resultados obtenidos, el COTECORA deberá presentar un reporte al Consejo General uÓrgano Superior de Dirección que corresponda, en el que indique, además, las condiciones bajo las cuales se obtuvieron los resultados, así como las conclusiones que de ellos puedan derivarse. Las estimaciones deberán presentarse en forma de intervalos de confianza para cada contendiente." El Informe de resultados del Comité Técnico Asesor del Conteo Rápido (IEEM, 2017a) contiene tres apartados. El primero Información general de la muestra recuperada cumple con reportar las condiciones bajo las cuales se obtuvieron los resultados. El segundo apartado Estimación de tendencias de la votación reporta estimaciones en forma de intervalos de confianza para cada contendiente. El tercer apartado Conclusiones contiene precisamente las conclusiones que de los resultaron pudieron derivarse y cuya redacción fue la siguiente: "A partir de la muestra recuperada y de acuerdo a las estimaciones realizadas por el Comité Técnico Asesor del Conteo Rápido, existe una diferencia estadísticamente significativa entre el primer y segundo lugar de la elección para gobernador del Estado de México." Barranco (2018) afirma que: "La fatídica noche del 4 de junio, ante resultados tan apretados, el presidente del consejo del IEEM -Pedro Zamudio-se atrevió a declarar que ((la diferencia [era] significativa)) a favor de Del Mazo." La realidad es que elúnico "atrevimiento" del presidente del IEEM fue leer textualmente el apartado de conclusiones del informe de resultados redactado por el COTECORA. El objetivo de la presente sección es analizar ex post si dicha conclusión es estadísticamente justificable, desde la perspectiva del cómputo distrital. Para ello se procedió a simular una gran cantidad de muestras estratificadas (100 mil) de tamaño 1347 a partir del listado de casillas del cómputo distrital, y con cada una de ellas se estimó de forma simultánea ( θ 1 , θ 2 ), que para el caso de la elección que se analiza corresponden a las estimaciones puntuales por medio de (2) de los candidatos Del Mazo y Gómez (en ese orden), y se calculó la diferencia θ 1 − θ 2 . El histograma correspondiente a dichas diferencias es el de la Figura 2. Figura 2: Histograma de 100 mil diferencias calculadas como porcentaje de votos a favor de Del Mazo menos porcentaje de votos a favor de Gómez en muestras estratificadas de 1347 casillas a partir del cómputo distrital. A dichas diferencias se aplicó la prueba de normalidad de Shapiro-Wilk (1965) y con un p-valor de 41 % no se rechaza la hipótesis de que las diferencias tengan una distribución Normal, con media 2.78 % (que coincide con la diferencia en el cómputo distrital entre el porcentaje obtenido por Del Mazo y el obtenido por Gómez, esto es 33.69 % − 30.91 % = 2.78 %, como era de esperarse) y desviación estándar 0.38 %. La gráfica de una función de densidad de probabilidad Normal con dichos parámetros se exhibe también en la Figura 2, y la probabilidad de que se presentara una diferencia negativa (y por tanto que se concluyera que Gómez era quien triunfaba) bajo dicha distribución de probabilidad resulta tan pequeña como 0.000000000011 %. Por lo tanto, ex post la conclusión del COTECORA tenía una probabilidad así de pequeña de ser errónea, resultando con ello estadísticamente justificable. Conclusiones Desde la perspectiva ideal de los resultados del cómputo distrital de la elección de gobernador del Estado de México del año 2017 se analizaron retrospectivamente las estimaciones del conteo rápido institucional realizado por el Instituto Electoral del Estado de México, para evaluar el grado de cumplimiento de los objetivos de este ejercicio estadístico de carácter informativo. El tamaño de muestra efectivo de 1200 casillas al que aspiraba el COTECORA cumplía con lograr la precisión planeada (margen de error de cuando más 0.5 %, ver Cuadro 1) en las estimaciones por intervalos con nivel de confianza 95 %. Más aún, la solicitud de una muestra total de 1818 casillas, tomando en cuenta una experiencia previa que daba cuenta de que no llega toda la información solicitada, resultó adecuada pues finalmente se contó con una muestra efectiva de 1347 casillas para realizar la estimación del conteo rápido, poco más de lo estrictamente requerido. Esto refuta señalamientos que al respecto hace Barranco (2018) respecto al tamaño de muestra utilizado por el COTECORA para realizar las estimaciones. La calidad estadística de una estimación por intervalo no puede evaluarse de forma binaria calificándolo como exitoso si logra contener el valor que pretende estimar y como fracaso si no, tal cual lo hace Carriedo (2017) por ejemplo, ya que al ser calculados con un nivel de confianza de 95 % esto significa que existe una probabilidad de 5 % para cada uno de no contener el valor que pretende estimar, aún bajo condiciones ideales. Tomando en cuenta que el COTECORA tuvo que estimar 9 intervalos en dicha elección, con base en la información del cómputo distrital se calcularon la probabilidades de que cierto número de intervalos no contuvieran el valor que pretendían estimar. Estimar 9 intervalos con nivel de confianza 95 % no se traduce en la misma probabilidad de que todos contengan el valor que pretenden estimar, pues en este caso resultaba de 62.3 % (ver Cuadro 3). De los 9 intervalos reportados por el COTECORA fueron 2 los que no contuvieron el valor que pretendían estimar (ver Cuadro 2) y, aún bajo condiciones ideales, la probabilidad de que 2 o más intervalos no contuvieron el valor que pretendían estimar era de 9 %. En la Figura 1 se muestran los tres momentos en que el flujo de información de las actas de escrutinio y cómputo de las casillas de la muestra para el conteo rápido puede resultar alterado por la intervención humana. Lo anterior es causante de diferencias entre la información que recibió el COTECORA para realizar las estimaciones por intervalo la misma noche de la jornada electoral y la que debió haber recibido y quedó expresada en el cómputo distrital días después. Estas diferencias fueron analizadas estadísticamente buscando determinar para cada candidato si las diferencias en la información podrían considerarse errores al azar. La conclusión resultante es que así fue, excepto en dos casos (candidata Gómez y categoría voto nulo) en donde se detecta un sesgo estadísticamente significativo (a favor en ambos casos) en la información recibida por el COTECORA respecto a la información del cómputo distrital. El caso del candidato Del Mazo es de señalarse porque, si bien las diferencias lucen como errores al azar, la variabilidad fue tal que la diferencia promedio de votos por casilla en contra (−0.19) fue suficiente para que el intervalo estimado por el COTECORA no capturara el porcentaje de votación que finalmente dicho candidato obtendría en el cómputo distrital. Aquí es de destacarse que el candidato Del Mazo fue elúnico postulado por una coalición de 4 partidos políticos, y por tanto había un total 15 combinaciones distintas para votar y contabilizar votos para dicho candidato, aumentando significativamente con ello las posibilidades de errores de captura en comparación con los otros candidatos. De no haber existido diferencias entre la información que recibió el COTECORA la noche de la jornada electoral y la que quedó asentada en actas de acuerdo al cómputo distrital días después, todos los intervalos estimados por el COTECORA habrían contenido todos los porcentajes que del cómputo distrital pretendían estimar (Cuadro 6). A pesar de lo anterior, las diferencias no resultan de magnitud suficiente como para que el COTECORA hubiese concluido algo distinto a lo que reportó la misma noche de la jornada electoral. Finalmente, respecto al informe de resultados entregado por el COTECORA la noche de la jornada electoral, además de cumplir con su entrega en tiempo y forma, contiene una conclusión sobre una diferencia estadísticamente significativa entre el primer y segundo lugar de la contienda electoral (Del Mazo sobre Gómez) que, a la luz del cómputo distrital y con un tamaño de muestra como el que se recibió (1347 casillas), resulta estadísticamente justificable ya que dicha conclusión tenía una probabilidad de error muy pequeña (aproximadamente de 0.000000000011 %). candidato o categoría j ∈ {1, . . . , 8} : 1. Simular M = 100000 muestras estratificadas de c ∈ {1200, con el porcentaje θ j obtenido en el cómputo distrital estimar ε j como el cuantil 95 % de { | θ j − θ (m) j | : m = 1, . . . , M }; como estadístico para decidir si se rechaza o no H 0 dada una diferencia promedio observada para una candidato o categoría particular calculada mediante d = 1 1347 1347 k=1 d k (ver renglón Dif. Promedio en el Cuadro 4) se calcula: Combinaciones posibles: 1. PRI, 2. PVEM, 3. NA, 4. ES, 5. PRI-PVEM, 6. PRI-NA, 7. PRI-ES, 8. PVEM-NA, 9. PVEM-ES, 10. NA-ES, 11. PRI-PVEM-NA, 12. PRI-PVEM-ES, 13. PRI-NA-ES, 14. PVEM-NA-ES y 15. PRI-PVEM-NA-ES. Regresión, corrupción electoral y desdibujamiento institucional. Capítulo de libro en El infierno electoral: El fraude del Estado de México y las próximas elecciones de 2018, coordinado por Bernardo Barranco Villafán. Penguin Random House Grupo Editorial México. B Barranco Villafán, Edición de KindleBarranco Villafán, B. (2018) Regresión, corrupción electoral y desdibujamiento institucional. Capítulo de libro en El infierno electoral: El fraude del Estado de México y las próximas elecciones de 2018, coordinado por Bernardo Barranco Villafán. Penguin Random House Grupo Editorial México (Edición de Kindle). Conteo rápido herido de muerte. Carriedo Téllez, L M , pág. 4.Carriedo Téllez, L.M. (2017) Conteo rápido herido de muerte, artículo del periódico El Heraldo de México, 7 de julio de 2017, pág. 4. Elecciones sin libertad y el triángulo de las cifras oficiales. Capítulo de libro en El infierno electoral: El fraude del Estado de México y las próximas elecciones de 2018, coordinado por Bernardo Barranco Villafán. Penguin Random House Grupo Editorial México. G Corona Armenta, Edición de KindleCorona Armenta, G. (2018) Elecciones sin libertad y el triángulo de las cifras oficiales. Capítulo de libro en El infierno electoral: El fraude del Estado de México y las próximas elecciones de 2018, coordinado por Bernardo Barranco Villafán. Penguin Random House Grupo Editorial México (Edición de Kindle). Documentos del Conteo Rápido. Instituto Electoral del Estado de Méxicoconsultado el 1 de mayo de 2018Instituto Electoral del Estado de México (2017a) Documentos del Conteo Rápido 2017 COTECORA. http://www.ieem.org.mx/2017/cotecora 2017/cotecora17.html [consultado el 1 de mayo de 2018] Resultados de los Cómputos Distritales de la Elección de Gobernador. Instituto Electoral del Estado de Méxicoconsultado el 1 de mayo de 2018Instituto Electoral del Estado de México (2017b) Resultados de los Cómputos Distritales de la Elección de Gobernador 2017. http://www.ieem.org.mx/numeralia/elecciones/resultados/elecciones locales/GOB17/ Res CómputosDistritales Gobernador 2017 por casilla.xlsx [consultado el 1 de mayo de 2018] Reglamento de Elecciones (México). www.ine.mx. Instituto Nacional Electoral. consultado el 12 de enero de 2018Instituto Nacional Electoral (2016) Reglamento de Elecciones (México). www.ine.mx [consultado el 12 de enero de 2018] Introduction to the Theory of Statistics. A M Mood, F A Graybill, D C Boes, McGraw HillMood, A.M., Graybill, F.A., Boes, D.C. (1974) Introduction to the Theory of Statistics. McGraw Hill. An analysis of variance test for normality (complete samples). S S Shapiro, M B Wilk, Biometrika. 5234Shapiro, S.S., Wilk, M.B. (1965) An analysis of variance test for normality (complete samples). Biometrika. Vol. 52 (34), 591-611. All of Nonparametric Statistics. L Wasserman, SpringerWasserman, L. (2006) All of Nonparametric Statistics. Springer.
sample_17031
0.9731
arxiv
Opportunistic Routing, Assessment Model This paper proposes an assessment model, based on a new taxonomy, which comprises an evaluation guideline with performance metrics and experimental setup to aid designers in evaluating solutions through fair comparisons. Simulation results are provided based on the proposed model considering Epidemic, PROPHET, Bubble Rap, and Spray and Wait, and showing how they perform under the same set of metrics and scenario. I. INTRODUÇÃO CAPACIDADE dos dispositivos portáteis permite aos utilizadores formar facilmente redes para partilha de recursos (i.e., processamento) e de conectividade. Tais redes espontâneas tiram vantagens dos contatos oportunistas entre os dispositivos dos utilizadores para armazenar e transmitir informação mesmo na presença de conectividade intermitente (resultante da mobilidade do utilizador, obstáculos físicos). Existem várias propostas de encaminhamento que fazem uso da capacidade dos dispositivos para superar intermitência nas comunicações, onde os dispositivos armazenam dados até que um nó intermediário adequado, ou o próprio, destino seja encontrado com base no paradigma store-carry-forward. Estas propostas abrangem abordagens que consideram mobilidade do nó para inundar a rede com varias cópias das mensagens para uma entrega rápida, até abordagens capazes de controlar o número de cópias com base no histórico e previsão de contatos, por exemplo. Nos últimos anos surgiram abordagens baseadas na similaridade social (e.g., relações sociais, interesses) para melhorar o encaminhamento oportunístico. Este artigo propõe um Modelo de Avaliação Universal (MAU) que tem um conjunto de parâmetros relacionados com a densidade e tráfego na rede, e é baseado numa classificação que identifica propriedades comuns (i.e., estratégias e métricas de encaminhamento) de entre propostas de encaminhamento oportunista, no sentido de ter um suporte no desenvolvimento de novas propostas. Também é comparado o desempenho de propostas oportunistas nas condições especificadas no MAU. Este artigo está organizado da seguinte forma. A Seção II apresenta as classificações de estratégias de encaminhamento e modelos de avaliação existentes. A proposta de classificação e o modelo de avaliação propostos são apresentados nas Seções III e IV, respectivamente. Na Seção V é apresentada e discutida uma avaliação justa entre Epidemic [1], PROPHET [2], Bubble Rap [3], e Spray and Wait [4] II. TRABALHOS RELACIONADOS Propostas de encaminhamento oportunista não consideram um conjunto similar de métricas de desempenho nem cenários experimentais comparáveis. Isso resulta em comparações injustas entre propostas, uma vez que as métricas de avaliação e condições variam. Nesta seção apresentamos diferentes classificações de estratégias de encaminhamento e modelo de avaliação relacionados com a nossa proposta, MAU. A. Classificação das Estratégias de Encaminhamento Existem diferentes classificações de estratégias de encaminhamento oportunista [5] que as categorizam: i) com base em oráculos de conhecimento da rede ou cálculo e determinação de rota [6]; ii) considerando se o comportamento da rede e dos nós é conhecido (i.e., determinístico) ou desconhecido e aleatório (i.e., estocástico) [7]; iii) levando em conta o conhecimento necessário sobre a rede e a estratégia de encaminhamento (i.e., inundação da rede, histórico de contatos e utilização de dispositivos especiais) [8]; e, iv) de acordo com o esquema de troca de mensagens (i.e., encaminhamento de uma única cópia, replicação e codificação), funções utilitárias e características (e.g, conectividade e mobilidade) que têm impacto no encaminhamento. A tendência observada (i.e., encaminhamento baseado em similaridade social) nos últimos anos é mencionada, mas apenas como uma forma de utilizar dispositivos especiais [8] ou como mera função utilitária [9]. Verifica-se que o principal objetivo destas classificações é de exclusivamente identificar as diferentes famílias de soluções de encaminhamento. Algumas [6] [9] fornecem princípios de avaliação que apenas ajudam no desenvolvimento e identificação dos requisitos das aplicações, a fim de propor o algoritmo correto. Por outro lado, a nossa classificação identifica aspectos comuns entre as propostas analisadas para propor uma maneira justa de avaliar o seu desempenho, independentemente da quantidade de conhecimento necessário e cenário de aplicação. B. Modelos de Avaliação Quanto aos modelos de avaliação, destaca-se uma proposta baseada na teoria de evolução dos grafos para desenvolver e avaliar protocolos com menor custo de encaminhamento. Ferreira et al. [10] usam uma métrica para determinar caminhos (i.e., ligações temporárias entre os nós que forneçam caminhos) que rapidamente chegam ao destino. Este modelo fornece um algoritmo que é utilizado como referência para comparar propostas de encaminhamento em redes adhoc móveis. Contudo, não é discutido como as métricas de desempenho e parâmetros experimentais devem ser configurados. Por outro lado, neste artigo pretende-se W. Moreira, P. Mendes and S. Sargento Assessment Model for Opportunistic Routing A identificar as diferentes famílias de propostas de acordo com os seus objetivos distintos e estratégias de encaminhamento, e para fornecer um conjunto de configurações experimentais para auxiliar na avaliação justa de soluções de encaminhamento oportunista. III. MODELO DE CLASSIFICAÇÃO Observando-se as abordagens de encaminhamento oportunista presentes na literatura, é clara a existência de diferentes tendências com base em objetivos específicos. Assim, há a necessidade de uma taxonomia equilibrada e atualizada capaz de incluir as tendências identificadas nos últimos anos, com foco exclusivamente no ramo que melhor reflete contatos oportunistas (i.e., estocástico [7]). Esta seção descreve brevemente esta nova taxonomia (direciona-se o leitor para uma versão detalhada em [11]). A taxonomia na Fig. 1 considera a análise de propostas anteriores e que evoluiu a partir de uma análise prévia feita em [12]. São identificadas três grandes categorias baseadas em encaminhamento de uma única cópia, inundação de mensagens e replicação. Entre as propostas consideradas, 94% pertencem à categoria de replicação incluindo a tendência identificada, similaridade social, que é de grande interesse para o nosso estudo e foco das discussões. A categoria de encaminhamento de cópia única é bastante interessante, já que estas propostas são capazes de poupar recursos da rede e do nó. No entanto, elas sofrem de uma elevada latência, o que resulta em baixa probabilidade de entrega. Exemplos desta categoria são apresentados em [13]. Embora sendo bastante agressivos, os algoritmos baseados em inundação de mensagens atingem elevada probabilidade de entrega, mas com custo elevado (i.e., consumo de recursos). Um exemplo desta categoria é o Epidemic [1]. A fim de reduzir o desperdício de recursos, propostas baseadas na replicação visam aumentar a probabilidade de entrega através da adição controlada de cópias de mensagem na rede. Estas propostas são divididas com base nos contatos, uso de recursos ou similaridade social. Na categoria de propostas baseadas em contatos, é considerado o histórico de contatos com o destino para dar suporte ao encaminhamento oportunista de mensagens. A frequência de contatos com nós no passado, ou o tempo decorrido desde o último contato com o destino é usado para decidir quando encaminhar (e.g., PROPHET). As propostas baseadas na utilização de recursos tentam evitar que as mensagens sejam constantemente replicadas (i.e., ocupando recursos) através de métricas que definem tempo de vida para as cópias da mensagem. Estas propostas também são capazes de tomar decisões de encaminhamento que utilizam eficientemente os recursos disponíveis (e.g., RAPID [14]). Na categoria de similaridade social, as propostas têm algoritmos mais complexos que visam: i) evitar a inundação descontrolada de mensagens e, ii) explorar o comportamento social relacionado com a detecção da comunidade, interesses comuns, e a popularidade do nó. O Bubble Rap [3] é um bom representante desta categoria. IV. MODELO DE AVALIAÇÃO UNIVERSAL O estudo proposto neste artigo mostra que os métodos de avaliação utilizados até agora nem sempre consideram um conjunto homogêneo de parâmetros ou configurações experimentais comparáveis, o que compromete a veracidade e imparcialidade das conclusões. Mesmo com uma taxonomia estável, há a necessidade de conceber um modelo de avaliação com base em métricas de desempenho e cenários experimentais comuns, evitando avaliações com as métricas de desempenho irrelevantes e cenários tendenciosos. Assim, estudamos dezessete propostas (de 2000 a 2010) que melhor representam as categorias da nossa taxonomia para identificar padrões de avaliação/comparação. Mais detalhes deste estudo encontram-se no documento [11]. A. Métricas de Desempenho Num estudo anterior [12] observou a falta de uma convenção de nomenclatura e diversas definições para uma determinada métrica. Este entendimento diferente certamente influencia a avaliação de desempenho. Observa-se também que a probabilidade de entrega, custo e latência são as métricas mais utilizadas. Sendo assim, elas são definidas para estabelecer uma convenção de nomenclatura. Probabilidade de entrega é definida como o número de mensagens transmitidas em relação ao número total de mensagens criadas. Esta métrica é importante, pois reflete a eficácia proposta classificando-a como tendo bom desempenho. No entanto, há sempre um custo associado para a entrega das mensagens no que diz respeito ao número de cópias por mensagem entregue. Além disso, a utilidade da mensagem é correlacionada com o seu tempo de vida (TTL), e é imperativo para remover dados antigos da rede a fim de evitar o desperdício de recursos. Por isso, é importante que as mensagens cheguem ao seu destino dentro do tempo útil. Assim, define-se latência como o tempo necessário para entregar uma mensagem desde sua criação. B. Cenário experimental Outro ponto importante é a configuração experimental, onde não há regras definidas já que os parâmetros variam nas avaliações encontradas na literatura. Pudemos observar que as propostas realmente diferem quanto ao cenário experimental. Algumas propostas fornecem informações detalhadas, enquanto outras as fornecem apenas parcialmente. [11]. A densidade da rede permite entender o funcionamento das propostas em cenários esparsos (contatos esporádicos, observando-se a probabilidade de entrega quando a latência é alta) e densos (contatos frequentes, avaliando a capacidade de lidar com a aleatoriedade na hora do encaminhamento). A densidade pode ser ajustada através do número de nós, que dentre as propostas analisadas, fica entre 100-150 (excluindo casos extremos [15]), e são os valores considerados no MAU. Além disso, os modelos de mobilidade devem considerar diferentes velocidades e tempo de pausa já que os nós representam pessoas e veículos. Estes parâmetros têm impacto nos tempos de contato e intercontato. Observamos que algumas abordagens consideram estes tempos como distribuições exponenciais e de lei de potência [14] [3], enquanto outras os obtêm dos conjuntos de dados utilizados. Analisamos também o alcance de transmissão, onde propomos variar entre 10-250 metros, uma vez que se deve representar as capacidades de dispositivos. Quanto aos beacons, deve-se evitar o uso frequente já que a bateria precisa ser poupada. No entanto, usando-os raramente resulta em perda de boas oportunidades de contato. Assim, a emissão de beacons a cada 100 ms pode identificar potenciais contatos, enquanto economiza energia. Ressaltamos que este parâmetro no MAU requer um estudo mais detalhado para ser validado. Em relação aos parâmetros de densidade de rede (cf. Tabela I-a), o PROPHET considera o mesmo número de nós (50) para diferentes densidades, modelos de mobilidade (incluindo um modelo que tenta imitar o comportamento humano) e considera diferentes alcances de transmissão. Apesar de considerar diferentes densidades, modelos de mobilidade e alcances de transmissão, a avaliação do PROPHET é feita em cenários homogêneos. Isto não é realista, pois o cenário real é heterogêneo onde há nós que se deslocam de acordo com padrões e velocidade diferente e os dispositivos têm capacidades de transmissão específicas. Quanto Quando comparado ao PROPHET e Spray and Wait, o Bubble Rap destaca-se em termos de parâmetros aceitáveis referente à densidade da rede proposta no MAU. No entanto, a sua avaliação é feita de forma estática, ou seja, as comunidades são formadas e as centralidades são determinadas com base em informações que não são atualizadas. O nosso interesse é ver como a proposta se comporta num cenário dinâmico, que influencia a forma com que a centralidade e as comunidades são calculadas. Quanto aos parâmetros de tráfego (cf. Tabela I-b), em quase todas as propostas, o número de pares fonte-destino foi definido estaticamente e estes foram distribuídos aleatoriamente. Não há problema em ter este número definido estaticamente, uma vez que mudá-lo durante as experiências vai impor alguns desafios. No entanto, este número deve ser o mesmo e, mais importante, os pares devem permanecer os mesmos (o que não é assegurado com a distribuição aleatória) para garantir condições semelhantes no estudo de avaliação. A carga gerada é um parâmetro que acrescenta mais variações às experiências. Observamos propostas onde a carga corresponde a uma mensagem por segundo [1] [2], um número de mensagens distribuídas uniformemente [3], bem como propostas que fornecem pouca ou nenhuma informação sobre a mesma. Acreditamos que a carga deva ser considerada cuidadosamente para garantir comparações justas. Como os aplicativos geram mensagens de diferentes tamanhos, a carga deve ser ajustada para representar as aplicações existentes num cenário oportunista (e.g.,, mensagens de chat, transferência de arquivos). Observamos que poucas propostas fornecem informações sobre este parâmetro (1 KB [1] [14] ou entre 10-100 KB [16] [4], e, normalmente varia entre 3-10 saltos em média. Hui et al. [3] mostra que apenas 5% dos nós tem algum nível de relação com o destino no primeiro salto, assim, sugerimos pelo menos 3 saltos (já que os níveis de interação entre os nós melhora em cerca de 35%) com variação para observar o comportamento das propostas. No caso de se utilizar unidades de tempo, pudemos observar que um TTL em 24 horas e também infinito pode mostrar potenciais problemas (e.g., rápida exaustão de buffer) com a proposta sendo avaliada. Observamos, também, como o desempenho da proposta pode ser influenciado pelo tamanho do buffer. Este parâmetro reflete o quanto do armazenamento do seu dispositivo um utilizador está disposto a sacrificar pelos outros. O buffer ilimitado não é realista, enquanto que fornecer todo o espaço é aceitável em cenários onde nós (e.g., ônibus) devem servir aos outros [14]. Assim, com base nas nossas observações das propostas, deve-se limitar o buffer em 200 mensagens (10KB). Da Tabela V. AVALIAÇÃO JUSTA Nesta seção apresentamos a avaliação de desempenho do Epidemic, PROPHET, Bubble Rap e Spray and Wait nas mesmas condições especificadas no MAU. É importante notar que pretendemos mostrar a importância de uma avaliação homogênea ao avaliar propostas de encaminhamento de categorias diferentes como as baseadas em inundação, contatos e similaridade social, e mostrar como o uso de diferentes configurações de parâmetros e métricas de desempenho pode resultar numa avaliação que favoreça algumas propostas. A. Configurações de Avaliação e Metodologia O cenário escolhido tem 150 nós distribuídos em 8 grupos de pessoas e 9 grupos de veículos, onde um destes grupos representa patrulhas policiais e segue o modelo de mobilidade Shortest Path Map Based Movement [17] com velocidade entre 7-10 m/s e tempos de pausa entre 100-300 segundos. Os outros grupos de veículos representam ônibus, onde cada grupo tem 2 veículos, e seguem o modelo de mobilidade Bus Movement [17] com velocidades entre 7-10 m/s e tempos de pausa entre 10-30 segundos. Os grupos de pessoas seguem o modelo de mobilidade Working DayMovement [17] com velocidades entre 0.8-1.4 m/s, mas podem usar os ônibus para se deslocar. Cada um destes grupos tem diferentes pontos de encontro, escritórios e moradas. As pessoas passam 8 horas por dia no trabalho e têm 50% de probabilidade de terem uma atividade após o trabalho. No escritório, elas movimentam-se e têm tempos de pausa entre 1 minuto e 4 horas. As atividades após o trabalho podem ser feitas a sós ou em grupos e duram entre 1 a 2 horas. Cada nó tem uma interface de rede sem fios com velocidade de transmissão de 11 Mbps e alcance de 100 metros. O tráfego é estabelecido entre os mesmos pares fontedestino, onde cerca de 500 mensagens são geradas por dia. O tamanho das mensagens varia de 1 a 100 kB e o TTL varia de horas a semanas. O buffer é de 2 MB. Estes valores representam as aplicações diferentes e a disposição limitada do utilizador em compartilhar o seu espaço de armazenamento. As simulações são realizadas num Opportunistic Network Environment [17] e representam uma interação de 12 dias entre nós (com 2 dias de warm-up, que não são considerados para os resultados). Cada simulação é executada dez vezes (com diferentes sementes geradoras de números aleatórios para os modelos de mobilidade utilizados) a fim de proporcionar um intervalo de confiança de 95% para os resultados. Todos os resultados são avaliados considerando as médias da probabilidade de entrega, do custo e da latência. B. Resultados Neste artigo observamos o comportamento das propostas sob as mesmas condições e cenários utilizados em [5], contudo, agora dando mais ênfase ao TTL das mensagens, visto que há diferentes aplicações em redes oportunistas que geram mensagens com vida útil variada. A Fig. 2 O Spray and Wait é aquele que tem a melhor probabilidade de entrega no cenário. Isto justifica-se pelo fato de o cenário conter nós (i.e., ônibus e patrulhas de polícia) que o cobrem quase que em toda a sua extensão. Como estes nós acabam por se deslocar muito no cenário, aliado também ao alcance de transmissão (100 m), consequentemente aumenta-se muito a probabilidade das mensagens chegarem ao destino. A Fig. 3 VI. CONCLUSÕES A capacidade atual dos dispositivos portáteis permite aos utilizadores experimentar novas formas de troca de informação por meio de contatos oportunistas. No entanto, esta nova forma de comunicação tem que lidar com a intermitência destes contatos, o que deu origem a diferentes propostas que tentam diminuir este problema. Contudo, é difícil identificar qual proposta apresenta melhor desempenho uma vez que cada uma delas tem um método de avaliação diferente. Analisando as propostas dos últimos dez anos, observaramse diferentes tendências com base em objetivos específicos e com diferentes soluções de encaminhamento oportunistas. Assim, neste artigo, analisamos propostas diferentes de acordo com as tendências identificadas, as informações colecionadas no seu processo de avaliação, e descobrimos propriedades comuns entre as várias propostas (ou seja, estratégias e métricas de encaminhamento). O resultado deste estudo é um Modelo de Avaliação Universal (MAU) que fornece diretrizes, baseadas numa taxonomia, incluindo a nova tendência identificada recentemente (i.e., a similaridade social), compreendendo um conjunto de parâmetros de desempenho e configuração experimental para auxiliar a avaliação do desempenho de soluções de encaminhamento oportunistas. Para validar os nossos princípios, simulamos as propostas Epidemic, PROPHET, Bubble Rap, e Spray and Wait sob as mesmas condições e pudemos verificar que as diferenças entre as propostas são mais evidentes no MAU. Acreditamos que atingimos o nosso objetivo de fornecer uma maneira para efetuar a classificação das soluções novas de encaminhamento oportunista, bem como avaliá-las adequadamente. Como surgem novas propostas na literatura, esta taxonomia será atualizada com as últimas tendências identificadas no contexto das redes oportunistas. Figura 1 . 1Taxonomia para Encaminhamento Oportunista. Figura 4 . 4Resultados de Latência Média. O PROPHET e o Bubble Rap, por serem propostas mais elaboradas, demoram mais tempo para decidir quando encaminhar mensagens. Para além disso, no caso do Bubble Rap, o fato de não considerar o dinamismo dos relacionamentos sociais faz com que as AGRADECIMENTOS A FCT pelo apoio financeiro a Waldir Moreira (PhD grant SFRH/BD/62761/2009) e ao projeto UCR (PTDC/EEA-TEL/103637/2008). baseado no modelo MAU. Finalmente, a Seção VI conclui o artigo.W. Moreira, SITI, Universidade Lusófona, Lisboa, Portugal, waldir.junior@ulusofona.pt P. Mendes, SITI, Universidade Lusófona, Lisboa, Portugal, paulo.mendes@ulusofona.pt S. Sargento, IT, Universidade de Aveiro, Aveiro, Portugal, susana@ua.pt TABELA I PARÂMETROS DE DENSIDADE DA REDE E DE TRÁFEGO. Também pudemos identificar duas classes principais de parâmetros: de densidade de rede e de tráfego. As Tabelas I-a e I-b mostram o que recomenda o MAU, juntamente com o que é usado no PROPHET e Bubble Rap. Para mais informações sobre Epidemic, Spray and Wait e outras propostas, recomenda-se a leitura do documentoParâmetros (a) Densidade da rede (b) Tráfego Propostas Densidade da área (Km 2 /Número de nós) Modelo de Mobilidade Velocidade (m/s) Tempos de contato/ Inter-contato Alcance de Transmissão (m) Emissão de beacon Distribuição de Fontes/Destinos Número de Mensagens Geradas (Carga) Tamanho da Mensagem (Kb) TTL da Mensagem Tamanho do Buffer MAU Cobrindo áreas dentro de prédios até cidades/100 a 150 Representando pessoas e diferentes meios de transporte Exponencial ou lei de potencia, se puder ser determinado Mínimo de 10 (Bluetooth) e máximo de 250 (Wi-Fi) A cada 100 ms Deve ser o mesmo durante toda a avaliação Carga deve ser a mesma 1 a 100 3 a 10 saltos ou variação entre horas, dias e semanas 2MB (200 msgs de 10KB) PROPHET 0.45/50 (RWP), e 4.5/50 (CM) Mobilidade Random Waypoint (0-20) e baseado em Comunidade (10-30) Nós entram em contato periodica e randomicamente 50 e 100 n/a 45/44 (Random) e 2/1 (Com.) 1 mensagem/seg (RWP), e 20 msgs/seg -2msgs/5seg (com.) n/a 3 e 11 saltos 200 msgs Bubble Rap Infocom05/41 Hong-Kong/37 Cambridge/54 Infocomo6/98 Reality/97 Traces reais Tempo de inter- contato segue uma distribuição de lei de potencia Bluetooth n/a 1/1 1000 mensagens n/a 2, 10 min, 1, 3, 6 horas 1, 2, 4 dias 1, 3 semanas n/a ao Bubble Rap, que tem sua avaliação baseada em traces humanos, os autores conseguem ter densidades diferentes (áreas cobrindo salas de conferências até uma cidade). Embora não mencione sobre modelos de mobilidade, o Bubble Rap segue o comportamento humano encontrado nos traces, o que também resulta em tempos de contato e intercontato adequados [14] [3]. O alcance de transmissão considerado foi o do Bluetooth, que representa os dispositivos utilizados na obtenção dos traces. Já o Spray and Wait tem a sua avaliação considerando diferentes alcances de transmissão e variando o número de nós, contudo utiliza apenas um modelo de mobilidade que está longe do encontrado no mundo real. ). O tráfego na rede pode ser afetado pelo TTL da mensagem. Se o TTL é muito longo, o consumo de recursos na rede e nos nós pode aumentar. Caso contrário, as mensagens talvez nem alcancem o destino. Nas propostas estudadas o TTL foi definido como o número de saltos [1] [2] ou unidades de tempo I-b, observamos que o PROPHET tem uma configuração diferente, onde a carga varia de acordo com o modelo de mobilidade, e são considerados diferentes valores de TTL. Normalmente, o buffer pode ser um problema, já que os utilizadores podem não estar dispostos a compartilhá-lo. Assim, considerar um buffer limitado está mais perto do cenário encontrado no mundo real, e é uma opção dos autores do PROPHET. No entanto, em relação a estes parâmetros, Bubble Rap só fornece informações sobre os pares fonte-destino e de carga (1000 mensagens geradas entre todos os pares de nós e de tempo de vida das mensagens). O mesmo ocorre com o Spray and Wait, onde as mensagens são geradas seguindo uma distribuição uniforme para destinos escolhidos aleatoriamente. Os parâmetros de tráfego são aqueles que mais variam nos estudos de comparação. Normalmente, os pares fonte-destino são escolhidos aleatoriamente. Isto influencia a avaliação, já que este conjunto vai variar conforme as simulações são realizadas. Assim, os estudos de avaliação devem considerar o mesmo subconjunto de pares fonte-destino, e o número de mensagens geradas também deve permanecer o mesmo. Nestas propostas, os autores não mencionam sobre o tamanho da mensagem. Este parâmetro é importante visto que as aplicações geram mensagens com tamanhos diferentes. Apesar de tentar poupar o buffer, o Bubble Rap não indica o tamanho das mensagens que foi considerado na sua avaliação. O Bubble Rap, assim como o Spray and Wait, considera o TTL (expressos em número de saltos) das mensagens e sugere um valor mínimo não inferior a 3, já que a maioria dos nós encontrados nos primeiros saltos ainda pertencem à comunidade do nó que transporta a mensagem. No entanto, o TTL é representado em unidades de tempo na sua avaliação. apresenta os resultados obtidos para a probabilidade média de entrega. Ao comparar Epidemic e PROPHET no cenário definido através do MAU, observa-se o mesmo comportamento relatado por Lindgren et al.[2]: PROPHET tem melhor desempenho, alcançando uma vantagem que chega até 17 pontos percentuais.Entretanto, para um TTL de uma hora, o Epidemic tem mais vantagem por inundar a rede rapidamente com cópias das mensagens, o que aumenta a sua probabilidade de entrega. Porém, a proposta sofre com o aumento do TTL pois as mensagens passam mais tempo no sistema (i,e., a replicar-se) e, consequentemente, reduz a sua probabilidade de entrega, já que o buffer atinge o seu limite mais rapido.Figura 2. Resultados de Probabilidade Média de Entrega. No que concerne à comparação de desempenho entre o PROPHET e o Bubble Rap no cenário especificado com base no MAU, observamos três pontos interessantes ao contrário do que é reportado no artigo original do Bubble Rap. Primeiro, a probabilidade de entrega começa a diminuir para os TTLs acima das 6 horas. Observa-se também que o Bubble Rap apresenta melhores taxas de entrega que o PROPHET para TTL maior ou igual a 2 dias. Além disso, ambas propostas chegam próximo aos 60% de entrega apenas quando o TTL é de 3 semanas, enquanto que no nosso cenário o PROPHET ultrapassa (~65%) e o Bubble Rap se aproxima (~54%) desta marca com um TTL de 6 horas. Considera-se que este é o efeito não só do buffer limitado, mas também da heterogeneidade no que concerne os modelos de mobilidade utilizados no cenário.0 0.2 0.4 0.6 0.8 1 1 hora 6 horas 24 horas 2 dias 4 dias 1 semana 3 semanas % TTL Probabilidade Me édia de Entrega Epidemic PROPHET Bubble Rap Spray and Wait apresenta os resultados relacionados com o custo médio das propostas. Pode-se dizer que o Epidemic e Spray and Wait são os casos extremos no que concerne esta métrica. O primeiro funciona com base na inundação descontrolada (i.e., cada nó recebe uma cópia se ainda nao a tiver) e assim o faz para ter uma taxa elevada de entrega. O problema é que o nível de interação entre os nós aliado a um buffer limitado torna-se um grande inimigo deste tipo de abordagem. Em contra-partida, o Spray and Wait tem o número de cópias (L = 10) por mensagem limitado e o seu custo vai ser sempre baixo.Quanto ao PROPHET e Bubble Rap, a diferença entre eles permanece como no artigo original do Bubble Rap onde este tem menor custo. Tomar decisões de encaminhamento com base em aspectos sociais acaba por diminuir o custo já que as cópias apenas serão criadas entre nós bem relacionados entre si. Contudo, não considerar o dinamismo dos relacionamentos sociais afeta negativamente este tipo de abordagem[18].Figura 3. Resultados de Custo Médio. O PROPHET teve menor custo quando comparado com o Epidemic como reportado no seu artigo original. Entretanto, o seu custo é muito maior (~34 vezes) para um TTL de 24 horas, por exemplo. A Fig. 4 apresenta a latência média para mensagens entregues de cada proposta. Tanto o Epidemic como o Spray and Wait têm um comportamento similar no que concerne esta métrica. O primeiro, ao inundar a rede com cópias, acaba por alcançar nós que logo estarão em contato com o destino. Além disso, também contribui para o desempenho do Spray and Wait juntamente com o alcance de transmissão que, ao aumentar, diminui o tempo para as mensagens chegarem ao destino como reportado no seu artigo original.0 500 1000 1500 2000 2500 3000 1 hora 6 horas 24 horas 2 dias 4 dias 1 semana 3 semanas Nu úmero de co ópias TTL Custo Me édio Epidemic PROPHET Bubble Rap Spray and Wait 0 10000 20000 30000 40000 50000 60000 70000 1 hora 6 horas 24 horas 2 dias 4 dias 1 semana 3 semanas Segundos TTL Late ência Me édia Epidemic PROPHET Bubble Rap Spray and Wait Epidemic Routing for Partially Connected Ad Hoc Networks. A Vahdat, D Becker, Duke UniversityTech. Rep. CS-200006A. Vahdat and D. Becker, "Epidemic Routing for Partially Connected Ad Hoc Networks," Tech. Rep. CS-200006, Duke University, 2000. Probabilistic Routing in Intermittently Connected Networks. A Lindgren, A Doria, O Schelén, SIGMOBILE Mob. Comput. Commun. Rev. 73A. Lindgren, A. Doria, and O. Schelén, "Probabilistic Routing in Intermittently Connected Networks," SIGMOBILE Mob. Comput. Commun. Rev., Vol. 7, No. 3, pp. 19-20, 2003. Bubble Rap: Social-based Forwarding in Delay Tolerant Networks. P Hui, J Crowcroft, E Yoneki, IEEE Transactions on. 10Mobile ComputingP. Hui, J. Crowcroft, and E. Yoneki, "Bubble Rap: Social-based Forwarding in Delay Tolerant Networks," Mobile Computing, IEEE Transactions on, Vol. 10, pp. 1576-1589, 2011. Spray and Wait: An Efficient Routing Scheme for Intermittently Connected Mobile Networks. T Spyropoulos, K Psounis, C S Raghavendra, Proc. of ACM SIGCOMM WDTN. of ACM SIGCOMM WDTNPhiladelphia, USAT. Spyropoulos, K. Psounis, and C. S. Raghavendra, "Spray and Wait: An Efficient Routing Scheme for Intermittently Connected Mobile Networks," in Proc. of ACM SIGCOMM WDTN, pp. 252-259, Philadelphia, USA, 2005. Assessment Model for Opportunistic Routing. W Moreira, P Mendes, S Sargento, Proc. of IEEE LATINCOM. of IEEE LATINCOMBelém, BrazilW. Moreira, P. Mendes, and S. Sargento, "Assessment Model for Opportunistic Routing," in Proc. of IEEE LATINCOM, Belém, Brazil, 2011. Routing in a Delay Tolerant Network. S Jain, K Fall, R Patra, Proc. of ACM SIGCOMM. of ACM SIGCOMMPortland, USAS. Jain, K. Fall, and R. Patra, "Routing in a Delay Tolerant Network," in Proc. of ACM SIGCOMM, Portland, USA, August 2004. Routing in Intermittently Connected Mobile Ad Hoc Networks and Delay Tolerant Networks: Overview and Challenges. Z Zhang, IEEE Communications Surveys and Tutorials. 81-4Z. Zhang, "Routing in Intermittently Connected Mobile Ad Hoc Networks and Delay Tolerant Networks: Overview and Challenges," IEEE Communications Surveys and Tutorials, Vol. 8, No. 1-4, pp. 24- 37, 2006. Routing Approaches in Delay Tolerant Networks: A Survey. R J Souza, J Jose, International Journal of Computer Applications. 1R. J. D'Souza and J. Jose, "Routing Approaches in Delay Tolerant Networks: A Survey," International Journal of Computer Applications, Vol. 1, pp. 8-14, 2010. Routing for Disruption Tolerant Networks: Taxonomy and Design. T Spyropoulos, R N Rais, T Turletti, K Obraczka, A Vasilakos, Wirel. Netw. 16T. Spyropoulos, R. N. Rais, T. Turletti, K. Obraczka, and A. Vasilakos, "Routing for Disruption Tolerant Networks: Taxonomy and Design," Wirel. Netw., Vol. 16, pp. 2349-2370, 2010. Performance Evaluation of Routing Protocols for MANETs with Known Connectivity Patterns Using Evolving Graphs. A Ferreira, A Goldman, J Monteiro, Wirel. Netw. 16A. Ferreira, A. Goldman, and J. Monteiro, "Performance Evaluation of Routing Protocols for MANETs with Known Connectivity Patterns Using Evolving Graphs," Wirel. Netw., Vol. 16, pp. 627-640, 2010. Survey on Opportunistic Routing for Delay/Disruption Tolerant Networks. W Moreira, P Mendes, SITI-TR-11-02SITI, University LusofonaTech. Rep.W. Moreira and P. Mendes, "Survey on Opportunistic Routing for Delay/Disruption Tolerant Networks," Tech. Rep. SITI-TR-11-02, SITI, University Lusofona, 2011. Routing Metrics for Delay Tolerant Networks. W Moreira, P Mendes, Proc. of CRC. of CRCBraga, PortugalW. Moreira and P. Mendes, "Routing Metrics for Delay Tolerant Networks," in Proc. of CRC, pp. 217-219, Braga, Portugal, 2010. Efficient Routing in Intermittently Connected Mobile Networks: The Single-copy Case. T Spyropoulos, K Psounis, C S Raghavendra, IEEE/ACM Trans. Netw. 161T. Spyropoulos, K. Psounis, and C. S. Raghavendra, "Efficient Routing in Intermittently Connected Mobile Networks: The Single-copy Case," IEEE/ACM Trans. Netw., Vol. 16, No. 1, pp. 63-76, 2008. DTN Routing as a Resource Allocation Problem. A Balasubramanian, B Levine, A Venkataramani, Proc. of SIGCOMM. of SIGCOMMKyoto, JapanA. Balasubramanian, B. Levine, and A. Venkataramani, "DTN Routing as a Resource Allocation Problem," in Proc. of SIGCOMM, Kyoto, Japan, 2007. Age Matters: Efficient Route Discovery in Mobile Ad Hoc Networks Using Encounter Ages. H Dubois-Ferriere, M Grossglauser, M Vetterli, Proc. of ACM MobiHoc. of ACM MobiHocAnnapolis, USAH. Dubois-Ferriere, M. Grossglauser, and M. Vetterli, "Age Matters: Efficient Route Discovery in Mobile Ad Hoc Networks Using Encounter Ages," in Proc. of ACM MobiHoc, Annapolis, USA, 2003. Encounter-based Routing in DTNs. S Nelson, M Bakht, R Kravets, Proc. of INFOCOM. of INFOCOMRio de Janeiro, BrazilS. Nelson, M. Bakht, and R. Kravets, "Encounter-based Routing in DTNs," in Proc. of INFOCOM, Rio de Janeiro, Brazil 2009. The ONE Simulator for DTN Protocol Evaluation. A Keränen, J Ott, T Kärkkäinen, Proc. of SIMULTools. of SIMULToolsRome, ItalyA. Keränen, J. Ott, and T. Kärkkäinen, "The ONE Simulator for DTN Protocol Evaluation," in Proc. of SIMULTools, Rome, Italy, 2009. Opportunistic Routing Based on Daily Routines. W Moreira, P Mendes, S Sargento, Proc. of IEEE WoWMoM Workshop AOC. of IEEE WoWMoM Workshop AOCSan Francisco, USATO APPEARW. Moreira, P. Mendes, and S. Sargento, "Opportunistic Routing Based on Daily Routines," in Proc. of IEEE WoWMoM Workshop AOC, San Francisco, USA, 2012. (TO APPEAR)
sample_17534
0.7427
arxiv
Ab initio investigation of hydrogen bonding and electronic structure of high-pressure phases of ice Renjun Xu Zhiming Liu Yanming Ma Tian Cui cuitian@jlu.edu.cn Bingbing Liu Guangtian Zou Department of Physics State Key Laboratory of Superhard Materials Jilin University 130012ChangchunP. R. China University of California 95616DavisCAUSA Ab initio investigation of hydrogen bonding and electronic structure of high-pressure phases of ice b Author to whom correspondence should be addressed. Electronic address: We report a detailed ab initio investigation on hydrogen bonding, geometry, electronic structure, and lattice dynamics of ice under a large high pressure range, including the ice X phase (55-380GPa), the previous theoretically proposed higher-pressure phase ice XIII M (Refs. 1-2) (380GPa), ice XV (a new structure we derived from ice XIIIM) (300-380GPa), as well as the ambient pressure low-temperature phase ice XI. Different from many other materials, the band gap of ice X is found to be increasing linearly with pressure from 55GPa up to 290GPa, the electronic density of states (DOS) shows that the valence bands have a tendency of red shift (move to lower energies) referring to the Fermi energy while the conduction bands have a blue shift (move to higher energies).This behavior is interpreted as the high pressure induced change of s-p charge transfers between hydrogen and oxygen. It is found that ice X exists in the pressure range from 75GPa to about 290GPa. Beyond 300GPa, a new hydrogen-bonding structure with 50% hydrogen atoms in symmetric positions in O-H-O bonds and the other half being asymmetric, ice XV, is identified. The physical mechanism for this broken symmetry in hydrogen bonding is revealed. 61.50.Ks, 71.15.Mb, 64.30.+t I. INTRODUCTION The high-pressure behavior of H 2 O is of fundamental importance to many processes in physics, chemistry, life science, and planetary physics. 3 4 5 6 Studies of water are also of general theoretical importance in giving insights into the common regularities of structure and polymorphism of various substances featuring fourfold coordination of molecules or atoms. In particular, it sheds light onto one of the most important interactions in nature, namely the hydrogen bond. The hydrogen bonding gives rise to extremely rich and complex phases in ice ( Fig. 1) 7 8 9 even at not very high pressures and temperatures (that is < 2GPa and < 300K): 14 crystalline forms and several amorphous states 10 11 (lowdensity (LDA), high density (HDA), and very high density amorphous ice (VHDA)) have been experimentally determined. Hence this makes ice/water an excellent candidate for studies of common principles or regulations of phase transitions. Using pressure the oxygen-oxygen distance can be continuously modified, offering a possibility for understanding the hydrogen bond in a controlled way. On the basis of the behavior of water-containing systems, there was a concept about the symmetrization of the O-H…O bond, which implies that the hydrogen atoms would sit midway between the two neighboring oxygen atoms beyond the pressure when the O-O distance was less than about 2.4Å. 12 27 In addition, as to higher-pressure behavior there has been a number of intriguing suggestions, such as the metallization. 13 However, the behavior of ice at high pressure is still largely unknown. Beyond 62GPa, the only phase now experimentally discovered is ice X. 14 15 16 To the best of knowledge, the highest pressure explored to date on ice is 210GPa. 17 But a very broad P-T phase space whatever we interest with can be explored by using computer simulation. Based on ab initio molecular dynamics, M. Benoit et al. 1 proposed a higher-pressure phase ice XIII M (because of the two newly experimentally discovered phases of ice XIII and ice XIV in other P-T space, 18 we add a superscript " M " here for differentiation), which has a distorted hcp substructure of oxygen atoms. In this paper, we discover a fine structure corrected for ice XIII M , and conventionally nominate it as ice XV. Furtherly, we investigat the variations of hydrogen bonding, geometry and electronic structure among the ice X phase (55GPa~380GPa), ice XIII M (380GPa), ice XV (300-380GPa), as well as the ambient pressure phase ice XI, 19 20 21 22 23 24 25 26 which has a quasi-hcp substructure of oxygen, for comparison. Our results show that the hydrogen bonding structure and electronic structure of ice under high pressure are quite different from those under ambient pressure. Different from many other materials, the band gap of ice X increases linearly with pressure from 55GPa up to 290GPa. We explained this behavior based on Mulliken population analysis, the partial density of states (PDOS) and the charge transfers. The stable pressure range of ice X is confirmed to be from about 75GPa to 290-300GPa. Beyond 300GPa, we find a new structure featuring in broken symmetry in hydrogen bonding, namely the ice XV. . The geometry structure of ice XV shows that the hydrogen atoms may not just locate in the mid-point of two neighboring oxygen atoms under very high pressure, questioning the traditional symmetric hydrogen-bonded model 27 28 29 30 31 17 for ice under sufficient compression. The detailed investigation on the electronic structures and population analyses of both ice X and ice XV indicate that ice is a good wide gap insulator even up to 380GPa, and the metallization is not likely to happen in both phases. The stability of ice XV is extensively evaluated from both the enthalpy and lattice dynamics. The physical mechanism within the phase transformation from ice X to ice XV, instead of ice XIII M , is revealed by the asymmetric repelling force acting on two hydrogen atoms within every tetrahedral coordination unit in the process of inter-sliding of oxygen layers under compression. II. METHOD We perform the ab initio pseudopotential plane wave calculations based on the density functional theory (DFT) with norm-conserving pseudopotentials by the CASTEP code. 32 Exchange and correlation effects are treated by a generalized gradient approximation (GGA) with the Perdew-Burke-Eruzerhof (PBE) functionals. 33 The k-point grids for Brillouin zone sampling are generated via the Monkhorst-Pack scheme. 34 After convergence tests, we use 550eV cutoff of the kinetic energy and approximately 0.035Å -1 separation of k points to generate Monkhorst-Pack mesh for different phases under different pressures. In addition to an ultrafine self-consistent field tolerance of 5.0 x 10 -7 eV/atom in the wavefunction optimization, and with energy convergence tolerance of 5.0 x 10 -6 eV/atom and geometry convergence tolerance of 5.0 x 10 -4 Å during the geometry optimizations, a finite basis set correction for the evaluation of energy and stress is applied. A linear interpolation scheme developed by Ackland 35 is used for evaluation of DOS. The atomic charges and bond populations are calculated by Mulliken population analysis (MPA) technique, which projects plane wave states onto a linear combination of atomic orbitals basis set. 36 The phonon dispersions and density of phonon states are calculated by PHONON 37 and CASTEP codes. These methods have been widely used. 38 39 40 III. RESULTS AND DISCUSSIONS A. The crystal structures of high-pressure phases of ice The structural parameters of ice X, ice XI, ice XIIIM and ice XV at representative pressures are presented in Table I, and the 3D structures of their conventional unit cells are shown in Fig. 2 c . The crystal structure of ice X In ice X, all "H 2 O molecules" are dissociated to form an atomic crystal, Fig. 2b. This phase has been called 'proton-ordered' symmetric ice, since all protons are at the midpoints of O-O pairs. The lattice structure of ice X is primitive cubic with space group m Pn3 . It has a bcc substructure of oxygen atoms, and contains two H 2 O units in one unit cell. c The 3D structures of ice XV and ice XIII M looks very similar, so we put them in one figure, i.e. Fig. 2c. The crystal structure of ice XIII M Using ab initio molecular dynamics (Car- Fig. 2c. The space group is Pbcm with a distorted hexagonal-close-packed (HCP) substructure of oxygen atoms, because the lengths of the six sides are not exactly equal. The crystal structure of ice XV Our calculation for ice at ground state (0 K) shows that there are more complicated hydrogen bonding structures in ice XIII M than the previous reported. A fine structure featuring in broken symmetry in hydrogen bonding in ice is discovered beyond 300 GPa. We nominate the new fine structure of ice XIII M as ice XV. Their 3D structures look very similar, and both are shown in Fig. 2c. With the same symmetry operators of space group Pbcm, both ice XV and ice XIII M have three inequivalent atomic sites: one oxygen site and two hydrogen sites. Because the x and y coordinates of oxygen are not in special position and vary under different pressure, while the value of which could not be exactly compared using different pseudopotentials and within different ab initio programs, we will only consider the difference between them in their hydrogen bonding structure in the following discussion. One apparent difference is the broken symmetry of one inequivalent hydrogen site in ice XV. The quantitative comparison of coordinates of their three inequivalent atomic sites under several representative pressures at 0 K is present in Table I. The x component of the fractional coordinate of that hydrogen in ice XIII M is always in a special position (0.0), while in ice XV it is ordinary and increasing with pressure, from 0.0020 at 300GPa to 0.0033 at 380GPa and without any evidence to stop d . More detailed discussion about the fine bonding structure in ice XV is present in Subsection III.C, and the underlying physical reason for this fine bonding structure is analyzed in Subsection III.E. The crystal structure of ice XI For comparison with the case of ice under ambient pressure, we also investigate the lowpressure low-temperature phase ice XI (Fig. 2a), the ordered form of ice I h . Ice XI is also orthorhombic with space group Cmc2 1 . Ice XI has a quasi-hcp substructure of oxygen, because the six sides are not exactly in one single plane despite they have equal lengths. Comparing the lattice parameters of ice XI from our theoretically prediction with the experimental data in Table I, we confirm that our calculation could reproduce the real structure of ice well, especially we notice that the values of b/a and c/a in our model are closer to the ideal hcp structure than the two experimental data now available. However, it should be pointed out here that the GGA functional tends to underestimate the absolute lengths of lattice vectors or overestimate the pressure. This could be verified by the lengths of lattice constant a shown in both XI at 1atm and ice X at 62GPa in Table I. d The convergence tolerance of maximum atomic displacement in our calculation is 5x10 -4 Å. Hence, the variation in x coordinate of this inequivalent hydrogen should be counted. B. The stability of ice X and possible phase transformations under high pressure The pressure dependences of the lattice parameters, density, bond lengths (or the nearest neighboring atomic distances), enthalpy, Fermi energy, band gap, and the frequencies of phonon modes at Γ point are illustrated in Figs. 3-5, respectively. Ice X under pressure among 75GPa -290GPa Between 75GPa and 290GPa in Figs. 3-4, we could see that all quantities vary smoothly and have simple linear relationships versus the pressure. The increase of Fermi energy is only due to the work done by external pressure, because we do not take account of any temperature effect. The band gap varies from 7.0eV at 75GPa to 10.5eV at 290GPa. This indicates that ice X is a good wide gap insulator, and the metallization is not likely to happen at current pressure range. Ice X under pressure below 75GPa However, examining the pressure dependence of neighboring atomic distances carefully in Fig. 3c, we could find that the changing slope below 75GPa is different with that above 75GPa: the smaller/larger gradient above/below 75GPa indicates ice is more difficult/easier to be compressed. In Fig. 5, we find that the frequency of acoustic phonon mode at Gamma point vanishes at 75GPa, and the entire acoustic branch goes soft below 75GPa. These evidences indicate that the lattice structure of ice X would be mechanically unstable below 75GPa, and the transition pressure to ice X is about 75GPa. This is in good agreement with the experimental result from the Raman spectra of ice, 43 which indicates the transformation occurs at about 70GPa for H 2 O and 85GPa for D 2 O, and the result from the extrapolation of the infrared data of Aoki et al, 44 which predicted to be about 62GPa at ambient temperature. Ice X under pressure above 290GPa There is an obvious singularity at 290-300GPa, where the band gap stops the linear increasing with the pressure and suddenly getting to be flat. The possible phase transformation is also suggested by the ab initio molecular dynamics simulation carried out by M. Benoit et al., 1 who proposed that a new ice XIII M phase would appear beyond 300GPa. C. The fine bonding structure and Mulliken population analyses of ice The broken symmetry of hydrogen bonding in atomic crystal ice XV The hydrogen and oxygen atomic distances and the bond populations in ice under different pressures are presented in Table III 12,27,28,29,30,31,17), as happens in atomic crystal ice X (Fig. 6c). Abnormal atomic distance variation in ice XV under compression For the bond lengths (or neighboring atomic distances), it is normal that most bonds in both ice X and ice XV shrink under stronger compression, nevertheless, we find that there is an exception in one distance of H-O pair in ice XV. Under higher pressure, the longest neighboring H-O distance that listed in Table III direction or reversely, and the exceptional oxygen and hydrogen atoms above belong to these two layers, respectively. The evidence from the displacements of the corresponding hydrogen atom and oxygen atom are presented in Table IV. The variation of charge transfers and bond populations of ice under high pressure We present for the three phases the effective charge densities of H 1s, O 2s, and O 2p states, and the charge transfers of hydrogen atoms (corresponding to half of those of oxygen atoms) in Table II, as well as the neighboring atomic distances and bond populations in Table III Analyzing the charge transfers from hydrogen atoms to oxygen atoms and bond populations for ice X and ice XV under different pressures listed in Table II and III with ice X but close to ice XI under ambient pressure. On the other hand, considering the change of bond population induced by the pressure within structures having same symmetry, e.g. in ice X from 75GPa compressed to 300GPa, we find that the H-O bond population increases only a little, from 0.35 to 0.37. Meanwhile, we remind that ice XV and ice XI have similar packing model close to HCP. Hence, we infer that the symmetry of the structure of ice would be a much more significant factor affecting its ionicity. D. Electronic structures of ice under high pressure The charge density distribution of ice -from molecular crystal to atomic crystal The band structures of ice XI, ice X, and ice XV Because the band structure of ice X changes slightly in the pressure range we investigate, we will only present the result under 300GPa here for illustration. From Fig. 8, we can find all of the three phases are insulators with direct band gap at highly symmetric point. It is interesting that ice XV has a little smaller band gap (~10.36eV) than that of ice X (~10.50eV) under 300GPa, and both are larger than that of ice XI (~5.15eV) under ambient pressure (here the band gap ~5.15eV is a little smaller than the experimental value ~7.8eV for ice I Γ h at ambient condition because of the well-known reason that the GGA tends to underestimate the band gap). In Fig. 8a, we can see that the valence bands The partial density of states and the hybridization of atomic orbitals in ice under high pressure From our detailed ab initio calculations for ice X under a large pressure range (55-380GPa), we find that the DOS spectra have a red shift below Fermi energy and a blue shift above the Fermi energy when the pressure is increased. In Fig.9, we present the partial density of states (PDOS) for ice X under 75GPa and 300GPa, together with ice XV under 300GPa and ice XI under ambient pressure for illustration. To trace the origin of the complex DOS spectra for the two high pressure phases, ice X and ice XV, both of which are atomic crystals, we start from the analysis of the DOS spectra of ice XI, which phase is molecular crystal, as illustrated in Fig. 9a and VB2, as shown in Fig. 9. Comparing the DOS spectra of ice X under 300GPa and that under 75GPa, we can find that all peaks become broader and their heights drop with the increase of pressure, the peaks below the Fermi energy shift toward lower energies (red shift) while those peaks above the Fermi energy shift toward higher energies (blue shift). This feature accounts for the broader energy region for optical response, which we will discuss in another paper. In addition, we notice that the band gap around -15.5eV tends to disappear under higher pressure, indicating more bands overlapping and remarkable band dispersions in this energy region. Furthermore, it is interesting that the band gap is increased by higher pressure, from 7.04eV at 75GPa to 10.50eV at 300GPa, thus the metallization should be impossible in this ice phase. This anomalous behavior of pressure dependence is due to the electronegativity of oxygen in ice X is relatively decreased (the evidence is the charge transfer from oxygen to hydrogen) and the H-O bond population is increased, resulting in weaker ionicity (stronger covalency) and larger band gap, unlike many other materials under high pressure. The comparison of the DOS spectra of ice XV with ice X indicates that they have quite similar profile of the electron energy dispersion relations in total s states, total p states, and their summation, except the partial DOS spectra of s states from specific atoms and the more peaks appear in ice XV. The integration of the DOS spectra is useful for understanding the hybridizations of atomic orbitals and the charge transfers calculated from Mulliken population analysis in They are in good agreement with the values listed in Table II E. The stability of ice XV Could ice XV be more stable? We firstly judge through the ground-state enthalpies of ice X, ice XV, and ice XIII M at 0K among 280-420GPa f , as shown in Fig. 11. Apparently Ice XV is energetically the most favourable structure beyond 290GPa. Although the energy difference between ice XV and ice XIII M is small at about 300GPa, it comes to be bigger and bigger under higher pressure. In 380GPa, all phonon modes stiffen some with pressure, and there is no evidence revealing the tendency of softening of any phonon modes. Hence, we could safely conclude that ice XV should be more stable beyond 290GPa to at least 380GPa. Why ice X tends to transform to ice XV beyond 290GPa? The phase beyond 300GPa. From ice XI at low pressure to ice X at high pressure in Fig. 9, we notice that the V-Bandgap becomes narrower and narrower with pressure, and finally closes at about ~300GPa. Namely the energy eigenvalues of H 1s and O 2s in VB1 turn to be closer to those of electronic states in VB2, thus making the charge transfer between them possible. As shown in Table II Table II. Why ice XV is more stable than ice XIII M ? As we discussed in the subsubsection above and the subsubsection of III.C. IV. CONCLUSION We have carried out detailed investigations on the hydrogen-bonding, geometry, electronic structures for the two high-pressure phases of ice (ice X and ice XV), and compared them with the ambient pressure phase ice XI using the ab initio pseudopotential density functional method. One of the most remarkable differences among them is that ice X, ice XIII M , and ice XV are atomic crystals but ice XI is molecular crystal. This feature is clearly identified from their spatial charge density distributions. Especially, we evaluate the structure stability of ice X under a large high pressure range (55GPa-380GPa), and reckon two critical phase transition pressure to be about 75GPa and 290-300GPa. Beyond 300Gpa, we discover a fine structure corrected Tables TABLE I. Lattice parameters (a, b/a, c/a) and fractional coordinates of inequivalent atoms of ice XI, ice X, ice XV, and ice XIII M at ground state (0K). List of . From ice X to ice XIII M /XV, the oxygen substructure transforms from body-centred-cubic (BCC) to distorted HCP structure, thus the oxygen-oxygen coordination number increases from 8 to12. In ice XIII M , the positions of the atoms were reported 1 to be O at (u, v, 0.25), H1 at (0, v-0.25, 0.25), and H2 at (0.5, 0.5, 0), where u and v are independent internal structural parameters. Based on the symmetry operators of Pbcm, the other symmetry equivalent position of oxygen with z coordinate equals 0.25 is at (-u, v-0.5, 0.25). Thus H1 always locates in the middle of two neighboring oxygen atoms, and so does H2. Hence, as the same to ice X, the 'protonordered' symmetric ice phase, all hydrogen atoms in ice XIII M also locate in the symmetric positions of the corresponding O-H-O bonds, and there should be only two different neighboring H-O bond lengths, despite the regular-tetrahedron coordination structure in ice X is now distorted, as is shown in Fig. 6a. However, examining the bond lengths of ice XV in Table III, we can find that there are three different lowest values for the four H-O bond lengths in the fourfold coordination structure, e.g. 0.9977Å, 1.0105Å, and 1.0213Å at 380GPa e . This is because there are two bonds having equal lengths, describing two hydrogen atoms locating in the middle of two neighboring oxygen atoms; The other two bonds having shorter or longer lengths describe the other two hydrogen atoms which have asymmetric positions between the neighboring oxygen atoms, which are shown in Fig. 6b. For making sure this bonding feature in the tetrahedral coordination structure of ice under high pressure, we have further optimized several other geometries of ice under 350GPa, including ice XI, distorted structures of ice VII and ice VIII, and find that the feature of broken symmetry in hydrogen bonding do commonly exist. Moreover, we check our calculations by re-optimizing the ice XIII M structure using other exchange-correlation functionals: all of the three types of GGA functionals (PBE 33 , RPBE 45 , and PW91 46 ) and CA-PZ 47 type of LDA functional implemented in the CASTEP code and the PAW 48 pseudopotential. All of these calculations have reached the same result: 50% symmetric hydrogen-bonded structure and the other 50% asymmetric. This fine bonding feature in e The convergence tolerance of maximum atomic displacement in our calculation is 5x10 -4 Å. Hence, the length difference in the asymmetric O-H-O bond, ~10 -2 Å, is much bigger than our calculation inaccuracy. ice XV is different from ice XIII M , the previous result reported by M. Benoit et al. (Ref.1), despite they have the same space group. Hence, our results suggest that further researches, especially experimental works, are needed to recheck the long-standing hydrogen bonding model in ice under very high pressure considering that all hydrogen atoms should be equilibrated in the midway of two neighboring oxygen atoms beyond the pressure when the oxygen-oxygen distance d OO is less than about 2.4 Å (Refs. . Though as we all know that the absolute values of the atomic charges yield by the population analysis have little physical meanings because of their high sensitivity to the atomic basis set, we are still able to find useful information from the relative values of Mulliken populations. The bond populations indicate the overlap degree of the electron clouds of two bonding atoms, and the lowest/highest values imply that the chemical bond exhibits strong ionicity/covalency, respectively. The negative values of bond populations for H-H and O-O bonds indicate that these bonds have the tendency to be broken or these atoms have Van der Waals interaction only. , respectively, we find that in both phases the charge transfers are decreased while the absolute values of bond populations are increased with the increase of the pressure. This could be understood that more electron clouds overlap together and the attractive effect between the electrons and protons become obvious, thus less charge could be transferred from hydrogen to oxygen when the H-O bond length is compressed to shorter. In addition, due to the increase of the bond population, the covalency character in both ice X and ice XV strengthens under higher pressure. Hence the metallization is not likely to happen in both two phases. It is also interesting to notice that under 300GPa the neighboring H-O bond populations of ice XV (~0.49) are quite different with ice X (~0.37) but similar to ice XI (~0.49), implying that the ionicity of ice XV under high pressure is very different Fig. 7 7shows the spatial charge density distributions of ice XI, ice X, and ice XV in a (100) plane, a (110) plane, and a (001) plane, respectively, all of which pass through at least one H 2 O molecular plane within their unit cells. InFig. 7a, we can clearly identify the H-O…H bonds and H 2 O molecules in ice XI. However, in eitherFig. 7borFig. 7cfor ice X and ice XV, it is difficult to find any separated molecules, because all H 2 O molecules have been dissociated to form the atomic crystals. In addition, we can find many similarities betweenFig. 7b and Fig. 7c. This is due to the fact about the formation of ice XV from ice X as we analyzed in the subsection above: one of the two neighboring layers (that is (110) X plane, i.e. (001) XV plane in ice XV) in ice X sliding along the [001] X (i.e. [010] XV ) direction. ( VBs) of ice X consist of 8 levels and degenerate to 4 at all high symmetric k-points; while in Figs. 8b and 8c, ice XV and ice XI have 16 levels in the VBs, because they have double number of H 2 O molecules within the unit cells than ice X. The lattice structure of ice XV (8 symmetry operations) has lower symmetric operators than ice X (48 symmetry operations), the valence bands only degenerate to four levels at k-points U and R. The valence bands of ice XI are discrete in energy as most molecular crystals, where most valence bands are flat and seldom overlapped. They degenerate from sixteen levels to six levels at k-points Z, T, and R, because there are six molecular electronic energy levels of H 2 O. 9eV are mainly contributed by an anti-bonding orbital from s states of oxygen and hydrogen. As in the case of ice XI, the two peaks between ~-30.0eV and ~-15.5eV having the lowest energies in the DOS spectra of ice X are mainly the bonding and anti-bonding states from the s states of oxygen and hydrogen. The VBs between ~-15.5eV and ~-5.7eV come from the cooperative contributions of O 2p, O 2s, and H 1s states. The electronic states above ~-5.7eV and below the Fermi energy are dominantly from O 2p states as in the case of ice XI. Based on the band gap among the valence bands (V-Bandgap), we divide the valence bands to two regions: VB1 . The charge transfers for the other two phases could also be calculated in the same way. In fact, the definite integration within certain energy region of the DOS spectra could be used to analyze the hybridization of atomic orbitals. For instance, the ratios of the number of total s states versus total p states in two regions (~-6.5eV to ~-5.4eV) and (~-4.2eV to ~-1.2eV) in ice XI are both close to 1/3, thus the VBs in these two energy regions are very likely dominated by sp order to check the mechanical stability of the structure of ice XV, we have done lattice dynamics for ice XV under different pressures. The phonon dispersions and the density of phonon states of ice XV under 300GPa and 380GPa are presented in Figs. 12 and 13, respectively. Because there are 12 atoms in the primitive cell of ice XV, there must be totally 36 phonon modes (the degenerate modes are also counted). From 300GPa to detailed population analysis and the variation of the dispersion of partial density of states (PDOS) of ice under different pressures may indicate the reason for the abnormal pressure dependent behavior of band gap in ice X and why it tends to transform to a new f Since there is no specific coordinate information about ice XIII M below 380GPa in literature, and the positions of oxygen varies under different pressure, here we relocate all hydrogen atoms in ice XV to be symmetrical as ice XIII M for comparison in this subsection. , when the pressure is increased, more and more O 2s electrons are transferred to O 2p in VB2, from 0.29 at 75GPa to 0.38 at 300GPa, and the charge transfer from H 1s to O 2p varies only little, hence more and more O 2p characters appear. This strengthens the sp 3 hybridization in VB2 in ice under high pressure. The stronger sp 3 hybridization in the tetrahedral coordination structure makes the electronic transition between the valence bands and the conduction bands more difficult, i.e. the band gap widens. Nevertheless, when the pressure approaching to about ~300GPa, the incomplete-filled sp 3 hybridization bonding structure comes to be not strong enough to keep the regular tetrahedron coordination structure under higher compression. One of the natural result is the lattice structure, especially the oxygen substructure, would be distorted and packed to be denser. That is why the ABAB stacking structure of distorted HCP structure forms in ice XV/XIII M . The comparison about the densities of them is presented in for the previous theoretically reported phase ice XIII M and name it as ice XV. Ice XV has a distinct bonding structure from the conventional hydrogen-bonding model for ice under high pressure. We find that the new phase ice XV has 50% protons in symmetric positions within O-H-O bonds and the other half being asymmetric under super high pressure. The physical reasons for that ice X is stable under the pressure larger than 75GPa is evaluated from the pressure dependence of the frequencies of phonon modes at Gamma point, and that the pressure-induced phase transition at about 300GPa is analyzed from the change of s-p charge transfer from hydrogen and oxygen. The studies on the density of electron states and band structures show that the band gap of ice X is increased with high pressure among 75-290GPa, and we explain this behavior from the delocalization of electrons in the valence bands and the change of s-p charge transfers between hydrogen and oxygen under high pressure. The metallization of ice is not likely to happen in both ice X and ice XV phases. The stability of ice XV is specially discussed in a separate subsection from the phonon dispersion data and the density of phonon states, as well as the comparison of the favor of enthalpy among other ice phases. The physical mechanism for the phase transformation from ice X to ice XV (instead of ice XIII M ) is revealed that following the inter-sliding of (001) planes of oxygen layers along either the[ 010 ] or [ 0 1 0 ] direction, the unidentical displacements of hydrogen atoms within every tetrahedral coordination unit result in asymmetric repelling forces acting on therein two hydrogen atoms within the oxygen layers, and thus the broken symmetry in hydrogen bonding occurs, namely the ice XV forms. FIG. 1. Phase diagram of ice including some recently discovered stable and metastable forms (Lobban et al. 1998 (Ref. 49); Salzmann et al 2006 (Ref. 18)). Arrows indicate the typical preparation paths for low density amorphous ice (LDA), high density amorphous ice (HDA), ice XIII and XIV. (Ref. 50) FIG. 2. (Color online) Crystal structures of (a) ice XI, (b) X, and (c) XIII M /XV. Red (dark) and white circles denote oxygen and hydrogen atoms, respectively. FIG. 3. (Color online) The pressure dependences of (a) the length of lattice constant a, (b) density, (c) bond lengths (or neighboring atomic distances) of ice X. FIG. 4. (Color online) The pressure dependences of (a) enthalpy, (b) Fermi energy, and (c) band gap of ice X. FIG. 5. (Color online) The pressure dependence of the frequencies of phonon modes at Gamma point. FIG. 6. (Color online) The hydrogen bonding structures of (a) ice XV, (b) ice XIII M , and (c) ice X. The atomic distance is in unit Å. The convergence tolerance of maximum atomic displacement in our calculation is 5x10 -4 Å. FIG. 7. (Color online) Charge density slices of (a) ice XI (1atm) plotted in a (100) plane, (b) ice X (300GPa) plotted in a (110) plane, and (c) ice XV (300GPa) plotted in a (001) plane, all of which pass through at least one H 2 O molecular plane. The unit cell is outlined in blank. Corresponding to the arrangement of rainbow spectroscopy, from the zone of blue to red, the charge density is increased from the lowest to the highest. FIG. 8. (Color online) Band structures of: (a) ice X under 300GPa, (b) ice XV under 300GPa, and (c) ice XI under ambient pressure. FIG. 9. (Color online) Calculated spectra of partial density of states for (a) ice XI under ambient pressure, (b) ice X under 75 GPa, (c) ice X under 300GPa, and (d) ice XV under 300GPa. FIG.10. (Color online) Integrations for the DOS spectra of (a) ice X under 300GPa, (b) ice XV under 300GPa, and (c) ice XI under ambient pressure. FIG.11. (Color online) Enthalpies per H2O unit of ice X, ice XV, and ice XIII M at ground state (0K) are plotted as functions of pressure. The enthalpies are referenced to that of ice X. The energy convergence tolerance in our geometry optimizations is 5.0 x 10 -3 meV/atom. FIG. 12. Phonon dispersions of ice XV (a) at 300GPa and (b) at 380GPa. The Brillouin zone of the orthorhombic lattice is shown at the right. FIG. 13. Density of phonon states of ice XV (a) at 300GPa and (b) at 380GPa. FIG. 14. 2x1x1 supercell structure of Ice XV at 380GPa. The measured bond lengths are in unit Å. The oxygen layer composed of (O 1 -O 3 -O' 3 -O' 1 ) slides along the [ ] direction, and the other layer composed of (O4-O2-O' 010 2 -O' 4 ) oppositely slides along the [ 0 1 0 ] direction. FIG. FIG. 1 The organization of this paper is as follows: the ab initio method and the technique weuse in our calculations are described in Sec. II. The results for ice under different high pressure and the detailed discussions are presented in Sec. III. Finally, conclusions are drawn in Sec. IV. Parrinello Molecular Dynamics, the CPMD code 41 42 ) for 16 H 2 O molecules, M. Benoit et al. predicted that ice X would transform into a new phase ice XIII M (Ref.1) beyond 300GPa in 1996, but without any experimental confirmation yet. Ice XIII M is orthorhombic with four H 2 O molecules per primitive cell, as is shown in for ice XV extends instead, from 2.1907Å under 300GPa to 2.2333Å under 380GPa. In fact, this is due to the tendency to form an ideal ABAB stacking of HCP substructure of oxygen lattice, leading the relative sliding of neighboring oxygen layers perpendicular to [001] direction along the [010] . There are six peaks below Fermi energy, corresponding to six molecular electronic energy levels of H 2 O from the lowest and H 1s orbitals, while the lowest unoccupied molecular orbital, between ~5.15eV and ~14.6eV, is mainly from the s states of hydrogen. Turning to Figs. 9b and 9c for ice X, we can find that the DOS spectra become complex due to increase in band dispersion. For 2s, and H 1s states. The CBs below ~14.to the highest: and (here marks with no superscript, with superscript "*"or "non" represent the bonding, anti-bonding or non-bonding state, respectively). Within the VBs, O 2s and H 1s contribute to the formation of * * , , , , z z non x s s σ σ σ σ σ non y π s σ and , O 2p * s σ x and H 1s to , O 2p non x σ z and H 1s to z σ and , and a lone-pair O 2p * z σ y orbital to , respectively. The conduction bands (CBs) in 14.6-16.2eV are contributed by O 2p ice X under 300GPa, the CBs in 16.5-23.5eV originate mainly from the O 2p and H 1s states, and those between 14.9-16.5eV are from the cooperative contributions by O 2p, O Table II . IIComparing the values at 0eV in Figs. 10a-c, we find that in the three phases ofice the ratios of total s/p states are very close to 3/5, as the sp 3 hybridization in H 2 O molecule. Those are 11.475/19.321, 5.936/9.961, and 11.900/19.906, in ice XI, ice X, and ice XV, respectively. However, it is interesting to notice that the s/p ratio is increased with the pressure, from 0.594 in ice XI, 0.596 in ice X, to 0.598 in ice XV. This variety is arising from the charge transfers of s electrons both from hydrogen and oxygen to O 2p states. For instance, the integration from the lowest energy to 0eV for the densities of s states respectively from hydrogen and oxygen are 4.29 and 7.18 in ice XI, 2.70 and 3.23 in ice X, and 5.42 and 6.49 in ice XV, so they make the difference of s/p ratio. On the other hand, the charge transfer per hydrogen atom in ice X could be calculated as . The value for oxygen is equal to the double that of hydrogen, i.e. 0.66. TABLE II . IIDensities, charge transfers (Q tran ) of hydrogen atoms (corresponding to half of those of oxygen atoms), and effective charge densities (Q eff ) of H 1s, O 2s, and O 2p states of ice XI, ice X, ice XV, and ice XIII M at ground state (0K). TABLE III. Different neighboring atomic distances and bond populations in ice XI, ice X, and ice XV. TABLE IV . IVThe displacements of H3 and O4 which correspond to the elongated H-O bond in Table II for ice XV under stronger compression. TABLE I IFractional coordinates Phase TABLE IV IVFractional coordinates of atomsDistance (Å)H3 O4 H3-O4 300GPa 1.0020 0.3059 -0.2500 -0.2529 -0.0563 0.2500 2.1907 380GPa 1.0009 0.3166 -0.2500 -0.2536 -0.0698 0.2500 2.2333 ∆ -0.0011 0.0107 0.0000 -0.0007 -0.0135 0.0000 0.0426 ACKNOWLEDGEMENTSThe authors are grateful to Prof. Warren Pickett (University of California, Davis) for many useful discussions. This work was supported by the National Natural ScienceList of Figures . M Benoit, M Bernasconi, P Focher, M Parrinello, Phys. Rev. Lett. 762934M. Benoit, M. Bernasconi, P. Focher, and M. Parrinello, Phys. Rev. Lett. 76, 2934 (1996). . M Bernasconi, M Benoit, M Parrinello, G L Chiarotti, P Focher, E Tosatti, Phys. Scr. 6698M. Bernasconi, M. Benoit, M. Parrinello, G. L. Chiarotti, P. Focher, and E. Tosatti, Phys. Scr. T66, 98 (1996). . K M Kanani, L Robin Leea, Raymond Benedetti, Jeanloz, J. Chem. Phys. 12514701Kanani K. M. Leea, L. Robin Benedetti, Raymond Jeanloz et al., J. Chem. Phys. 125, 014701 (2006). P V Hobbs, Ice Physics. Clarendon, OxfordP. V. Hobbs, Ice Physics (Clarendon, Oxford, 1974). W B Hubbard, Planetary Interiors. New YorkVan Norstrand ReinholdW. B. Hubbard, Planetary Interiors (Van Norstrand Reinhold, New York, 1984). . W J Nellis, Science. 240779W. J. Nellis et al., Science 240, 779 (1988). . H E O Mishima, Stanley, Nature. 396329O Mishima and HE. Stanley, Nature 396, 329 (1998). . I Ohmine, S Saito, Acc. Chem. Res. 32741I. Ohmine and S. Saito, Acc. Chem. Res. 32, 741 (1999). . R J Hemley, Annu. Rev. Phys. Chem. 51763R. J. Hemley, Annu. Rev. Phys. Chem. 51, 763 (2000). . T Loerting, N Giovambattista, J. Phys.: Condens. Matter. 18919T. Loerting and N. Giovambattista, J. Phys.: Condens. Matter 18, 919 (2006). . John S Tse, Dennis D Klug, Malcolm Guthrie, Chris A Tulk, Chris J Benmore, Jacob Urquidi, Phys. Rev. B. 71214107John S. Tse, Dennis D. Klug, Malcolm Guthrie, Chris A. Tulk, Chris J. Benmore, and Jacob Urquidi, Phys. Rev. B 71, 214107 (2005). V F Petrenko, R W Whitworth, Physics of Ice. OxfordOxford University PressV. F. Petrenko, and R. W. Whitworth, Physics of Ice (Oxford University Press, Oxford, 1999). . C Cavazzoni, G L Chiarotti, S Scandolo, E Tosatti, M Bernasconi, M Parrinello, Science. 28344C. Cavazzoni, G.L. Chiarotti, S. Scandolo, E. Tosatti, M. Bernasconi, and M. Parrinello, Science 283, 44 (1999). . M Benoit, D Marx, M Parrinello, Nature. 392258Theoretical work: M. Benoit, D. Marx, and M. Parrinello, Nature 392, 258 (1998); . J , J. . Teixeira, Nature. 392232Teixeira, Nature 392, 232 (1998); . M Benoit, A H Romero, D Marx, Phys. Rev. M. Benoit, A. H. Romero, and D. Marx, Phys. Rev. . Lett, 89145501Lett. 89, 145501 (2002). . Ph, M Pruzan, Gauthier, J. Mol. Struct. 177429Experimental work: Ph. Pruzan and M. Gauthier, J. Mol. Struct. 177, 429 (1988); . J , J.D. . W F Londono, J L Kuhs, Finney, J. Chem. Phys. 984878Londono, W.F. Kuhs, and J.L. Finney, J. Chem. Phys. 98, 4878 (1993); . P Loubeyre, R , P. Loubeyre, R. . E Letoullec, M Wolanin, D Hanfland, Hausermann, Nature. 397503LeToullec, E. Wolanin, M. Hanfland, and D. Hausermann, Nature 397, 503 (1999); . A , A. F. . V V Goncharov, M S Struzhkin, R J Somayazulu, H K Hemley, Mao, Science. 273218Goncharov, V. V. Struzhkin, M. S. Somayazulu, R. J. Hemley, and H. K. Mao, Science 273, 218 (1996); . P Pruzan, J C Chervin, B Canny, J. Chem. Phys. 999842P. Pruzan, J. C. Chervin, and B. Canny, J. Chem. Phys. 99, 9842 (1993); . A F Goncharov, V V Struzhkin, H K Mao, R J Hemley, Phys. Rev. Lett. 831998A. F. Goncharov, V. V. Struzhkin, H. K. Mao, and R. J. Hemley, Phys. Rev. Lett. 83, 1998 (1999); . M Song, H Yamawaki, H Fujihisa, M Sakashita, K Aoki, Phys. Rev. M. Song, H. Yamawaki, H. Fujihisa, M. Sakashita, and K. Aoki, Phys. Rev. . B. 6814106B 68, 014106 (2003); . Ph, J C Pruzan, E Chervin, B Wolanin, M Canny, M Gauthier, Hanfland, J. Raman Spectrosc. 34591Ph. Pruzan, J. C. Chervin, E. Wolanin, B. Canny, M. Gauthier, and M. Hanfland, J. Raman Spectrosc. 34, 591 (2003). . R J Hemley, A P Jephcoat, H K Mao, Nature. 330737R. J. Hemley, A. P. Jephcoat, and H. K. Mao et al., Nature 330, 737 (1987). . A F Goncharov, V V Struzkhin, M S Somayazulu, R J Hemley, H K Mao, Science. 273218A. F. Goncharov, V. V. Struzkhin, M. S. Somayazulu, R. J. Hemley, and H. K. Mao, Science 273, 218 (1996). . C G Salzmann, P G Radaelli, A Hallbrucker, E Mayer, J L Finney, Science. 3111758C. G. Salzmann, P. G. Radaelli, A. Hallbrucker, E. Mayer, and J. L. Finney, Science 311, 1758 (2006). . T Matsuo, Y Tajima, H Suga, J. Phys. Chem. Solids. 47165T. Matsuo, Y. Tajima, and H. Suga, J. Phys. Chem. Solids 47, 165 (1986). . A J Leadbetter, R C Ward, J W Clark, P A Tucker, T Matsuo, H Suga, J. Chem. Phys. 82424A. J. Leadbetter, R. C. Ward, J. W. Clark, P. A. Tucker, T. Matsuo, and H. Suga, J. Chem. Phys. 82, 424 (1985). . R Howe, R W Whitworth, J. Chem. Phys. 904550R. Howe and R. W. Whitworth, J. Chem. Phys. 90, 4550 (1989). . S M Jackson, R W Whitworth, J. Chem. Phys. 1037647S. M. Jackson and R. W. Whitworth, J. Chem. Phys. 103, 7647 (1995). . S M Jackson, J. Phys. Chem. B. 1016177S. M. Jackson, J. Phys. Chem. B 101, 6177 (1997). . C M B Line, R W Whitworth, J. Chem. Phys. 10410008C. M. B. Line and R. W. Whitworth, J. Chem. Phys. 104, 10008 (1996). . S M Jackson, V M Nield, R W Whitworth, M Oguro, C C Wilson, J. Phys. Chem. B. 1016142S. M. Jackson, V. M. Nield, R. W. Whitworth, M. Oguro, and C. C. Wilson, J. Phys. Chem. B 101, 6142 (1997). . H Fukazawa, S Ikeda, M Oguro, T Fukumura, S Mae, J. Phys. Chem. B. 1066021H. Fukazawa, S. Ikeda, M. Oguro, T. Fukumura, and S. Mae, J. Phys. Chem. B 106, 6021 (2002). . Ph, Pruzan, J. Mol. Struct. 322279Ph. Pruzan, J. Mol. Struct. 322, 279 (1994). . F H Stillinger, J. Phys. Chem. 874281F. H. Stillinger, J. Phys. Chem. 87, 4281 (1983). . C Lee, D Vanderbilt, K Laasonen, R Car, M Parrinello, Phys. Rev. Lett. 69462C. Lee, D. Vanderbilt, K. Laasonen, R. Car, and M. Parrinello, Phys. Rev. Lett. 69, 462 (1992); . Phys. Rev. B. 474863Phys. Rev. B 47, 4863 (1993). . B Kamb, B L Davis, Proc. Natl. Acad. Sci. U.S.A. 521433B. Kamb and B. L. Davis, Proc. Natl. Acad. Sci. U.S.A. 52, 1433 (1964). . W B Holzapfel, J. Chem. Phys. 56712W. B. Holzapfel, J. Chem. Phys. 56, 712 (1972). . M D Segall, P J D Lindan, M J Probert, C J Pickard, P J Hasnip, S J Clark, M C Payne, J. Phys.: Cond. Matt. 14112717M. D. Segall, P. J. D. Lindan, M. J. Probert, C. J. Pickard, P. J. Hasnip, S. J. Clark, and M. C. Payne, J. Phys.: Cond. Matt. 14(11), 2717 (2002). . J P Perdew, K Burke, M Ernzerhof, Phys. Rev. Lett. 773865J.P. Perdew, K. Burke, and M. Ernzerhof, Phys. Rev. Lett. 77, 3865 (1996). . H J Monkhorst, J D Pack, Phys. Rev. B. 135188H. J. Monkhorst and J. D. Pack, Phys. Rev. B 13, 5188 (1976). . G J Ackland, Phys. Rev. Lett. 802233G. J. Ackland, Phys. Rev. Lett. 80, 2233 (1998). . , E Sanchez Portal, J M Artacho, Soler, Solid State Commun. 95685Sanchez Portal, E. Artacho, and J. M. Soler, Solid State Commun. 95, 685 (1995); . M , M. . D Segall, R Shah, C J Pickard, M C Payne, Phys. Rev. B. 5416317D. Segall, R. Shah, C. J. Pickard, and M. C. Payne, Phys. Rev. B 54, 16317 (1996). . K Parlinski, Z Q Li, Y Kawazoe, Phys. Rev. Lett. 784063K. Parlinski, Z. Q. Li, and Y. Kawazoe, Phys. Rev. Lett. 78, 4063 (1997); . K Parlinski, Software PHONON. K. Parlinski, Software PHONON, Cracow, 2005. . J S Tse, G Frapper, A Ker, R Rousseau, D D Klug, Phys. Rev. Lett. 824472J. S. Tse, G. Frapper, A. Ker, R. Rousseau, and D. D. Klug, Phys. Rev. Lett. 82, 4472 (1999). . Jian Sun, Hui-Tian Wang, Phys. Rev. B. 71125132Jian Sun and Hui-Tian Wang et al., Phys. Rev. B 71, 125132 (2005). . Jian Sun, Phys. Rev. B. 7345108Jian Sun et al., Phys. Rev. B 73, 045108 (2006). . R Car, M Parrinello, Phys. Rev. Lett. 552471R. Car and M. Parrinello, Phys. Rev. Lett. 55, 2471 (1985). D Marx, J Hutter, Modern Methods and Algorithms of Quantum Chemistry. J. Grotendorst (NIC, FZ Jülich1301D. Marx and J. Hutter, in Modern Methods and Algorithms of Quantum Chemistry, edited by J. Grotendorst (NIC, FZ Jülich, 2000), Vol. 1, p.301. . Ph, E Pruzan, M Wolanin, Gauthier, J. Phys. Chem. B. 1016230Ph. Pruzan, E. Wolanin, M. Gauthier, and et al., J. Phys. Chem. B 101, 6230 (1997). . K Aoki, H Yamawaki, M Sakashita, H Fujihisa, Phys. Rev. B. 5415673K. Aoki, H. Yamawaki, M. Sakashita, and H. Fujihisa, Phys. Rev. B 54, 15673 (1996). . B Hammer, L B Hansen, J K Norskov, Phys. Rev. B. 597413B. Hammer, L. B. Hansen, and J. K. Norskov, Phys. Rev. B 59, 7413 (1999). . J P Perdew, J A Chevary, S H Vosko, Phys. Rev. B. 466671J. P. Perdew, J. A. Chevary, and S. H. Vosko et al., Phys. Rev. B 46, 6671 (1992). . D M Ceperley, B J Alder, Phys. Rev. Lett. 45566D. M. Ceperley and B. J. Alder, Phys. Rev. Lett. 45, 566 (1980). . P E Blöchl, Phys. Rev. B. 5017953P.E. Blöchl, Phys. Rev. B 50, 17953 (1994); . G Kresse, J Joubert, Phys. Rev. B. 591758G. Kresse and J. Joubert, Phys. Rev. B 59, 1758 (1999). . C Lobban, J L Finney, W F Kuhs, Nature. 391268C. Lobban, J. L. Finney, and W. F. Kuhs, Nature 391, 268 (1998). . W F Kuhs, T C Hansen, Rev. Mineral Geochem. 63171W. F. Kuhs and T. C. Hansen, Rev. Mineral Geochem. 63, 171 (2006).
sample_17631
0.8862
arxiv
AMBIENTE DE PLANEJAMENTO IPÊ Eugenio Marynowski Marília De Jesus Marynowski AMBIENTE DE PLANEJAMENTO IPÊ JOÃO EUGENIO MARYNOWSKI AgradecimentosAgradeço primeiramente a Deus por me conceder sua preciosa companhia me amparando e me auxiliando nos momentos mais difíceis.Agradeçoà minha família, meu pai Eugenio, minha mãe Marília, minha irmã Márcia e minha sobrinha Rafaela, pelo apoio incondicional e compreensão em meus momentos de ausência, que reconheço não terem sido poucos. Lembro aqui da minha namorada Corina que tanto me ajudou nesses e em outros momentos difíceis, muito obrigado.Agradeço ao meu orientador e amigo Marcos Alexandre Castilho pela confiança, direção, incentivo, conselho e apoio dados durante esse trabalho.Ao meu amigo Fabiano Silva que foi o principal responsável para esse feito. Foi meu professor durante a minha graduação, fez uma excelente propaganda de suaárea de pesquisa de modo tal que não consegui escapar e este foi o resultado. Muito obrigado por sua ajuda em todos os aspectos.Aos professores Luiz Allan e Andre Guedes pelaótima contribuição e aos meus amigos do mestrado, Andreas, Araújo, Bona, Egon, Evandro, Gabriel, Rodrigo, Thiago, Tiago, e a todos que me auxiliaram e me proporcionaram um excelente ambiente de trabalho.Ao Departamento de Informática da UFPR, especialmente ao professor e amigo Alexandre I. Direne por proporcionar o suporte institucional e pelo seu grande incentivo.Um agradecimento especial a Jusefina e a Jusefa, por tantas horas de trabalho.i SUMÁRIO Resumo iii Abstract iv Capítulo 1 Introdução Uma das habilidades mais importantes do ser humanoé conseguir planejar ações que levam a ter um determinado objetivo atingido. Por exemplo, como pode-se chegar na universidade em 15 minutos para não se perder a reunião? Quais as ações que devemos executar para solucionar esse problema? Encontrar estas ações utilizando um computadoŕ e o objeto de estudo no Planejamento em Inteligência Artificial. Neste contexto, um planejadoré um sistema que recebe como entrada um estado inicial, um conjunto de ações possíveis, o estado final desejado e gera um plano. Por exemplo, o planejador recebe o estado inicial "estar em casa", diversas ações possíveis e o estado final desejado "estar na universidade em 15 minutos" e retorna um plano que pode ser a seqüência: "pegue o telefone", "ligue para um táxi", "entre no táxi" e "diga ao motorista: preciso estar na universidade em 10 minutos". Planejamentoé um dos temas mais antigos na Inteligência Artificial (IA). As primeiras abordagens datam dos anos 60 no contexto de um subproblema daárea de prova automática de teoremas em lógica de primeira ordem [Gre69]. Essa abordagem apresentava diversos problemas, sendo ainda ineficiente ao resolver problemas de planejamento. Em 1971 Fikes e Nilsson definiram uma linguagem simplificada para a descrição dos problemas. Conhecida como STRIPS [FN71], essa linguagem permitiu tratar o planejamento como um problema de busca em um espaço de estados. Apesar de ter simplificado significativamente o problema, a complexidade teórica para esta categoria está em PSPACE-Completo [Byl94] eé denominada planejamento clássico. Até a primeira metade dos anos 90 os planejadores desenvolvidos ainda eram baseados em antigas técnicas de busca, o que era insuficiente para tratar problemas simples que geravam amplos espaços de busca. A partir de então, novas idéias surgiram. A primeira introduziu a busca no espaço de planos, onde se tentava construir um plano a partir de operadores de planos. A partir de um plano vazio, se construíam seqüências de ações que tentavam transformar o estado inicial no estado final. O principal representante desta técnicaé o UCPOP [PW92]. A segunda idéia foi baseada nos novos e rápidos algoritmos que foram propostos para resolver problemas de satisfatibilidade (SAT) [KS92]. Passando-se por um processo de redução do problema de planejamento a um problema de se resolver uma instância SAT foi possível obter excelentes resultados com alguns problemas não triviais. Finalmente, foi encontrada uma estrutura de dados que permitiu representar o espaço de busca de maneira mais compacta e conseqüentemente levouà implementação de um algoritmo sofisticado e eficiente que resolveu vários problemas difíceis. Esta estrutura de dadosé o grafo de planos e o algoritmo o GRAPHPLAN [BF95]. Desde então foram apresentados muitos outros algoritmos baseados no grafo de planos. Também o planejamento foi relacionado com outrasáreas de pesquisa, tais como a Programação Inteira [VBLN99], a Programação por Restrição [BC99], as Redes de Petri [SCK00], entre outras. A figura 1.1 ilustra as diferentes técnicas aplicadas hoje no planejamento, como elas se relacionam e indica referências aos trabalhos que propuseram as respectivas abordagens: que obtiveramêxito ao definirótimas funções heurísticas para guiar a busca. O FF , por exemplo, usa o grafo de planos como base para uma função heurística em um processo de subida de encosta eé considerado hoje o melhor sistema planejador. A própria evolução da computação e das técnicas de programação permitiu um grande avanço no desenvolvimento de planejadores. Um fato que caracteriza fortemente essa evoluçãoé a reimplementação do algoritmo STRIPS original que resultou em um planejador que resolve problemas difíceis [Lin01]. A Um ponto interessante a ser observadoé a dificuldade em se comparar e analisar estes diferentes planejadores. Isto nãoé tarefa fácil pois os planejadores são construídos em diferentes plataformas usando diferentes linguagens de programação, diferentes estruturas de dados e são baseados em diferentes linguagens de interface. Para tentar resolver este problema a comunidade de planejamento criou a Competição Internacional de Planejadores, evento bienal cuja primeira versão aconteceu em 1998. Nesse ano foi definida uma linguagem unificada para descrever problemas de planejamento, denominada PDDL [McD98b]. Essa linguagem foi formada pela junção das linguagens STRIPS e ADL [Ped89] eé considerada hoje a linguagem de descrição padrão para a comunidade de planejamento. A escolha de uma linguagem de programação comum não foi considerada, mas a maioria dos planejadores estão escritos em C ou C++. O ponto relevante a respeito das competiçõesé que os planejadores são somente comparados observando os resultados finais obtidos com relação ao tempo gasto ou ao tamanho do plano, o que nãoé suficiente para permitir análises mais profundas. Ainda, ao observar somente os resultados finais torna-se difícil declarar claramente um ganhador ou que um algoritmoé melhor que os outros. Por exemplo, na competição de 1998, foi difícil apontar o vencedor [McD98a]. Na primeira competição foram avaliados o número de problemas resolvidos, o tempo total gasto para resolvê-los e o tamanho dos planos encontrados. A cada nova versão da competição são adicionados mais critérios para essa avaliação sempre em busca de melhor avaliar o desempenho dos planejadores. Neste sentido, os planejadores são considerados como entidades que resolvem problemas a partir de uma descrição comum, sem considerar como são resolvidos. Em nossa opinião istoé insuficiente como análise. O que está sendo feitoé analisar programas completos e isto empobrece a análise. Na nossa visão, planejadores são algoritmos sobre estruturas de dados. Nossa tentativaé analisar os planejadores recentes em termos de suas estruturas de dados (representações) e do algoritmo planejador (resolvedor). Por exemplo o planejador BLACKBOX [KS99] trabalha em duas fases, na primeirá e construída a estrutura de dados e na segunda obtém-se a solução via um resolvedor SAT. Melhorando-se a representação, melhora-se o algoritmo final. Neste trabalho propomos um modo complementar para comparar os planejadores em relaçãoàs competições. Propomos um ambiente comum baseado em conceitos orientadosà objetos para construir planejadores: o Ambiente de Planejamento Ipê (IPE -Ipê Planning Environment). Sua característica principalé a separação clara dos processos envolvidos em um planejador: a descrição dos problemas, a estrutura de representação e o resolvedor. Temos como meta disponibilizar um ambiente geral para planejamento permitindo o desenvolvimento e a integração de formas diferentes de representação, diferentes algoritmos e modos diferentes de descrever os problemas a serem resolvidos. A idéiaé permitir a implementação de sistemas que interpretem problemas descritos em PDDL, STRIPS , ADL ou possivelmente outras linguagens, gerando representações como grafo de planos, redes de Petri, instâncias SAT , entre outras. Também deve possibilitar a implementação de diferentes resolvedores que utilizarão essas representações. Queremos dar liberdade para o programador escolher a combinação desejada de linguagem de descrição, representação e algoritmo resolvedor. Outra motivaçãoé educacional. O IPE pode servir como umaótima ferramenta para cursos de Inteligência Artificial e Planejamento para a graduação e/ou pós-graduação. Algumas estruturas básicas já estão finalizadas, por exemplo: o interpretador de descrições em PDDL, as representações grafo de planos e redes de Petri, os resolvedores de busca exaustiva e alcançabilidade, bem como a interface. Os estudantes podem, portanto, implementar outros algoritmos e representações conhecidas, desenvolver novos algoritmos e representações ou podem simular uma competição inteira comparando e analisando melhor as diferenças entre os planejadores. O texto está estruturado como segue. No capítulo 2é feita uma abordagem geral do problema de planejamento em IA apresentando em detalhes o funcionamento dos planejadores, destacando a representação grafo de planos e os principais planejadores nele baseados. No capítulo 3 apresentamos o IPE , destacando sua arquitetura e uso. No capítulo 4é feita uma análise envolvendo três planejadores implementados no IPE . No capítulo 5 são apresentadas algumas conclusões e propostas para trabalhos futuros. O problema de planejamento em IA Neste capítulo apresentaremos os fundamentos daárea de planejamento em Inteligência Artificial, particularmente no que se refere ao chamado planejamento clássico ou planejamento baseado na linguagem STRIPS . Mostraremos a definição formal do problema de planejamento, a linguagem padrão para descrição de domínios e problemas, as estruturas de representação mais importantes bem como os principais algoritmos empregados. Nosso objetivoé apresentar a linguagem PDDL, a representação grafo de planos e os principais algoritmos nela baseados. Considere por exemplo um comerciante que deseja transportar um conjunto de pacotes do depósito para suas duas lojas, para reabastecer seus estoques locais. Esse problema pode ser representado como um conjunto de ações em O descritas como: "carregar pacote p no caminhão c", "dirigir o caminhão c da localidade l 1 para a localidade l 2 ", "descarregar o pacote p do caminhão c". Fundamentos O estado inicial, contido em I, representa o atual estoque de cada loja e Gé a situação desejada pelo comerciante. Uma solução para esse problema, considerando que o caminhão esteja no depósito,é uma seqüência de ações semelhanteà: 1. carregar o caminhão com os pacotes, p 1 , p 2 ,..., p n 2. dirigir o caminhão do depósito para a loja1. 3. descarregar os pacotes p 1 , p 2 ,..., p i na loja1. 4. dirigir o caminhão da loja1 para a loja2. 6 5. descarregar os pacotes p i+1 , p i+2 ,..., p n na loja2. Existem diversas maneiras de se representar as informações que definem um problema de planejamento no computador. As primeiras abordagens datam dos anos 60, quando se usava uma descrição baseada em Lógica de Primeira Ordem (LPO). Isto resultava em diversos problemas, o principal deles era o problema da Persistência [MH69], além, evidentemente, dos problemas relativos ao processo de Prova Automática de Teoremas em LPO [Gre69]. Em 1971, Fikes e Nilsson propuseram um formalismo baseado não em lógica, mas em um processo de transformações controladas da descrição do estado usando um engenhoso mecanismo de listas. Este mecanismo permitiu definir o problema de planejamento como uma busca em um espaço de estados. O algoritmo e a linguagem de representação por eles apresentados ficaram conhecidos como STRIPS [FN71]. A idéia da linguagem STRIPSé representar os estados do mundo através de conjunções de literais instanciados livres de funções, ou seja, predicados aplicados sobre constantes (LPO) também chamados proposições. Na descrição dos estados assume-se que todas as fórmulas atômicas não explicitamente listadas são falsas, o queé chamado de "Hipótese do Mundo Fechado". Cada ação oé definida pela tupla: o = (pre(o), add(o), del(o)), onde pre(o)é a lista de pré-condições, add(o)é a lista de efeitos adicionados, e del(o)é a lista de efeitos removidos. A lista de pré-condiçõesé uma conjunção de literais positivos que devem ser verdadeiros para que a ação possa ser aplicada. A lista de efeitos adicionadosé uma conjunção de literais positivos que serão incluídos no próximo estado e a lista de efeitos removidosé uma conjunção de literais que serão removidos no próximo estado. O resultado da aplicação de uma ação o em um estado Sé definido como a adição das proposições da lista add(o) e a remoção das proposições da lista del(o) somente se as proposições da lista pre(o) existirem no estado S. O conjunto O, que define as ações possíveis segundo o problema,é dado pela instanciação de todas as ações com todos os objetos, podendo gerar algumas ações que não serão usadas e algumas que não serão válidas, mas todas devem ser instanciadas para serem avaliadas. A instanciaçãoé o processo pelo qual as variáveis que são utilizadas na definição das ações são substituídas pelos objetos disponíveis no problema a ser resolvido. Essa definição será apresentada em mais detalhes na seção seguinte. Em planejamento pode-se classificar um problema como sendo relaxado, onde não são considerados os efeitos de remoção das ações. Assim, um problema de planejamento relaxado P � de um problema de planejamento P,é formalmente definido como: P � =< O � , I, G >, onde: parâmetros passados para a ação; O � = {o � = (pre(o), add(o), ∅)|o ∈ O} conjunção das pré-condições da ação; e conjunção dos efeitos da ação. A representação de um problema em PDDLé descrita por uma declaração contendo os seguintes itens: • definição do nome do problema; • domínio ao qual pertence; • conjunto de objetos existentes no problema; • estado inicial; e • estado final; A sintaxe da linguagem PDDLé simples mas apresenta um grande número de itens para possibilitar a representação de todas as funcionalidades por ela descritas. Como exemplo será aqui apresentado apenas um sub-conjunto de sua capacidade representativa. Um maior detalhamento da sintaxe e da semântica da linguagem pode ser encontrado em [McD98b]. Usaremos apenas três itens da sintaxe: as palavras iniciadas por ":" são rótulos reservados, as iniciadas por "?" são variáveis e as palavras depois do "-" são tipos. A parentização define o limite de determinada definição ou opção. (em pacote2 loja2) ))) De forma análoga ao domínio, temos na primeira linha a definição do nome do problema, comerciante-1. Na segunda linhaé definido o domínio do qual este problema faz parte, no nosso caso comerciante. Na terceira linha são definidos os objetos existentes: pacote1 e pacote2 do tipo pacote; caminhão1 do tipo caminhão; e loja1, loja2 e depósito como sendo do tipo localidade. O rótulo reservado ":init", define o início da descrição do estado inicial formado pelas proposições: caminhão1 no depósito; pacote1 na loja1; pacote2 na loja1. De forma análoga, o rótulo reservado ":goal" define o início da descrição do estado final formado pelas proposições: pacote1 na loja2; pacote2 na loja2. Como foi apresentado anteriormente, as ações são descritas utilizando-se uma notação de primeira ordem, o queé facilmente interpretado pelo ser humano mas dificilmente pelo computador. Então faz-se necessário um processo para transformar o conjunto de regras em primeira ordem para um conjunto de regras proposicionais que são facilmente interpretadas computacionalmente. As informações de um problema de planejamento descritas em PDDL são normalmente armazenadas em arquivos, separados em arquivos de domínio e problema. Após obtê-las, utilizando-se de um analisador sintático, o planejador efetua a instanciação de todas as ações com todos os objetos gerando um conjunto de regras proposicionais. Esse processo consiste em fazer a combinação de cada parâmetro de cada ação com Como foi citado anteriormente esse processoé realizado para cada ação existente no problema gerando ainda as ações instanciadas: Aplicando sucessivamente todas as ações permitidas torna-se teoricamente possível encontrar a seqüência de ações que transformam o estado inicial no estado objetivo, ou seja, um plano. A grande dificuldade encontradaé que na maioria dos problemas o espaço de busca geradoé muito grande, sendo inviável em termos de tempo de processamento ou espaço de armazenamento. descarregar( pacote1,caminhão1,loja1)= ({em( caminhão1,loja1)∧dentro( pacote1,caminhão1)}, {em( pacote1,loja1)}), {dentro( pacote1, Apesar de outras representações terem sido propostas, neste trabalho analisaremos apenas o grafo de planos pois se trata da principal estrutura de representação dos dias de hoje [BF95]. As duas próximas seções mostram esta estrutura em mais detalhes. Por questões de apresentação, primeiramente veremos o grafo de planos relaxado. O grafo de planos relaxado O grafo de planos relaxadoé formado por camadas, cada uma definida pelos nós pertencentes a ela. As camadas pares contêm os nós proposições que representam cada proposição possível para o problema a ser resolvido. As camadasímpares contêm os nós ações, que são as instâncias de ações cujas précondições são satisfeitas pelas proposições da camada anterior. Para facilitar a distinção entre proposições e ações, utilizaremos círculos para representar os nós proposições e retângulos para representar os nós ações. As arestas do grafo conectam os nós proposições aos nós ações da camada posterior, Pode-se observar que obtivemos um grafo com somente três camadas de ações o que sugere que o problema do comerciante poderia ser resolvido por três ações ou conjuntos de ações, se executadas em paralelo. Mas ao analisar o problema considerando as ações completamente, sem desprezar os efeitos de remoção, observa-se que essa expansão nãoé completa, pois ao dirigir o caminhão da loja2 para a loja1, nãoé removido a proposição do caminhão estar na loja2 possibilitando que, após carregado o pacote, basta descarregá-lo pois o caminhão também se encontraria na loja2. Ao codificarmos o problema de planejamento considerando a lista de efeitos removidos encontraremos situações de inconsistências e conflitos, pois nem todas as ações numa camada são viáveis devido a contradições entre suas pré-condições e efeitos. Por exemplo, a ação dirigir(caminhão, loja2, loja1) remove a proposição em(caminhão, loja2) queé pré-condição para descarregar(pacote, caminhão, loja2), caracterizando uma restrição entre estas ações: elas não podem ser executadas na mesma camada. Na verdade existe uma série de outras restrições entre ações e proposições nas camadas do grafo de planos. Encontrar estas restrições nãoé simples. Blum e Furst definiram as chamadas relações de exclusão mútua (ou mutex), que são apresentadas a seguir. O grafo de planos O grafo de planos apresenta uma estrutura igual a do grafo de planos relaxado, diferenciando-se por não ser mais construído a partir de um problema de planejamento relaxado, mas sim considerando também os efeitos de remoção das ações. Quando considerado as ações com seus efeitos de remoção, encontraremos situações em que nem todas as ações numa camada são executáveis devido a contradições entre suas pré-condições e efeitos. Retomando o exemplo do comerciante, temos que a ação dirigir (caminhão,loja1,lo-ja2) remove a proposição em(caminhão,loja1) queé pré-condição para a execução da ação carregar (pacote,caminhão,loja1) indicando uma relação de exclusão mútua entre as duas ações. Esta característica reforça o caráter temporal do grafo, istoé, indica que estas duas ações não podem ser executadas ao mesmo tempo. A relação de exclusão mútua entre ações (mutex)é representada por uma aresta que liga ações presentes em uma mesma camada. Esta relaçãoé definida como segue: Definição: Duas instâncias de ações a e b numa camada de ações i são mutuamente exclusivas se: • um efeito de uma açãoé a negação de um dos efeitos da outra (figura 2.4); • um efeito de uma açãoé a negação de uma pré-condição de outra (figura 2.5); • as ações a e b têm pré-condições que são mutuamente exclusivas na camada i − 1 (figura 2.6). Este casoé chamado de competição de necessidades. anterior Q e ¬Q, portanto também são mutuamente exclusivas. A relação de exclusão mútua tambémé definida para as proposições. Ela indica que as proposições assim relacionadas não podem ser obtidas simultaneamente na mesma camada, ou seja, somente uma delas pode ser utilizada. Essa relaçãoé apresentada também como uma aresta que liga duas proposições em uma mesma camada, definida como segue: Definição: Duas proposições P e Q numa camada de proposições i são mutuamente exclusivas se todas as maneiras de obter as proposições são mutuamente exclusivas entre si, chamado suporte inconsistente. Ou seja, as ações da camada i − 1 que têm como efeito estas proposições são duas a duas mutuamente exclusivas (figura 2.7). a b c P Q Figura 2.7: As proposições P e Q são mutuamente exclusivas devidoàs exclusões mútuas entre as ações que obtêm P (a e b) e as que obtêm Q (c e a ação de manutenção). Observação: A definição de relação de exclusão mútuaé recursiva, como no terceiro caso de exclusão entre ações: "as ações têm pré-condições que são mutuamente exclusivas na camada i − 1". Portanto uma exclusão mútua numa determinada camada pode ter sido gerada por ações ou proposições de uma camada anterior. Um novo processo de expansão se faz necessário eé aqui que se nota a importância das ações de manutenção. O grafo de planos construído considerando as relações de exclusão mútua descritas acima, apresentado na figura 2.8, possui uma representação mais completa comparado com o grafo de planos relaxado. O processo de expansãoé semelhante ao empregado no grafo de planos relaxado diferenciando-se apenas pela adição dos efeitos de remoção e pela finalização que ocorre quando o estado final está contido naúltima camada de proposições sem apresentar inconsistências e conflitos. Comparado com o grafo de planos relaxado, observa-se que foi necessário mais uma expansão do grafo para obter as proposições do estado final sem apresentar relação de exclusão mútua nas proposições do estado final. Caso uma solução não seja encontrada, através de algum algoritmo de busca, uma nova expansão do grafo se faz necessária e um novo processo de buscaé então executado no grafo expandido. Esse processo continua até que seja encontrada uma solução, processo Seé encontrado um conjunto de ações consistente na camada i−1 que obtenham todas sub-metas, usamos o mesmo processo, recursivamente, para a camada i − 3, considerando como sub-metas as pré-condições das ações escolhidas para a camada i − 1, ou seja, as que formam a camada i − 2. Senãoé encontrado um conjunto de ações consistentes para a camada i − 3, o GRAPHPLAN despreza as ações consideradas para a camada i − 1 e escolhe outro conjunto. Caso não seja possível encontrar outro conjunto de ações consistentes, o processo falha e uma nova expansão do grafoé requerida. Isso indica que nãoé possível encontrar um caminho sem conflitos para alcançar os objetivos, ou seja, o número de camadas existentes nesse grafoé insuficiente sendo necessário mais uma expansão para tentar eliminar os conflitos existentes no caminho. Caso as duasúltimas camadasímpares do grafo expandido sejam idênticas, ou seja, á ultima expansão não inseriu nenhuma proposição ou não eliminou nenhum conflito, não existe solução para o problema e nenhum plano solução poderá ser encontrado. Quando a camada zeroé alcançada utilizando conjuntos de ações consistentes nas camadas anteriores, temos uma solução para o problema de planejamento. Esse plano soluçãoé formado pela união dos conjuntos de ações escolhidas, cuja ordemé apresentada pela camada, ou seja, as ações presentes na camada 1, são executadas antes das ações presentes na camada 3, e assim por diante. Entre as ações que formam o plano solução, possivelmente encontra-se ações de manutenção. Estas ações devem ser desconsideradas pois somente permitem que as proposições estejam também presentes na camada seguinte, mas não representam nenhum significado real para a solução do problema. Aplicando esse procedimento no grafo de planos gerado a partir do problema do comerciante (figura 2.8), temos que: • primeiramente toma-se aúnica sub-meta em(pacote,loja2); •é encontrada a ação descarregar (pacote,caminhão,loja2) que tem a sub-meta como efeito e comoé a primeira ação, nãoé mutex com nenhuma outra; não tem mais nenhuma sub-meta então passamos para a camada anterior considerando como submeta as proposições dentro(pacote,caminhão) e em(caminhão,loja2) que são précondições da ação considerada; • escolhe-se então a ação carregar (pacote,caminhão,loja2) que gera a sub-meta dentro(pacote,caminhão); • escolhe-se então a ação dirigir (caminhão,loja1,loja2) que gera a sub-meta em(caminhão,loja2) mas esta não pode ser considerada poisé inconsistente com a primeira; • escolhe outra ação, dirigir (caminhão,loja2,loja2), mas esta tambémé inconsistente; • escolhe ainda a ação manutenção(caminhão,loja2) mas tambémé inconsistente; • assim volta a ação escolhida para a sub-meta anterior, dentro(pacote,caminhão), e escolhe outra ação possível, a ação manutenção(pacote,caminhão); • então escolhe novamente a ação dirigir (caminhão,loja1,loja2) que agoraé consistente; se considera agora as proposições em(caminhão,loja1) e dentro(pacote,caminhão) como as novas sub-metas; • escolhe-se a ação carregar (pacote,caminhão,loja1) que gera a proposição dentro(pacote,caminhão); • escolhe-se a ação manutenção(caminhão,loja1) que gera a proposição em(caminhão,loja1) eé consistente; se considera então as proposições em(pacote,loja1) e em(caminhão,loja1) como as sub-metas; • escolhe-se a ação manutenção(pacote,loja1) que gera a proposição em(pacote,loja1); • escolhe-se a ação dirigir (caminhão,loja2,loja1) que gera a proposição em(caminhão,loja1) eé consistente; • chega-se a camada inicial (0) indicando que foi encontrado um plano solução para este problema. O próximo processoé a extração do plano solução, que nada maisé que a ordenação das ações escolhidas de forma inversaà encontrada durante a busca, ou seja, daúltima ação escolhida até a primeira. As camadas indicam a ordem que estas ações devem ser executadas. Como já foi informado, ações em uma mesma camada podem ser executadas em paralelo. Assim, o plano solução para o problema do comercianteé definido como: • Camada 1: dirigir (caminhão,loja2,loja1), manutenção(pacote,loja1); • Camada 3: carregar (pacote,caminhão,loja1), manutenção(caminhão,loja1); • cozinhar(jantar, 1), indica que ocorre a ação cozinhar no instante 1). Restrições sobre proposições e ações são escritas como esquemas, que são instanciados pelos objetos e pelas instâncias de tempo definidos em um problema particular. O tamanho máximo de um planoé então fixado no tempo máximo instanciado; se esta quantidade nãoé conhecida,é executada uma busca binária nas instanciações de vários tamanhos, até encontrar a menor instância em que a soluçãoé encontrada. A instância encontradaé resolvida por algum método SAT conhecido, que geralmente apresenta-se mais eficiente comparado com métodos de prova de teorema. Mas como as instâncias geradas a partir do espaço de estados eram grandes, utilizou-se o grafo de planos para reduzir o tamanho das instâncias. Outra otimização foi a utilização do número de camadas do grafo como tamanho inicial para as instâncias, valor este necessário para a construção das instâncias. O algoritmo do BLACKBOXé definido por três fases: Esse problema consiste em utilizar um robô para levar peças de um lugar para outro. Possui três ações: carregar, que carrega o robô com alguma peça; descarregar, que descarrega a peça; e mover, que desloca o robô de uma localização para outra. Existem: um robô R, duas peças A e B, uma localização inicial L e um destino P . Assim "carregar(A, R, L, i)" significa "carregue A em R na localização L no tempo i", e "mover(R, L, P, i)" significa "mova R de L para P no tempo i". O processo de conversão do grafo de planos em SATé descrito como segue: (¬dentro(A, R, 1) ∧ dentro(A, R, 3)) → (carregar(A, R, L, 2) ∨ carregar(A, R, P, 2)). Segundo a teoria proposicional, qualquer variável pode ser eliminada através da execução de todas resoluções possíveis sobre aquela variável e removendo todas as cláusulas contendo essa variável. Assim, qualquer subconjunto de literais, se representam ações ou proposições, podem em princípio ser eliminadas. Em geral o processo de resolução obtém um aumento exponencial no tamanho da instância, mas para a codificação baseada no grafo de planos a eliminação das proposições ocasiona somente um aumento polinomial neste tamanho. Por issoé executado o processamento de eliminação das proposições, permanecendo apenas as ações. O processo ocorre da seguinte forma: • Dadas as proposições: p 1 e p 2 • Os axiomas das ações: a 3 → p 1 ; a 3 → p 2 ; a 4 → p 1 ; a 4 → p 2 • E os axiomas das proposições: p 1 → (a 1 ∨ a 2 ) e p 2 → (a 1 ∨ a 2 ) • Obtém-se: a 3 → (a 1 ∨ a 2 ) e a 4 → (a 1 ∨ a 2 ) Após a redução, a fórmulaé então passada como entrada para um algoritmo que resolve o problema de satisfatibilidade. O algoritmo resolvedor busca, por uma atribuição de valores aos literais, a satisfatibilidade da fórmula. Se a fórmulaé satisfatível, esta valoraçãoé traduzida usando a tabela de símbolos do compilador para um plano solução. Como vimos anteriormente, o grafo de planosé um grafo ordenado formado por camadas alternadas de proposições e ações, ambas indexadas por valorúnico que pode ser interpretado como uma instância de tempo. Os arcos partem de cada proposição até as ações da próxima camada que a determinada proposição como uma pré-condição, e similarmente parte de cada ação até seus efeitos presentes na próxima camada. Tem-se ainda as ações de manutenção que simplesmente tem uma proposição tanto como pré-condição como efeito. Uma rede de Petrié também representada por um grafo, onde círculos representam lugares, barras verticais representam transições e os arcos orientados representam funções de incidência de entrada e saída de uma transição. Pequenos círculos pretos no interior dos lugares, chamados de marcas, representam a marcação da rede. Os lugares descrevem estados e as transições são responsáveis pelas mudanças de estado, elas removem e inserem marcas nos lugares. Assim a figura 2.12(a) representa três lugares (a, b e c), duas transições (x e y), cinco arcos, uma marca no lugar a e duas no lugar b. Ao dispararmos a transição x da rede representada pela figura 2.12(a) obtemos a marcação resultante na figura 2.12(b). O problema de alcançabilidade para redes de Petrié definido como sendo o de encontrar uma seqüência de transições disparáveis para alcançar uma marcação objetivo a partir de uma marcação inicial. O problema de alcançabilidade de sub-marcação consiste em encontrar uma seqüência de transições disparáveis para alcançar um subconjunto de lugares marcados presentes na marcação objetivo. A codificação de um grafo de planos em uma rede de Petrié um processo direto de conversão das estruturas do grafo de planos em estruturas equivalentes na rede de Petri. A seguir apresentamos estas traduções: Nós ação: um nó ação do grafoé traduzido em umaúnica transição na rede de Petri, a figura 2.13 mostraà esquerda o nó do grafo eà direita a transição correspondente. Nós proposição: um nó proposiçãoé traduzido em um lugar e uma transição, com um arco do lugar para a transição. A figura 2.14 mostra esta tradução. Exclusão mútua: a relação binária de exclusão mútuaé traduzida em um lugar com dois arcos saindo, um para cada transição que representa cada nó ação da relação, e uma marca neste lugar. A figura 2.17 mostra esta tradução. As relações de exclusão mútua entre proposições não são representadas na rede, pois, estas são utilizadas somente durante a construção do grafo de planos para determinar as exclusões mútuas entre as ações do grafo. O estado inicial do problema de planejamentoé representado por marcas adicionadas em cada lugar que representa a camada zero do grafo de planos. As marcas nos lugares do estado inicial e as marcas nos lugares que controlam as relações de exclusão mútua definem a marcação inicial da rede. Devido As técnicas de otimizações compreendem: a identificação de um conjunto de ações sucessoras mais promissoras para cada nó de busca, e outra que elimina ramificações onde os objetivos são atingidos muito rapidamente. O sistema FF funciona da seguinte maneira: Com a busca pode-se identificar os sucessores mais promissores e detectar a informação de ordenação dos objetivos. A primeira técnica de otimização, a identificação de um conjunto de ações sucessoras mais promissoras H(S) para um estado S,é definida pelo conjunto das ações que adicionam pelo menos um objetivo na primeira expansão do grafo de planos relaxado G 1 : H(S) := {o | pre(o) ⊆ S, add(o) ∩ G 1 � = 0} Assim, a escolha da uma açãoé sempre aquela que tiver o menor número de précondições. O método para eliminar ramificações que alcancem objetivos antecipadamente, a se- Novamente observamos a dificuldade em se comparar os planejadores pois não são mais apresentados resultados dos domínios apresentados por outros planejadores, somente são apresentados os domínios nos quais este planejador apresenta resultados satisfatórios. Além de desconsiderar as diferenças de implementações. As competições de planejadores Devido ao grande número de planejadores existentes e a diversidade de implementações e metodologias, foi criada a Competição de Planejadores como um meio de se comparar os planejadores. A competiçãoé um evento bienal que acontece na AIPS -International Conference on Artificial Intelligence Planning Systems e teve início em 1998. Tem o objetivo de promover o desenvolvimento de sistemas de planejamento avançados e incentivar a pesquisa competitiva. Os planejadores são avaliados através de somente três critérios: número de problemas resolvidos, tempo total usado, e do comprimento total do plano solução. Critérios que não consideram outros fatores que influenciam no desempenho de um sistema, como por exemplo a estrutura de dados e a linguagem em que está implementado. Os problemas propostos são especificados em PDDL (seção 2.2), e buscam explorar de forma bastante abrangente as características dos planejadores, indo deste problemas simples, resolvidos rapidamente, até problemas complexos resultando na maioria das vezes em explosões combinatoriais. O ambiente IPE , a ser apresentado no próximo capítulo, permite um estudo mais completo de planejadores possibilitando construí-los e compará-los mais eficientemente.É um ambiente didático, de fácil entendimento, que permite o desenvolvimento em grupo de maneira facilitada. Todos os planejadores seguem a mesma estrutura de implementação, diferenciando-se somente pelo algoritmo e estrutura de representação empregados. Assim, teremos um ambiente de desenvolvimento que supre as necessidades até aqui apresentadas. Nesse capítulo apresentaremos o IPE -Ipê Planning Enviromment (Ambiente de Planejamento Ipê) queé um ambiente para desenvolvimento de planejadores possibilitando implementar diferentes algoritmos e estruturas de simplificação utilizando a mesma linguagem de programação e as mesmas características estruturais. Devido ao grande número de planejadores atualmente encontrados na literatura e a diversidade de suas implementaçõesé difícil compará-los eficientemente e muito menos estudá-los. A Competição de Planejadores [Bac00] tem esse objetivo mas não consegue cumprir totalmente seu papel pois existem fatores, como linguagens e estruturas de implementação, que influenciam no desempenho de um sistema e não são considerados. Nas seções seguintes apresentaremos a arquitetura IPE , apresentando a estrutura de classes definida e implementada e depois exemplificando o seu uso a partir de três planejadores já implementados. A arquitetura IPE Antes de apresentar a estrutura e o funcionamento do ambiente IPE em mais detalhesé importante apresentarmos uma análise detalhada sobre o funcionamento de um planejador. O processo de solução de um problema de planejamento inicia a partir de arquivos contendo a descrição de um problema a ser resolvido (por exemplo arquivos em PDDL). Um Analisador Sintático verifica a corretude da descrição e codifica essas informações em uma estrutura interna desejada, objetivando facilitar a indexação dessas informações. Com base nas informações do problema de planejamento indexadas, o Codificador gera uma nova estrutura com um melhor poder de representação destas informações (por exemplo: grafo de planos, instância SAT ou uma Rede de Petri). Finalmente esta representaçãó e utilizada por algum Resolvedor que busca a solução para o problema. Como pudemos observar um planejador manipula as informações de um problema de planejamento através de diversas estruturas. A figura 3.1 apresenta o fluxo de informações entre estas estruturas, desde a definição de um problema até o plano solução propriamente dito. Os círculos representam as estruturas de informação e os retângulos representam os processos responsáveis pela codificação de uma estrutura em outra. A classe Analisador Sintáticoé formada por métodos que fazem a análise sintática do arquivo de descrição do domínio e do problema, disponibilizando seu conteúdo através de uma estrutura de acesso mais rápida, as listas de palavras. Esta classeé implementada para reconhecimento e validação da linguagem PDDL, apresentada na seção 2.2, pois atualmenteé a linguagem padrão para a definição dos problemas de planejamento.É implementada em C++ e Bison. A classe Problema apresenta as informações referentes ao domínio e a um problema deste domínio. Ela inclui uma classe Analisador Sintático, classe que disponibiliza as informações referentes ao problema. A classe Problema faz o processo de instanciação tanto de ações quanto de proposições e apresenta métodos responsáveis pelo processo de indexação dessas informações, aqui representado pelo método Index(), que fornece ó ındice de cada ação ou proposição instanciada. Apresenta ainda o estado inicial e final, formados por proposições instanciadas. Na classe Representaçãoé construída a classe Tabela de Símbolos, que auxilia no processo de busca das informações, sendo que cada representação tem a sua própria tabela. Também apresenta métodos de acesso a ocorrências,índices eà tradução destes nas respectivas informações. A partir da classe Representação, o processo se dá apenas através dosíndices obtidos através da classe Problema. Esta classeé um estereótipo, pois nela somente está definida a estrutura comum de qualquer representação. As classes "filhas" implementarão seus tipos de dados referentes a sua própria representação. Por exemplo, a classe Grafo de Planos, Rede de Petri e Grafo-Rede de Petri, já implementadas. O ambiente possibilita a criação de novas representações. Todas estas classes serão representações que implementarão características distintas. A classe Tabela de Símbolosé uma estrutura de acesso direto implementada a partir de listas deíndices e vetores de ocorrências dessesíndices. Na Tabela de Símbolos disponível pela classe Representação osíndices são referentes as ações e proposições, masé possível estender osíndices para características necessárias em cada representação, comó e o caso da classe Rede de Petri que insere osíndices referentes as transições e lugares da rede. Esta classe possibilita acesso direto tantoà informação quantoàs ocorrências dessas informações em toda a estrutura da classe Representação. A classe Resolvedor contém uma representação utilizada na aplicação de seu algoritmo de resolução. A representação aindaé responsável pela conversão dosíndices em suas respectivas informações não-numéricas que serão utilizadas para apresentar a solução para o usuário do sistema. Esta classe tambémé um estereótipo, nela somenteé definida a estrutura comum de qualquer resolvedor. As classes "filhas" implementarão seus algoritmos sobre sua própria classe Representação. Por exemplo, a classe Busca Exaustiva que aplica seu algoritmo de busca exaustiva na classe Grafo de Planos. Um planejadoré construído pela união destas classes a partir da classe Resolvedor. Basicamente um planejador resolverá o problema de planejamento a partir do seu algoritmo aplicado em uma representação que armazena as informações do problema e do domínio. A presente versão do IPEé desenvolvida em C++ para a plataforma GNU/Linux usando o paradigma de programação orientadoà objeto pois permite um desenvolvimento independente dos componentes formadores de um planejador.É um projeto desenvolvido pela equipe de planejamento do Laboratório de Inteligência Computacional da Universidade Federal o Paraná -UFPR. A estrutura projetada nos possibilita uma grande variação de combinações entre resolvedores e representações. Permite a implementação de antigos algoritmos nas novas estruturas de representação existentes. Assim, temos uma plataforma de desenvolvimento flexível e didática que permite implementar diferentes planejadores a partir da mesma estrutura, possibilitando que estes sejam comparados mais efetivamente pois somente apresentarão diferença no algoritmo de busca e/ou representação utilizada. Construindo planejadores Como vimos na figura 3.1, independente da representação ou do resolvedor que se deseja desenvolver, tem-se a necessidade de resolver dois problemas iniciais: a leitura e validação dos arquivos PDDL, que contêm a descrição do problema a ser resolvido e a instanciação das ações e predicados. Ambos já estão implementados no IPE sendo necessário apenas utilizá-los. GRAPHPLAN -1 Esse planejador foi implementado baseando-se no algoritmo do GRAPHPLAN , descrito na seção 2.4.1. Ele se utiliza da representação grafo de planos, apresentada na seção 2.3.2, na qual aplica um algoritmo de busca exaustiva para encontrar o plano solução. Tendo um objeto da classe Problema devidamente instanciado, o próximo passoé criar um objeto da classe Representação. No caso do GRAPHPLAN a representação utilizadá e o grafo de planos. Assim deve-se desenvolver uma sub-classe da classe Representação, denominada Grafo de Planos, capaz de construir e armazenar o grafo de planos. PETRIPLAN -2 O algoritmo de PETRIPLAN -2é uma reimplementação do PETRIPLAN -1 que faz a construção de uma rede de Petri diretamente dos arquivos PDDL. A construção da rede de Petrié feita seguindo o processo de construção do grafo de planos e assim aplicando as regras de tradução para a rede. Como apresentado anteriormente, a classe Rede de Petrié responsável pelo armazenamento da rede de Petri. Essa classe possui um construtor que recebe como parâmetro um objeto da classe Problema. Foi adicionado o processo de construção da rede, segundo descrito acima. Esse processoé implementado através do método expande. Cada vez que esse métodoé executado,é adicionado uma "camada" na rede, de modo semelhante ao queé feito no grafo de planos. Também Por motivo de espaço, foi limitado a análise dos planejadores na solução de três problemas de domínios conhecidos: mundo de blocos, robô (gripper ) e logística; mas a atual implementação suporta a resolução de outros domínios e problemas do planejamento clássico. As complexidades dos problemas escolhidos foram definidas a partir de execuções de diferentes níveis, sendo que os problemas aqui apresentados possibilitam uma melhor análise por não serem de níveis intermediários. Assim poderemos apresentar mais detalhadamente as particularidades dos planejadores ao resolverem os problemas. O primeiro problemaé do clássico domínio "mundo de blocos". O estado inicial e final estão representados pela figura 4.1. Existe apenas uma ação que permite mover um bloco de um lugar para outro, sendo que somente podem ser movidos os blocos livres, ou seja, que não possuem nenhum outro bloco sobre ele. O segundo problema, do domínio gripper ,é constituído por um robô com duas garras, duas salas e algumas bolas. Ele pode carregar uma bola em cada garra. O objetivo do problema aqui utilizadoé levar quatro bolas de uma sala para outra. Existem três ações possíveis: pegar uma bola com uma garra estando em uma sala, soltar a bola da garra em uma sala e mover de uma sala para outra. O terceiro problema, do domínio de logística, consiste em distribuir seis pacotes em duas cidades, sendo que cada cidade possui um depósito e um aeroporto, ambos capazes de armazenar os pacotes. Para isso são disponibilizados dois caminhões, um em cada cidade, que podem se locomover apenas dentro da cidade, e um avião que pode voar entre os aeroportos transportando os pacotes entre as cidades. Para uma melhor análise os resultados estão separados ainda pelas características do processo de resolução e estrutura utilizada. Assim, são apresentados inicialmente os resultados obtidos pelo GRAPHPLAN 1 e PETRIPLAN 1 pois utilizam a mesma representação, diferenciando-se nos processos seguintes pois utilizam resolvedores diferentes. Com essas informações pode-se verificar que o PETRIPLAN 2 no problema dos blocos executa seis expansões e sempre aumenta o tempo gasto em cada expansão. Já no problema do robô o PETRIPLAN 2 executa uma expansão a mais, sete expansões, mas a partir da quinta o tempo gasto não chega nem a um centésimo. Essa diferença ocorre devido a um processo de cópia que ocorre no método expande da classe Rede de Petri . Quando o grafo de planos está estagnado, ou seja, não existe nenhuma diferença entre as duasúltimas camadas, torna-se possível a obtenção da próxima camada a partir de uma cópia da camada anterior. Como a rede de Petrié armazenada em matrizes, quando ocorre a estagnação,é feito apenas uma cópia das linhas e colunas que formam aúltima camada. Verifica-se então que no problema dos blocos não acontece a estagnação antes que a solução seja possível. Oúltimo experimento realizado compreende os resultados obtidos na resolução do problema de logística. A tabela 4.10 apresenta os resultados obtidos pelo GRAPHPLAN 1 e PETRIPLAN 1. O comportamento desses planejadoresé equivalente ao retratado nas análises anteriores, podendo-se observar que também apresenta uma grande diferença no tempo de execução dos planejadores mas que as outras informações demonstram a igualdade da solução e representação. Um fato interessante acontece na resolução do problema de logística pelos planejadores PETRIPLAN 1 e PETRIPLAN 2, informações apresentadas na tabela 4.11. Observando essa tabela pode-se identificar novamente a diferença no tempo de execução dos planejadores e no tamanho da representação, mas pode-se ainda identificar mais um item importante e que diferencia-se das análises anteriores, item este queé a diferença do número de ações dos planos encontrados. A diferença no número de açõesé um fator importante para avaliação de quão otimizadoé o plano. Um planoé mais otimizado quando resolve o problema com o menor número de ações possíveis. Existem ainda planos que solucionam o problema mas apresentam ações que não são necessárias e que não interferem na solução do problema. Como no ambiente IPE ambos planejadores utilizam os mesmos processos e estru- turas iniciais e os mesmos resolvedores, a diferença somente pode ocorrer na estrutura de representação. O PETRIPLAN 2 gera a rede de Petri a partir da definição do problema considerando os processos de construção do grafo de planos mas não implementa os conflitos recorrentes, já o PETRIPLAN 1 gera a rede de Petri a partir do grafo de planos. Com essa informação pode-se verificar que a representação da rede de Petri além de não necessitar que seja implementado os conflitos recorrentes pois representa-os em sua própria estrutura fornece uma solução mais otimizada, uma vez que o PETRIPLAN 2 apresentou a solução com menor número de ações desnecessárias que o PETRIPLAN 1 e o GRAPHPLAN 1. Mesmo assim verificou-se que ambas as soluções ainda contêm ações que são desnecessárias para o problema, por exemplo no domínio de logística os planos encontrados apresentam ações que movimentam o avião da cidade 1 para a cidade 2 e depois da cidade 2 para a cidade 1 enquanto que o caminhão dirige-se para o depósito é e carregado. Com essas informações pode-se, além de entender melhor o funcionamento de cada planejador, propor e implementar melhorias para os problemas encontrados. Como pode-se observar, o IPE possibilita a construção e análise eficiente de planejadores, permitindo verificar detalhes da execução e estrutura, além de ser uma boa alternativa como ferramenta de auxílio para cursos sobre planejamento. Além da possibilidade de utilizar os processos e estruturas já existentes, o IPE permite verificar onde realmente está a diferença dos planejadores, se na estrutura de representação ou no algoritmo empregado, possibilitando ainda um melhor entendimento para possíveis melhoras e inovações. Capítulo 5 Conclusão Planejadores são sistemas complexos. Para analisá-los e estudá-losé preciso entender seus componentes: leitura do problema em uma linguagem de descrição, representação em uma estrutura de simplificação e algoritmo de resolução. As características de implementação desses componentes influenciam diretamente o desempenho dos planejadores. Assim, comparar planejadores nãoé tarefa simples, pois cada um possui uma implementação diferente e os métodos encontrados na literatura são ineficientes para analisar e comparar detalhadamente os planejadores. O analisador sintático necessita ser expandido para possibilitar a manipulação de problemas do planejamento não-clássico, que já está em andamento com o auxílio de alunos de uma disciplina da pós-graduação. Outros trabalhos visam ainda a expansão do IPE para tratar problemas envolvendo tempo ou recursos, usando como base os algoritmos PETRIPLAN implementados [Nov04,Mon04]. Todas as figuras apresentadas nesse trabalho e que representam grafos de plano foram geradas utilizando uma classe implementada no IPE . Essa classe também necessita ser expandida para desenhar outras representações além do grafo de planos. O IPE está disponível através do CVS, serviço de desenvolvimento compartilhado, bastando enviar e-mail para ipe@inf.ufpr.br. Formalmente, um problema de planejamento P =< O, I, G >é uma tupla onde Oé o conjunto de ações, Ié o estado inicial, e Gé o estado final. Um plano solução para Ṕ e uma seqüência de ações de O que transformam I em G. Figura 2 . 6 : 26ação b tem como efeito a proposição ¬T queé a negação de um efeito da ação a, portanto as ações a e b são mutuamente exclusivas na camada. ação a tem como efeito a proposição ¬R queé a negação de uma précondição da ação b, portanto as ações a e b são mutuamente exclusivas. As ações a e b têm pré-condições que são mutuamente exclusivas na camada Cada proposição P da camada de proposição i implica na disjunção de todos as ações na camada i − 1 que tem P como um efeito de adição, por exemplo: dentro(A, R, 3) → (carregar(A, R, L, 2)∨ carregar(A, R, P, 2)∨ manutenção(dentro(A, R), 2)) 3. Ações implicam em suas pré-condições, por exemplo: carregar(A, R, L, 2) → (em(A, L, 1) ∧ em(R, L, 1)); 4. Ações conflitantes (mutex) são mutuamente exclusivas, por exemplo: ¬carregar(A, R, L, 2) ∨ ¬mover(R, L, P, 2). A partir da instância gerada pela compilação para SAT, um processo de simplificaçãó e aplicadoà fórmula final obtida, com o objetivo de reduzi-la. Aplicando a regra dos "axiomas de persistência" [Haa87] nos axiomas gerados a partir do (2) com os axiomas gerados a partir do (3) que apresentam ações de manutenção possibilita uma redução significativa nas instâncias. Por exemplo, resolvendo o axioma: dentro(A, R, 3) → (carregar(A, R, L, 2) ∨ carregar(A, R, P, 2) ∨ manutenção(dentro(A, R), 2)) com o axioma: manutenção(dentro(A, R), 2) → dentro(A, R, 1) formamos o axioma de persistência: Kautz e Selman apresentam alguns resultados comparativos entre o BLACKBOX , SATPLAN , GRAPHPLAN e IPP [KNHD97] (figura 2.11). Podemos observar claramente que o BLACKBOX utilizando o SatZ-Rand apresentou os melhores resultados em todos os problemas apresentados, uma vez que o SAT-PLAN deve ser considerado em todos os valores o processo de criação das instâncias. Mas o BLACKBOX apresenta o mesmo problema que o GRAPHPLAN , o crescimento exponencial do grafo de planos limitando sua execução para alguns problemas. Outra característica interessante de se observaré que a comparaçãoé feita apenas nos domínios do foguete (rocket) e logística e que não comparam com outros planejadores tais como UCPOP. Figura 2. 11 : 11Resultados comparativos para resolução de problemas do domínio do foguete (rocket) e logística[KNHD97].Alcançabilidade a partir do grafo de planos O planejador PETRIPLAN [SCK00] segue uma estrutura semelhanteà apresentada pelo BLACKBOX , ainda utilizando o grafo de planos como representação do espaço de busca, mas substituindo a codificação deste para um problema SAT por uma codificação do problema de planejamento como um problema de alcançabilidade de sub-marcação em uma rede de Petri[Mur89]. Redes de Petri são comumente utilizadas para representar paralelismo, concorrência, conflito e relações causais em sistemas dinâmicos de eventos discretos. A idéia dos autoresé poder integrar estas noções no planejador.O PETRIPLANé um algoritmo definido por três fases: 1. Um problema de planejamentoé codificado em um grafo de planos; 2. O grafo de planosé convertido para uma rede de Petri; 3. O problema de alcançabilidade em uma rede de Petrié resolvido utilizando sistemas específicos para programação inteira. Se nenhuma solução for encontrada para o problema de programação inteira na terceira fase, o algoritmo volta para a primeira fase e uma nova expansão do grafoé realizada. Este laço continua até que uma solução seja encontrada na fase 3 ou até que o grafo de planos não possa ser mais expandido. Quando uma soluçãoé encontrada na fase 3 elaé convertida para um plano que resolve o problema original de planejamento. Representação gráfica de uma rede de Petri. A Figura 2.13: Tradução dos nós ação. Figura 2 . 15 : 215Arestas efeito: uma aresta efeitoé traduzida em um arco que vai da transição que representa o nó ação para o lugar representando o nó proposição. A figura 2.15 mostra esta tradução. Tradução das arestas efeito. Arestas pré-condição: uma aresta pré-condiçãoé traduzida em um lugar com dois arcos: um vindo da transição que representa o nó proposição e outro que vai para a transição representando o nó ação. A figura 2.16 mostra esta tradução. A P Figura 2.16: Tradução das arestas pré-condição. • Aplica-se o algoritmo subida de encosta reforçado até que o objetivo seja alcançado ou que este algoritmo falhe; • Se o algoritmo falhou, despreze tudo o que foi feito e resolva o problema utilizando um algoritmo de busca heurística completo (Best-first). A descrição do método subida de encosta reforçadoé definida como: partindo de um estado S, avalie todos os seus sucessores diretos S � . Se nenhum dos sucessores tem uma heurística melhor que S, procure pelos sucessores dos sucessores e assim sucessivamente até encontrar um estado S � com uma heurística melhor do que S. Então o caminho até S �é adicionado ao plano corrente, e a busca continua com S � como o novo estado inicial S até encontrar o estado final, h(S) = 0. Se nenhum estado S � foi encontrado, então o método falha. A função heurística h(S) utilizada pelo FFé obtida através do grafo de planos relaxado, onde todas as ações não possuem a lista de efeitos de remoção (apresentado em mais detalhas na seção 2.3.2). O plano extraído do grafo de planos relaxado com m camadaś e formado pelo conjunto de ações O i selecionadas na camada i, portanto o plano resultanteé �O 0 , ..., O m−1 �. A função heurística do FFé estimada a partir do comprimento da linearização desse plano: h(S) := m−1 � i=0 |O i | Como vimos anteriormente o FF utiliza algumas técnicas de otimização, obtidas através do plano relaxado que o FF extrai a partir da busca realizada para cada estado. Figura 3 . 1 : 31Fluxo das informações manipuladas para a solução de um problema de planejamento.A partir do fluxo de informações, elaboramos um diagrama de classe segundo o paradigma de programação orientadaà objeto, que nos permite uma definição mais detalhada dos componentes formadores de um planejador. A figura 3.2 apresenta o diagrama de classes simplificado do IPE , uma vez que apresentamos somente os principais atributos e métodos de cada classe. Esse diagrama também refere-seà implementação efetuada nesse trabalho e apresenta ainda possíveis extensões do ambiente IPE . Figura 3 . 2 : 32Diagrama de classes simplificado do IPE . Seguindo a idéia apresentada anteriormente, as principais classes do sistema são o Resolvedor , a Representação e o Analisador Sintático. A classe Grafo de Planos, implementada no IPE , possui um construtor que recebe como parâmetro um objeto da classe Problema. A partir desse objetoé gerado o estado inicial do grafo de planos e o estado final desejado. Para a expansão do grafo, a classe Grafo de Planos apresenta o método expande. Esse método adiciona uma nova camada de ações válidas no grafo e adiciona uma nova camada de proposições que são os efeitos das ações aplicadas. Um outro método necessário para a criação de um grafo de planos,é o método tem objetivos. Esse métodoé o critério de parada para a expansão do grafo, pois verifica se aúltima camada do grafo gerado até o momento contém todas as proposições do estado final desejado sem conflitos. Assim, ao instanciar um objeto da classe Grafo de Planos,é possível criar um grafo de planos completamente, bastando executar o método expande até que o método tem objetivos retorne verdadeiro. Esse processo gera o grafo de planos com uma solução possível. Para extrair o plano, tarefa realizada por um resolvedor que utilize o grafo de planos, e necessário criar um objeto que recebe o grafo de planos e faz uma busca pelo plano solução nesse grafo. O objeto criado no IPEé uma instância da classe Busca Exaustiva, que, por sua vez,é uma sub-classe da classe Resolvedor . A classe Busca Exaustiva recebe como parâmetro um objeto da classe Representação, que no caso do GRAPHPLANé da classe Grafo de Planos. Essa classe disponibiliza o método resolve que faz uma busca exaustiva no grafo de planos para encontrar o plano solução para o problema. Esse método retorna positivo se encontrar um plano e falso se não encontrar, sendo assim necessário fazer uma nova expansão do grafo e, posteriormente, uma nova busca. Esse processo ocorre até que o plano solução seja encontrado ou até que o processo pare por limitações de tempo ou memória. Tendo todo esse cenário construído, basta agora construir o código principal, mostrado na figura 3.3. Na linha 1 os arquivos que contêm o domínio e o problema são processados. Na linha 2 cria-se a representação interna do problema e domínio. Na linha 3 o grafo de planosé criado. Na linha 4 o grafo de planosé expandido até que aúltima camada contenha o estado final sem conflitos. Na linha 5 o GRAPHPLAN -1é criado como um objeto Busca Exaustiva que recebe como parâmetro o Grafo de Planos. Na linha 6 tenta-se encontrar uma solução. Se não foi possível encontrar a solução, uma nova expansão do grafoé realizada. main() { 1 Analisador Sintatico analisador("dominio.pddl", "problema.pddl"do PETRIPLAN -1 foi descrito na seção 2.4.2. Esse planejador se utiliza da representação rede de Petri gerada a partir de um grafo de planos e aplica um algoritmo de alcançabilidade de sub-marcação utilizando-se de PI para encontrar um plano solução. Como foi citado anteriormente, tem-se um objeto da classe Problema devidamente instanciado, assim deve-se criar um objeto da classe Grafo de Planos, descrita na seção anterior. Tendo o objeto Grafo de Planos devidamente instanciado, construir o grafo, a partir do método expande, até que o método tem objetivos retorne verdadeiro, o que indica que o grafo gerado contém todas as proposições do estado final desejado sem conflitos. O próximo passoé criar um objeto capaz de traduzir o grafo de planos em uma Rede de Petri. Esse objetoé uma instância da classe Grafo-Rede de Petri , queé construída a partir da classe Rede de Petri , que por sua vezé uma sub-classe da classe Representação. A classe Rede de Petrié aqui utilizada como estrutura para armazenar uma Rede de Petri representada por matrizes. A classe Grafo-Rede de Petri possui um construtor que recebe como parâmetro um objeto da classe Grafo de Planos e o método traduzir que traduz o grafo de planos na Rede de Petri, ou seja, lê o grafo armazenado no objeto Grafo de Planos e o traduz para a estrutura da classe Rede de Petri . Para extrair o plano, tarefa realizada por um resolvedor que utilize a Rede de Petri,é necessário criar um objeto que recebe a Rede de Petri e implemente a alcançabilidade de sub-marcação. O objeto criado no IPEé uma instância da classe Alcançabilidade, que, por sua vez,é uma sub-classe da classe Resolvedor . A classe Alcançabilidade recebe como parâmetro um objeto da classe Representação, que no caso do PETRIPLAN -1é da classe Rede de Petri . Essa classe disponibiliza o principal do PETRIPLAN -1 método resolve que encontra o plano solução para o problema resolvendo o problema de PI gerado a partir da Rede de Petri. Observe que nãoé necessário usar PI para resolver a alcançabilidade na Rede de Petri, podendo ser substituído por uma busca exaustiva por exemplo. Esse método retorna positivo se encontrar um plano, e falso se não encontrar, sendo assim necessário fazer uma nova expansão do grafo, uma nova tradução para Rede e posteriormente, uma nova tentativa de resolução. Esse processo ocorre até que o plano solução seja encontrado, ou que o processo pare por limitações de tempo ou memória. Tendo todo esse cenário construído, basta agora construir o código principal, mostrado na figura 3.4. Na linha 1 os arquivos que contêm o domínio e o problema são processados. Na linha 2 cria-se a representação interna do problema e domínio. Na linha 3 o grafo de planosé criado. Na linha 4 o grafo de planosé expandido até que aúltima camada contenha o estado final sem conflitos. Na linha 5 a Rede de Petrié criada a partir do grafo de planos. Na linha 6 o PETRIPLAN -1é criado como um objeto Alcançabilidade que recebe como parâmetro a Rede de Petri . Na linha 7 tenta-se encontrar uma solução. Se nãoé encontrada, o grafo de planosé novamente expandido e a rede de Petrié novamente obtida. foi adicionado na classe Rede de Petri o método tem objetivos. Esse método tem a mesma funcionalidade apresentada na classe Grafo de Planos, verificar se todas as proposições do estado final desejado estão presentes e sem conflitos, mas essa informação agoraé obtida a partir da estrutura da rede de Petri. Tendo um objeto da classe Problema devidamente instanciado, cria-se um objeto da classe Rede de Petri . Tendo o objeto Rede de Petri devidamente instanciado, basta construir a rede, a partir do método expande, até que o método tem objetivos retorne verdadeiro. Assim como no PETRIPLAN -1,é necessário agora extrair o plano a partir de uma rede de Petri, tarefa realizada pela classe Alcançabilidade. Como já foi visto na seção anterior, tendo um objeto dessa classe, basta executar o método resolve até que este retorne positivo, fazendo novas expansões caso contrário. Tendo todo esse cenário construído, basta agora construir o código principal, mostrado na figura 3.5. Na linha 1 os arquivos que contêm o domínio e o problema são processados. Na linha 2 cria-se a representação interna do problema e domínio. Na linha 3 a rede de Petrié criada. Na linha 4 a rede de Petrié expandida até que aúltima camada contenha o estado final sem conflitos. Na linha 5 o PETRIPLAN -2é criado como um objeto Alcançabilidade que recebe como parâmetro a Rede de Petri . Na linha 6 tenta-se encontrar uma solução. Se nãoé encontrada, a rede de Petrié novamente expandida. main() { 1 Analisador Sintatico analisador("dominio.pddl", "problema.pddl"); 2 Problema problema(&analisador); 3 Rede de Petri rede(&problema); 4 while ( ! rede.tem objetivos() ) rede.expande(); 5 Alcancabilidade petriplan-2(&rede); 6 while ( ! petriplan-2.resolve() ) { rede.expande(); } } Figura 3.5: Código principal do PETRIPLAN -2. No próximo capítulo será apresentado uma análise dos três planejadores aqui descritos e implementados no IPE de forma a justificar e identificar seu potencial. são mostrados alguns resultados obtidos utilizando o ambiente proposto. O objetivo aquié mostrar informações mais relevantes do que apenas o tempo final gasto permitindo uma análise mais detalhada dos planejadores. Os experimentos foram realizados em uma máquina com um processador AMD de 2 Ghz, 512 MB de memória RAM e o sistema operacional Debian GNU/Linux. Os planejadores aqui analisados foram os mesmos descritos na seção anterior: GRAPH-PLAN 1, PETRIPLAN 1 e o PETRIPLAN 2 pois todos estão completamente implementados no IPE . inicial (a) e estado final do problema com cinco blocos do domínio mundo de blocos. O primeiro problema a ser utilizado na análiseé o problema dos blocos. Observando a tabela 4.1 pode-se identificar a grande diferença no tempo de execução entre os dois planejadores, o GRAPHPLAN executou 24 vezes mais rápido que o PETRIPLAN 1, informação apresentada na primeira linha. O número de ações e o tamanho do plano indicam a igualdade das soluções encontradas. O tamanho do grafo de planos, indicado pelo número de nodos, arestas e conflitos, demonstra a igualdade também na representação final obtida e utilizada para a busca da solução. Neste contexto apresentamos o IPE , queé um ambiente que permite o estudo mais detalhado dos planejadores, possibilitando construí-los e compará-los com maior profundidade. Neleé possível implementar os componentes do planejador em uma estrutura equivalente permitindo análises detalhadas de suas particularidades. No desenvolvimento de um novo planejador podemos utilizar os componentes já implementados, por exemplo o analisador sintático e/ou a representação, e desenvolver somente o queé de interesse, por exemplo o algoritmo resolvedor. Assim o IPE permite um desenvolvimento rápido e ainda possibilita verificar onde realmente está a diferença dos planejadores, se na estrutura de representação ou no algoritmo empregado, permitindo uma análise mais profunda para possíveis melhoras e inovações. Estes importantes avanços motivaram o resgate das antigas técnicas de busca, resultando em planejadores extremamente rápidos, tais como o HSP [BG98] e o FF [HN01],Busca Heurística Grafo de Planos Redes de Petri STRIPS SAT Programação Inteira Progamação por Restrição [BG00] [BG98] [BF95] [KS92] [KS99] [KW99] [VBLN99] [BC99] [BD98] [SCK00] [SCK00] [BC99] Figura 1.1: Diferentes técnicas para o planejamento. figura 1.2 apresenta a hierarquia dos principais planejadores que surgiram de 1971 a 2000.1971 STRIPS 1973 HACKER INTERPLAN 1974 1975 NOAH NONLIN 1977 1987 TWEAK POP 1991 1974 WARPLAN SNLP 1991 SATPLAN 1992 UCPOP 1994 CPLAN 1999 BLACKBOX 1998 GRAPHPLAN 1995 HSP 1998 HSP2 2000 FF 2000 STAN 2000 MIPS 2000 PETRIPLAN 2000 R 2000 Figura 1.2: Hierarquia dos principais planejadores que surgiram de 1971 a 2000. Em outras palavras, o problema de planejamento relaxadoé obtido ignorando-se as listas de efeitos removidos das ações. Esse conceito será abordado em mais detalhes na seção 2.3.1. O formalismo baseado em regras apresentado pela linguagem STRIPS permitiu a A linguagem PDDL -"The Planning Domain Definition Language" [McD98b] foi desenvolvida em 1998 com o objetivo de unificar a definição de problemas para sistemas de planejamento, permitindo assim compará-los mais facilmente a partir de um mesmo conjunto de problemas. Essa linguagemé uma combinação das linguagens STRIPS e ADL eé capaz de representar: efeitos condicionais; quantificadores universais; universos dinâmicos, permitindo a criação e a destruição de objetos; axiomas de domínio; especificação de ações hierárquicas compostas de sub-ações e sub-metas e gerenciamento de múltiplos problemas em múltiplos domínios. Um domínioé definido basicamente pela descrição das ações, ou seja, o conjunto O referenciando o problema de planejamento P =< O, I, G >. Os conjuntos I e G definem um problema particular para esse domínio. Assim podem haver vários problemas para cada domínio, ou seja, várias combinações de estados iniciais e finais. Por exemplo, segundo o nosso exemplo do comerciante, pode-se querer levar somente dois pacotes para a loja1, ou quatro para a loja2, caracterizando dois problemas distintos para o mesmo domínio. Mais detalhadamente, a representação de um domínio em PDDLé dada por uma declaração contendo os seguintes itens:• a definição do nome do domínio;• o conjunto de características de representação necessárias para a definição do domínio;• o conjunto de predicados presentes no domínio; e • as ações que podem ser executadas no domínio, descritas por: -nome da ação;implementação efetiva de planejadores, mesmo este sendo um formalismo extremamente limitado, pois permite representar apenas uma classe restrita de problemas, conhecida como planejamento clássico. Nesta categoria os problemas são sempre determinísticos e o mundoé totalmente conhecido. As ações não tem duração e não são considerados recursos como tempo, distância e consumo. O planejamento não clássico permite envolver aspectos complexos como replanejamento, universos dinâmicos e quantificadores universais. Neste contexto, estaremos interessados somente no planejamento clássico. Nas três próximas seções apresentaremos um planejador visto a partir do que consi- deramos ser suas três partes fundamentais: a linguagem de representação, a estrutura de dados e os algoritmos em si. 2.2 A linguagem PDDL Descrevendo nosso exemplo do comerciante segundo a linguagem PDDL, temos a definição do domínio como:A primeira linha contém o nome do domínio. Da segundaà sétima linha são descritos os tipos existentes e suas hierarquias. Da nonaà décima primeira linha são descritos os predicados. Todos os predicados devem estar contidos nesse conjunto pois, além de formar os estados possíveis, são utilizados na descrição das ações.A primeira ação descritaé carregar , esta ação possui três parâmetros: um pacote, um caminhão e uma localidade; duas pré-condições: o caminhão estar na localidade assim como o pacote; e dois efeitos, um de remoção: negando que o pacote está na localidade e um de adição: o pacote está dentro do caminhão. A segunda ação descritaé descarregar ; esta ação tem os mesmos parâmetros que a ação anterior, mudando apenas as pré-condições: o caminhão estar na localidade e o pacote estar dentro do caminhão; e os efeitos: negando que o pacote está dentro do caminhão e adicionando que o pacote está na localidade. A terceira eúltima ação descritaé dirigir , que também possui três parâmetros: um caminhão, uma localidade origem e uma localidade destino; uma pré-condição: o caminhão estar na localidade origem; e dois efeitos, um de remoção: negando que o caminhão está na localidade origem e um de adição: o caminhão está na localidade destino.(define (domain comerciante) (:types caminhão -veículo pacote veículo -objeto localidade objeto -geral) (:predicates (em ?obj -objeto ?loc -localidade) (dentro ?pkg -pacote ?veh -veículo)) (:action carregar :parameters (?pkg -pacote ?truck -caminhão ?loc -localidade) :precondition (and (em ?truck ?loc) (em ?pkg ?loc)) :effect (and (not (em ?pkg ?loc)) (dentro ?pkg ?truck))) (:action descarregar :parameters (?pkg -pacote ?truck -caminhão ?loc -localidade) :precondition (and (em ?truck ?loc) (dentro ?pkg ?truck)) :effect (and (not (dentro ?pkg ?truck)) (em ?pkg ?loc))) (:action dirigir :parameters (?truck -caminhão ?loc-from -localidade ?loc-to -localidade) :precondition (and (em ?truck ?loc-from) ) :effect (and (not (em ?truck ?loc-from)) (em ?truck ?loc-to))) ) O problema, denominado aqui comerciante-1,é descrito como: (define (problem comerciante-1) (:domain comerciante) (:objects pacote1 pacote2 -pacote caminhão1 -caminhão loja1 loja2 depósito -localidade) (:init (em caminhão1 depósito) (em pacote1 loja1) (em pacote2 loja1)) (:goal (and (em pacote2 loja2) O próximo passo para um planejador, depois de obtido o problema a partir de uma linguagem de descrição, por exemplo PDDL,é a construção de uma representação interna. Esta deve ser capaz de representar os estados e as ações que transformam um estado emcaminhão1)}, descarregar( pacote1,caminhão1,loja2)= ({em( caminhão1,loja2)∧dentro( pacote1,loja2)}, {em( pacote1,loja2)}), {dentro( pacote1,caminhão1)}, descarregar( pacote1,caminhão1,depósito)= ({em( caminhão1,depósito)∧dentro( pacote1,depósito)}, {em( pacote1,depósito)}), {dentro( pacote1,caminhão1)}, descarregar( pacote2,caminhão1,loja1)= ({em( caminhão1,loja1)∧dentro( pacote2,loja1)}, {em( pacote2,loja1)}), {dentro( pacote2,caminhão1)}, descarregar( pacote2,caminhão1,loja2)= ({em( caminhão1,loja2)∧dentro( pacote2,loja2)}, {em( pacote2,loja2)}), {dentro( pacote2,caminhão1)}, descarregar( pacote2,caminhão1,depósito)= ({em( caminhão1,depósito)∧dentro( pacote2,depósito)}, {em( pacote2,depósito)}), {dentro( pacote2,caminhão1)}, dirigir( caminhão,loja1,loja2)= ({em( caminhão,loja1)}, {em( caminhão,loja2)}, {em( caminhão,loja1)}), dirigir( caminhão,loja1,depósito)= ({em( caminhão,loja1)}, {em( caminhão,depósito)}, {em( caminhão,loja1)}), dirigir( caminhão,loja2,loja1)= ({em( caminhão,loja2)}, {em( caminhão,loja1)}, {em( caminhão,loja2)}), dirigir( caminhão,loja2,depósito)= ({em( caminhão,loja2)}, {em( caminhão,depósito)}, {em( caminhão,loja2)}), dirigir( caminhão,depósito,loja1)= ({em( caminhão,depósito)}, {em( caminhão,loja1)}, {em( caminhão,depósito)}), dirigir( caminhão,depósito,loja2)= ({em( caminhão,depósito)}, {em( caminhão,loja2)}, {em( caminhão,depósito)}) E importante lembrar que se na definição das ações não estivesse definido o tipo dos parâmetros poderiam ocorrer instanciações que representariam ações incoerentes ou impossíveis do tipo dirigir um depósito de um pacote para um caminhão, ou ainda carregar um caminhão de um pacote para uma loja. 2.3 Estruturas de representação outro. O espaço de estadosé a representaçãoóbvia desse conceito poisé representado por um grafo onde os nós são os estados e as arestas são as transições entre os estados, ou seja, as ações.É construído a partir do estado inicial do problema e gerando novos estados a partir da execução das ações possíveis. Por exemplo, dado o estado inicial: em(caminhão, loja2) ∧ em(pacote1, loja1) tem-se que a ação dirigir(caminhão, loja2, loja1)é válida, pois a proposição da lista pre(o) -em(caminhão, loja2) -está presente no estado apresentado. O resultado da aplicação dessa açãoé ilustrado na figura 2.1: em(caminhão, loja2) em(pacote1, loja1) em(pacote1, loja1) dirigir(caminhão, loja2, loja1) em(caminhão, loja1) Figura 2.1: Aplicação da ação dirigir(caminhão, loja2, loja1) do problema do comerciante segundo o espaço de estados. ligando as pré-condições das açõesàs proposições correspondentes. Da mesma forma, as arestas ligam os efeitos de ações de uma camadaàs proposições correspondentes da camada seguinte.O grafo apresenta ainda um caráter temporal representado pelas camadas de ações. Cada camada representa uma instância de tempo na aplicação das ações, assim, todas as ações presentes em uma determinada camada podem ser aplicadas simultaneamente.Utilizaremos como exemplo o mesmo problema apresentado na seção anterior, do co- merciante, mas, devido a limitação de espaço, será tratado apenas o problema envolvendo duas lojas, um caminhão e um pacote. O estado inicialé o pacote estar na loja1 e o caminhão na loja2. Observando a figura 2.2, que representa o grafo de planos relaxado do problema do comerciante representado apenas por 5 camadas, observamos que as quatro ações presentes na camada 1 são possíveis de execução no primeiro instante de tempo, e as oito ações da camada 3 são possíveis de execução no próximo instante de tempo. Ao considerar o caráter temporal do grafoé necessário incluir uma ação de manutenção durante sua construção. Esta ação tem uma pré-condição e um efeito queé a própria pré- condição, ou seja, ela mantém a proposição p válida também na próxima camada. Por exemplo a ação manutenção(pacote,loja1) faz com que o pacote ainda esteja na loja1 no próximo instante de tempo. Para cada proposição existente na camada ié aplicada a referida ação de manutenção ocasionando novamente a existência dessas proposições na camada i + 2. Esse processo garante que uma ação executada na camada i seja novamente válida na próxima camada, em(caminhão, loja2) em(pacote, loja1) dirigir(caminhão, loja2, loja1) dirigir(caminhão, loja2, loja2) manutenção(caminhão, loja2) manutenção(pacote, loja1) em(caminhão, loja1) em(pacote, loja1) em(caminhão, loja2) carregar(pacote, caminhão, loja1) dirigir(caminhão, loja1, loja1) dirigir(caminhão, loja1, loja2) dirigir(caminhão, loja2, loja1) dirigir(caminhão, loja2, loja2) manutenção(caminhão, loja1) manutenção(caminhão, loja2) manutenção(pacote, loja1) em(caminhão, loja1) em(caminhão, loja2) em(pacote, loja1) dentro(pacote, caminhão) 0 1 2 3 4 Figura 2.2: Grafo de planos relaxado para o problema do comerciante com 5 camadas. ou seja, no próximo instante de tempo. O grafo de planos relaxadoé construído através de um processo de expansão que consiste em se adicionar ao grafo uma camada de nós com instâncias de ações que tenham suas pré-condições satisfeitas na camada anterior e inserir somente os efeitos positivos na camada posterior, o queé uma característica do problema de planejamento relaxado definido na seção 2.1. O procedimento de construção do grafoé iniciado com a atribuição da primeira camada de proposições, que representa o estado inicial do problema. Na primeira expansão, as ações que possuem todas as pré-condições presentes no estado inicial são incluídas no grafo. Após a camada de ações, uma nova camada de proposiçõesé incluída, esta contém as proposições de efeito positivos das ações que foram adicionadas na camada anterior. A expansão ocorre até que uma camada de proposições contenha as proposições do estado final desejado ou até que uma camada de proposições obtida seja idênticaà camada de proposições anterior. A figura 2.3 mostra o grafo de planos relaxado para o problema do comerciante que tem como objetivo levar o pacote da loja1 para a loja2 sendo que o caminhão inicialmente está na loja2. em(caminhão, loja2) em(pacote, loja1) dirigir(caminhão, loja2, loja1) dirigir(caminhão, loja2, loja2) manutenção(caminhão, loja2) manutenção(pacote, loja1) em(caminhão, loja1) em(pacote, loja1) em(caminhão, loja2) carregar(pacote, caminhão, loja1) dirigir(caminhão, loja1, loja1) dirigir(caminhão, loja1, loja2) dirigir(caminhão, loja2, loja1) dirigir(caminhão, loja2, loja2) manutenção(caminhão, loja1) manutenção(caminhão, loja2) manutenção(pacote, loja1) em(caminhão, loja1) em(caminhão, loja2) em(pacote, loja1) dentro(pacote, caminhão) carregar(pacote, caminhão, loja1) descarregar(pacote, caminhão, loja1) descarregar(pacote, caminhão, loja2) dirigir(caminhão, loja1, loja1) dirigir(caminhão, loja1, loja2) dirigir(caminhão, loja2, loja1) dirigir(caminhão, loja2, loja2) manutenção(caminhão, loja1) manutenção(caminhão, loja2) manutenção(pacote, loja1) manutenção(pacote, caminhão) em(caminhão, loja1) em(caminhão, loja2) em(pacote, loja1) dentro(pacote, caminhão) em(pacote, loja2) 0 1 2 3 4 5 6 Figura 2.3: O grafo de planos relaxado para o problema do comerciante. representa várias ações acontecendo em uma mesma camada, torna-se uma representação eficiente do espaço de busca. Esse foi um grande incentivo para o desenvolvimento de vários planejadores que utilizaram o grafo de planos como representação do espaço de busca. As seções seguintes apresentam os principais. Figura 2.8: O grafo de planos para o problema do comerciante. 2.4 Planejadores baseados no grafo de planos Nesta seção apresentaremos os principais planejadores que utilizam o grafo de planos para representar o espaço de busca. Os algoritmos variam segundo a técnica utilizada, compreendendo: busca exaustiva, satisfatibilidade, programação inteira, alcançabilidade e busca heurística. Eles são apresentados nas próximas seções. 2.4.1 Busca exaustiva no grafo de planos O planejador GRAPHPLAN , apresentado por Blum e Furst [BF95], utiliza um algoritmo simples de busca exaustiva no grafo de planos gerado conforme apresentado na seção 2.3.2. Este grafo, contém inicialmente todas as proposições do estado final desejado, ou sub-metas, na suaúltima camada. Então,é executado o processo de extração da solução. O objetivo da fase de extração da soluçãoé obter um plano que seja solução para o problema. Esse processo utiliza-se de uma estratégia de busca regressiva que consiste em, a partir de cada sub-meta m presente na camada i, encontrar uma ação a na camadai − 1 que tenha m como efeito. Se aé consistente, istoé, não apresenta conflitos com as outras ações escolhidas anteriormente na mesma camada, então passamos para a próxima sub-meta. Caso contrário voltamos e escolhemos outra ação na camada i + 1 (retrocesso).apresentado em detalhes na seção 2.4.1. Como o grafo de planos representa vários estados em uma mesma camada e, de forma similar, em(caminhão, loja2) em(pacote, loja1) dirigir(caminhão, loja2, loja1) dirigir(caminhão, loja2, loja2) manutenção(caminhão, loja2) manutenção(pacote, loja1) em(caminhão, loja1) em(pacote, loja1) em(caminhão, loja2) ¬em(caminhão, loja2) carregar(pacote, caminhão, loja1) dirigir(caminhão, loja1, loja1) dirigir(caminhão, loja1, loja2) dirigir(caminhão, loja2, loja1) dirigir(caminhão, loja2, loja2) manutenção(caminhão, loja1) manutenção(caminhão, loja2) manutenção(pacote, loja1) em(caminhão, loja1) ¬em(caminhão, loja1) em(caminhão, loja2) ¬em(caminhão, loja2) em(pacote, loja1) ¬em(pacote, loja1) dentro(pacote, caminhão) carregar(pacote, caminhão, loja1) descarregar(pacote, caminhão, loja1) dirigir(caminhão, loja1, loja1) dirigir(caminhão, loja1, loja2) dirigir(caminhão, loja2, loja1) dirigir(caminhão, loja2, loja2) manutenção(caminhão, loja1) manutenção(caminhão, loja2) manutenção(pacote, loja1) manutenção(pacote, caminhão) em(caminhão, loja1) ¬em(caminhão, loja1) em(caminhão, loja2) ¬em(caminhão, loja2) em(pacote, loja1) ¬em(pacote, loja1) dentro(pacote, caminhão) ¬dentro(pacote, caminhão) carregar(pacote, caminhão, loja1) descarregar(pacote, caminhão, loja1) descarregar(pacote, caminhão, loja2) dirigir(caminhão, loja1, loja1) dirigir(caminhão, loja1, loja2) dirigir(caminhão, loja2, loja1) dirigir(caminhão, loja2, loja2) manutenção(caminhão, loja1) manutenção(caminhão, loja2) manutenção(pacote, loja1) manutenção(pacote, caminhão) em(caminhão, loja1) ¬em(caminhão, loja1) em(caminhão, loja2) ¬em(caminhão, loja2) em(pacote, loja1) ¬em(pacote, loja1) dentro(pacote, caminhão) ¬dentro(pacote, caminhão) em(pacote, loja2) 0 1 2 3 4 5 6 7 8 Como as ações de manutenção são necessárias somente para a representação, o próximo passoé eliminá-las, obtendo-se um plano solução: P s =<dirigir( caminhão,loja2,loja1),carregar( pacote,caminhão,loja1), dirigir( caminhão,loja2,loja1),descarregar( pacote,caminhão,loja2)> A figura 2.9 mostra o grafo de planos para o problema do comerciante com os nós que fazem parte da solução marcados, tanto das ações que formam o plano quanto as proposições utilizadas. Os autores do GRAPHPLAN , em [BF95], apresentam alguns resultados comparativos com mais três planejadores daépoca, dois planejadores de ordem total: PRODIGY [CBE + 92] e PRODIGY-SABA [CBE + 92] e um planejador de ordem parcial, UCPOP [PW92]. A figura 2.10, apresenta os resultados obtidos para problemas do domínio do foguete (rocket) que consiste em distribuir n caixas em três localidades utilizando dois foguetes. Devido ao fado do GRAPHPLAN ser implementado em C e os outros três em LISP, os testes foram realizados em máquinas diferentes para compensar a lentidão do LISP. O PRODIGY e o UCPOP foram executados em máquinas mais rápidas e com mais memória objetivando compensar a diferença de implementação. O GRAPHPLAN apresentou excelentes resultados mesmo com a diferença entre as máquinas, embora essa diferença dificilmente supra as diferentes características da linguagem, estrutura e implementação dos planejadores citados. Mesmo apresentando bons resultados, o GRAPHPLAN apresenta limitações em problemas maiores pois sua estrutura de implementação requer mais memória que o disponível para armazenar o problema, impossibilitando-o que resolva problemas complexos. O método exaustivo na fase de extração da solução gera problemas semelhantes aos encontrados nos primeiros planejadores também inviabilizando-o para vários problemas. Tendo esse cenário que foi utilizado para testes do GRAPHPLAN , apresentando a diferença de hardware para compensar a diferença das características de implementação, surgem alguns questionamentos: como avaliar e quantificar a rapidez de uma linguagem? A diferença que foi dadaé o suficiente? E a diferença da estrutura implementada para a representação do problema? Rapidezé aúnica característica que deve ser considerada quando se analisa planejadores? Um fato importante e que aqui deve ser citadoé a grande diferença apresentada pelos planejadores IPP [KNHD97] e STAN [LF99] que são as duas principais implementações do GRAPHPLAN . O IPP apresenta a remoção de ações e proposições irrelevantes e a agenda de gerenciamento dos objetivos enquanto o STAN implementa a construção do grafo utilizando operações lógicas binárias em vetores binários. Eles são um exemplo de como características de implementação influenciam no desempenho do planejador e por isso não podem ser desconsideradas. Satisfatibilidade a partir do grafo de planos O planejador BLACKBOX foi proposto por Kautz e Selman [KS99] em 1998. Os autores tiveram a idéia de unir a eficiência dos algoritmos para satisfatibilidade, apresentados no SATPLAN [KS92] com o grafo de planos (seção 2.3.2) que, como vimos, otimiza a representação do espaço de busca. O SATPLAN resume-se em um processo que, a partir de um problema de planejamento Uma fórmula ou instância SAT,é um conjunto de restrições, ou literais, que assumem o valor verdadeiro ou falso. Ao tratarmos planejamento como satisfatibilidade, um plano corresponde a um assinalamento verdade para um conjunto de restrições que representam o estado inicial, o estado final e os axiomas do domínio.Como um problema de planejamento tem uma componente temporal inerente, pois um planoé uma seqüência cronológica de ações, e o problema de satisfatibilidadeé um problema estático de valoração, o tempo consiste de um número fixo e discreto de instâncias. Uma proposição corresponde a um literal variante do tempo pertencente a um ins-Camada 5: dirigir (caminhão,loja2,loja1), manutenção(pacote,caminhão); • Camada 7: descarregar (pacote,caminhão,loja2); em(caminhão, loja2) em(pacote, loja1) dirigir(caminhão, loja2, loja1) dirigir(caminhão, loja2, loja2) manutenção(caminhão, loja2) manutenção(pacote, loja1) em(caminhão, loja1) em(pacote, loja1) em(caminhão, loja2) ¬em(caminhão, loja2) carregar(pacote, caminhão, loja1) dirigir(caminhão, loja1, loja1) dirigir(caminhão, loja1, loja2) dirigir(caminhão, loja2, loja1) dirigir(caminhão, loja2, loja2) manutenção(caminhão, loja1) manutenção(caminhão, loja2) manutenção(pacote, loja1) em(caminhão, loja1) ¬em(caminhão, loja1) em(caminhão, loja2) ¬em(caminhão, loja2) em(pacote, loja1) ¬em(pacote, loja1) dentro(pacote, caminhão) carregar(pacote, caminhão, loja1) descarregar(pacote, caminhão, loja1) dirigir(caminhão, loja1, loja1) dirigir(caminhão, loja1, loja2) dirigir(caminhão, loja2, loja1) dirigir(caminhão, loja2, loja2) manutenção(caminhão, loja1) manutenção(caminhão, loja2) manutenção(pacote, loja1) manutenção(pacote, caminhão) em(caminhão, loja1) ¬em(caminhão, loja1) em(caminhão, loja2) ¬em(caminhão, loja2) em(pacote, loja1) ¬em(pacote, loja1) dentro(pacote, caminhão) ¬dentro(pacote, caminhão) carregar(pacote, caminhão, loja1) descarregar(pacote, caminhão, loja1) descarregar(pacote, caminhão, loja2) dirigir(caminhão, loja1, loja1) dirigir(caminhão, loja1, loja2) dirigir(caminhão, loja2, loja1) dirigir(caminhão, loja2, loja2) manutenção(caminhão, loja1) manutenção(caminhão, loja2) manutenção(pacote, loja1) manutenção(pacote, caminhão) em(caminhão, loja1) ¬em(caminhão, loja1) em(caminhão, loja2) ¬em(caminhão, loja2) em(pacote, loja1) ¬em(pacote, loja1) dentro(pacote, caminhão) ¬dentro(pacote, caminhão) em(pacote, loja2) 0 1 2 3 4 5 6 7 8 Figura 2.9: A solução para o problema do comerciante utilizando a busca exaustiva no grafo de planos. 0.00 5.00 10.00 15.00 20.00 25.00 30.00 35.00 CPU time (sec) 0.00 1.00 2.00 3.00 4.00 5.00 6.00 7.00 8.00 9.00 10.00 Number of Goals Graphplan UCPOP Prodigy Prodigy-SABA Figura 2.10: Resultados comparativos para resolução de problemas do domínio do foguete (rocket). 2.4.2 Grafo de planos como pré-processamento Graçasà otimização da estrutura utilizada para representação do espaço de busca, a construção do grafo de planos pode ser vista como uma fase de pré-processamento para procedimentos de busca alternativosà busca exaustiva empregada no GRAPHPLAN ori- ginal. Nesta seção mostraremos duas técnicas: tradução para satisfatibilidade e tradução para redes de Petri. descrito em PDDL (seção 2.2), gera um problema de satisfatibilidade (SAT) queé então resolvido através de algum método conhecido. Esses métodos buscam por uma atribuição de valores que resulte na satisfatibilidade da fórmula em Forma Normal Conjuntiva, por exemplo: Walksat [SKC94], SatZ, SatZ-Rand [LA97] ou Rel sat [BS97]. O BLACKBOX se diferencia do SATPLAN pois obtém a instância SAT a partir do grafo de planos. tante particular (ex.: limpo(mãos, 0), indica que as mãos estão limpas no instante 0), ou a uma ação que ocorre no instante especificado e finaliza no instante seguinte (ex.: uma instância SAT proposto em 1996 por Kautz e Selman [KS96]. Essa conversão inicia naúltima camada do grafo e termina na primeira camada. Usaremos o problema do foguete (rocket) apresentado por Blum e Furst [BF95] como um exemplo.1. Um problema de planejamentoé representado como um grafo de planos; 2. O grafo de planosé convertido em uma instância SAT; 3. A instância SATé resolvida por qualquer um dos métodos para SAT; Uma vez já apresentado o grafo de planos (seção 2.3.2) descreveremos o método de conversão em a amplitude do grafo de planos gerado para o problema do comerciante, utilizaremos aqui o problema do jantar[Wel99] para detalhar o funcionamento do algoritmo. Esse problema consiste de se preparar um jantar e embrulhar um presente, mas em silêncio, para não chamar atenção de quem está no segundo andar da casa. Tem-se a sua disposição estado final do problema de planejamentoé representado pela sub-marcação da rede que contém marcas nos lugares que representam os nós proposições do estado final. Afigura 2.20 mostra uma rede de Petri com uma marcação que contém o estado final para o problema do jantar. Para resolver o problema de alcançabilidade de sub-marcação, como se conhece apenas o subconjunto de lugares que representam as proposições do estado final desejado, deve-se encontrar a seqüência de transições que sai dos lugares que representam o estado inicial e Figura 2.19: A rede de Petri com a marcação inicial para o problema do jantar.Figura 2.20: A rede de Petri com a marcação final desejada para o problema do jantar. chegam aos lugares que representam o estado objetivo. Considerando apenas as transições que representam ações nesta seqüência, temos um plano solução para problema original. Os autores do PETRIPLAN apresentam alguns resultados comparativos entre o PE-TRIPLAN , BLACKBOX , HSP[BG98], IPP [KNHD97] e STAN [LF99]. Estes resultados são apresentados nas tabelas 2.1 e 2.2 e mostram o número de problemas resolvidos por cada planejador e o tempo médio gasto por problema. Tabela 2.1: Número de problemas resolvidos por planejador. Tempo médio por problema resolvido por planejador. Os valores são apresentados em milisegundos e representam o tempo total de execução de um planejador para um determinado problema. Os campos marcados com "x" indicam que o planejador não conseguiu encontrar uma solução para o problema dentro dos limites de tempo e memória estabelecidos. Podemos observar que o PETRIPLAN apresentou um tempo maior para os problemas que resolveu, e ainda não conseguiu resolver vários. Mas esse fato foi justificado devido a implementação deste ser utilizando uma biblioteca de resolução de PI não eficiente. Apesar do baixo desempenho, os resultados obtidos mostram que o algoritmo resolve corretamente os problemas, mas limitado principalmente por problemas na implementação.O PETRIPLAN apresenta algumas deficiências sobre implementação que podem ser exploradas como a substituição da biblioteca de PI, explorar variações na tradução para redes de Petri e usar outras técnicas para resolver o problema de alcançabilidade.Observamosnovamente a dificuldade em se comparar os planejadores pois são anali-HN01] eé baseado em dois planejadores: o GRAPHPLAN [BF95] e o HSP [BG98]. Do GRAPHPLAN foi utilizado sua representação, o grafo de planos (seção 2.3.2) e do HSP foi utilizado seu procedimento de busca heurística. O FF realiza uma busca progressiva no espaço de estados, utilizando uma função heurística que estima as distâncias para o estado final pelo comprimento de uma solução aproximada para um problema de planejamento relaxada. O FF diferencia-se do HSPA B Figura 2.17: Tradução das relações de exclusão mútua. as ações "cozinhar", que requer as mãos limpas e obtém o jantar mas remove o silêncio, e "embrulhar", que requer silêncio e obtém o presente embrulhado. O estado inicialé ter as mãos limpas e estar em silêncio. A figura 2.18 mostra o grafo de planos para este problema. 0 2 3 4 1 limpo limpo limpo silêncio silêncio silêncio manutenção manutenção manutenção manutenção manutenção manutenção manutenção cozinhar cozinhar embrulhar embrulhar ¬silêncio ¬silêncio jantar jantar presente presente Figura 2.18: O grafo de planos para o problema do jantar. A figura 2.19 mostra a rede de Petri obtida pela tradução do problema do jantar apresentado na figura 2.18. O limpo limpo limpo silêncio silêncio silêncio manutenção manutenção manutenção manutenção manutenção manutenção manutenção cozinhar cozinhar embrulhar embrulhar ¬silêncio ¬silêncio jantar jantar presente presente limpo limpo limpo silêncio silêncio silêncio manutenção manutenção manutenção manutenção manutenção manutenção manutenção cozinhar cozinhar embrulhar embrulhar ¬silêncio ¬silêncio jantar jantar presente presente Domínio PETRIPLAN BLACKBOX HSP IPP STAN Problemas Gripper-1 2 2 11 4 4 20 Logistics-1 1 3 4 5 2 30 Mystery-1 4 13 16 13 14 30 Mprime-1 0 15 23 16 8 30 Logistics-2 2 3 5 4 3 5 Mprime-2 0 4 4 4 4 5 Grid-2 0 1 0 3 1 5 Total 9 41 63 49 36 125 Tabela 2.2: Domínio PETRIPLAN BLACKBOX HSP IPP STAN Gripper-1 1353707,00 4140,50 2126,36 37675,00 789313,25 Logistics-1 4189902,00 4573,67 12171,00 716734,00 25272,50 Mystery-1 3835687,00 2084,61 12078,19 8077,69 762,93 Mprime-1 x 2538,40 118732,87 22396,87 1398,50 Logistics-2 3480784,00 529,67 10036,60 17438,25 9037,33 Mprime-2 x 1263,25 1767,50 6532,25 5205,50 Grid-2 x 11035,00 x 32064,33 3666,00 Total 2392250,00 2557,44 48467,21 66964,63 121939,03 sados somente os resultados finais não apresentando as características de cada processo. Assim, pode-se questionar algumas informações importantes para a análise, como: os problemas que não foram resolvidos pelo PETRIPLAN apresentaram quais deficiências? Quais as particularidades do planejador que o inviabilizaram para esses problemas? 2.4.3 Busca heurística com base no grafo de planos O planejador Fast-Forward (FF ), foi desenvolvido por Jörg Hoffmann e Bernhard Nebel [por possuir uma nova estratégia de busca local baseada em uma função heurística mais sofisticada, e duas otimizações. O método de busca empregado pelo FFé o subida de encosta reforçado, que combina busca local com sistemática pois utiliza o grafo de planos relaxado, seção 2.3.1, como função heurística para guiar a busca local. Bac00] resolvendo problemas do domínio de logística. Esteé um problema clássico que envolve o transporte de pacotes entre cidades utilizando caminhões e aviões. Este tambémé um problema clássico cujo planejador precisa reorganizar um conjunto de blocos em uma posição específica usando braços de um robô. Nestes dois grupos de testes apresentados podemos fazer algumas observações impor-Figura 2.22: Resultados obtidos para o domínio mundo de blocos [Bac00]. tantes. Mesmo utilizando uma variação da estratégia de busca local subida de encosta, o FF ainda apresenta alguns problemas em domínios semelhantes ao mundo de blocos, uma vez que neste domínio os algoritmos de busca locais caem em mínimos locais. Em outros domínios, comoé o caso do logística, o FF apresenta os melhores resultados, tanto relacionado ao tempo gasto quanto ao número de problemas solucionados.gunda técnica de otimização, consiste de: se um plano relaxado P , gerado a partir de S, contém uma ação o, o ∈ P , que remove o objetivo G (G ∈ del(o) na versão não relaxada de o), então remove-se S do espaço de busca, ou seja, eliminamos a ramificação partindo de S. A figura 2.21 apresenta os resultados obtidos por vários planejadores na competição de 2000 [0.1 1 10 100 1000 10000 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 sec. problem size FF HSP2 System-R GRT Mips STAN Figura 2.21: Resultados obtidos para o domínio de logística [Bac00]. A figura 2.22 apresenta os resultados obtidos resolvendo problemas do domínio mundo de blocos. 0.01 0.1 1 10 100 1000 10000 18 20 22 24 26 28 30 32 34 36 38 40 42 44 46 48 50 sec. problem size FF HSP2 System-R A primeira competição, realizada em 1998, foi dividida em duas categorias: uma para planejadores que suportavam apenas características descritas pela linguagem STRIPS e outra para os que suportam as características descritas pela linguagem ADL[Ped89], que estende a primeira para efeitos condicionais e quantificadores.Essacompetição teve a participação dos seguintes planejadores: BLACKBOX [KS99], obtiveram bons resultados, mas o melhor foi o FF, proposto por Hoffman e Nebel [HN01], que utiliza o grafo de planos juntamente com busca heurística. Na competição de 2002 foi apresentado uma nova versão da linguagem PDDL denominada PDDL2.1. Adicionaram na versão anterior o planejamento com incerteza e temporal, aumentando significativamente a complexidade dos oito domínios envolvidos. PDDL, agora nomeada PDDL2.2, que possibilitou a descrição de predicados derivados e eventos condicionais iniciais. Contou com a participação de vinte competidores resolvendo problemas de sete domínios. Novamente foi referenciada a dificuldade em se declarar um ganhador fazendo-se necessário um agrupamento dos planejadores segundo seus desempenhos. Além disso os organizadores enfatizaram para que não fossem Mas mesmo assim, as competições ainda classificam seus planejadores considerando apenas os resultados finais dos planejadores envolvendo o tempo gasto e o tamanho do plano, não levando em consideração as diferenças de implementações existentes.HSP [BG98], IPP [KNHD97] e STAN [LF99]. Estes planejadores foram comparados a partir de duas baterias de problemas: a primeira composta por 140 problemas em 5 domínios diferentes e a segunda com 15 problemas em 3 domínios diferentes, com o objetivo de refinar os resultados da primeira. Em 2000 aconteceu a segunda competição que já contou com a participação de quinze planejadores. Entre eles estavam o BLACKBOX, o HSP2 (nova versão do HSP) e o R, queé uma reimplentação do STRIPS original. Os planejadores STAN, HSP2, MIPS e R, Essa competição contou com a participação de quatorze competidores e obteve a vitória geral do planejador LPG. Naúltima competição, realizada em 2004, foi também apresentada uma nova versão da linguagem analisados somente a classificação por eles definida, mas que fossem observados os resul- tados obtidos pelos planejadores juntamente com a descrição dos domínios e as técnicas utilizadas por eles. O Fast Downward, desenvolvido por Malte Helmert e Silvia Richter, foi o planejador citado como vencedor no planejamento clássico [EHLY04]. Ainda nessa competição foi reafirmada a dificuldade em se comparar os planejadores somente considerando o tempo total gasto para resolver os problemas pois desconside- raram o tempo de leitura e análise sintática da linguagem PDDL em que os problemas estavam descritos. Tabela 4.1: Resultados obtidos pelos planejadores GRAPHPLAN 1 e PETRIPLAN 1 no problema dos blocos. O tempo totalé apresentado em segundos e o tamanho do plano se refere ao número de passos necessários para se executar o plano. Mesmo com todas essas informaçõesé difícil analisar e principalmente verificar o que ocasiona a lentidão apresentada pelo PETRIPLAN 1. Como no ambiente IPE tem-se o domínio de todo o processo, geramos a tabela 4.2 que complementa a tabela anterior e apresenta outras informações que são relevantes para a análise.Tabela 4.2: Resultados obtidos pelos planejadores GRAPHPLAN 1 e PETRIPLAN 1 no problema dos blocos. Tempos gastos, em segundos, em cada processo executado pelos planejadores.Observando essa tabela verifica-se que osúnicos processos responsáveis pelo aumento do tempo são as traduções do grafo de planos para Rede de Petri e as buscas efetuadas, sendo esteúltimo o maior responsável. Todos os outros tempos são, desconsiderando o arredondamento, idênticos pois são a mesma implementação. Com todas essas informações pode-se concluir com certeza que o resolvedor utilizado pelo PETRIPLAN 1é ineficiente com relação ao tempo, mas gera soluções idênticasàs obtidas pelo GRAPHPLAN 1.Como foi citado anteriormente, foram agrupados os resultados obtidos para cada problema de acordo com os planejadores, assim, a próxima análise compreenderá os resultados obtidos pelo PETRIPLAN 1 e PETRIPLAN 2 na solução do problema dos blocos pois utilizam representações obtidas diferentemente mas um mesmo resolvedor.Observando a tabela 4.3 pode-se verificar também que a diferença no tempo de execução dos planejadores, apresentada na primeira linha, nãoé tão grande quanto a diferençaanterior, 24 vezes, mas significativa. O PETRIPLAN 2é 1.6 vezes mais rápido que o PE-TRIPLAN 1. O número de ações e o tamanho do plano indicam a igualdade das soluções encontradas. Pode-se verificar a diferença no tamanho da rede de Petri obtida, apresentado pelo número de linhas, colunas, valores diferentes de zero e conflitos. O principal desses itensé os valores diferentes de zero, o PETRIPLAN 2 apresenta 2.6 vezes menos que o PETRIPLAN 1. Esse número influencia diretamente na resolução pois estes são os valores que serão utilizados para criar o problema de PI. Essa informação jáé uma característica importante para identificar a diferença no tempo, mas não o suficiente. Ao analisar mais informações, apresentadas na tabela 4.4 que apresenta os tempos gastos por cada processo executado pelo planejador, pode-se observar dois fatores importantes. O primeiroé a diferença no tempo gasto pelo resolvedor, queé justificada pelo tamanho da rede reduzido apresentado anteriormente. O segundoé a diferença relativamente grande no tempo gasto pelo processo de expansão, no qual o PETRIPLAN 2 gasta 4, 29 vezes mais que o PETRIPLAN 1. Esse valor foi obtido dividindo-se o tempo gasto Tabela 4.3: Resultados obtidos pelos planejadores PETRIPLAN 1 e PETRIPLAN 2 no problema dos blocos. O tempo totalé apresentado em segundos e o tamanho da Rede de Petrié o número de colunas, linhas e elementos com valores diferentes de zero. Também apresenta a quantidade de conflitos representada na rede. nas expansões do PETRIPLAN 2 pelo PETRIPLAN 1. Essa diferençaé justificada pela estrutura de implementação da matriz utilizada para armazenar a rede de Petri. Tabela 4.4: Resultados obtidos pelos planejadores PETRIPLAN 1 e PETRIPLAN 2 no problema do mundo de blocos. Tempos gastos, em segundos, em cada processo executado pelos planejadores. PETRIPLAN 1 PETRIPLAN 2 A próxima análiseé feita sobre o problema do robô. A tabela 4.5 apresenta os resultados obtidos pelo GRAPHPLAN 1 e PETRIPLAN 1. Pode-se observar que para esse problema também ocorre uma grande diferença no tempo de execução dos planejadores, informação presente na primeira linha. E as outras informações demonstram a igualdade da solução e representação. Observando a tabela 4.6 pode-se verificar e confirmar os resultados do problema anterior onde verifica-se que o tempo gasto pelo PETRIPLAN 1é quase que totalmente causado pela busca (7.09 segundos) e não pelo processo de tradução (0.16 segundos). Todos os outros tempos são, desconsiderando o arredondamento, idênticos pois são a mesma implementação. Tabela 4.5: Resultados obtidos pelos planejadores GRAPHPLAN 1 e PETRIPLAN 1 para o problema do robô. O tempo totalé apresentado em segundos e o tamanho do plano se refere ao número de passos necessários para se executar o plano. Tabela 4.6: Resultados obtidos pelos planejadores GRAPHPLAN 1 e PETRIPLAN 1 para o problema do robô. Tempos gastos, em segundos, em cada processo executado pelos planejadores. Com todas essas observações pode-se concluir que o resolvedor utilizado pelo PETRI-PLAN 1é ineficiente com relação ao tempo, mas gera soluções corretas e idênticasàs obtidas pelo GRAPHPLAN 1. A próxima análise será feita com base na tabela 4.7 que compreende a resolução do problema do robô pelos planejadores PETRIPLAN 1 e PETRIPLAN 2. Observando essa tabela pode-se observar novamente a diferença no tempo de execução dos planejadores, agora não tão intensa, mas significativa. O número de ações e o tamanho do plano indicam a igualdade das soluções encontradas. Aqui também apresenta-se a diferença no tamanho da rede de Petri obtida, apresentado pelo número de linhas, colunas, valores diferentes de zero e conflitos, informação importante para identificar a diferença no tempo, mas não o suficiente. Ao analisar mais informações, apresentadas na tabela 4.8 que apresenta os tempos gastos por cada processo executado pelo planejador, pode-se observar dois fatores importantes. O primeiroé a diferença no tempo gasto pelo resolvedor, queé justificada pelo tamanho da rede reduzido apresentado anteriormente. O segundoé que os tempos gastos pelo processo de expansão são quase que equivalentes, bem diferente do que foi obtido no problema anterior onde o PETRIPLAN 2 foi 4,29 vezes mais lento que o PETRIPLAN 1 Tabela 4.7: Resultados obtidos pelos planejadores PETRIPLAN 1 e PETRIPLAN 2 para o problema do robô. O tempo totalé apresentado em segundos e o tamanho da Rede de Petrié o número de colunas, linhas e elementos com valores diferentes de zero. Também apresenta a quantidade de conflitos representada na rede. Tabela 4.8: Resultados obtidos pelos planejadores PETRIPLAN 1 e PETRIPLAN 2 no problema do robô. Tempos gastos, em segundos, em cada processo executado pelos planejadores.Como têm-se total conhecimento e domínio de todo o processo e estrutura empregados no IPEé fácil fazer uma análise mais detalhada para verificar o motivo dessa diferença. Para isso foram obtidas mais informações do processo de expansão do planejador PETRI-PLAN 2 que são apresentados na tabela 4.9.Tabela 4.9: Resultados obtidos pelo planejador PETRIPLAN 2 no problema dos blocos e do robô. Tempos gastos, em segundos, em cada expansão executada pelo planejador.GRAPHPLAN 1 PETRIPLAN 1 Tempo Total 0.17 4.18 Número de Ações 7 7 Tamanho do Plano 6 6 Número de Nodos 531 531 Número de Arestas 1138 1138 Número de Mutexes 12760 12760 GRAPHPLAN 1 PETRIPLAN 1 Tempo do Analisador 0.00 0.00 Tempo da Instanciação 0.00 0.00 Tempo do Cálc. Mut. 0.01 0.01 Tempo das Expansões 0.16 0.17 Tempo das Traduções - 0.10 Tempo das Buscas 0.00 3.90 Tempo Total 0.17 4.18 PETRIPLAN 1 PETRIPLAN 2 Tempo Total 4.18 2.58 Número de Ações 7 7 Tamanho do Plano 6 6 Número de Linhas 5111 2146 Número de Colunas 427 412 Número de Val. Não Zeros 9557 3651 Número de Conflitos 4468 1505 Tempo do Analisador 0.00 0.00 Tempo da Instanciação 0.00 0.00 Tempo do Cálc. Mut. 0.01 - Tempo das Expansões 0.17 0.73 Tempo das Traduções 0.10 - Tempo das Buscas 3.90 1.84 Tempo Total 4.18 2.58 GRAPHPLAN 1 PETRIPLAN 1 Tempo Total 0.17 7.39 Número de Ações 11 11 Tamanho do Plano 7 7 Número de Nodos 573 573 Número de Arestas 1266 1266 Número de Mutexes 12032 12032 GRAPHPLAN 1 PETRIPLAN 1 Tempo do Analisador 0.00 0.00 Tempo da Instanciação 0.00 0.00 Tempo do Cálc. Mut. 0.00 0.00 Tempo das Expansões 0.15 0.14 Tempo das Traduções - 0.16 Tempo das Buscas 0.02 7.09 Tempo Total 0.17 7.39 PETRIPLAN 1 PETRIPLAN 2 Tempo Total 7.39 3.53 Número de Ações 11 11 Tamanho do Plano 7 7 Número de Linhas 5312 2374 Número de Colunas 454 454 Número de Val. Não Zeros 9906 4030 Número de Conflitos 4595 1656 no processo de expansão. PETRIPLAN 1 PETRIPLAN 2 Tempo do Analisador 0.00 0.00 Tempo da Instanciação 0.00 0.00 Tempo do Cálc. Mut. 0.00 - Tempo das Expansões 0.14 0.15 Tempo das Traduções 0.16 - Tempo das Buscas 7.09 3.36 Tempo Total 7.39 3.52 blocos gripper Tempo das Expansões1 0.00 0.01 Tempo das Expansões2 0.00 0.02 Tempo das Expansões3 0.03 0.05 Tempo das Expansões4 0.16 0.07 Tempo das Expansões5 0.23 0.00 Tempo das Expansões6 0.30 0.00 Tempo das Expansões7 - 0.00 Tempo das Expansões 0.72 0.15 Tabela 4.10: Resultados obtidos pelos planejadores GRAPHPLAN 1 e PETRIPLAN 1 para o problema de logística. O tempo totalé apresentado em segundos e o tamanho do plano se refere ao número de passos necessários para se executar o plano.GRAPHPLAN 1 PETRIPLAN 1 Tempo Total 0.42 11.12 Número de Ações 23 23 Tamanho do Plano 9 9 Número de Nodos 1297 1297 Número de Arestas 2308 2308 Número de Mutexes 19230 19230 Tabela 4.11: Resultados obtidos pelos planejadores PETRIPLAN 1 e PETRIPLAN 2 para o problema de logística. O tempo totalé apresentado em segundos e o tamanho da Rede de Petrié o número de colunas, linhas e elementos com valores diferentes de zero. Também apresenta a quantidade de conflitos representada na rede.PETRIPLAN 1 PETRIPLAN 2 Tempo Total 11.12 12.85 Número de Ações 23 21 Tamanho do Plano 9 9 Número de Linhas 8840 3626 Número de Colunas 1048 1144 Número de Val. Não Zeros 16172 5600 Número de Conflitos 7347 1974 Estas características tornam o IPE uma boa alternativa como ferramenta de auxílio para cursos sobre planejamento, além de facilitar os trabalhos em equipe. Por exemplo, atualmente já existem várias implementações terminadas ou em andamento no IPE , além dos três referenciados no capítulo 3. O AgPlan [CLPS04] está totalmente implementado no IPE e possui uma equipe implementando sua paralelização. Existem mais duas implementações de planejadores que traduzem a rede de Petri em SAT aplicando resolvedores diferenciados. Como nossa análise indicou claramente que o ponto falho do PETRIPLAŃ e o resolvedor, alguns trabalhos no Laboratório de Inteligência Computacional (LIC) 1 foram direcionados para melhor tratar o problema de alcançabilidade em redes de Petri [Ben04, Mon04]. Outro importante trabalho no IPEé a implementação de uma nova abordagem na tradução do problema de planejamento em uma rede de Petri aproveitando melhor sua capacidade representativa [Sil03]. Esse trabalho foi o motivador para participarmos da IPC -International Planning Competition -de 2004, mas não obtivemos sucesso na implementação, em tempo hábil, de um resolvedor mais eficiente para o problema de alcançabilidade em redes de Petri, o que continua em desenvolvimento [CGL + 04]. Primeiramente deve-se criar um objeto da classe Analisador Sintático que faz a análise sintática dos arquivos de domínio e problema escritos em PDDL, e a disponibilização de métodos de acesso destas informações. Essa classe necessita de dois parâmetros: o arquivo do domínio e o arquivo do problema.O segundo objeto a ser criado, responsável pela instanciação das ações e predicados de um referido problema, deve ser uma instância da classe Problema. Esse objeto necessita de um parâmetro, o objeto Analisador Sintático criado anteriormente. Quando esse objetoé criado, torna-se disponível um conjunto de métodos de acesso a todas proposições e ações instanciadas. Os passos seguintes são: criar a representação, que armazena as informações do problema de forma organizada para facilitar a solução; e o resolvedor, que encontra uma solução para o problema utilizando a representação. Esses passos são distintos para cada planejador, assim são apresentados a seguir três planejadores que estão implementados no IPE . http://www.inf.ufpr.br/lic IPC -International Planning Competition. F Bacchus, F. Bacchus. IPC -International Planning Competition, 2000. http://www.cs.toronto.edu/aips2000/. CPlan: A constraint programming approach to planning. P Beek, X Chen, Proc. of the Sixteenth National Conference on AI (AAAI-99). of the Sixteenth National Conference on AI (AAAI-99)P. Beek and X. Chen. CPlan: A constraint programming approach to plan- ning. In Proc. of the Sixteenth National Conference on AI (AAAI-99), pages 585-590, 1999. Mixed integer programming models for planning problems. A Bockmayr, Y Dimopoulos, Proc. of the Workshop on Constraint Problem Reformulation (CP-98). of the Workshop on Constraint Problem Reformulation (CP-98)Pisa, ItalyA. Bockmayr and Y. Dimopoulos. Mixed integer programming models for planning problems. In Proc. of the Workshop on Constraint Problem Refor- mulation (CP-98), pages 1-6, Pisa, Italy, 1998. Resolvendo o problema de planejamento através de redes de petri e seu desdobramento em redes de ocorrência. D Benke, Curitiba, BrasilDepartamento de Informática -UFPRTechnical reportQualificação de mestradoD. Benke. Resolvendo o problema de planejamento através de redes de petri e seu desdobramento em redes de ocorrência. Technical report, Departamento de Informática -UFPR, Curitiba, Brasil, 2004. Qualificação de mestrado. Fast planning through planning graph analysis. A Blum, M Furst, Proceedings of IJCAI-95. IJCAI-95MontrealA. Blum and M. Furst. Fast planning through planning graph analysis. In Proceedings of IJCAI-95, pages 1636-1642, Montreal, August 1995. HSP: Planning as heuristic search. B Bonet, H Geffner, Entry at the AIPS-98 Planning Competition. PittsburghB. Bonet and H. Geffner. HSP: Planning as heuristic search. In Entry at the AIPS-98 Planning Competition, Pittsburgh, June 1998. Planning as heuristic search. B Bonet, H Geffner, Artificial Intelligence. 1291-2B. Bonet and H. Geffner. Planning as heuristic search. Artificial Intelligence, 129(1-2):5-33, 2001. Using CSP look-back techniques to solve real-world SAT instances. R J BayardoJr, R C Schrag, Proceedings of the Fourteenth National Conference on Artificial Intelligence (AAAI'97). the Fourteenth National Conference on Artificial Intelligence (AAAI'97)Providence, Rhode IslandR. J. Jr. Bayardo and R. C. Schrag. Using CSP look-back techniques to solve real-world SAT instances. In Proceedings of the Fourteenth National Conference on Artificial Intelligence (AAAI'97), pages 203-208, Providence, Rhode Island, 1997. The computational complexity of propositional STRIPS planning. T Bylander, Artificial Intelligence. 69T. Bylander. The computational complexity of propositional STRIPS plan- ning. Artificial Intelligence, 69:165-205, 1994. . J Carbonell, J Blythe, O Etzioni, Y Gil, R Joseph, D Kahn, C Knoblock, S Minton, A Perez, S Reilly, M Veloso, X Wang, 1992. CMU-CS-92-150CMUTechnical reportCBE + 92. Prodigy 4.0: the manual and tutorial[CBE + 92] J. Carbonell, J. Blythe, O. Etzioni, Y. Gil, R. Joseph, D. Kahn, C. Knoblock, S. Minton, A. Perez, S. Reilly, M. Veloso, and X. Wang. Prodigy 4.0: the manual and tutorial. Technical report, CMU, CS, 1992. CMU-CS-92-150. A Petri net based representation for planning problems. M Castilho, A Guedes, T Lima, J Marynowski, R Montaño, L Künzle, F Silva, Booklet of International Planning Competition -IPC'04. Whistler, British Columbia, CanadaCGL + 04. ICAPS'04[CGL + 04] M. Castilho, A. Guedes, T. Lima, J. Marynowski, R. Montaño, L. Künzle, and F. Silva. A Petri net based representation for planning problems. In Booklet of International Planning Competition -IPC'04, pages 27-29, Whistler, British Columbia, Canada, June 2004. ICAPS'04. An investigation on genetic algorithms for generic strips planning. M Castilho, E Lecheta, V Palodeto, F Silva, Procceedings of IX Ibero-American Conference on Artificial Intelligence -IBERAMIA'04. ceedings of IX Ibero-American Conference on Artificial Intelligence -IBERAMIA'04Puebla, MexicoInstituto Nacional de AstrofísicaÓptica y ElectrónicaTo appearM. Castilho, E. Lecheta, V. Palodeto, and F. Silva. An investigation on genetic algorithms for generic strips planning. In Procceedings of IX Ibero- American Conference on Artificial Intelligence -IBERAMIA'04, Puebla, Me- xico, November 2004. Instituto Nacional de AstrofísicaÓptica y Electrónica. To appear. IPC -International Planning Competition. ] S [ehly04, J Edelkamp, M Hoffmann, H Littman, Younes, [EHLY04] S. Edelkamp, J. Hoffmann, M. Littman, and H. Younes. IPC -International Planning Competition, 2004. http://ls5-www.cs.uni- dortmund.de/ edelkamp/ipc-4/. STRIPS: A new approach to the application of theorem proving to problem solving. R Fikes, N Nilsson, Journal of Artificial Intelligence. 23-4R. Fikes and N. Nilsson. STRIPS: A new approach to the application of theorem proving to problem solving. Journal of Artificial Intelligence, 2(3-4), 1971. Application of theorem proving to problem solving. C Green, Proceedings First International Joint Conference on AI. First International Joint Conference on AIC. Green. Application of theorem proving to problem solving. In Proceedings First International Joint Conference on AI, pages 219-239, 1969. The case for domain-specific frame axioms. A Haas, The Frame Problem in Artificial Intelligende, Proceedings of t he 1987 Workshop. Los Altos, CAMorgan Kaufmann PublishersA. Haas. The case for domain-specific frame axioms. In The Frame Problem in Artificial Intelligende, Proceedings of t he 1987 Workshop, Los Altos, CA, 1987. Morgan Kaufmann Publishers. The FF planning system: Fast plan generation through heuristic search. J Hoffmann, B Nebel, Journal of Artificial Intelligence Research. 14J. Hoffmann and B. Nebel. The FF planning system: Fast plan generation through heuristic search. Journal of Artificial Intelligence Research, 14:253- 302, 2001. Extending planning graphs to an adl subset. J Koehler, B Nebel, J Hoffmann, Y Dimopoulos, TR 88ICS -University of FreiburgTechnical reportJ. Koehler, B. Nebel, J. Hoffmann, and Y. Dimopoulos. Extending planning graphs to an adl subset. Technical report, ICS -University of Freiburg, 1997. TR 88. Planning as satisfiability. H Kautz, B Selman, Proc. 10th Eur. Conf. 10th Eur. ConfH. Kautz and B. Selman. Planning as satisfiability. In Proc. 10th Eur. Conf. . Ai, WileyVienna, AustriaAI, pages 359-363, Vienna, Austria, 1992. Wiley. Pushing the envelope: Planning, propositional logic, and stochastic search. H Kautz, B Selman, Proceedings of the Thirteenth National Conference on Artificial Intelligence (AAAI-96). the Thirteenth National Conference on Artificial Intelligence (AAAI-96)Portland, ORMIT PressH. Kautz and B. Selman. Pushing the envelope: Planning, propositional logic, and stochastic search. In Proceedings of the Thirteenth National Conference on Artificial Intelligence (AAAI-96), pages 1194-1201, Portland, OR, 1996. MIT Press. Unifying sat-based and graph-based planning. H Kautz, B Selman, Proceedings of IJCAI. IJCAIStockholm, SwedenMorgan KaufmannH. Kautz and B. Selman. Unifying sat-based and graph-based planning. In Proceedings of IJCAI, pages 318-325, Stockholm, Sweden, 1999. Morgan Kauf- mann. State-space planning by integer optimization. H Kautz, J P Walser, Proceedings Fifteenth National Conference on Artificial Intelligence (AAAI-99). Fifteenth National Conference on Artificial Intelligence (AAAI-99)Menlo Park, CAAAAI PressH. Kautz and J.P. Walser. State-space planning by integer optimization. In Proceedings Fifteenth National Conference on Artificial Intelligence (AAAI- 99), pages 526-533, Menlo Park, CA, 1999. AAAI Press. Heuristics based on unit propagation for satisfiability problems. C M Li, Anbulagan , IJCAI (1). C. M. Li and Anbulagan. Heuristics based on unit propagation for satisfiability problems. In IJCAI (1), pages 366-371, 1997. Efficient implementation of the plan graph in STAN. D Long, M Fox, Journal of Artificial Intelligence Research -JAIR. 10D. Long and M. Fox. Efficient implementation of the plan graph in STAN. Journal of Artificial Intelligence Research -JAIR, 10:87-115, 1999. A planner called R. The AI Magazine. F Lin, 22F. Lin. A planner called R. The AI Magazine, 22(1):73-76, 2001. AIPS-98 Planning Competition Results. D Mcdermott, D. McDermott. AIPS-98 Planning Competition Results, 1998. http://ftp.cs- .yale.edu/pub/mcdermott/aipscomp-results.html. PDDL -The Planning Domain Definition Language. D Mcdermott, D. McDermott. PDDL -The Planning Domain Definition Language, 1998. http://ftp.cs.yale.edu/pub/mcdermott. Some philosophical problems from the standpoint of artificial intelligence. J Mccarthy, P Hayes, Machine Intelligence. 4J. McCarthy and P. Hayes. Some philosophical problems from the standpoint of artificial intelligence. Machine Intelligence, 4:463-502, 1969. . R Montaño, Mestrado, Departamento de Informática -UFPR. Technical reportR. Montaño. Mestrado em andamento. Technical report, Departamento de Informática -UFPR, Curitiba, Brasil, 2004. Petri nets: Properties, analysis and applications. T Murata, Proceedings of the IEEE. the IEEE77T. Murata. Petri nets: Properties, analysis and applications. Proceedings of the IEEE, 77(4):541-580, April 1989. Mestrado em andamento. P J D Novaes, Departamento de Informática -UFPR. Technical reportP. J. D. Novaes. Mestrado em andamento. Technical report, Departamento de Informática -UFPR, Curitiba, Brasil, 2004. ADL: Exploring the middle ground between STRIPS and the situation calculus. E P D Pednault, Proceedings of the Fist INternational Conference on Principles of Knowledge Representation and Reasoning. the Fist INternational Conference on Principles of Knowledge Representation and ReasoningCaliforniaMorgan Kaufmann PublishersE. P. D. Pednault. ADL: Exploring the middle ground between STRIPS and the situation calculus. In Proceedings of the Fist INternational Conference on Principles of Knowledge Representation and Reasoning., pages 324-332, California, 1989. Morgan Kaufmann Publishers. UCPOP: A sound, complete, partial order planner for ADL. J S Penberthy, D S Weld, KR'92. Principles of Knowledge Representation and Reasoning: Proceedings of the Third International Conference. Bernhard Nebel, Charles Rich, and William SwartoutSan Mateo, CaliforniaMorgan KaufmannJ. S. Penberthy and D. S. Weld. UCPOP: A sound, complete, partial or- der planner for ADL. In Bernhard Nebel, Charles Rich, and William Swar- tout, editors, KR'92. Principles of Knowledge Representation and Reasoning: Proceedings of the Third International Conference, pages 103-114. Morgan Kaufmann, San Mateo, California, 1992. Petriplan: a new algorithm for plan generation (preliminary report). F Silva, M Castilho, L Künzle, Proc. of IBERAMIA/SBIA-2000. of IBERAMIA/SBIA-2000Springer-VerlagF. Silva, M. Castilho, and L. Künzle. Petriplan: a new algorithm for plan generation (preliminary report). In Proc. of IBERAMIA/SBIA-2000, pages 86-95. Springer-Verlag, 2000. Relacionamentos entre planejamento em inteligência artificial e alcançabilidade em redes de petri. F Silva, Departamento de Informática -UFPR. Technical reportQualificação de doutoradoF. Silva. Relacionamentos entre planejamento em inteligência artificial e alcançabilidade em redes de petri. Technical report, Departamento de In- formática -UFPR, Curitiba, Brasil, 2003. Qualificação de doutorado. Noise strategies for improving local search. B Selman, H A Kautz, B Cohen, Proceedings of the Twelfth National Conference on Artificial In telligence (AAAI'94). the Twelfth National Conference on Artificial In telligence (AAAI'94)SeattleB. Selman, H. A. Kautz, and B. Cohen. Noise strategies for improving local search. In Proceedings of the Twelfth National Conference on Artificial In telligence (AAAI'94), pages 337-343, Seattle, 1994. On the use of integer programming models in AI planning. T Vossen, M Ball, A Lotem, D Nau, Proceedings of the IJCAI 99. the IJCAI 99T. Vossen, M. Ball, A. Lotem, and D. Nau. On the use of integer programming models in AI planning. In Proceedings of the IJCAI 99, pages 304-309, 1999. Recent advances in AI planning. D S Weld, AI Magazine. 202D. S. Weld. Recent advances in AI planning. AI Magazine, 20(2):93-123, 1999.
sample_17670
0.879
arxiv
Un analogue du monoïde plaxique pour les arbres binaires de recherche 24 Jun 2002 13 novembre 2018 Florent Hivert Jean-Christophe Novelli Jean-Yves Thibon Un analogue du monoïde plaxique pour les arbres binaires de recherche 24 Jun 2002 13 novembre 2018An analogue of the plactic monoid for binary search trees Nous introduisons une structure de monoïde sur un ensemble d'arbres binairesétiquetés, par un procédé analogueà la construction du monoïde plaxique. Nous en déduisons une nouvelle approche de l'algèbre des arbres binaires de Loday-Ronco.AbstractWe introduce a monoid structure on a certain set of labelled binary trees, by a process similar to the construction of the plactic monoid. This leads to a new interpretation of the algebra of planar binary trees of Loday-Ronco. Il existe certaines analogies entre la combinatoire des arbres binaires et celle des tableaux de Young. Par exemple, lesétiquetages croissants d'un arbre binaire donné et les tableaux de Young standard d'une forme donnée sont tous deux dénombrés par une ✭✭ formule deséquerres ✮✮ [7,17,8] dont on connaît dans les deux cas des q-analogues naturels [17,1]. On sait aussi qu'il est possible de construire, au moyen de la correspondance de Robinson-Schensted, une algèbre de Hopf ayant pour base les tableaux de Young standard [15], et qu'une réalisation naturelle de cette algèbre au moyen de polynômes non commutatifs, implique une preuve combinatoireéclairante (en une ligne) de la règle de Littlewood-Richardson [13,3,4]. Dans cette réalisation, chaque tableau t de forme λ est un polynôme homogène de degré n = |λ| dont l'image commutative est la fonction de Schur s λ . Récemment, Loday et Ronco ont introduit une algèbre de Hopf ayant pour base les arbres binaires planaires [11,12]. Cette algèbre peut, comme la précédente, se réaliser dans une algèbre associative libre [3,4], chaque arbre binaire completà n sommets internesétant représenté par un polynôme homogène de degré n en variables non commutatives. En réalité, ces deux algèbres sont, par définition, des sous-bigèbres de l'algèbre de Hopf des permutations de Malvenuto-Reutenauer [14], laquelle aété réalisée dans [3,4] comme l'algèbre des fonctions quasi-symétriques libres FQSym dont nous rappelons ci-dessous la définition. Notons au passage que toutes les algèbres en question sont libres [15,11,14], mais que cette propriété n'intervient pas dans la construction de leurs réalisations polynomiales. Ce sont ces réalisations qui permettent de faire apparaître l'algèbre des tableaux (ou fonctions symétriques libres) et l'algèbre des arbres binaires comme deux cas particuliers d'une même construction, reposant sur l'existence d'une correspondance de type Robinson-Schensted et d'un monoïde de type plaxique. Cette construction nous apparaît d'autant plus fondamentale qu'un troisième exemple entre dans ce cadre, celui du couple d'algèbres de Hopf en dualité (Sym, QSym) (fonctions symétriques non commutatives et fonctions quasi-symétriques), lequel correspond au monoïde hypoplaxique [9]. Nous commencerons par rappeler quelques définitions. Nos notations seront celles de [13] et de [3,4]. Soit A = {a 1 < a 2 < · · · } un alphabet dénombrable totalement ordonné. Les polynômes non commutatifs F σ (A) = std (w)=σ −1 w, où σ est une permutation et où w parcourt les mots de standardisé σ −1 forment une base d'une sous algèbre de K A notée FQSym K (K etant un anneau commutatif quelconque) et simplement FQSym si K = C [3]. On poseégalement G σ = F σ −1 et on définit un produit scalaire par F σ , G τ = δ στ . Soit w → (P (w), Q(w)) la correspondance de Robinson-Schensted usuelle (cf. [13]). Pour un tableau standard t de forme λ, on définit la fonction de Schur libre S t comme la somme S t = P (σ)=t F σ . Ainsi qu'il est montré dans [13,4], les S t forment une base d'une sous-algèbre FSym de FQSym, et ceténoncé peutêtre vu comme un raffinement de la règle de Littlewood-Richardson, qu'il implique immédiatement. De plus, FSym est une sous-bigèbre de FQSym. Nous allons maintenant donner une construction de l'algèbre PBT des arbres binaires planaires de Loday-Ronco [11] entièrement analogueà celle de FSym. Commençons par l'analogue approprié de la correspondance de Robinson-Schensted. Elle se définità partir de l'arbre binaire décroissant (ou arbre tournoi) T (σ) associéà une permutation σ ∈ S n . C'est un arbre binaire (incomplet)à n sommets, numérotés de 1à n. coïncide avec la congruence engendrée par les relations zxuy ≡ xzuy , x ≤ y < z ∈ A , u ∈ A * .(1) Cette congruence sera appelée congruence sylvestre et le monoïde quotient Sylv(A) = A * / ≡, le monoïde sylvestre. La congruence sylvestre est aux arbres ce que la congruence plaxique (engendrée par les relations de Knuth) est aux tableaux [10,13]. Dans le cas du monoïde plaxique, les classes ont des représentants canoniques (les lectures par lignes des tableaux). Il en est de même ici : Proposition 2 Soit T un arbre binaire de recherche, et soit w T le mot obtenu en effectuant son parcours postfixe (parcours en profondeur commençant par la gauche, où l'onécrit la lettré etiquetant un noeud quand on le visite pour la dernière fois). Alors, P(w T ) = T , et w T est minimal pour l'ordre lexicographique dans sa classe sylvestre. De plus, en itérantà partir de w T les règles de réécriture xzuy → zxuy, obtenues en orientant les relations sylvestres, on engendre toute la classe de w T . Les mots de la forme w T seront appelés mots-arbres (ou plus simplement arbres). Pour un arbre binaire T nonétiqueté (identifiéà un P-symbole de permutation), introduisons le polynôme P T (A) = P(σ)=T F σ . En utilisant le fait que la congruence sylvestre est compatibleà la restriction aux intervalles de l'alphabet, et en raisonnant comme dans [4], prop. 3.12,on en déduit l'identité suivante. Théorème 3 Soient T ′ et T ′′ deux arbres binaires nonétiquetés. Alors, P T ′ P T ′′ = T ∈Sh(T ′ ,T ′′ ) P T , où Sh(T ′ , T ′′ ) désigne l'ensemble des arbres T tels que w T apparaît dans le produit de mélange u v où u = w T ′ et où v = w T ′′ [k] est le mot-arbre de T ′′ décalé du nombre k de sommets de T ′ . Ceténoncé est entièrement analogueà la ✭✭ règle de Littlewood-Richardson libre ✮✮présentée dans [13,4]. Il fournit une nouvelle construction de l'algèbre des arbres binaires de Loday-Ronco. Dans [12], le produit P T ′ P T ′′ est décrit au moyen d'un ordre sur les arbres binaires (notons au passage que Loday et Ronco utilisent des arbres binaires complets, dont nous ne conservons ici que les noeuds internes). Cet ordre peut s'obtenirà partir de l'ordre faible du groupe symétrique : c'est la restriction de celui-ci aux permutations qui sont des mots-arbres. Remarquons que les résultats de Björner et Wachs [2] entraînent que les classes sont des intervalles de l'ordre faible. Ainsi, l'ensemble Sh(T ′ , T ′′ ) est un intervalle de l'ordre de Loday-Ronco. Dans le cas des tableaux, il est possible de définir un ordre similaire, quotient de l'ordre faible par les relations de Knuth, dont les ensembles Sh(t ′ , t ′′ ) de [13,4] sontégalement des intervalles. Le cardinal d'une classe plaxique de permutations estégal au nombre de tableaux standard d'une certaine forme, donné par la célèbre formule deséquerres [7], dont on connaît un q-analogue [17] qui prend en compte l'indice majeur des permutations. De la même manière, le dénombrement par indice majeur de la classe sylvestre correpondantà l'arbre Tà n sommets est donné par la spécialisation (q) n P T (1, q, q 2 , · · · ),égale, d'après [1]à P(σ)=T q maj (σ) = [n] q ! •∈T q δ• [h • ] q ,(2) où, pour un sommet • de T , h • est le nombre de sommets du sous-arbre dont il est racine, et δ • celui de son sous-arbre droit. La congruence sylvestre permetégalement une description simple du dual de Hopf de l'algèbre des arbres binaires : Théorème 4 Le dual PBT * de PBT est isomorpheà l'image de FQSym par la projection canonique π : C A −→ C[Sylv(A)] ≃ C A / ≡ . La base duale Q T de P T est Q T = π(G wT ), où w T est la permutation canoniquement associéeà l'arbre T . Le dual de FSym admet une description similaire [15,5]. Ces résultats sont des conséquences de la ✭✭ formule de Cauchy libre ✮✮ std (u)=std (v) −1 u ⊗ v = σ U σ ⊗ V σ pour tout couple (U, V) de bases adjointes de FQSym. Pour calculer leséléments primitifs de PBT et de PBT * (ou de FSym et de FSym * ), on peut procéder comme dans [4]. On part d'une base multiplicative d'un côté. Leséléments de la base duale correspondant aux indécomposables de notre base multiplicative forment alors une base La racine est numérotée n (le maximum), et si, en tant que mot, σ = unv, alors le sous-arbre gauche est T (u) et le sous-arbre droit T (v) (u et vétant vus comme des permutations de leurs réarrangements croissants). On notera [T (σ)] la forme de cet arbre (on oublie lesétiquettes).Pour un mot w ∈ A * , on posera Q(w) = T ((std w) −1 ), et P(w) sera l'arbre obtenu en remplaçant chaqueétiquette i de Q(w) par la i-ème lettre de w. Par exemple, si w = bacaabca, std w = σ = 51723684, σ −1 peuvent se calculer au moyen d'un algorithme d'insertionà la Schensted. Pour construire P(w), on lit les lettres de wà partir de la droite. La dernière est placéeà la racine, puis chaque lettre est insérée récursivement dans le sous-arbre gauche ou droit selon qu'elle est ≤ ou >à la racine. L'arbre Q(w) indique l'ordre (inverse) de création des sommets. Ainsi, l'étiquetage de P(w) est croissant au sens large dans le sens ր et au sens strict dans le sens ց, et le parcours infixe de l'arbre produit le réarrangement croissant de w. Il s'agit là d'un algorithme de tri classique[8], et on reconnaît dans P(w) un arbre binaire de recherche. Quantà Q(w), c'est un arbre tournoi. Dans le cas où w = σ est une permutation, la seule information contenue dans P(σ) est sa forme, et on l'identifieà l'arbre nonétiqueté [T (σ −1 )].Théorème 1 La relation d'équivalence ∼ sur le monoïde libre A * définie par u ∼ v ⇐⇒ P(u) = P(v) Le calcul explicite se ramèneà celui de la fonction de Möbius de l'ordre approprié. Dans la cas de PBT, et plus généralement des algèbres dendriformes libres, leś eléments primitifs ontété déterminés dans. 16éléments primitifs du duald'éléments primitifs du dual. Le calcul explicite se ramèneà celui de la fonction de Möbius de l'ordre approprié. Dans la cas de PBT, et plus généralement des algèbres dendriformes libres, leś eléments primitifs ontété déterminés dans [16]. Toutefois, le procédé proposé ci-dessus conduità une caractérisation différente. Toutefois, le procédé proposé ci-dessus conduità une caractérisation différente. * ) en dualité au sens de Fomin [6], dont les sommets de degré n sont les arbres binairesà n sommets. ; Finalement, Γ Et T ′ Si P T ′ Apparaît Dans Le Développement De P T P • . Dand, cette même arête sera présente si Q T ′ apparaît dans Q T Q • . La correspondance sylvestre est alors la correspondance de Fomin associéeà ce couple de graphes. Nous tenonsà remercier Jean-Louis Loday et María Ronco pour leurs commentaires. remarquons qu'on peut construire un couple de graphes graduésFinalement, remarquons qu'on peut construire un couple de graphes gradués (Γ, Γ * ) en dualité au sens de Fomin [6], dont les sommets de degré n sont les arbres binairesà n sommets. Dans Γ, on a une arête entre T et T ′ si P T ′ apparaît dans le développement de P T P • . Dand Γ * , cette même arête sera présente si Q T ′ apparaît dans Q T Q • . La correspondance sylvestre est alors la correspondance de Fomin associéeà ce couple de graphes. Nous tenonsà remercier Jean-Louis Loday et María Ronco pour leurs commentaires. . Références, Références Wachs, q-Hook length formulas for forests. A Björner, M , J. Combin. Theory Ser. A. 52A. Björner, M. Wachs, q-Hook length formulas for forests, J. Combin. Theory Ser. A 52 (1989), 165-187. Permutation statistics and linear extensions of posets. A Björner, M Wachs, J. Combin. Theory Ser. A. 58A. Björner, M. Wachs, Permutation statistics and linear extensions of posets, J. Combin. Theory Ser. A 58 (1991), 85-114. Une généralisation des fonctions quasi-symétriques et des fonctions symétriques non commutatives. G Duchamp, F Hivert, J.-Y Thibon, C. R. Acad. Sci. Paris Sér. I Math. 32812G. Duchamp, F. Hivert, J.-Y. Thibon, Une généralisation des fonctions quasi-symétriques et des fonctions symétriques non commutatives, C. R. Acad. Sci. Paris Sér. I Math. 328 (1999), no. 12, 1113-1116. Noncommutative symmetric functions VI: free quasi-symmetric functions and related algebras. G Duchamp, F Hivert, J.-Y Thibon, Internat. J. Alg. Comput. à paraîtreG. Duchamp, F. Hivert, J.-Y. Thibon, Noncommutative symmetric functions VI: free quasi-symmetric functions and related algebras, Internat. J. Alg. Comput. (à paraître). G Duchamp, F Hivert, J.-Y Thibon, Noncommutative symmetric functions VII. en préparationG. Duchamp, F. Hivert, J.-Y. Thibon, Noncommutative symmetric functions VII (en préparation). Duality of graded graphs. S Fomin, J. Alg. Combinatorics. 3S. Fomin, Duality of graded graphs, J. Alg. Combinatorics 3 (1994), 357-404. The hook graphs of the symmetric groups. J S Frame, G Robinson, R M Thrall, Canadian J. Math. 6J.S. Frame, G. de B. Robinson, R.M. Thrall, The hook graphs of the symmetric groups, Canadian J. Math. 6, (1954). 316-324. The art of computer programming. D E Knuth, Addison-Wesley3Soting and searchingD.E. Knuth, The art of computer programming, vol.3: Soting and searching, Addison-Wesley, 1973. Noncommutative symmetric functions IV: Quantum linear groups and Hecke algebras at q = 0. D Krob, J.-Y Thibon, J. Algebraic Combin. 64D. Krob, J.-Y. Thibon, Noncommutative symmetric functions IV: Quantum linear groups and Hecke algebras at q = 0, J. Algebraic Combin. 6 (1997), no. 4, 339-376. A Lascoux, M.-P Schützenberger, Le Monode Plaxique, Noncommutative structures in algebra and geometric combinatorics. Naples; CNR, Rome109A. Lascoux, M.-P. Schützenberger, Le monode plaxique, Noncommutative structures in algebra and geometric combinatorics (Naples, 1978), pp. 129-156, Quad. Ricerca Sci., 109, CNR, Rome, 1981. Hopf algebra of the planar binary trees. J.-L Loday, M O Ronco, Adv. Math. 1392J.-L. Loday, M.O. Ronco, Hopf algebra of the planar binary trees, Adv. Math. 139 (1998), no. 2, 293-309. Order structure on the algebra of permutations and of planar binary trees. J.-L Loday, M O Ronco, J. Algebraic Combin. 153J.-L. Loday, M.O. Ronco, Order structure on the algebra of permutations and of planar binary trees, J. Algebraic Combin. 15 (2002), no. 3, 253-270. M Lothaire, Algebraic combinatorics on words. CambridgeCambridge University pressM. Lothaire, Algebraic combinatorics on words, Cambridge University press, Cambridge, 2002. Duality between quasi-symmetric functions and Solomon descent algebra. C Malvenuto, C Reutenauer, J. Algebra. 177C. Malvenuto, C. Reutenauer, Duality between quasi-symmetric functions and Solomon descent algebra, J. Algebra 177 (1995), 967-892. Algèbres de Hopf de tableaux. S Poirier, C Reutenauer, Ann. Sci. Math. Québec. 191S. Poirier, C. Reutenauer, Algèbres de Hopf de tableaux, Ann. Sci. Math. Québec 19 (1995), no. 1, 79-90. Primitive elements in a free dendriform Hopf algebra. M O Ronco, Contemp. Maths. 267M.O. Ronco, Primitive elements in a free dendriform Hopf algebra, Contemp. Maths. Vol. 267 (2000), 245-264. Ordered structures and partitions, Memoirs of the. R P Stanley, American Mathematical SocietyProvidence, R.I.R.P. Stanley, Ordered structures and partitions, Memoirs of the American Mathematical Society, No. 119, American Mathematical Society, Providence, R.I., 1972. . Institut Gaspard Monge, Université de Marne-la-ValléeInstitut Gaspard Monge, Université de Marne-la-Vallée, . Marne-La-Vallée Cedex, Marne-la-Vallée cedex, FRANCE
sample_17676
0.6744
arxiv
Laboratoire Gestion des Risques et Environnement Université de Haute-Alsace CNRS EP J0082 25 rue de Chemnitz68200MulhouseFrance direct solar floorsolar energysolar heatingbioclimatic habitationsolar collectorcovering solar ratiosolar systems Revue Générale deThermique -tome 34 -n° 408 -décembre 1995 -pp769-786 1 PLANCHER SOLAIRE DIRECT MIXTE À DOUBLE RÉSEAU EN HABITAT BIOCLIMATIQUE Conception et bilan thermique réel par T. DE LAROCHELAMBERT ( * ) Article reçu le 17.03.1995, accepté le 30.11.1995 Résumé. L'article présente une nouvelle technique de Plancher Solaire Direct épais à double réseau permettant l'utilisation conjointe du chauffage solaire et d'un chauffage d'appoint. Conçue pour garantir le stockage et la diffusion de la totalité de l'énergie solaire disponible en régulant physiquement l'appoint par l'apport solaire sans gestion informatique centralisée, cette technique simple est testée et suivie dans des conditions réelles d'utilisation en habitat bioclimatique pour étudier l'influence d'une enveloppe sans inertie à grand apport solaire passif sur la productivité de l'installation solaire. Des bilans journaliers, mensuels et annuels effectués sur trois ans, complétés par des mesures en temps réel sur site, ont permis de vérifier les propriétés fonctionnelles attendues de cette technique (stockage solaire, déphasage et lissage thermique, asservissement du circuit d'appoint, économie de l'énergie d'appoint). Une analyse du fonctionnement et du bilan global à travers les concepts de productivité solaire horaire, d'énergie primaire économisée et de taux de couverture solaire corrigé est proposée pour comparer les performances énergétiques de différents types d'installations solaires.Abstract. This study presents a new Direct Solar Floor Heating technique with double heating network whichallows simultaneous use of solar and supply energy. Its main purpose is to store and to diffuse the whole available solar energy while regulating supply energy by physical means without using computer controlled technology. This solar system has been tested in real user conditions inside a bioclimatic house to study the interaction of non-inertial and passive walls on the solar productivity. Daily, monthly and annual energy balances were drawn up over three years and completed by real-time measurements of several physical on-site parameters. As a result the expected properties of this technique were improved. The use of per-hour solar productivity, saved primary energy and corrected solar covering ratio is recommended to analyze the performances of this device and to allow more refined comparisons with other solar systems.Mots-clés: plancher solaire direct ; énergie solaire ; chauffage solaire ; habitat bioclimatique ; capteur solaire; taux de couverture solaire ; système solaire INTRODUCTION La technique du Plancher Solaire Direct (P.S.D.), conçue et mise au point par l'École Supérieure d'Ingénieurs de Marseille (E.S.I.M.) il y a une quinzaine d'années [1], a permis une diffusion plus importante du chauffage solaire dans l'habitat individuel grâce à la réduction des coûts d'investissement et la simplicité de mise en oeuvre qu'elle entraîne par rapport aux systèmes conventionnels de chauffage solaire [2]. Dans ces derniers en effet, l'énergie absorbée par les capteurs solaires est stockée dans de grands réservoirs d'eau par l'intermédiaire d'échangeurs, l'eau ainsi chauffée étant distribuée à basse température dans les émetteurs de chaleur (radiateurs et planchers chauffants). Les inconvénients de ces systèmes sont principalement: -une perte importante de rendement due à la présence d'échangeurs; -les déperditions thermiques importantes des ballons de stockage, généralement extérieurs au volume habitable; -un coût très élevé dû à l'échangeur (titane ou cuivre) et aux ballons -une multiplication des circulateurs, des régulations, des vannes motorisées et donc des risques de pannes, de fuites ou de dysfonctionnement. Le P.S.D. dans son principe non seulement pallie ces inconvénients mais offre de surcroît des atouts décisifs que nous rappelons brièvement [3]: -stockage thermique de l'énergie solaire dans le plancher en béton, intérieur au volume habitable; -inertie thermique importante; -absence d'échangeur; -régulation simplifiée, généralement réduite à un thermostat différentiel contrôlant un circulateur unique; -avantages des planchers chauffants: confort basse température, uniformité de température de l'air ambiant, suppression possible des radiateurs muraux; -économie d'investissement importante. Depuis la mise au point de la technique de chauffage par P.S.D., plusieurs centaines d'installations à P.S.D. ont été réalisées, presqu'exclusivement en France, essentiellement dans le secteur de l'habitat individuel et quelques unes dans le petit collectif ou le secteur hospitalier. Divers suivis et campagnes de mesures ont permis de vérifier le bon comportement des dalles solaires et leur apport positif dans les bilans énergétiques, annonçant des « taux de couverture solaire » généralement compris entre 30 à 50% [4][5] [6] [7]. Cependant, un des obstacles majeurs à une diffusion plus générale de la technique P.S.D. est la nécessité d'investir dans un chauffage d'appoint performant, devant couvrir la totalité de la puissance de chauffe du bâtiment pendant d'éventuelles longues périodes sans ensoleillement en hiver, sans pouvoir disposer du chauffage par le sol. La solution consistait jusqu'à présent à doubler le P.S.D. d'un système complet de chauffage classique par radiateurs ou par poêles à bois, fuel ou charbon, ou par cheminées à insert. Seule la perspective d'importantes économies de chauffage engendrées par le P.S.D. pouvait compenser le surinvestissement dans le chauffage d'appoint et la perte de confort du plancher chauffant en l'absence de soleil [8]. COUPLAGES SOLAIRE-APPOINT DANS LE PLANCHER CHAUFFANT Divers travaux récents ont tenté d'apporter une solution économique au problème, en cherchant à utiliser les dalles de P.S.D. comme planchers chauffants utilisés simultanément par les circuits solaires et par les circuits de chauffage d'appoint. P.S.D. mince à appoint intégré Cette solution a été étudiée et mise en oeuvre par P.PAPILLON [9][10] et G.ACHARD et al. [11] et la société T2I, fabricant de panneaux et de systèmes solaires en Savoie (France). Elle consiste pour l'essentiel en un couplage hydraulique et thermique des circuits d'appoint et solaire dans un seul et même réseau de tubes chauffants noyés dans le plancher solaire en béton, dont l'épaisseur est diminuée de moitié par rapport aux P.S.D. classiques (15 cm au lieu de 30 cm). Les auteurs ont simulé numériquement le fonctionnement d'un tel système, basé sur une gestion centralisée de l'ensemble par microprocesseur, avec identification de paramètres in-situ et auto-adaptation, puis vérifié leur modèle sur un P.S.D. expérimental. Il apparaît que l'épaisseur de la dalle est un paramètre fondamental du comportement thermique du P.S.D. et de son interaction avec l'enveloppe de l'habitation. Ainsi une dalle épaisse (supérieure à 20 cm) offre une inertie suffisamment importante pour rendre négligeable l'effet du type d'isolation (intérieure ou extérieure) des murs de l'habitation. Les auteurs soulignent que l'apport thermique du chauffage solaire "actif" par un P.S.D. est d'autant plus faible que les apports solaires "passifs" à travers les vitrages sud sont plus élevés; ils concluent à l'incompatibilité d'une enveloppe à isolation intérieure (faible inertie) et à grands apports solaires passifs vis à vis des performances d'un P.S.D., et préfèrent une solution dalle mince (15 cm) dans un habitat classique (forte inertie des murs pour compenser la perte d'inertie de la dalle; peu d'apports solaires passifs). La baisse de productivité solaire ainsi engendrée est alors compensée par une diminution du coût d'investissement et par une augmentation de la production solaire d'eau chaude sanitaire (E.C.S.). Il est clair que cette solution présente un intérêt majeur en habitat collectif où l'emploi de dalles minces s'impose, et devrait permettre au chauffage solaire de pénétrer plus efficacement ce secteur où d'énormes économies d'énergie pourraient ainsi être engendrées. En revanche l'opposition entre performances du P.S.D. et performances thermiques de l'habitat ne nous apparaît pas justifiée si l'on considère l'ensemble {chauffage solaire + chauffage d'appoint + enveloppe bioclimatique + E.C.S.} conçu autour d'un plancher chauffant à double nappe de chauffage tel que nous le présentons ci-dessous. P.S.D. mixte à double réseau Installation solaire à P.S.D. mixte Le Plancher Solaire Direct Mixte est constitué d'une dalle de béton épaisse (26 cm) coulée sur toute la surface de rez-de-chaussée sur hourdis en béton armé Fricker, fortement isolée sur sa face inférieure côté cave par 23 cm de polystyrène et fibralith, comportant un double réseau de tubes de chauffage (figure 2): • le réseau solaire directement relié aux capteurs solaires: de forte densité (pas de 20 cm entre tubes), il est noyé à environ 3 cm du fond de la dalle de manière à charger thermiquement tout le volume de la dalle et à imposer un gradient de température vers le haut. Cette position basse assure au P.S.D. ses fonctions de stockage et de déphasage indispensables à une bonne productivité solaire et au confort thermique. Un thermostat électronique différentiel commande le circulateur du réseau en tout-ou-rien; • le réseau d'appoint relié à la chaudière (le gaz naturel a été choisi pour son faible coût, sa souplesse de régulation et son entretien réduit) par le biais d'une vanne motorisée trois voies assurant le bouclage du réseau et sa liaison à une bouteille de mélange chauffée à 65°C par la chaudière (qui alimente par ailleurs les petits radiateurs d'étage). Ce réseau est noyé en surface de dalle, à environ 7 cm sous le carrelage de manière à répondre rapidement aux variations des besoins de chauffe par une régulation classique de plancher chauffant par vanne mélangeuse à sondes extérieure, d'ambiance et de départ de circuit, tout en assurant une diffusion de chaleur suffisante pour homogénéiser la température superficielle de la dalle. Ce réseau est 1,5 fois moins dense que le réseau solaire (30cm entre tubes). Le principe physique autour duquel est conçu le P.S.D. mixte repose sur l'interaction thermique unidirectionnelle des deux réseaux: l'apport solaire en fond de dalle crée une densité de flux de chaleur ascendante dont la période caractéristique est d'une journée, qui assure l'asservissement thermique de l'appoint dans le réseau de surface par le biais de deux phénomènes, à savoir le temps de transit caractéristique des variations thermiques entre le réseau solaire et le réseau d'appoint ∆t SA = 3,9 h (calculé selon un modèle monodimensionnel de diffusion en régime établi du flux solaire injecté par journées ensoleillées successives dans une dalle isolée sur une face, avec coefficients d'échange constants) suffisamment faible pour permettre une influence rapide après une période sans soleil, et la température moyenne du P.S.D. qui dépend des apports solaires antérieurs. Le rôle du réseau d'appoint se limite alors approximativement aux 10 cm superficiels de la dalle car les variations de sa température, de périodes plus courtes que la journée, sont plus fortement amorties et se propagent plus rapidement. C'est à ce niveau qu'intervient la conception bioclimatique de l'habitation: la régulation de l'appoint dans le réseau de surface est classiquement déterminée selon la loi de chauffe (cf. § 3.3) par la température de son départ (élevée si la dalle a été chauffée antérieurement par le circuit solaire), la température extérieure et surtout la température intérieure de l'habitation. La très faible inertie thermique des parois associée aux grandes ouvertures Sud et Est permet une élévation suffisamment rapide de la température ambiante pour que la régulation du circuit d'appoint réagisse très rapidement aux apports solaires passifs grâce à sa fonction de correction d'ambiance qui abaisse la température de départ du réseau d'appoint de la quantité C(T CI -T I ), réalisant ainsi une véritable accélération de l'effacement de l'appoint devant le solaire. Cette action est renforcée par l'absorption de chaleur par la surface du P.S.D. directement éclairée par le soleil à travers les vitrages. L'effet prévu est de refermer rapidement la vanne de bouclage du circuit d'appoint pour éviter le maintien du chauffage de la partie supérieure de la dalle par ce circuit alors que le réseau solaire doit charger celle-ci. Comme l'enveloppe de l'habitation est très isolée, peu inerte et fortement passive, il est vérifié qu'il ne résulte pas de baisse de température ambiante de cet effacement de l'appoint en surface de dalle, les dix centimètres superficiels restituant la chaleur stockée suffisamment lentement à l'air ambiant. Le choix de l'épaisseur totale de la dalle est fait en fonction du temps de stockage prévu (deux à trois jours en intersaison), du niveau moyen de température de dalle souhaité pour permettre l'autonomie journalière en hiver par période d'ensoleillement continu (température ambiante 19°C compte tenu des apports passifs), du déphasage voulu entre l'éclairement maximal et la restitution de chaleur en surface. Une trop grande épaisseur (supérieure à 30 cm) conduit à une température moyenne trop basse, à un ∆t SA et à un temps de transit ∆t SO du flux de chaleur solaire jusqu'à la surface trop grands (supérieurs à 5 h et 7,5 h respectivement). Inversement, une trop faible épaisseur (inférieure à 20 cm) entraîne un risque de réchauffement du circuit solaire par le circuit d'appoint et de surchauffe de la dalle en intersaison, un inconfort dû aux amplitudes thermiques trop fortes en surface de dalle, et conduit à une diminution du stockage solaire, ayant pour conséquence une demande d'appoint plus grande pour assurer les besoins. L'épaisseur de dalle retenue de 26 cm (avec carrelage), la distance de 16 cm environ entre les deux réseaux, et de 7 cm entre le réseau d'appoint et la surface de dalle constituent une bonne solution de compromis compatible avec le caractère bioclimatique de l'enveloppe (∆t SO = 6h, ∆t SA = 3,9 h, temps de déstockage de 3 jours en octobre), une dalle de compression de 17 cm étant coulée sur la structure en hourdis isolants avec armature. Ces chiffres peuvent évidemment varier de ± 1 cm lors de la mise en oeuvre du P.S.D.. La distance de 7 cm entre circuit d'appoint et surface peut être légèrement diminuée jusqu'à 5 cm, mais avec des risques d'inconfort (le réseau étant lâche, la température au droit des tubes est alors plus élevée ainsi que ses variations spatiales en surface) et de retard de l'action du circuit solaire sur le circuit gaz de près d'une demi-heure. L'objectif premier du P.S.D. mixte est donc de rendre compatible le chauffage solaire et la structure bioclimatique d'un bâtiment. Cette technique offre en outre l'avantage de la simplicité dans la mise en oeuvre et dans la gestion simultanée de l'appoint et du chauffage solaire. En effet, toutes les régulations électroniques sont classiques et fiables cf. § 3.3). D'autre part, l'indépendance hydraulique totale des deux réseaux évite tout risque de fuite thermique de vannes de mélange, préjudiciable au rendement solaire, et permet une maintenance séparée des deux chauffages. En outre, la chaudière peut également assurer le chauffage complémentaire de l'étage par petits radiateurs à robinets thermostatiques qui répondent très rapidement aux apports solaires passifs. La fonction production d'E.C.S. est assurée simultanément par un circuit solaire, parallèlement au circuit P.S.D., avec circulateur et thermostat différentiel indépendant, et par la même chaudière d'appoint à travers un double échangeur à l'intérieur d'un ballon fortement calorifugé de 500 dm 3 . Le circuit solaire chauffe tout le stock par l'échangeur du bas à 100% en été et le préchauffe tout le reste du temps (au moins en intersaison). L'appoint ne chauffe la moitié supérieure du stock que si sa température descend au-dessous de 45°C, ce qui provoque le basculement d'une vanne de zone permettant à la chaudière de chauffer en priorité l'eau chaude sanitaire; cette opération est rendue possible par l'inertie suffisante de la dalle et l'excellente isolation des murs sans que l'on ressente l'absence de chauffage durant cette période, même sans apport solaire. La configuration de l'ensemble de l'installation schématisée en figure 3 appelle quelques remarques supplémentaires: • le circuit solaire du P.S.D. mixte est automatiquement coupé dès que la température de fond de dalle près du tube retour T SRD dépasse une valeur de consigne T CD fixée par aquastat réglable (la plage de 21°C≤ T CD ≤ 23°C convient). Ceci évite toute surchauffe de dalle solaire en intersaison et permet de transférer alors intégralement l'énergie solaire captée au ballon d'E.C.S., ce qui augmente le rendement global de l'installation [9]; un second aquastat en série avec le précédent n'autorise le redémarrage du circuit solaire P.S.D. que si la température du fluide solaire en sortie des capteurs est inférieure à une température maximale de protection T CP de l'ordre de 45 °C pour éviter de l'injecter trop chaud dans le circuit refroidi de la dalle (conformité à la réglementation , D.T.U. 65. 8 [14]); • lorsque l'énergie solaire absorbée par l'installation risque de dépasser les besoins d'E.C.S. en été, une soupape de sécurité permet un soutirage automatique d'E.C.S., récupéré ou évacué à l'égout selon les besoins, dès que la température de l'eau en haut de ballon d'E.C.S. dépasse une température de consigne T CB = 95°C. De la sorte, le fonctionnement et la sécurité de l'installation sont garantis même en l'absence des propriétaires; • la mise en parallèle des circuits solaires P.S.D. et E.C.S. avec circulateurs, thermostats différentiels et vannes d'isolement indépendants offre une grande simplicité de réglage et de maintenance; • l'investissement global dans les circuits d'appoint est réduit (chaudière de petite puissance à ventouse sans préparation d'appoint séparé). Dimensionnement de l'installation et bilan énergétique prévisionnel L'utilisation de la méthode de calcul de l'E.S.I.M. et des données de la station de Mulhouse de la Météorologie Nationale a conduit à une première approche classique du dimensionnement par bilans mensuels moyens, largement utilisée dans les bureaux d'étude, mais dont la simplicité et les hypothèses de base amènent à sous-estimer les pertes Métrologie Le suivi énergétique de l'habitation a été réalisé à partir des données suivantes: • comptage quotidien de l'énergie solaire distribuée dans l'installation, de la durée de fonctionnement de l'installation solaire, de la consommation de gaz par la chaudière seule, de l'énergie d'appoint gaz distribuée en sortie de chaudière et dans le réseau de surface P.S.D., de l'eau chaude sanitaire consommée; • acquisition permanente par centrale informatique autonome sur batterie de l'éclairement solaire global hémisphérique par pyranomètre dans le plan des capteurs; de la température extérieure à 1,5m sous abri; de la température intérieure au centre de l'habitation; des températures départ-retour des réseaux solaire et appoint dans le P.S.D.; des températures départ-retour du circuit solaire E.C.S.; et du débit volumique total du fluide caloporteur des capteurs solaires; • relevés de la Météorologie Nationale des stations les plus proches (Mulhouse et Colmar). Le concept d'énergie économisée repose sur la substitution de l'énergie solaire à l'énergie d'appoint: c'est l'énergie primaire qu'aurait dû consommer la chaudière en l'absence de système solaire pour fournir la même énergie. Le rendement de production de la chaudière est pris en compte dans ses deux fonctions chauffage et E.C.S.; pour les chaudières de type mural à ventouse, il est généralement pris égal à 75%, mais les mesures effectuées sur site donnent des valeurs inférieures: 68,2% en chauffage seul; 51,3% en production d'E.C.S. seule; 62,5% en mode chauffage + E.C.S. (ces chiffres sont mesurés à ± 7% près). Les rendements de distribution et de stockage sont sensiblement identiques pour les circuits solaires et d'appoint, tant en chauffage qu'en E.C.S.. On peut donc estimer ici l'énergie économisée par la relation EE= (ES D /0,682) + (ES ECS /0,513). BILANS ÉNERGÉTIQUES RÉELS DE L'INSTALLATION SOLAIRE Le concept de taux de couverture solaire corrigé est de ce fait beaucoup plus proche de la réalité énergétique puisqu'il englobe à la fois tous ces rendements et tous les types de consommation habituels dans une maison, y compris ceux liés à la vaisselle, au sèchage et au lavage de linge, au renouvellement d'air. Il tient compte d'autre part des exigences modernes de confort, en particulier la quasi uniformité de température entre étage et R.d.C.. Il est facilement mesurable sur site, contrairement au taux de couverture théorique classique, rapport entre l'énergie solaire utile et les besoins totaux hors rendements, dont il est assez proche. On remarque une assez bonne corrélation entre la durée de l'insolation mesurée à la station la plus proche et la durée de fonctionnement de l'installation pour les mois de chauffe de novembre à mars, l'écart se creusant pour les autres mois ou la production d'E.C.S. devient importante. L'économie d'énergie globale par rapport à une habitation classique est en réalité plus élevée si l'on tient compte des apports solaires passifs gratuits qui représentent ici 69% de l'énergie solaire directe produite par les capteurs en hiver et intersaison: les apports passifs, évalués par la méthode C.S.T.B. [15], sont de l'ordre de 3500 kWh.an -1 pour une année moyenne; ils ont représenté entre 14% et 17% des besoins de l'habitation de 1992 à 1994, l'énergie économisée par l'installation solaire active couvrant alors 36% à 42% de ces besoins, ce qui donne pour l'ensemble des apports solaires {actifs + passifs} un taux de couverture solaire total de 48% à 59%. De fait, une habitation de mêmes surface et volume habitables, d'isolation réglementaire standard (G = 0,9 W.m -3 .K -1 ) consommerait en conditions moyennes environ 24000 kWh par an, hors rendements et E.C.S. (méthode C.S.T.B.), soit plus de 2,5 fois l'énergie consommée ici (plus de 4,4 fois en tenant compte des rendements de chaudière). Bilans énergétiques annuels et mensuels ANALYSE DU FONCTIONNEMENT DU P.S.D. MIXTE Le bilan énergétique réel très satisfaisant du système solaire à P.S.D. mixte établi précédemment peut être expliqué et analysé par une étude plus fine des relevés et des enregistrements automatiques quotidiens effectués sur l'installation, sur des séquences caractéristiques. Les prévisions de comportement de l'installation reposent sur l'effet d'asservissement de l'appoint par les deux informations physiques que sont la température globale de la dalle −qui contient elle-même l'information thermique sur la séquence solaire couvrant les trois journées précédentes− et la température intérieure de l'habitation, représentative de l'ensoleillement du moment grâce à la conception bioclimatique de l'habitation (grands apports solaires passifs, faible inertie des parois internes) . C'est l'ensemble de ces paramètres de couplage qui assure la bonne performance du système; on peut ainsi représenter le fonctionnement du système par le schéma de principe de la figure 9. Chauffage solaire + chauffage d'appoint en période hivernale très froide La séquence du 18 au 22 février 1992 fait suite à plusieurs jours couverts très froids (figures 10,11,12,13). Au début de la première belle journée de la séquence, le 19 février, pour maintenir une température ambiante minimale de 19°C après une température extérieure nocturne entre -5°C et -12 °C, le circuit d'appoint en surface de dalle se referme totalement 50 minutes après le démarrage du chauffage solaire, et ne se rouvre que légèrement le lendemain, pour se refermer entièrement moins de 15 minutes après l'enclenchement du circuit solaire, grâce à l'effet de stockage solaire dans la dalle. Le lendemain, il ne se rouvre que très peu pendant environ 2,6 heures, et pas du tout le surlendemain, l'apport solaire étant suffisant malgré une température extérieure toujours négative. Le temps de transit ∆t SA enregistré est de l'ordre de 4,1 h ± 0,2 h (l'inertie thermique des tubes fortement isolés en chaufferie explique l'apparente durée de fonctionnement du P.S.D. plus longue que la durée d'ensoleillement; ce phénomène n'existe pas pour le réseau d'appoint dont le circulateur est constamment en fonction). L'étude des rendements solaires journaliers et de la productivité solaire horaire (tableau III) montre que l'influence du chauffage d'appoint est négligeable sur ces paramètres et non corrélable, contrairement à la température extérieure qui joue un rôle dans le temps et l'énergie nécessaires à la mise en température des capteurs. Ainsi les deux journées les plus froides du 19 et du 20 février, autour de -5°C en moyenne jour-nuit montrent un même rendement de 45% et une productivité solaire horaire identique à 306 W.m -2 , alors que l'appoint a fourni près de trois fois moins d'énergie à la surface de la dalle. Les deux jours suivants voient le rendement s'élever à 49,4% du fait de l'élévation de température, alors que l'appoint gaz a été à peu près identique du 20 au 21. Enfin, la journée du 24 montre un rendement et une PSH nettement supérieurs de 54,2% et 315 W.m -2 respectivement pour une quantité d'énergie d'appoint fournie à la dalle similaire à celle du 22 car la température extérieure moyenne est passée à 1,9°C. Le cas des journées peu ensoleillées du 18 et du 23 février montre que la productivité solaire horaire est restée élevée (et même meilleure le 18 alors que l'appoint était important) et le rendement identique mais plus faible, ce dernier étant sensible à la valeur de l'irradiation solaire. Les énergies enregistrées sont données à 1 kWh près. Chauffage solaire sans aucun appoint en période hivernale très froide Une séquence quasi identique s'est déroulée du 23 au 27 février 1993 avec des températures extérieures similaires entre 0°C et -12°C (figures 14, 15, 16) mais le chauffage d'appoint a été coupé depuis le 22 février et remis en fonction le 2 mars. On constate que l'énergie solaire suffit à maintenir la température intérieure entre 17 à 18°C la nuit et 20 à 21°C le jour, et il est intéressant de comparer les paramètres de l'installation solaire durant cette période à celles de la séquence précédente avec appoint. Les résultats sont regroupés dans le tableau IV. On constate que la productivité solaire horaire varie dans une fourchette identique (compte tenu des incertitudes de mesure d'énergie à 1 kWh près) à celle de la séquence de février 1992 ; elle est plus sensible aux passages nuageux et au rapport éclairement diffus/éclairement direct, alors que le rendement solaire est plus sensible à la température extérieure. Chauffage solaire seul en intersaison, avec effet de stockage L'inertie du P.S.D. est particulièrement importante en intersaison: combinée aux apports passifs de l'habitation, elle permet de se passer totalement de chauffage d'appoint lors de périodes comportant deux à trois jours sans soleil. On peut à cet égard examiner les enregistrements effectués du 5 au 10 novembre 1992, séquence caractérisée par une alternance de belles journées et de jours sans soleil par une température de 7,5°C en moyenne (figures 17, 18, 19). Là encore, l'énergie solaire suffit à maintenir la température ambiante autour de 20°C. Les performances de l'installation sont résumées dans le tableau V. On remarquera la valeur plus grande du rendement et de la productivité solaire horaire en intersaison du fait de la basse température du PSD et de la température extérieure encore clémente. Chauffage et E.C.S. solaires seuls sans appoint en intersaison Le fonctionnement en intersaison où l'autonomie totale ou quasi totale en chauffage et E.C.S. est atteinte peut être étudié lors de la séquence du 7 au 12 avril 1992 (figures 20, 21, 22, 23) lorsque la température de consigne de surchauffe de dalle T CD est dépassée, le circuit solaire du P.S.D. s'arrêtant alors pour laisser le circuit solaire E.C.S. absorber seul l'énergie solaire. Les résultats sont rassemblés dans le tableau VI. On observe la baisse de rendement entraînée par l'arrêt du chauffage solaire, qui passe d'environ 56% lorsque les deux circuits solaires fonctionnent en parallèle, à 24% lorsque seul le circuit solaire E.C.S. est en fonction. La productivité solaire horaire est maximale en cette période (chauffage solaire + stock E.C.S. froid), et peut être élevée même avec un mauvais rendement global par journée faiblement ensoleillée comme celle du 13 avril. Les mesures manuelles de température de surface de dalle ont montré qu'en aucun cas, elle n'a dépassé 25°C, que ce soit dans cette période charnière de forts apports passifs ou dans la période hivernale. Les pointes de 24 à 25°C relevées les 11 et 12 avril sont dues aux apports passifs incontrôlés en l'absence des propriétaires. We obtain a very good energy balance which can be described by the following results: • the annual corrected solar covering ratio τ AC , which represents the ratio of the energy saved EE A to the total energy need (EE A +EA A ), ranges from 40 to 55%; it depends only on meteorological conditions (fig. 8); • total energetic autonomy is obtained during 179 to 213 days a year (49% to 58.3% of a year); heating period is reduced to a very short time (92 to 118 days a year − 25.2 % to 32.3% of a year), compared to at least eight months, as usual in this region ( fig. 6 and 7); • the annual solar productivity PS A ranges between 267 and 293 kWh.m -2 ( fig. 4); the solar efficiency η of the installation is independent of the fact that complementary energy is supplied or not at heating floor surface, but depends on external temperature and solar energy production mode (heating-floor / E.C.S.) (tables III-VI); • the per-hour solar productivity PSH is a very representative factor of the solar system performance; it remains almost constant over characteristic periods in the year ranging between 180 and 300 W.m -2 ( fig. 5) and really independent of complementary energy supply; • the examination of automatic records leads to a good understanding of the real functioning of the Mixed Direct Solar Floor Heating when coupled with bioclimatic architecture ( fig. 10-23). Conclusion This new solar heating technique seems to be very efficient and can be applied at least to all types of well-oriented and well-insulated habitations. It allows the benefit of floor-heating comfort. Its simplicity and low cost implementation can lead to a rapid expansion in the field of domestic habitation and thus, to considerable energy saving. Fig. 1 . 1-Vue de l'habitation bioclimatique à PSD mixte près de Mulhouse (France) Fig.1. -View of bioclimatic house with mixed direct solar floor near Mulhouse (France) 3. CONCEPTION DU SYSTÈME SOLAIRE À P.S.D. MIXTE 3.1. Enveloppe thermique de l'habitation La conception bioclimatique de l'habitation repose sur les caractéristiques suivantes: • orientation sur les points cardinaux avec vitrages principaux au sud, dont une grande verrière intégrée, occultable extérieurement; • toiture entièrement au nord jusqu'au sol, en tuiles épaisses de terre cuite, avec 30 cm de laine de verre, sans grenier; • une seule ouverture vitrée à l'ouest (pluies et vents dominants); • protection des entrées à l'est et vitrages plus nombreux; • cave (garage, cellier et chaufferie-buanderie-sèchoir) sous toute la maison; • conception interne: communication ouverte entre rez-de-chaussée (R.d.C.) et étage par escalier ouvert sous la verrière et mezzanines, dans le but d'uniformiser la température, de transmettre le rayonnement du P.S.D. à l'étage et l'éclairement de la verrière au R.d.C.; • choix des matériaux: l'ossature et les murs extérieurs sont en bois, avec double isolation laine de roche, laine de verre; le plancher d'étage est en bois avec isolation phonique. Le choix du bois permet une forte isolation thermique et une très faible inertie thermique. Cette faible inertie est également recherchée pour les parois intérieures en placostil doublé avec laine de verre. Les huisseries extérieures sont en PVC, et tous les vitrages sont doubles à faible pouvoir émissif. L'ensemble de ces choix conduit aux caractéristiques générales suivantes: • surface habitable S H = 132 m² (S HP = 187 m²) • volume habitable V H = 330 m 3 • coefficients thermiques calculés G = 0,642 W.m -3 .K -1 , B = 0,375 W.m -3 .K -1 • ventilation mécanique contrôlée simple flux Q v = 100 m 3 .h -1 . Fig. 2 . 2-Schéma simplifié du PSD mixte (coupe transversale) Fig. 3 . 3-Schéma hydraulique de l'installation complète de chauffage et d'ECS Fig.3. -Hydraulic flowsheet of mixed heating and SHW plant inférieures de dalle et les couplages avec l'E.C.S. et l'enveloppe du bâtiment. Elle fournit cependant une valeur indicative assez représentative de la productivité annuelle globale et du taux de couverture solaires dont nous ferons plus loin une étude critique. La disposition du P.S.D. mixte sur plancher Fricker n'étant pas prise en compte dans la méthode E.S.I.M., divers dimensionnements ont été effectués pour déterminer une fourchette de taux de couverture mensuels et annuels amenant à une autonomie quasi totale d'avril à octobre inclus, en faisant varier les épaisseurs de dalle et d'isolant, la surface des capteurs et leur inclinaison i. La configuration retenue est présentée ci-dessous: • installation solaire: -capteurs solaires: S C = 17 m 2 ; i = 58°; B opt = 0,68; K C = 4,2 W.m -2 .K -1 ; R = 0,191; type sélectif intégré en façade; -circuit P.S.D.: S D = 89 m 2 ; réseau de tube polyéthylène réticulé de pas 20 cm sur toute la surface (pas de zonage Nord/Sud); thermostat électronique différentiel tout-ou-rien avec sondes à résistance métallique; -circuit E.C.S. V ECS = 0,5 m 3 ; thermostat électronique différentiel, identique au précédent; • chauffage d'appoint: -chaudière murale à ventouse au gaz naturel de 10 kW (modèle 18 kW installé) sans préparateur d'E.C.S.; -réseau de surface P.S.D. en polyéthylène réticulé de pas 30 cm sur toute la surface; puissance 7000 W; régulation de plancher chauffant pente 0,4; calage jour 19°C (nuit 18°C); correction d'ambiance C = 9; -radiateurs d'étage à robinets thermostatiques: puissance totale 3000 W; radiateur buanderie: 2000 W; • particularités: -aucun autre appoint n'est utilisé (poêle, cheminée, radiateur électrique, etc.); -la fonction sèchage de linge est assurée en hiver par le radiateur de buanderie sous étendoir; -la fonction lavage de vaisselle est assurée uniquement par l'eau chaude du ballon d'E.C.S. (pas d'électricité) -le lave-linge utilise l'E.C.S. du ballon par mélangeur (économie quasi totale d'électricité). • site météorologique: les données moyennes de 1951-1970 de la station de Mulhouse sont résumées dans le tableau I. Elles seront comparées aux données de 1992 à 1994 et aux mesures effectuées sur la maison. • bilan énergétique global: -chauffage : 9980 kWh dont 4160 à 4300 kWh solaires -E.C.S. : 2070 kWh dont 710 à 720 kWh solaires -total : 12050 kWh dont 4880 à 5020 kWh solaires. -taux de couverture solaire annuel : 40,5 à 41,7% ; productivité solaire annuelle : 287 à 295 kWh.m -2 .an -1 . TABLEAU I -TABLE I Données météorologiques (1951-1970) -Meteorological data (1951-1970) Mois JAN FEV MAR AVR MAI JUN JUL AOU SEP OCT NOV DEC ANNÉE DJU(K.jour) Les données recueillies permettent d'établir des bilans énergétiques quotidiens, mensuels et annuels précis du système solaire que constitue l'habitation bioclimatique, son installation de chauffage et d'E.C.S. mixte solaire-appoint gaz en conditions réelles d'utilisation.Nous étudions dans un premier temps les principaux paramètres permettant un diagnostic clair du comportement global du système, pour lequel nous proposons des critères d'analyse comparative caractérisant le fonctionnement de l'installation et son potentiel énergétique, et nous exposons les bilans réels utiles que l'on peut en déduire, pour les comparer aux bilans prévisionnels classiques présentés précédemment (cf. schéma méthodologique).Dans un second temps, une analyse plus fine du fonctionnement du P.S.D. mixte et de son couplage avec l'enveloppe et la production d'E.C.S. dans diverses séquences climatiques journalières caractéristiques permet d'éclairer ces bilans globaux (voir paragraphe 5). 4. 1 . 1Paramètres d'analyse énergétique de l'installation solaire L'analyse du fonctionnement réel de l'installation solaire nous a amenés à utiliser plusieurs paramètres d'analyse énergétique et d'en proposer de nouveaux, afin de cerner au mieux les propriétés fonctionnelles des systèmes solaires basse température et permettre leur comparaison dans des contextes de couplages variés avec l'appoint et l'enveloppe. À partir des grandeurs globales mensuelles et annuelles mesurées par relevé quotidien (ES M , ES A , EA D , EA M , EA A , D M ) et de EA 0 , nous déterminons les paramètres d'analyse énergétique globaux suivants : • énergies économisées mensuelles et annuelles EE M et EE A : c'est l'énergie primaire d'appoint que la chaudière aurait dû consommer en plus en l'absence de l'installation solaire ; elle est obtenue par addition des énergies solaires distribuées au P.S.D. et au ballon d'E.C.S. divisées par les rendements de distribution et de production du système d'appoint dans les fonctions chauffage et production d'E.C.S. ; • taux de couverture solaire mensuels et annuels bruts courants τ MB et τ AB : ils sont définis par les relations suivantes τ MB = 100 ES M /(ES M + EA M ) et τ AB = 100 ES A /(ES A +EA A ) et ne représentent que les rapports de l'énergie solaire effectivement captée et distribuée à l'énergie totale primaire utilisée dans l'habitation ; • taux de couverture solaire mensuels et annuels corrigés τ MC et τ AC : ils donnent la part réellement couverte par l'énergie solaire active compte tenu de tous les rendements de production et donc plus proches de la réalité et de l'économie solaire ; nous les définirons par τ MC = 100 EE M /(EE M +EA M ) et τ AC = 100 EE A /(EE A +EA A ) ; • productivités solaires journalières, mensuelles et annuelles PS J , PS M et PS A : classiquement utilisées en ingénierie solaire, elles mesurent l'énergie produite par mètre carré de capteur solaire installé pour une journée, un mois et une année; ces grandeurs dépendent du type de production (chauffage / E.C.S.), de la conception de l'installation (échangeurs, P.S.D., ratios R et R B , i) et surtout des données locales du site (latitude, altitude, climat) ; • productivité solaire horaire PSH : nous utiliserons ce concept pour mieux définir la productivité réelle de l'installation quand elle fonctionne. Nous la définirons par PSH J = ES J /(S C .D J ) lorsque nous la calculerons sur une journée et par PSH M = ES M /(S C .D M ) sur un mois de fonctionnement. Nous verrons par la suite que c'est un paramètre représentatif de l'efficacité de fonctionnement du système, permettant la mesure de l'influence de l'appoint et de l'impact du choix de l'inclinaison i à la conception. Il représente la puissance effective moyenne de l'installation en production sur une journée, un mois (voire un an) ; • rendements solaires journaliers et mensuels η J et η M : également classiques, ils mesurent le rapport de l'énergie réellement produite par l'installation solaire à l'énergie solaire globale incidente sur les capteurs. Ce sont des paramètres représentatifs du type de fonctionnement de l'installation (chauffage et/ou E.C.S.) car très sensibles aux niveaux de températures de stock et de température extérieure. La figure 4 4représente les productivités solaires mensuelles PS M produites en 1992, 1993 et 1994. La productivité solaire est plus élevée en mars -avril (entre 25 et 40 kWh.m -2 .mois -1 ) comme on le prévoit car les besoins de chauffage restent importants alors que le rayonnement solaire est quasi perpendiculaire au plan des capteurs; elle reste comprise entre 15 et 25 kWh.m -2 .mois -1 de mai à octobre et descend à des valeurs comprises entre 5 et 17 kWh.m -2 .mois -1 de novembre à janvier. La production solaire est donc assez importante en hiver pour couvrir une part significative des besoins.On peut comparer utilement les productivités solaires annuelles qui en résultent aux heures d'insolation mesurées à la station météorologique de Mulhouse et aux heures de fonctionnement effectif de l'installation solaire (tableau II). Les trois années ayant été nettement moins ensoleillées qu'en moyenne, il convient de corriger les productivités solaires mensuelles et annuelles en tenant compte de la durée d'insolation, mais également des températures extérieures afin de connaître leurs valeurs moyennes: la productivité solaire annuelle pour une année moyenne est comprise entre 267 et 293 kWh.m -2 .an -1 . Cette fourchette correspond aux résultats de calcul les plus significatifs obtenus par différentes régressions linéaires multiples effectuées sur les durées d'insolation mensuelles de Mulhouse et/ou Colmar, les températures extérieures moyennes mensuelles de Mulhouse et éventuellement les températures moyennes de stock mensuelles observées sur les trois années; les régressions effectuées par saisons-types de fonctionnement (P.S.D. continu ; P.S.D intermittent ; E.C.S. seule) donnent également d'assez bonnes corrélations, et les régressions utilisant simultanément les deux stations sont généralement les meilleures. Ces valeurs sont très proches des valeurs obtenues dans le dimensionnement par méthode E.S.I.M.; cependant l'étude mensuelle montre que la méthode E.S.I.M. sous-estime la productivité solaire d'hiver (novembre à février inclus) du fait de la réduction du chauffage d'appoint permis par les apports passifs, ainsi que celle d'été (juin à août) par sous-estimation des consommations d'E.C.S.; elle surestime celle d'intersaisons car elle ne prend pas en compte de la production d'ECS dans cette période où les besoins en chauffage pour une maison bioclimatique sont plus réduits. Les couplages avec l'enveloppe du bâtiment et la régulation du chauffage d'appoint par les apports solaires passifs et actifs ne sont donc pas correctement évalués par la méthode E.S.I.M. qui est une méthode globale mensuelle. Fig. 4 . 4-Productivité solaire de l'installation Fig.4. -Solar productivity of La figure 5 5permet de mieux comprendre l'importance du choix de l'inclinaison i des capteurs dans la gestion de la ressource solaire. La productivité solaire horaire moyenne mensuelle PSH M présente une homogénéité remarquable autour de 230 W.m -2 , avec une plage une peu plus élevée autour de 280 W.m -2 en intersaison et un peu plus faible vers 200W.m -2 en période estivale. Cette régularité est liée au choix d'optimisation du fonctionnement par l'inclinaison à 58° pour une latitude de 47,6° permettant une très bonne productivité en hiver, une autonomie maximale de chauffage en intersaison et une autonomie totale de production d'E.C.S. en été sans beaucoup d'excédent. Les figures 6 et 7 confirment ce choix de manière évidente, l'autonomie énergétique totale (chauffage + E.C.S.) étant assurée de mai à septembre compris. Les relevés quotidiens révèlent une autonomie totale pendant 179 à 213 jours par an (soit 49% à 58,3% de l'année) et une saison de chauffe effective réduite entre 92 et 118 jours par an (soit 25,2% à 32,3% de l'année), dans une région où la saison de chauffe débute en septembre et termine en mai, voire en juin. La figure 8 montre que le taux de couverture solaire annuel corrigé τ AC fluctue selon les conditions tre 38,2% et 50,3% en 1993 et 1994; ces taux sont excellents, malgré des températures extérieures sur site systématiquement plus faibles qu'à la station de Mulhouse en hiver et intersaison, un ensoleillement inférieur à la moyenne et une consommation d'énergie prenant en compte tous les besoins domestiques hormis la cuisine. Ils seraient de l'ordre de 45,6% à 47,9% pour une année standard. Seul un recul sur une dizaine d'année permettra de donner une estimation statistique fiable du taux de couverture solaire corrigé annuel. Fig. 5 . 5-Productivité solaire horaire de l'installation Fig. 5. -Per-hour solar productivity of solar plant Fig. 6 . 6-Énergie d'appoint totale mensuelle Fig. 6. -Monthly total supply MAR AVR MAI JUN JUL AOU SEP OCT NOV DEC EAM (kWh/mois) Fig. 7 . 7-Taux de couverture solaire mensuelle corrigé de l'installation Fig. 7. -Monthly corrected solar covering ration of solar plant Fig. 8 . 8-Taux de couverture solaire annuel corrigé Fig. 8. -Annual corrected solar covering ration of Fig. 9 . 9-Couplage solaire-appoint-enveloppe dans le PSD mixteFig. 9. -Coupling between solar energy-supply energy-habitation in mixed direct solar Fig. 10 . 10-Éclairement solaire global E dans le plan des capteurs (du 18 au 22 février 1992) Fig. 10. -Global solar flow E received on solar collectors plan (1992, 18 to 22 February) Fig. 12. -Températures du circuit d'appoint en surface de dalle (du 18 au 22 février 1992) Fig. 12. -Supply energy heating tube network temperatures (1992, 18 to 22 February) Fig. 11. -Températures du circuit solaire dans la dalle (du 18 au 22 février 1992) Fig. 11. -Solar heating tube network temperatures in floor (1992, 18 to 22 February) Fig. 13. -Températures intérieure et extérieure (du 18 au 22 février 1992) Fig. 13. -Inner and outer temperatures (1992, 18 to 22 February) Fig. 14 . 14Ainsi les journées du 26 février 1993 et du 21 février 1992, toutes deux autour de -3°C, donnent un rendement d'installation solaire d'environ 48,5% ; en revanche, la productivité solaire horaire est de 363 W.m -2 pour la première journée et de 309 W.m -2 pour la seconde du fait d'un éclairement solaire ES 0 nettement plus élevé dans le premier cas. De même les journées du 24 février 1993 et du 19 février 1992, de même température moyenne, donnent le même rendement de 45,5% et une productivité PSH moins grande dans le premier cas du fait d'un moindre éclairement solaire. Si l'on compare enfin deux journées quasi identiques comme celles du 23 février 1993 et du 20 février 1992 (T E ≈ -4,2°C ; ES 0 ≈ 62 kWh), on observe une productivité solaire horaire un peu moins bonne pour la première mais un rendement un peu -Éclairement solaire global E dans le plan des capteurs (du 23 au 27 février 1993) Fig. 14. -Global solar flow E received on solar collectors plan (1993, 23 to 27 February) Fig. 15. -Température du circuit solaire dans la dalle (du 23 au 27 février 1993) Fig. 15. -Solar heating tube network temperature in floor (1993, 23 to 27 February) FigFig . 17. -Éclairement solaire global E dans le plan des capteurs (du 5 au 10 novembre 1992) Fig. 17. -Global solar flow E received on solar collectors plan (1992, 5 to 10 November) . 18. -Température du circuit solaire dans la dalle (du 5 au 10 novembre 1992) Fig. 18. -Solar heating tube network temperature in floor (1992, 5 to 10 November) TABLEAU V - Fig. 19 . 19-Températures intérieure et extérieure (du 5 au 10 novembre 1992) Fig. 19. -Inner and outer temperatures (1992, 5 to 10 November) TABLEAU VI - Fig. 20 .Fig. 21 . 2021-Éclairement solaire global E dans le plan des capteurs (du 6 au 13 avril 1992) Fig. 20. -Global solar flow E received on solar collectors plan (1992, 6 to 13 April) -Température du circuit solaire dans la dalle (du 6 au 13 avril 1992) Fig. 21. -Solar heating tube network temperature in floor (1992, 6 to 13 April) Fig. 22. -Température du circuit solaire d'ECS (du 6 au 13 avril 1992) Fig. 22. -SHW solar tube temperature (1992, 6 to 13 April) Fig. 23. -Températures intérieure et extérieure (du 6 au 13 avril 1992) Fig. 23. -Inner and outer temperatures (1992, 6 to 13 April) consumption were measured every day and several physical factors (such as solar energy flow, external and internal temperatures, solar floor and E.C.S. heating temperatures and pipe flow, complementary heating temperatures) were computer recorded, so that we are able to draw up a precise energy balance of this solar system over the last three years. A short description of the solar and complementary energy systems can be given as follows (fig. 3): • heating floor surface and thickness: 89 m² and 26 cm respectively; habitable surface and volume of the house: 132 m² and 330 m 3 ; sanitary hot water storage volume: 0.5 m 3 • surface of solar collectors: 17 m²; optical coefficient: 0.68; thermal conductance: 4.2 W.m -2 .K -1 ; incline: 58°; heating-floor solar tubes spacing: 20 cm • complementary supply energy: natural gas; heating power of boiler: 18 kW; tubes spacing of the floor heating: 30 cm Nous avons étudié dès 1990 la faisabilité technico-économique d'un système de chauffage global, basé sur le concept de couplage thermique asservi du réseau de chauffage d'appoint par le réseau de chauffage solaire dans un seul et même plancher chauffant, avec découplage hydraulique total. Cette étude, basée sur la méthode E.S.I.M. [1][2] et complétée par une modélisation monodimensionnelle, a été menée dans le cadre global d'un habitat moderne performant de type bioclimatique de manière à intégrer les deux paramètres thermiques fondamentaux caractérisant la réponse de l'enveloppe, à savoir les apports solaires passifs gratuits (que l'on cherche à maximiser) et l'inertie des parois extérieures (que l'on rend minimale). Elle s'est inscrite dans une action incitative régionale basée sur un programme de dix-huit installations à P.S.D. réunissant l'Agence de l'Environnement et de la Maîtrise de l'Énergie (A.D.E.M.E.), la Région Alsace et l'association Alter Alsace Énergies [12]. Elle s'est fixée comme objectifs l'évaluation expérimentale précise sur une longue période (plusieurs années) de la réponse thermique d'une dalle solaire à double nappe en habitat bioclimatique à toutes les séquences climatiques possibles, et la détermination comparée des performances énergétiques mensuelles et annuelles de ce système obtenue à partir des mesures expérimentales d'une part, et par la méthode E.S.I.M. d'autre part. Les objectifs ultérieurs sont la mise au point d'une simulation numérique globale du système et l'affinement des critères de dimensionnement et des bilans prévisionnels mensuels et annuels. installation à P.S.D. mixte et de l'habitat, et de vérifier le comportement thermique du P.S.D. mixte dans les situations les plus diverses en fonctionnement réel, la maison étant habitée depuis août 1991[13].Ce travail mené en collaboration avec l'Atelier Architecture et Soleil de Strasbourg (67) et la société Éco-Chauffage de Ribeauvillé (68) a conduit à la construction en 1991 d'une maison prototype bioclimatique à ossature bois dans la plaine d'Alsace, à la latitude de MULHOUSE, sur un site parfaitement dégagé près du Rhin, exposé à tous les vents et aux brouillards fréquents dans cette région (figure 1). On peut le considérer comme un cas représentatif de conditions climatiques défavorables. Une instrumentation résidente complétée par des relevés continus par acquisition informatique nous permet de dresser un bilan énergétique expérimental précis de l' TABLE II Productivités IIsolaires mensuelles de l'installation Monthly solar productivity of the plant 1992 1993 1994 Mois HS M D M T E PS M HS M D M T E PS M HS M D M T E PS M JAN 78,5 61,5 0,7 14,7 73,9 65,6 4,6 16,8 68,8 63,5 3,7 15,8 FEV 111,8 86,7 3,5 25,7 91,8 65,4 1,3 18,9 49,0 71,5 3,6 17,1 MAR 103,3 104,2 7,2 30,6 177,6 134,0 6,1 40,8 104,0 102,6 10,3 24,7 AVR 157,8 115,4 9,9 34,4 177,0 107,0 12,3 26,0 114,6 110,2 9,1 23,4 MAI 214,6 123,9 16,1 24,7 179,3 76,8 15,7 16,9 152,5 70,7 14,6 15,3 JUN 150,9 83,9 18,0 16,9 200,3 72,6 18,0 15,6 212,6 114,3 18,6 20,6 JUL 214,3 124,2 20,8 20,8 209,5 70,7 18,8 15,4 265,0 124,3 22,9 22,3 AOU 222,0 135,1 21,9 23,3 255,6 115,5 19,1 25,6 237,0 108,0 20,8 21,4 SEP 168,0 96,4 16,1 15,2 120,2 82,3 14,6 19,2 95,6 79,0 15,3 13,2 OCT 47,6 38,8 8,6 11,7 42,9 40,0 9,2 11,5 130,5 105,0 10,3 24,5 NOV 51,7 51,6 7,6 16,3 31,1 28,8 1,9 6,7 67,0 65,0 9,1 14,0 DEC 58,6 50,1 2,6 11,9 27,4 21,3 5,5 5,4 46,5 48,6 4,8 11,3 TABLE III IIISéquence chauffage solaire + appoint en période hivernale très froideSolar + complementary heating during very cold winter periodFEVRIER 1992 18 19 20 21 22 23 24 MOIS ES 0 (kWh) 33,7 77,5 64,8 59,7 61,9 37,4 70,6 1028,5 ES (kWh) 13,0 34,8 29,4 29,4 30,7 12,3 38,2 437,5 D (h) 2,44 6,66 5,66 5,60 6,05 2,48 7,14 86,7 T E (°C) -3,1 -5,8 -4,2 -2,9 -0,53 4,1 1,9 2,5 T I (°C) 19,3 20,2 20,2 20,1 20,8 19,9 20,2 20,0 EA D (kWh) 44 40 15 12 8 0 7 651 η (%) 38,5 44,9 45,3 49,2 49,6 32,8 54,2 42,5 PSH (W.m -2 ) 313 307 305 309 299 291 315 296,8 ECLAIREMENT SOLAIRE GLOBAL 0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 18 19 20 21 22 23 FEVRIER 1992 kW/m² CIRCUIT SOLAIRE PSD 15 20 25 30 35 40 18 19 20 21 22 23 FEVRIER 1992°C RETOUR DEPART CIRCUIT APPOINT PSD 15 20 25 30 35 40 18 19 20 21 22 23 FEVRIER 1992°C RETOUR DEPART TEMPERATURES INTERIEURE ET EXTERIEURE -15 -10 -5 0 5 10 15 20 25 18 19 20 21 22 23 FEVRIER 1992°C TEMPERATURE INTERIEURE TEMPERATURE EXTERIEURE Fig. 16. -Inner and outer temperatures(1993, 23 to 27 February) supérieur. L'explication est à rechercher dans la répartition journalière du flux solaire lors de ces deux journées, l'irradiation solaire instantanée ayant atteint 760W.m -2 le 23 février 1993 et seulement 610 W.m -2 le 20 février 1992 (voirfigures 10 et 14). On peut conclure de l'examen de ces deux séquences que la productivité solaire du P.S.D. mixte est apparemment insensible au chauffage d'appoint en surface de dalle; il en est de même du rendement solaire, à température extérieure égale.TABLEAU IV -TABLE IVSéquence chauffage solaire sans appoint en période hivernale très froide Solar heating without complementary heating during very cold winter periodTEMPERATURE INTERIEURE TEMPERATURE EXTERIEURE Fig. 16. -Températures intérieure et extérieure (du 23 au 27 février 1993) Février 1993 23 24 25 26 27 Mois ES 0 (kWh) 60,0 63,3 80,1 77,3 57,1 846.8 ES (kWh) 30,9 29,1 40,9 37,3 29,1 321,2 D (h) 6,20 6,40 7,20 6,05 6,29 65,4 T E (°C) -4,2 -5,8 -5,7 -3,2 1,2 0,37 T I (°C) 19,0 18,1 19,4 19,9 20,1 19,0 EA D (kWh) 0 0 0 0 0 _ η (%) 51,6 46,0 51,1 48,2 51,0 37,9 PSH (W.m -2 ) 293 268 335 363 272 288,9 TABLE V VSéquence chauffage solaire seul en intersaison, avec effet de stockage Solar heating alone during interseason, with storage effectNovembre 1992 5 6 7 8 9 10 Mois ES 0 (kWh) 67,6 10,9 70,92 6,4 50,63 6,7 580,0 ES (kWh) 38,2 0 37,31 0 24,57 0 276,6 D (h) 6,75 0,05 6,24 0,00 5,06 0,03 51,59 T E (°C) 7,0 6,7 8,1 7,8 8,1 7,6 7,3 T I (°C) 20,7 20,6 21,0 21,0 20,9 20,9 19,6 EA D (kWh) 0 0 0 0 0 0 _ η (%) 56,6 0,0 52,6 0,0 48,5 0,0 47,7 PSH (W.m -2 ) 333 0 352 0 286 0 315,3 TABLE VI VISéquence chauffage et E.C.S. solaires autonomes en intersaison Autonomic solar heating and sanitary warm water production during interseasonAvril 1992 6 7 8 9 10 11 12 13 MOIS ES 0 (kWh) 66,97 81,43 77,13 76,90 74,12 81,72 82,27 81,77 1565,1 ES (kWh) 37,54 47,09 43,68 39,58 28,66 30,03 19,79 9,55 584,9 D (h) 7,43 8,42 7,76 7,51 4,41 5,04 5,25 1,80 115,4 T E (°C) 4,0 5,4 8,0 8,9 9,3 8,7 11,0 10,8 9,8 T I (°C) 19,5 21,3 22,9 23,3 23,4 23,5 23,6 22,8 21,6 EA (kWh) 57,8 8,3 6,2 0 0 0 0 0 398,7 η (%) 56,1 57,8 56,6 51,5 38,7 36,7 24,1 11,67 37,4 PSH (W.m -2 ) 297 329 331 310 382 350 222 312 297,7 ECLAIREMENT SOLAIRE GLOBAL 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 6 7 8 9 10 11 12 13 14 AVRIL 1992 kW/m² ABRIDGED ENGLISH VERSIONDOUBLE DIRECT SOLAR FLOOR HEATING IN BIOCLIMATIC HABITATION Design and real thermal balanceThe Direct Solar Floor Heating Technique (Plancher Solaire Direct in french) was invented several years ago by the E.S.I.M. (the Engineering High School of Marseille)[1]and is largely employed in heating systems using solar energy in France, essentially in domestic habitations[4][5][6][7][8]. This technique is simpler and more economic than the previous ones[2]since there are no heat exchangers between solar collectors and heat storage equipment, and because the heating floor acts as a heat emitter as well as a storage device by means of its concrete thickness (approximately 30 cm). However an important disadvantage still remains since another heating installation providing complementary energy and full heating power during sunless periods, is necessary.Several authors[9][10][11]made an attempt in reducing the investment cost by reducing the thickness of the floor by a factor of two and by using the same heating tubes for both solar and complementary energies. They used a computer controlled technology in order to regulate the complete system and tested it in an experimental plant. By numerical simulation they decuced that it is a convenient way to produce solar energy even if this reduction leads to a light decrease of solar productivity. They pointed out that this Integrated Supply-Direct Solar Floor Heating System is efficient only if the thermal inertia of the house walls is sufficiently high and if the passive solar heating capability of the house is small enough.We studied another way of improving the Solar Direct Floor Heating technique consisting in a thick concrete floor that is very well insulated on the underside, with two heating tubes networks embedded in it (fig. 2): the solar one at the bottom of the floor in order to warm its whole mass; the second one − which is heated by complementary energy (gas)− a few centimeters under the upper surface of the floor. This disposition allows a thermal regulation of the latter by the former. We showed that this new technique is very efficient when coupled with a bioclimatic architecture − that is to say in a well oriented and insulated building with low thermal inertia walls and great passive solar energy flow through the windows (fig. 9).We have implemented this Mixed Direct Solar Floor Heating Technique (P.S.D Mixte in french) in a bioclimatic house that was built in Alsace (France) which is a cold and not very sunny region (fig. 1, table I).The gas consumption, solar production, working time of solar pumps, sanitary hot water (E.C.S. in french) Une température moyenne inférieure à 23°C est maintenue sans problèmes. Le choix de l'épaisseur de la dalle a également des conséquences pour la tenue thermique de l'habitation en été; pendant cette saison, les enregistrements effectués (non donnés ici) montrent que l'habitation reste fraîche (entre 20 et 25°C) en plein été grâce à l'inertie thermique de la dalle sur cave et à la très bonne isolation de l'enveloppe, à condition que les surfaces vitrées soient correctement occultées au sud. Les relevés des années suivantes montrent une meilleure gestion de ces apports gratuits en avril-mai, et les risques de surchauffe en intersaison sont effectivement nuls, l'aquastat de coupure jouant parfaitement son rôle. le rafraîchissement naturel de nuit par les ouvrants suffisant à abaisser la température et la dalle restant suffisamment froide même en journéeLes relevés des années suivantes montrent une meilleure gestion de ces apports gratuits en avril-mai, et les risques de surchauffe en intersaison sont effectivement nuls, l'aquastat de coupure jouant parfaitement son rôle. Une température moyenne inférieure à 23°C est maintenue sans problèmes. Le choix de l'épaisseur de la dalle a également des conséquences pour la tenue thermique de l'habitation en été; pendant cette saison, les enregistrements effectués (non donnés ici) montrent que l'habitation reste fraîche (entre 20 et 25°C) en plein été grâce à l'inertie thermique de la dalle sur cave et à la très bonne isolation de l'enveloppe, à condition que les surfaces vitrées soient correctement occultées au sud, le rafraîchissement naturel de nuit par les ouvrants suffisant à abaisser la température et la dalle restant suffisamment froide même en journée. La réalisation et le suivi d'une installation de chauffage solaire par Plancher Solaire Direct Mixte épais dans une habitation bioclimatique en région à climat continental de faible ensoleillement a permis de démontrer la bonne complémentarité du chauffage solaire actif. et du chauffage solaire passifLa réalisation et le suivi d'une installation de chauffage solaire par Plancher Solaire Direct Mixte épais dans une habitation bioclimatique en région à climat continental de faible ensoleillement a permis de démontrer la bonne complémentarité du chauffage solaire actif et du chauffage solaire passif. Les mécanismes physiques de cette régulation expérimentalement observée font intervenir de nombreux paramètres physiques, climatiques et architecturaux, caractérisés par des couplages élevés dont il reste à simuler l'étendue. Cependant, l'étude énergétique du système a montré le très bon comportement de l'installation solaire dont le rendement et la productivité ne semblent pas affectés par l'utilisation conjointe de la dalle et du stock d'eau chaude sanitaire par les circuits d'appoint, au vu des mesures et des essais effectuées sur les trois années de 1992 à 1994. Les logiciels couramment utilisés en ingénierie solaire, s'ils permettent une évaluation globale des performances des P.S.D. en moyenne annuelle, ne rendent cependant pas compte du comportement dynamique d'une telle installation et des couplages solaire-appoint en interaction avec l'enveloppe. Des modèles bidimensionnels de dalle à double nappe, associés à des modèles numériques zonaux plus fins de type modulaire pour l'enveloppe doivent encore être développés pour simuler les interactions entre circuits solaires et circuits d'appoint, tant en chauffage qu'en production d'E.C.S.; vérifier que l'apport d'énergie d'appoint en surface de dalle solaire n'obère pas les performances solaires; affiner les choix de dimensionnement présentés plus haut; et approcher les productivités journalières, mensuelles et annuelles avec une précision satisfaisante. L'emploi des critères de productivité solaire horaire, d'énergie économisée et de taux de couverture solaire corrigé offre l'avantage de pouvoir comparer les installations solaires en fonctionnement réel, leurs performances intrinsèques et les performances globales des systèmes couplés {installation solaire / appoint / enveloppe du bâtiment}, ainsi que leur évolution sur plusieurs années. La technique de chauffage solaire basse température par P.S.D. mixte avec appoint indépendant en surface, de grandes fiabilité et simplicité, doit donc permettre une meilleure diffusion de l'utilisation de l'énergie solaire à tous les types d'habitation individuelle, y compris les bâtiments à hautes performances énergétiques caractérisées par une très grande isolation thermique. P S D Le, mixte assure la double fonction de stockage solaire par inertie thermique, complémentaire de la faible inertie de l'enveloppe de l'habitat, et de régulation de l'énergie d'appoint en surface de P.S.D. par asservissement thermique grâce à la fois aux apports passifs, à la faible inertie thermique de l'enveloppe de l'habitation et à l'épaisseur de la dalle. une faible inertie intérieure des parois et de grandes ouvertures vitrées du côté ensoleillé. Elle doit permettre également une meilleure prise en compte du chauffage solaire actif dans les règles d'urbanisme, les réglementations à venir et l'architecture de demain. A cet égard, elle complète utilement la technique du P.S.D. mince à appoint intégré particulièrement adaptée aux bâtiments collectifs et aux habitations individuelles classiquesLe P.S.D. mixte assure la double fonction de stockage solaire par inertie thermique, complémentaire de la faible inertie de l'enveloppe de l'habitat, et de régulation de l'énergie d'appoint en surface de P.S.D. par asservissement thermique grâce à la fois aux apports passifs, à la faible inertie thermique de l'enveloppe de l'habitation et à l'épaisseur de la dalle. Les mécanismes physiques de cette régulation expérimentalement observée font intervenir de nombreux paramètres physiques, climatiques et architecturaux, caractérisés par des couplages élevés dont il reste à simuler l'étendue. Cependant, l'étude énergétique du système a montré le très bon comportement de l'installation solaire dont le rendement et la productivité ne semblent pas affectés par l'utilisation conjointe de la dalle et du stock d'eau chaude sanitaire par les circuits d'appoint, au vu des mesures et des essais effectuées sur les trois années de 1992 à 1994. Les logiciels couramment utilisés en ingénierie solaire, s'ils permettent une évaluation globale des performances des P.S.D. en moyenne annuelle, ne rendent cependant pas compte du comportement dynamique d'une telle installation et des couplages solaire-appoint en interaction avec l'enveloppe. Des modèles bidimensionnels de dalle à double nappe, associés à des modèles numériques zonaux plus fins de type modulaire pour l'enveloppe doivent encore être développés pour simuler les interactions entre circuits solaires et circuits d'appoint, tant en chauffage qu'en production d'E.C.S.; vérifier que l'apport d'énergie d'appoint en surface de dalle solaire n'obère pas les performances solaires; affiner les choix de dimensionnement présentés plus haut; et approcher les productivités journalières, mensuelles et annuelles avec une précision satisfaisante. L'emploi des critères de productivité solaire horaire, d'énergie économisée et de taux de couverture solaire corrigé offre l'avantage de pouvoir comparer les installations solaires en fonctionnement réel, leurs performances intrinsèques et les performances globales des systèmes couplés {installation solaire / appoint / enveloppe du bâtiment}, ainsi que leur évolution sur plusieurs années. La technique de chauffage solaire basse température par P.S.D. mixte avec appoint indépendant en surface, de grandes fiabilité et simplicité, doit donc permettre une meilleure diffusion de l'utilisation de l'énergie solaire à tous les types d'habitation individuelle, y compris les bâtiments à hautes performances énergétiques caractérisées par une très grande isolation thermique, une faible inertie intérieure des parois et de grandes ouvertures vitrées du côté ensoleillé. Elle doit permettre également une meilleure prise en compte du chauffage solaire actif dans les règles d'urbanisme, les réglementations à venir et l'architecture de demain. A cet égard, elle complète utilement la technique du P.S.D. mince à appoint intégré particulièrement adaptée aux bâtiments collectifs et aux habitations individuelles classiques. MANDINEAU (D.) et CHATEAUMINOIS (M.). -Calcul des planchers solaires directs. Edisud. Aix-en-Provence140 p.ROUX (D.), MANDINEAU (D.) et CHATEAUMINOIS (M.). -Calcul des planchers solaires directs. Edisud, Aix-en-Provence, 140 p., 1983. MANDINEAU (D.) et ROUX (D.). -Calcul d'installations solaires à eau. Edisud / Pyc-édition. CHATEAUMINOIS. 143 p.CHATEAUMINOIS (M.), MANDINEAU (D.) et ROUX (D.). -Calcul d'installations solaires à eau. Edisud / Pyc-édition, Aix-en_Provence, 143 p., 1979 Contribution à l'étude d'un plancher solaire direct. Y Larbi, ToulouseUniversité P. SabatierThèseLARBI (Y.). -Contribution à l'étude d'un plancher solaire direct. Thèse, Université P. Sabatier, Toulouse, 1987. Une expérimentation de douze maisons solaires passives et actives à Bassens en. Giol (l, Gironde. C.E.T.E. BordeauxGIOL (L.). -Une expérimentation de douze maisons solaires passives et actives à Bassens en Gironde. C.E.T.E. Bordeaux, 1983. -Maison individuelle à chauffage par plancher solaire direct (villa Morant). Colloque A.F.M.E. , Performances expérimentales des installations solaires à capteurs plans. MarseilleMANDINEAU (D.).MANDINEAU (D.). -Maison individuelle à chauffage par plancher solaire direct (villa Morant). Colloque A.F.M.E. , Performances expérimentales des installations solaires à capteurs plans, Marseille, 1985. -La performance énergétique grâce au soleil dans l'habitat social. Giol (l, C.E.T.E. BordeauxGIOL (L.). -La performance énergétique grâce au soleil dans l'habitat social. C.E.T.E. Bordeaux, 1988. Suivi d'une installation de chauffage par Plancher Solaire Direct. A J E N A , A.J.E.N.A., Lons-le-SaulnierA.J.E.N.A. -Suivi d'une installation de chauffage par Plancher Solaire Direct. A.J.E.N.A., Lons-le- Saulnier, 1991. ). -Maisons individuelles équipées d'un plancher solaire direct: résultats d'une campagne de suivi. Colloque « Solaire thermique. LETZ (T.) et PAPILLON (P.4-5 juillet 1990, A.F.M.E.LETZ (T.) et PAPILLON (P.). -Maisons individuelles équipées d'un plancher solaire direct: résultats d'une campagne de suivi. Colloque « Solaire thermique », 4-5 juillet 1990, A.F.M.E., Sophia-Antipolis. Analyse de la solution « dalles minces » et gestion optimisée du chauffage d'appoint. Papillon (p, Université de SavoieThèse de DoctoratContribution à l'amélioration de la technique du plancher solaire directPAPILLON (P.). -Contribution à l'amélioration de la technique du plancher solaire direct. Analyse de la solution « dalles minces » et gestion optimisée du chauffage d'appoint. Thèse de Doctorat, Université de Savoie, 1992. Des armoires pour gérer la chaleur du soleil. Papillon (p, Systèmes Solaires. 102PAPILLON (P.). -Des armoires pour gérer la chaleur du soleil. Systèmes Solaires, n° 102, pp 11-12, Paris, 1994. PAPILLON (P.) et SOUYRI (B.). -Modélisation thermique des planchers chauffants. Application au système plancher solaire direct. Achard (g, Revue Générale de Thermique, n°378ACHARD (G.), PAPILLON (P.) et SOUYRI (B.). -Modélisation thermique des planchers chauffants. Application au système plancher solaire direct. Revue Générale de Thermique, n°378, pp 312-323, 1993 ( T ) De Larochelambert, Pierre (m , MUNSCH (C.) et WALGENWITZ (F.). -Les énergies de l'Alsace. Paris214 p.DE LAROCHELAMBERT (T.), PIERRE (M.), MUNSCH (C.) et WALGENWITZ (F.). -Les énergies de l'Alsace. Projet Alter. Syros, Paris, 214 p., 1983. Conception et bilan thermique d'un P.S.D. Mixte en habitat bioclimatique. De Larochelambert (t, Séminaire ADEME/CLER/ASDER, Les nouveautés dans les techniques de l'énergie solaire active. ChambéryEtude des couplages solaire-appoint-enveloppeDE LAROCHELAMBERT (T.). -Conception et bilan thermique d'un P.S.D. Mixte en habitat bioclimatique. Etude des couplages solaire-appoint-enveloppe. Séminaire ADEME/CLER/ASDER, Les nouveautés dans les techniques de l'énergie solaire active, Chambéry, 1995. Conventions unifiées pour le calcul du coefficient B. Cahiers du. C S T , C.S.T.B. n°2000C.S.T.B. -Conventions unifiées pour le calcul du coefficient B. Cahiers du C.S.T.B. n°2000, 1985
sample_17877
0.9407
arxiv
Con los juegos también se educa: un enfoque educa- tivo de los juegos de la Oca y el Parchís Luis Alvarez León Departamento de Informática y Sistemas CTIM Universidad de Las Palmas de Gran Canaria Campus de Tafira, 35017 Las Pal-mas de G.CSpain Pablo García Tahoces pablo.tahoces@usc.es CITIUS. Centro de Investigación en Tecnoloxías da Información Universidad de Santiago de Compóstela Campus Vida15782Santiago de CompostelaSpain Emilio Macías Departamento de Informática y Sistemas CTIM Universidad de Las Palmas de Gran Canaria Campus de Tafira, 35017 Las Pal-mas de G.CSpain Con-De Con los juegos también se educa: un enfoque educa- tivo de los juegos de la Oca y el Parchís 1405 RESUMENDe acuerdo con el informe Horizon Internacional del 2011 (tradicional diagnóstico y pronóstico del uso de tecnologías y tendencias educativas de futuro), el aprendizaje basado en juegos será una de las áreas de mayor crecimiento en los próximos años en el contexto de la aplicación de las nuevas tecnologías a la enseñanza. En el año 2003, James Gee desarrolló algunos trabajos sobre el impacto del juego en el desarrollo cognitivo. Desde entonces, la investigación y el interés en el potencial de los juegos en el aprendizaje se ha disparado, dando lugar a una nueva área de trabajo denominada "serious games", donde el juego es un vehículo para mejorar y facilitar el aprendizaje. Los niños nacidos a partir de 1990, han crecido en un mundo donde han tenido acceso a todo tipo de dispositivos electrónicos (ordenadores, tabletas, móviles, etc..). Explotar este conocimiento "digital" de los niños para incorporarlo a los procesos de aprendizaje es algo de gran interés educativo.En este trabajo se muestra como, a partir de juegos de sobremesa tradicionales como el juego de la Oca o el Parchís, es posible diseñar juegos educativos que tengan como objetivo reforzar el aprendizaje de los niños. La idea que vamos a desarrollar para hacer esto es muy simple : los niños juegan con las mismas reglas que en el juego tradicional, añadiendo además la funcionalidad de que después de tirar el dado se formula una pregunta, de tal manera que la ficha solo se mueve en el caso en que la pregunta se responda correctamente. Las ventajas que tiene este enfoque son las siguientes :1. La gran mayoría de los niños ya está familiarizado con las reglas de estos juegos. Con los juegos también se educa: un enfoque educativo de los juegos de la Oca y el Parchís Luis Alvarez León 1 , Pablo García Tahoces 2 y Emilio Macías Conde 1 1 CTIM. Departamento de Informática y Sistemas, Universidad de Las Palmas de Gran Canaria, Campus de Tafira, 35017 Las Palmas de G.C., Spain 2 CITIUS. Centro de Investigación en Tecnoloxías da Información,Universidad de Santiago de Compóstela, Campus Vida, 15782 Santiago de Compostela, Spain Email : lalvarez@ctim.es, pablo.tahoces@usc.es RESUMEN De acuerdo con el informe Horizon Internacional del 2011 (tradicional diagnóstico y pronóstico del uso de tecnologías y tendencias educativas de futuro), el aprendizaje basado en juegos será una de las áreas de mayor crecimiento en los próximos años en el contexto de la aplicación de las nuevas tecnologías a la enseñanza. En el año 2003, James Gee desarrolló algunos trabajos sobre el impacto del juego en el desarrollo cognitivo. Desde entonces, la investigación y el interés en el potencial de los juegos en el aprendizaje se ha disparado, dando lugar a una nueva área de trabajo denominada "serious games", donde el juego es un vehículo para mejorar y facilitar el aprendizaje. Los niños nacidos a partir de 1990, han crecido en un mundo donde han tenido acceso a todo tipo de dispositivos electrónicos (ordenadores, tabletas, móviles, etc..). Explotar este conocimiento "digital" de los niños para incorporarlo a los procesos de aprendizaje es algo de gran interés educativo. En este trabajo se muestra como, a partir de juegos de sobremesa tradicionales como el juego de la Oca o el Parchís, es posible diseñar juegos educativos que tengan como objetivo reforzar el aprendizaje de los niños. La idea que vamos a desarrollar para hacer esto es muy simple : los niños juegan con las mismas reglas que en el juego tradicional, añadiendo además la funcionalidad de que después de tirar el dado se formula una pregunta, de tal manera que la ficha solo se mueve en el caso en que la pregunta se responda correctamente. Las ventajas que tiene este enfoque son las siguientes : 1. La gran mayoría de los niños ya está familiarizado con las reglas de estos juegos. 2. Se fomentan los juegos/trabajos en equipo. 3. Modificando la base de datos de preguntas, el aprendizaje se puede adaptar a muchas situaciones distintas. En la página web : http://www.ctim.es/SeriousGames/ puede encontrarse una implementación práctica de estas ideas. INTRODUCCIÓN La mayoría de nosotros está familiarizado con los juegos de mesa clásicos como el Parchís o el Juego de la Oca. Así que, ¿por qué no utilizar estos juegos como base para crear juegos educativos, añadiendo algunas funcionalidades extra? El objetivo principal de este trabajo es explorar cómo agregar funcionalidades educativas a los juegos de mesa clásicos, pero manteniendo el "espíritu" original del juego. Hemos estudiado en detalle algunos juegos de mesa clásicos como el Juego de la Oca, el Parchís y también hemos diseñado uno nuevo: "El Juego del Motor" con una mecánica similar pero inspirado en las carreras de coches (por ser éste un tema atractivo para los niños). Todos estos juegos tienen las siguientes características comunes: 1. En el participan varios jugadores (o eventualmente equipos). 2. Cada equipo tiene uno o varias fichas que se mueven en un tablero lanzando un dado. 3. La forma en que una ficha se mueve en el tablero sigue reglas simples. 4. Cada ficha se inicia en una posición determinada y sigue una ruta única para llegar a una posición final (los jugadores no pueden elegir dónde mover el ficha). 5. El equipo ganador es el que llega primero a la posición final. Teniendo en cuenta estas características es fácil diseñar una aplicación informática para realizar automáticamente el movimiento de la ficha de acuerdo con las reglas de juego y el lanzamiento del dado. Pero queremos ir más allá en este análisis. Queremos añadir funcionalidades educativas a los juegos. Esto lo haremos de una forma muy simple: al comienzo del juego, los jugadores eligen uno o varios temas y durante el juego, para poder mover sus fichas, los jugadores tienen que responder a preguntas sobre estos. Es decir, antes de mover la ficha, el jugador (o su equipo) tiene que responder correctamente a una pregunta elegida al azar por el sistema en la base de datos de preguntas. Los temas y las preguntas de cada tema pueden ser fácilmente modificados para adaptar los juegos a contextos de aprendizaje muy diferentes. También se ha incluido la opción de añadir imágenes a las preguntas, lo que aumenta mucho su potencial educativo. La organización de este trabajo es la siguiente: En la sección 2 se estudia el diseño del juego educativo. En la sección 3 se muestran algunos resultados obtenidos y, finalmente, en la sección 4 se presentan las principales conclusiones del trabajo. DISEÑO DE LOS JUEGOS EDU-CATIVOS Las motivaciones/requisitos que teníamos en mente cuando estudiamos la forma en que se podría transformar los juegos de mesa clásicos en juegos educativos fueron las siguientes: 1. Aprovechar que muchas personas están familiarizadas con los juegos de mesa clásicos tomándolos como base para hacer juegos educativos atractivos y fáciles de usar. 2. Mantener el espíritu de juego de mesa original en términos de las reglas básicas del juego. 3. El nuevo juego debe ser fácilmente adaptable a diferentes contextos de aprendizaje para poder ser utilizado en diferentes niveles educativos y con diferentes objetivos. 4. El nuevo juego debe funcionar en el mayor número posible de sistemas informáticos (Ordenadores Windows -Mac -Linux, tabletas, etc..) 5. El nuevo juego debe poder ejecutarse tanto a través de un servidor en internet como localmente en un ordenador sin conexión a internet. 6. El nuevo juego debe añadir la opción de acelerar el tiempo de juego y hacer partidas más rápidas cuando se dispone de poco tiempo. 7. El software informático debe poder ser modificado por terceros para adaptarlo a sus necesidades. Selección de juegos Hemos elegido 2 juegos de mesa clásicos: Juego de la Oca y Parchís, y hemos diseñado uno nuevo "El Juego del Motor", con una mecánica similar, pero ambientado en carreras de coches. A continuación se hace un breve resumen de las características de los juegos: 1. Juego de la Oca: cada jugador/equipo tiene una sola ficha. Las fichas se mueven por el tablero tirando un dado. Para ganar los jugadores tienen que llegar a la casilla de la meta con un número exacto al tirar los dados (es decir si se saca un número mayor al necesario la ficha retrocede). Parchís: Técnicamente es más complejo que la Oca. Los jugadores/equipos juegan con cuatro fichas y ellos pueden decidir, en cualquier parte, la ficha que se mueve. Hay un número de posibles interacciones entre las fichas en el tablero que se tienen que tomar en cuenta. Los equipos tienen que llegar a la meta con un número exacto al tirar los dados. 3. El Juego del Motor: es muy sencillo, con una mecánica similar a la Oca. Cada jugador/equipo tiene una sola ficha, las reglas son simples. Para ganar no es necesario alcanzar la meta con un número exacto al tirar los dados (basta con que el número obtenido sea superior al necesario para llegar a la meta). Adición de funcionalidades para añadir una función educativa a los juegos. La forma en que se decidió incluir funcionalidades educativas a los juegos fue agregar preguntas a las que los jugadores/equipos tienen que responder antes de mover sus fichas. Al comienzo del juego, se eligen los temas de las preguntas que se van a realizar. A cada equipo se le asignan uno o varios temas que además pueden ser diferentes para los equipos. Dado que los temas pueden ser variados para los diferentes equipos, es posible jugar con grupos de niños de diferentes edades, adaptando la dificultad de los temas a su edad. Por ejemplo, en la base de datos de preguntas en inglés utilizada en esta primera versión de la aplicación, se han incluido los siguientes temas: Durante el juego, para poder mover sus fichas, los jugadores tienen que responder a preguntas sobre estos temas elegidos previamente al comenzar la partida. Gestión de la base de datos de preguntas. Un tema importante que se ha abordado en este trabajo es estudiar un procedimiento para que un usuario, sin conocimientos de programación, (por ejemplo un profesor) pueda cambiar/añadir preguntas y temas a la base de datos. La estructura interna de la base de datos se gestiona utilizando javaScript (White, 2009). Para evitar que el usuario tenga que manejar directamente código de javaScript, se ha ideado un procedimiento donde a partir de una hoja de cálculo con los datos de las preguntas, se generan automáticamente los ficheros javaScript con las preguntas. De esta manera los pasos para agregar / modificar los temas de las preguntas son los siguientes: 1. Modificar la hoja de cálculo que se suministra como ejemplo para añadir nuestros propios temas y preguntas. 2. Ejecutar un programa que se suministra para convertir la hoja de cálculo en los ficheros javaScript asociados. 3. Reemplazar los archivos javaScript existentes con los nuevos en el directorio adecuado (teniendo en cuenta el idioma de las preguntas). Todos los ficheros necesarios para realizar este proceso y poder personalizar los juegos con los temas que cada una quiera pueden descargarse desde el enlace : http://www.ctim.es/SeriousGames/ Acelerar el tiempo de juego deseado. Muy a menudo, sobre todo si queremos usar la aplicación en el colegio, el tiempo que se puede dedicar al juego es limitado e interesa acelerarlo de alguna manera para poder hacer las partidas más rápidas. Hemos abordado este problema agregando al principio del juego una opción (versión rápida) que al activarla se producen los siguientes cambios en el desarrollo del juego : 1. Los números de los dados se mueven al azar entre 4 y 9 en lugar del habitual 1 y 6. 2. Para llegar a la meta, no se requiere un número exacto al tirar los dados (como sucede normalmente en la Oca y el Parchís) 3. En el caso de parchís, cada equipo juega con dos fichas (en lugar de 4). Otra opción que hemos añadido para acelerar el juego es que en lugar de tener que hacer clic para tirar el dado, se hace de forma automática cada vez que es necesario. Con estas opciones se consigue acelerar considerablemente la duración de las partidas. RESULTADOS El principal objetivo que teníamos en mente cuando diseñamos la aplicación fue tratar de cubrir el máximo número de usuarios potenciales. Esto es, la aplicación debe funcionar en cualquier sistema operativo, en cualquier arquitectura de hardware y con la opción de ser descargado para ser ejecutado sin conexión a Internet. De acuerdo con estos requisitos, decidimos implementar la aplicación utilizando HTML (W3C, 1999), javaScript y jQuery (York, 2011). HTML y javaScript se pueden ejecutar en cualquier navegador web que proporcione un intérprete de javaScript. En la actualidad, la mayoría de los navegadores proporcionan esta funcionalidad. jQuery es una biblioteca de javaScript diseñada para simplificar el desarrollo de varios efectos dinámicos en una página HTML. A continuación se muestran algunas imágenes ilustrativas de la interfaz de usuario que hemos diseñado para ejecutar la aplicación. Ilustración 1: Cuando se inicia la aplicación se muestra un menú para elegir el juego, el idioma, y si se desea descargar la aplicación. Ilustración 3: Se ilustra el Juego del Motor. A la izquierda aparece el dado y la identificación de los equipos. Ilustración 2: Al elegir el juego aparece una ventana para elegir los Ilustración 4: El Juego de la Oca Ilustración 5 : El Juego del Parchís. CONCLUSIONES Hemos diseñado e implementado nuevos juegos educativos añadiendo funcionalidades educativas a los juegos de mesa clásicos. Al principio de los juegos se eligen temas sobre los que se hacen preguntas a los jugadores/equipos a las que tienen que responder correctamente para que sus fichas se muevan. Las preguntas son escogidas al azar de la base de datos de preguntas. Hemos utilizado los juegos clásicos de la Oca y Parchís y diseñado uno nuevo: el Juego del Motor. Lo hemos implementado utilizando HTML, javaScript y jQuery para cubrir un número máximo de usuarios potenciales. La aplicación software se distribuye bajo la licencia Creative Commons Reconocimiento-No comercial-Compartir bajo la misma licencia 3.0 Unported. Los usuarios pueden añadir fácilmente nuevos temas y preguntas a la aplicación. Creemos que este nuevo enfoque para añadir funcionalidades educativas a los clásicos juegos de mesa podría ser muy útil a nivel de la escuela para aprender muchos temas diferentes. Por otra parte, la posibilidad de añadir imágenes a las preguntas amplía el número de posibles temas que se pueden tratar. BIBLIOGRAFÍA The NMC Horizon Report: 2011 K-12 Edition. Editor: New Media Consortium 2011. http://www.nmc.org/pdf/2011-Horizon-Report-K12.pdf Ullman, C., Dykes, L., 2007. Beginning Ajax. John Wiley & Sons W3C, 1999. HTML 4.01 Specification. http://www.w3.org/TR/ W3C, 2011. Cascading Style Sheets Level 2 Revision 1 (CSS 2.1) Specification. http://www.w3.org/TR/CSS2/ W3C, 2009. Document Object Model (DOM) http://www.w3.org/ DOM/ White, A., 2011. JavaScript Programmer's Reference. John Wiley & York, R., 2001. Beginning JavaScript and CSS Development with jQuery. John Wiley & Sonshtml401/ Sons
sample_18209
0.971
arxiv
On the use of Deep Generative Models for "Perfect" Prognosis Climate Downscaling 27 Apr 2023 Jose González-Abad Santander Meteorology Group and Advanced Computing and e-Science Group Institute of Physics of Cantabria (CSIC-UC SantanderSpain Jorge Baño-Medina Santander Meterology Group Institute of Physics of Cantabria (CSIC-UC) Santander Spain Ignacio Heredia Cachá Advanced Computing and e-Science Group Institute of Physics of Cantabria (CSIC-UC) Santander Spain On the use of Deep Generative Models for "Perfect" Prognosis Climate Downscaling 27 Apr 2023 Deep Learning has recently emerged as a "perfect" prognosis downscaling technique to compute high-resolution fields from large-scale coarse atmospheric data. Despite their promising results to reproduce the observed local variability, they are based on the estimation of independent distributions at each location, which leads to deficient spatial structures, especially when downscaling precipitation. This study proposes the use of generative models to improve the spatial consistency of the high-resolution fields, very demanded by some sectoral applications (e.g., hydrology) to tackle climate change. 1 Motivations for generative models in "perfect" prognosis downscaling Global Climate Models (GCMs) are the main tools used nowadays to study the evolution of climate at different time-scales. They numerically solve a set of equations describing the dynamics of the climate system over a three-dimensional grid (latitude-longitude-height). In climate change modeling, these models are utilized to produce possible future pathways of the climate system based on different natural and anthropogenic forcings. However, due to computational limitations these models present a coarse spatial resolution -between 1 • and 3 • ,-which leads to a misrepresentation of important phenomena occurring at finer scales. The generation of high-resolution climate projections is crucial for important socio-economic activities (e.g., the energy industry), and they are routinely used to elaborate mitigation and adaptation politics to climate change at a regional scale. Statistical Downscaling (SD) is used to bridge the scale-gap between the coarse model outputs and the local-scale by learning empirical relationships between a set of large-scale variables (predictors) and the regional variable of interest (predictands) based on large simulated/observational historical data records [1]. In this study we focus on a specific type of SD, named the "Perfect" Prognosis (PP) approach. PP downscaling leans on observational datasets to learn empirical relationships linking the predictors and the predictands. For the former, reanalysis data -a global dataset which combines observations with short-range forecasts through data assimilation,-is typically used, whilst for the latter either high-resolution grids or station-scale records can be employed. Once the relationship is established in these "perfect" conditions, we feed the model/algorithm with the equivalent GCM predictor variables to obtain high-resolution climate projections. A wide variety of Tackling Climate Change with Machine Learning: workshop at NeurIPS 2021. statistical techniques have been deployed to establish these links, such as (generalized) linear models [2], support vector machines [3], random forests [4], classical neural networks [5], and more recently deep learning (DL). In particular, DL has recently emerged as a promising PP technique, showing capabilities to reproduce the observed local climate [6,7,8], whilst showing plausible climate change projections of precipitation and temperature fields over Europe [9]. Nonetheless, currently the regression-based nature of most of the existing PP methods, leads to an underestimation of the extremes when the predictors lack from sufficient informative power -i.e., given a particular predictor configuration there are many possible predictand situations,-since they output the conditional mean [10]. To account for the uncertainty describing the possible extremes is crucial for some activities, and the community has driven its attention to probabilistic regression-based modeling. The probabilistic models used mostly estimate the parameters of selected probability distributions conditioned to the large-scale atmospheric situation. The choice of the distribution depends on the variable of interest to be modeled -for instance, the temperature follows a Gaussian distribution, whilst wind or precipitation fields present a heavy-tailed structure which better fits with Gamma, Poisson or log-normal density functions,-and the regression-based models are trained to optimize the negative log-likelihood of the selected distribution at each site [5,7,11,12,13]. To model the spatial dependencies among sites, ideally we would estimate multivariate distributions representing the whole predictand domain, instead of predicting independent probability functions at each predictand site. Nonetheless, this was in practice computationally intractable, and very few procedures aimed to downscale over low-dimensional predictand spaces have been successfully deployed [14,15,16]. Recently, deep generative models have been developed that seek to approximate high-dimensional distributions through DL topologies. Based on previous merits in other disciplines, such as imagesuper-resolution (see e.g., [17,18]), some studies have searched for an analogy between this task and downscaling, deploying Generative Adversarial Networks (GAN, [19,20]) to obtain stochastic samples of high-resolution precipitation and temperature fields conditioned to their counterpart low-resolution ones. Despite these first studies are far from the PP approach, -since they lean on surface variables in their predictor set, which are not well represented by GCMs (see [1,21] for guidelines/details on PP),-they show the potential of generative models to attain impressive levels of spatial structure in their stochastic downscaled predictions. Following this idea, we state that these topologies may provide a tractable alternative to model multivariate conditional distributions over high-dimensional domains in a PP setting, providing stochastic and spatially consistent downscaled fields very demanded by some sectoral applications for climate impact studies. To prove the potential of this type of DL topologies for PP-based downscaling, we show in the next section a use-case where Conditional Variational Auto-Encoders (CVAE) are deployed to produce stochastic high-resolution precipitation fields over Europe. A downscaling case study over Europe with CVAE We develop a simple use-case 1 which seeks to illustrate the promising capabilities of CVAE topologies to generate spatially consistent stochastic downscaled fields, especially as compared to the recent state-of-the-art PP DL-based topologies, which are based on the estimation of conditional Bernoulli-Gamma distributions at each predictand site (we refer the reader to [7] for more details). To this aim, we deploy the CVAE in the same conditions than [7], which builds on the validation framework proposed in the COST action VALUE [22]. VALUE proposes the use of ERA-Interim [23] reanalysis variables as predictors -trimmed to an horizontal resolution of 2 o ,-and the regular gridded 0.5 o E-OBS dataset [24] as predictand. For the predictor set we use five thermodynamical variables (geopotential height, zonal and meridional wind, temperature, and specific humidity) at four different vertical levels (1000, 850, 700 and 500 hPa), whilst as predictand we use the daily accumulated precipitation over Europe. The models are trained on the period 1979-2002 and tested on 2003-2008. Figure 1 shows the scheme of the CVAE proposed. This models builds on three different neural networks -an embedding network, an encoder and a decoder,-to produce stochastic samples of precipitation by sampling from a latent distribution which represents the complex interactions between predictors and predictands. During training, the embedding network transforms the high-dimensional predictors X to a low-dimensional array z x . This array is then stacked with the high-resolution predictand fields Y to feed the encoder network. The encoder outputs the parameters of a Gaussian distribution (i.e., the mean µ and the standard deviation σ), which encodes the spatial dependencies between both predictor and predictand fields. During both training and inference phases, stochastic realizations z sampled from this latent distribution are stacked with the low-dimensional predictor's embedding z x . This is used to feed the decoder network, which outputs the precipitation values Y at each E-OBS predictand site considered. Therefore, different samples Y conditioned on the same large-scale atmospheric situation X can be generated by sampling different vectors z from the latent distribution (see the three maps obtained for a particular day). We refer the reader to [25] for more details on CVAE. For the sake of comparison, we select CNN1, which was one of the models that ranked first in [7], as an example of univariate model and compare its stochastic downscaled fields with those of CVAE. It can be seen how CNN1 fields present a spotty structure, characteristic of the sampling performed over the independent Bernoulli-Gamma distributions at each E-OBS site. In contrast, CVAE does not suffer from this problem improving the spatial consistency of the downscaled fields, as can be seen in the smoothness of the predictions. 3 Pathway of generative models to tackle climate change Overall, we have showed the ability of CVAEs to produce spatially consistent stochastic fields in PP setups on a use-case over Europe. The generation of these high-resolution fields through generative models may foster the use of this type of downscaling into climate impact studies, since their products are very demanded by different sectors (e.g., agriculture, hydrology) to tackle climate change. In this line there are several challenges to address. For instance further research is needed in the evaluation of these models on aspects such as temporal consistency, and reproducibility of extremes. Also, in order to apply them to climate change projections, a study of its extrapolation capabilities is also required. The CVAE model developed here is a first approach, but further tuning this architecture may translate in improvements in the generated downscaled fields. For example, [26,27] propose the use of normalizing flows to generate more complex latent distributions which could help capturing the complex non-linearities of the distribution of precipitation fields. Finally, the DL ecosystem offers a wide catalog of additional topologies which are of interest for PP downscaling (e.g., Conditional GANs [28]). Figure 1 : 1CVAE model architecture. Red lines represent the path followed by the model in the inference phase, during training both paths (green and red lines) are covered. At the bottom, a comparison between three different downscaled fields sampled from CVAE and CNN1 models, alongside the actual observation for 19/02/2004. The code of the use-case is available at https://github.com/jgonzalezab/CVAE-PP-Downscaling Acknowledgements. The authors acknowledge support from Universidad de Cantabria and Consejería de Universidades, Igualdad, Cultura y Deporte del Gobierno de Cantabria via the "instrumentación y ciencia de datos para sondear la naturaleza del universo" project. J. González-Abad would also like to acknowledge the support of the funding from the Spanish Agencia Estatal de Investigación through the Unidad de Excelencia María de Maeztu with reference MDM-2017-0765. Statistical downscaling and bias correction for climate research. Douglas Maraun, Martin Widmann, Cambridge University PressDouglas Maraun and Martin Widmann. Statistical downscaling and bias correction for climate research. Cambridge University Press, 2018. An intercomparison of a large ensemble of statistical downscaling methods over europe: Results from the value perfect predictor cross-validation experiment. José Manuel Gutiérrez, Douglas Maraun, Martin Widmann, Radan Huth, Elke Hertig, Rasmus Benestad, Ole Rössler, Joanna Wibig, Renate Wilcke, Sven Kotlarski, International journal of climatology. 399José Manuel Gutiérrez, Douglas Maraun, Martin Widmann, Radan Huth, Elke Hertig, Rasmus Benestad, Ole Rössler, Joanna Wibig, Renate Wilcke, Sven Kotlarski, et al. An intercomparison of a large ensemble of statistical downscaling methods over europe: Results from the value perfect predictor cross-validation experiment. International journal of climatology, 39(9):3750- 3785, 2019. Statistical downscaling of daily precipitation using support vector machines and multivariate analysis. Shien-Tsung Chen, Pao-Shan Yu, Yi-Hsuan Tang, Journal of hydrology. 3851-4Shien-Tsung Chen, Pao-Shan Yu, and Yi-Hsuan Tang. Statistical downscaling of daily pre- cipitation using support vector machines and multivariate analysis. Journal of hydrology, 385(1-4):13-22, 2010. Statistical downscaling of temperature with the random forest model. Bo Pang, Jiajia Yue, Gang Zhao, Zongxue Xu, Advances in Meteorology. Bo Pang, Jiajia Yue, Gang Zhao, and Zongxue Xu. Statistical downscaling of temperature with the random forest model. Advances in Meteorology, 2017, 2017. Modelling seasonality and trends in daily rainfall data. M Peter, Williams, Advances in neural information processing systems. Peter M Williams. Modelling seasonality and trends in daily rainfall data. In Advances in neural information processing systems, pages 985-991, 1998. Improving precipitation estimation using convolutional neural network. Kuolin Baoxiang Pan, Amir Hsu, Soroosh Aghakouchak, Sorooshian, Water Resources Research. 553Baoxiang Pan, Kuolin Hsu, Amir AghaKouchak, and Soroosh Sorooshian. Improving precipita- tion estimation using convolutional neural network. Water Resources Research, 55(3):2301- 2321, 2019. Configuration and intercomparison of deep learning neural models for statistical downscaling. Jorge Baño-Medina, Rodrigo Manzanas, José Manuel Gutiérrez, Geoscientific Model Development. 134Jorge Baño-Medina, Rodrigo Manzanas, and José Manuel Gutiérrez. Configuration and inter- comparison of deep learning neural models for statistical downscaling. Geoscientific Model Development, 13(4):2109-2124, 2020. Statistical downscaling of daily temperature and precipitation over china using deep learning neural models: Localization and comparison with other methods. Lei Sun, Yufeng Lan, International Journal of Climatology. 412Lei Sun and Yufeng Lan. Statistical downscaling of daily temperature and precipitation over china using deep learning neural models: Localization and comparison with other methods. International Journal of Climatology, 41(2):1128-1147, 2021. On the suitability of deep convolutional neural networks for continental-wide downscaling of climate change projections. Jorge Baño-Medina, Rodrigo Manzanas, José Manuel Gutiérrez, Climate Dynamics. Jorge Baño-Medina, Rodrigo Manzanas, and José Manuel Gutiérrez. On the suitability of deep convolutional neural networks for continental-wide downscaling of climate change projections. Climate Dynamics, pages 1-11, 2021. Differential credibility assessment for statistical downscaling. S C Pryor, Schoof, Journal of Applied Meteorology and Climatology. 598SC Pryor and JT Schoof. Differential credibility assessment for statistical downscaling. Journal of Applied Meteorology and Climatology, 59(8):1333-1349, 2020. Stochastic downscaling of precipitation with neural network conditional mixture models. Julie Carreau, Mathieu Vrac, Water Resources Research. 4710Julie Carreau and Mathieu Vrac. Stochastic downscaling of precipitation with neural network conditional mixture models. Water Resources Research, 47(10), 2011. Multivariate climate downscaling with latent neural processes. Anna Vaughan, D Nicholas, Michael Lane, Herzog, Anna Vaughan, Nicholas D Lane, and Michael Herzog. Multivariate climate downscaling with latent neural processes. 2021. Convolutional conditional neural processes for local climate downscaling. Anna Vaughan, Will Tebbutt, Scott Hosking, Richard E Turner, Geoscientific Model Development Discussions. Anna Vaughan, Will Tebbutt, J Scott Hosking, and Richard E Turner. Convolutional conditional neural processes for local climate downscaling. Geoscientific Model Development Discussions, pages 1-25, 2021. Probabilistic multisite precipitation downscaling by an expanded bernoulligamma density network. Alex J Cannon, Journal of Hydrometeorology. 96Alex J Cannon. Probabilistic multisite precipitation downscaling by an expanded bernoulli- gamma density network. Journal of Hydrometeorology, 9(6):1284-1300, 2008. Probabilistic gaussian copula regression model for multisite and multivariable downscaling. Mohamed Ali Ben Alaya, Fateh Chebana, Taha, Ouarda, Journal of Climate. 279Mohamed Ali Ben Alaya, Fateh Chebana, and Taha BMJ Ouarda. Probabilistic gaussian copula regression model for multisite and multivariable downscaling. Journal of Climate, 27(9):3331-3347, 2014. Non-gaussian spatiotemporal simulation of multisite daily precipitation: downscaling framework. Ma Ben Alaya, Bmj Taha, Fateh Ouarda, Chebana, Climate dynamics. 501MA Ben Alaya, Taha BMJ Ouarda, and Fateh Chebana. Non-gaussian spatiotemporal simulation of multisite daily precipitation: downscaling framework. Climate dynamics, 50(1):1-15, 2018. Image super-resolution using deep convolutional networks. Chao Dong, Chen Change Loy, Kaiming He, Xiaoou Tang, IEEE transactions on pattern analysis and machine intelligence. 38Chao Dong, Chen Change Loy, Kaiming He, and Xiaoou Tang. Image super-resolution using deep convolutional networks. IEEE transactions on pattern analysis and machine intelligence, 38(2):295-307, 2015. Feedback network for image super-resolution. Zhen Li, Jinglei Yang, Zheng Liu, Xiaomin Yang, Gwanggil Jeon, Wei Wu, Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. the IEEE/CVF Conference on Computer Vision and Pattern RecognitionZhen Li, Jinglei Yang, Zheng Liu, Xiaomin Yang, Gwanggil Jeon, and Wei Wu. Feedback network for image super-resolution. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pages 3867-3876, 2019. Stochastic super-resolution for downscaling time-evolving atmospheric fields with a generative adversarial network. Jussi Leinonen, Daniele Nerini, Alexis Berne, IEEE Transactions on Geoscience and Remote Sensing. Jussi Leinonen, Daniele Nerini, and Alexis Berne. Stochastic super-resolution for downscaling time-evolving atmospheric fields with a generative adversarial network. IEEE Transactions on Geoscience and Remote Sensing, 2020. Adjusting spatial dependence of climate model outputs with cycle-consistent adversarial networks. Soulivanh Bastien François, Mathieu Thao, Vrac, Climate Dynamics. Bastien François, Soulivanh Thao, and Mathieu Vrac. Adjusting spatial dependence of climate model outputs with cycle-consistent adversarial networks. Climate Dynamics, pages 1-31, 2021. Statistical downscaling skill under present climate conditions: A synthesis of the value perfect predictor experiment. Douglas Maraun, Martin Widmann, José M Gutiérrez, International Journal of Climatology. 399Douglas Maraun, Martin Widmann, and José M Gutiérrez. Statistical downscaling skill under present climate conditions: A synthesis of the value perfect predictor experiment. International Journal of Climatology, 39(9):3692-3703, 2019. Value: A framework to validate downscaling approaches for climate change studies. Douglas Maraun, Martin Widmann, M José, Sven Gutiérrez, Richard E Kotlarski, Elke Chandler, Joanna Hertig, Radan Wibig, Renate Ai Huth, Wilcke, Earth's Future. 31Douglas Maraun, Martin Widmann, José M Gutiérrez, Sven Kotlarski, Richard E Chandler, Elke Hertig, Joanna Wibig, Radan Huth, and Renate AI Wilcke. Value: A framework to validate downscaling approaches for climate change studies. Earth's Future, 3(1):1-14, 2015. The era-interim reanalysis: Configuration and performance of the data assimilation system. S M Dick P Dee, Uppala, Paul Simmons, P Berrisford, Poli, Kobayashi, M A Andrae, G Balmaseda, Balsamo, Bauer, Quarterly Journal of the royal meteorological society. 137656Dick P Dee, S M Uppala, AJ Simmons, Paul Berrisford, P Poli, S Kobayashi, U Andrae, MA Balmaseda, G Balsamo, d P Bauer, et al. The era-interim reanalysis: Configuration and performance of the data assimilation system. Quarterly Journal of the royal meteorological society, 137(656):553-597, 2011. An Ensemble Version of the E-OBS Temperature and Precipitation Data Sets. Richard C Cornes, Gerard Van Der, Else J M Schrier, Philip D Van Den Besselaar, Jones, Journal of Geophysical Research: Atmospheres. 12317Richard C. Cornes, Gerard van der Schrier, Else J. M. van den Besselaar, and Philip D. Jones. An Ensemble Version of the E-OBS Temperature and Precipitation Data Sets. Journal of Geophysical Research: Atmospheres, 123(17):9391-9409, 2018. Learning structured output representation using deep conditional generative models. Kihyuk Sohn, Honglak Lee, Xinchen Yan, Advances in neural information processing systems. 28Kihyuk Sohn, Honglak Lee, and Xinchen Yan. Learning structured output representation using deep conditional generative models. Advances in neural information processing systems, 28:3483-3491, 2015. Variational inference with normalizing flows. Danilo Rezende, Shakir Mohamed, International conference on machine learning. PMLRDanilo Rezende and Shakir Mohamed. Variational inference with normalizing flows. In International conference on machine learning, pages 1530-1538. PMLR, 2015. Improved variational inference with inverse autoregressive flow. P Durk, Tim Kingma, Rafal Salimans, Xi Jozefowicz, Ilya Chen, Max Sutskever, Welling, Advances in neural information processing systems. 29Durk P Kingma, Tim Salimans, Rafal Jozefowicz, Xi Chen, Ilya Sutskever, and Max Welling. Improved variational inference with inverse autoregressive flow. Advances in neural information processing systems, 29:4743-4751, 2016. Mehdi Mirza, Simon Osindero, arXiv:1411.1784Conditional generative adversarial nets. arXiv preprintMehdi Mirza and Simon Osindero. Conditional generative adversarial nets. arXiv preprint arXiv:1411.1784, 2014.
sample_18402
0.9999
arxiv
Political Strategies to Overcom e C lim ate Policy Obstructionism Cameron Hepburn Jacquelyn Pless William O&apos;sullivan Matthew Ives Sam Fankhauser Thomas Hale Joris Bücker Marion Leroutier Tim Dobermann Linus Mattauch Sugandha Srivastav Ryan Rafaty Political Strategies to Overcom e C lim ate Policy Obstructionism † For thoughtful feedback at various stages of this paper's development, we thank Mike Thompson and INET-Oxford EOS seminar participants. Financial support from the Oxford Martin School Programme on the Post-Carbon Transition is gratefully acknowledged. 1. Smith School of Enterprise and the Environment, University of Oxford 2. Institute for New Economic Thinking at the Oxford Martin School 3. Climate Econometrics, Nuffield College, University of OxfordJEL Codes: D72 (Political ProcessLobbyingVoting Behaviour)D74 (Conflict)D78 (Policy Formulation) Suggested citation: SrivastavS and RafatyR2022 Political Strategies to Overcome Climate Policy Obstructionism Perspectives on PoliticsFirst View: pp1-11 2 A bstractGreat socio-economic transitions see the demise of certain industries and the rise of others. The losers of the transition tend to deploy a variety of tactics to obstruct change. We develop a political-economy model of interest group competition and garner evidence of tactics deployed in the global climate movement. From this we deduce a set of strategies for how the climate movement competes against entrenched hydrocarbon interests. Five strategies for overcoming obstructionism emerge: (1) Appeasement, which involves compensating the losers; (2) Cooptation, which seeks to instigate change by working with incumbents; (3) Institutionalism, which involves changes to public institutions to support decarbonization; (4) Antagonism, which creates reputational or litigation costs to inaction; and (5) Countervailance, which makes lowcarbon alternatives more competitive. We argue that each strategy addresses the problem of obstructionism through a different lens, reflecting a diversity of actors and theories of change within the climate movement. The choice of which strategy to pursue depends on the institutional context. 1 Introduction Great socioeconomic transitions involve significant shifts in power. Such was the case for universal suffrage, the abolition of slavery and the end of apartheid. The transition to a postcarbon society will not be different. Energy systems built around hydrocarbons will have to transition to a zero-carbon paradigm which will entail large shifts in the composition of firms and economic activity. This will inevitably create winners and losers, even if it society as a whole is better off. The existential politics of the post-carbon transition (Colgan, Green and Hale 2020), notably the $10 trillion worth of assets at risk of stranding (Mercure et al. 2018;Tong et al. 2019), makes it particularly prone to obstructionism by entrenched interests. The climate change countermovement (CCCM) has received growing scholarly attention in recent years (e.g. Brulle 2014;Farrell 2016). The CCCM lobby consists of industry associations, carbon-exposed firms, utilities, workers, unions, corporate-funded think tanks and state-owned enterprises who engage in tactics to weaken climate policies rather than adapt to them. Finding ways to address this obstructionism is important, not only because climate change will affect inequality, conflict, migration, economic development and governance, but also because progress has been stalled in large measure by lobbying and inertia in the political system (Stokes 2020). The corollary to an active CCCM lobby is the climate movement. The strategic operations of the climate movement have received relatively scant attention in the lobbying literature. To address this gap, we develop a framework that documents five key strategies to overcome obstructionism: -A ntagonism , which increases the reputational and economic costs of participating in obstructionism and "business as usual" activities; -A ppeasem ent, which offers monetary relief, retraining and restitution to the losers of the transition; -Co-optation, which seeks change from within by co-opting the opposition to reform and diversify their business model; -Institutionalism , which involves regulatory and structural changes at the level of public institutions to make obstructionism harder; and -C ountervailance, which bypasses direct confrontation with political opponents by supporting alternative technologies and strengthening their disruptive market potential. Each strategy advances a different theory of change, contains distinct tactics and is best suited to different actors ( Figure 1). We validate our framework by collecting evidence on the climate movement's activities and categorising that by the five strategies (see database in Supplementary Material). Finally, we develop a political economy model of interest group 3 competition and show how the five strategies, and the tactics within them, change a politician's incentives to enact stronger policy. We find that the choice of strategy is sensitive to three macro-structural parameters: (i) "democratization", which we define as the bargaining power of citizens relative to corporations (ii) "climate consciousness" which is the bargaining power of citizens who support climate policy relative to those who are against it, and (iii) "green business interests" which is the bargaining power of businesses that support climate policy relative to those that are against it. Once deployed, the strategies themselves affect these variables creating feedback dynamics (Farmer et al. 2019). Much of the existing literature in climate politics focuses on international climate negotiations. Relatively few studies have investigated how domestic politics and interest group competition constrain climate policy (Keohane 2015). Studies that build on this line on inquiry include Aklin and Urpelainen (2013), Meckling (2019), Brulle (2014Brulle ( , 2019, Farrell (2016), Brulle (2018), Gullberg (2008), McKie (2019), Stokes (2020), andMildenberger (2020). Our aim is to further build on this literature and make sense of disparate claims on the best path forward towards decarbonisation and overcoming obstructionism. The rest of this article is structure as follows: Section 2 discusses the issue of climate policy obstructionism and the various forms it takes, Section 3 introduces our theoretical framework which coceptualises a politician's incentives to increase climate ambition and how the five strategies influence this, Section 4 discusses the five strategies in detail with a US case study and Section 5 looks at strategy choice. . 4 Figure 1. Five P olitical Strategies 2 C lim ate P olicy Obstructionism The history of climate policy reveals the extent to which it has been a tug-of-war between different interest groups (Stokes 2020). The global policy landscape is replete with examples of the reversal of climate commitments such as the Australian government's removal of a carbon price only two years after its enactment, the Bolsanaro government's accelerated focus on land-grabbing across the Amazon and Cerrado biomes after years of effectively curbing deforestation (Rochedo et al. 2018) and the US's participation in the Paris Climate Accord which vacillates with which party is in power. The persistent difficulty in phasing out global fossil fuel subsidies is a testament to the degree of hysteresis within the political arena (Skovgaard and van Asselt 2018 CCCM lobbying dwarfs climate movement lobbying on all dimensions including the diversity of tactics, the cultivation of deep political networks (Farrell 2016), and the extent of expenditure (Brulle 2018;Ard, Garcia, and Kelly 2017). For example, lobbying expenditure by the CCCM in the US Congress between 2000-2016 was over USD 2 billion (4% of total lobbying expenditure), which is an order of magnitude higher than the political expenditures of environmental organizations and renewable energy companies (Brulle 2018). However, the effects of CCCM lobbying extend well beyond the paradigmatic US case. Patterns of obstructionism are manifest in other major fossil-fuel producing countries. For example, in 2013 an estimated one-third of media coverage of climate change in Australia was biased in favour of climate scepticism, with disinformation campaigns openly sponsored by media mogul Rupert Murdoch (Bacon 2013). In India, the government's majority stake in Coal India Limited, the world's largest coal company, creates perverse incentives. In China, provincial politics is tilted in favour of high-carbon prestige projects (Nelder 2021). Even in the European Union, which is considered an innovator in climate policy, carbon-intensive industry associations have actively endorsed the emissions trading scheme (ETS) during periods of reform but have used it as a Trojan Horse to pre-empt stricter regulations. Industry has also negotiated substantial exemptions such as the grandfathering of free allowances and the carbon leakage list which exempts trade-exposed carbon-intensive industries from a carbon price all together (Markard and Rosenbloom 2020). Passing legislation for decarbonization is difficult because of the sheer value of fossil fuel assets that will be impacted. In monetary terms, the situation is not dissimilar to the abolition of slavery. Slaves made up almost one-fifth of household "assets" back in 1860 and, like fossil fuels, were estimated to be worth around 10-20 trillion USD (Hayes 2014). Abolitionists had to deploy a range of tactics to overcome obstructionism. Several reasons may explain the CCCM's superior political organization: (i) by virtue of its incumbency, it has greater material resources and political connections at its disposal; (ii) the CCCM lobby is a tightly defined group of actors while the climate movement is relatively more dispersed, making organization costlier; and (iii) existing laws and institutions cater to a highcarbon paradigm which creates inertia in the reform process. 3 P olitical Econom y M odel 6 To explore interest group competition, we develop a simple political-economy framework that models how a politician's incentives to enact more stringent climate policy are affected by different agents and institutional factors. While the literature has looked at political competition from the lens of "green" vs. "brown" governments (Aklin and Urpelainen 2013), we extend it to the case of citizens vs. business interest groups (first tier) and, climate conscious citizens and businesses vs. anti-climate citizens and businesses (second tier). In the model, we assume a politician selects the level of policy ambition, , such that she maximizes the perceived welfare, , of citizens and business interest groups (Equation 1). The politician's chance of election or re-election increases in . 1 The politician cares about citizens as they supply votes and businesses since they supply campaign finance. In our model represents climate ambition i.e. the target level of emissions reduction. However, in other applications, may represent the ambition to universalize access to free healthcare, gain autonomy from a subjugating party, or reform the food industry. ( ) = [β 1 + (1 − β 1 ) ] + (1 − )[ + (1 − ) ] (1) α, β 1 , ∈ [0,1] describe the relative bargaining power of citizens versus businesses, climate conscious citzens versus anti-climate citizens, and green business interests vs. CCCM business interests respectively. 2 The perceived welfare of G citizens/businesses increases with greater policy ambition ( ′ ( ) > 0) and decreases for citizens/businesses ( ′ ( ) < 0). 3 Citizen and business interests are considered separately to capture numerous cases of divergent interests. For example, the interests of the youth who are very active in the climate movement have little overlap with that of large business interests. We focus on perceived welfare because the true level of welfare an agent experiences in response to different scenarios may differ from how the agent perceives the matter ex ante, due to misinformation and biases (Druckman and McGrath 2019;Mildenberger and Tingley 2019). In the case of climate change, evidence shows that weather extremes and the promulgation of scientific information do little to change aggregate opinions. Instead, political mobilization by elites and advocacy groups is critical in influencing climate change concern (Brulle, Carmichael and Jenkins 2012). A politician's incentives to increase policy ambition to advance a social movement's agenda can be increased via the five strategies whose tactics change different parts of the politician's objective function. From a static perspective, the choice of strategy is sensitive to initial conditions related to democratization (α), climate consciousness ( 1 ) and green business incentives ( ). From a dynamic perspective, the strategies start to influence these parameters. Table 1 gives an example of how initial conditions influence strategy choice. 8 This section reviews the five strategies in detail. Antagonism Antagonism springs from grassroots movements by civil society, which aim to awaken public consciousness about climate change, diminish the reputational capital and "social license to operate" of CCCM entities, and pressure governments to act with greater urgency to reduce emissions. Advocates pursuing this strategy employ tactics which name, shame, sue and boycott the CCCM lobby, thereby increasing the climate consciousness of the citizenry and threatening the business of hydrocarbons. Mass mobilizations, such as those galvanised by Fridays for Future, Extinction Rebellion and the Sunrise Movement fit within the realm of antagonism. The antagonistic philosophy is well-captured by abolitionist Frederick Douglass' 1857 speech: "If there is no struggle there is no progress. Those who profess to favour freedom and yet deprecate agitation are men who want crops without ploughing up the ground; they want rain without thunder and lightning. They want the ocean without the awful roar of its many waters…Power concedes nothing without a demand. It never did and it never will (Douglass 1979, 204). " In institutional contexts in which there is "political opportunity" (Gamson 1996), that is, a high level of democratization as suggested by citizens having the freedom to assemble, voice demands, exert influence on politicians, and trust the judiciary to remain independent, antagonism may be an effective strategy. One very successful example of antagonism is the Beyond Coal campaign, run by Bloomberg Philanthropies and the Sierra Club, which has retired 60% of US domestic coal-fired power plants (349 out of 530 plants till date) 4 through public awareness and litigation (Sierra Club 2021a; Sierra Club 2021b). Similarly, condemnatory exposure of alleged wrongdoing can reduce the social license to operate in a business as usual manner. The Exxonknew campaign exposed how the company was aware of the dangers of rising CO 2 emissions as early as 1968 but publicly sowed doubt and funded climate denialism, thereby delaying decades of climate action (Oreskes and Conway 2011;Robinson and Robbins 1968). This provided the evidentiary basis for numerous lawsuits filed by states such as New York and California. Where there is a strong and independent judiciary climate litigation can also be used by citizens against the government. A high-profile case was the Urgenda Foundation v. the State of the Netherlands (2019), in which Dutch citizens sued their government over its failure to adopt ambitious climate mitigation measures. The court ruled in favour of citizens arguing that the government was in violation of citizens' constitutional right to secure adequate protection from environmental harm. Such litigation can not only result in direct changes to government policy but also increase how politicians weigh the welfare of climate conscious citizens. There may also be a valid legal case to challenge the issuance of fossil fuel permits when there are low-cost energy alternatives (Rafaty, Srivastav, and Hoops 2020). Institutionalism Institutionalism involves structural changes to incentivize climate compatible behaviour on a system level. Many institutionalists require "windows of opportunity" to push through their reforms which may arise after elections, mass mobilisations, and exogenous shocks, such as the COVID-19 pandemic, that force the system to do things differently (Farmer et al. 2019). Examples of institutionalist measures that can negatively affect the operations of CCCM corporations include: the establishment of independent climate committees, mandatory disclosure of climate risks, green quantitative easing, conditional bailouts, and negative screens on stock exchanges to ensure listed companies are net-zero compatible (Dafermos, Nikolaidi and Galanis 2018;Hepburn et al. 2020;Farmer et al. 2019). Institutionalism is a strategy best leveraged by those in government, the judiciary, or the technocrats who advise them. Institutionalism can also involve the establishment of independent oversight committees that shield climate policy from the vagaries of electoral cycles. For example, under the 2008 Climate Change Act, the UK established the Committee on Climate Change (CCC) which was tasked with setting science-based carbon budgets every five years, giving independent advice to the government, and reporting to the Parliament on progress. Independent commissions such as the CCC ensure that there are checks and balances against political short-termism. In many political systems, the creation of arm's length bodies of this sort may be decisive in enhancing the credibility of long-run emissions targets. Appeasement Appeasement provides compensation to the losers of the transition as a means of quelling their resistance. Leveraging this strategy is typically the prerogative of governments, local authorities, and courts. Common forms of appeasement include worker re-training programmes; pay-offs for workers and asset owners due to early closures of mines; and regional transition funds to support economic diversification in localities that are dependent on climate-forcing assets (e.g. coal, oil, gas, etc.). Appeasement for workers relies on the theory of change that successful strategy uplifts the economic hopes and developmental prospects of low-income communities, fostering a just transition. For example, compensation to miners and their communities was a core element of the climate proposal that US President Joe Biden advanced on the campaign trail when visiting the deindustrialized towns of the Rust Belt. Appeasement for capital owners, on the other hand, is based on the idea that it may be politically expedient to compensate powerful lobbyists who may otherwise excoriate important reforms -the same way slave-owners were compensated during the abolition of slavery. Starting in 2015, the Climate Leadership Council (CLC) in the US put forward a national "carbon dividends" proposal that included a provision to establish a legal liability shield, which would statutorily exempt oil and gas companies from all tort liability in court cases seeking restitution for the monetary damages attributed to their historical emissions. This provision was motivated by a theory of change which believed that no comprehensive climate legislation will ever pass through Congress without bringing the oil supermajors to the table. To bring oil supermajors to the table, the policy must not only provide sticks but also carrots (appeasement). This proposal did not prevent the outrage that many environmental groups expressed towards the liability provision. However, there was another segment of environmentalists who preferred to focus on the emissions abatement that could be achieved if "carbon dividends" were adopted. Holding no particularly strong moral conviction about historical liability for emissions, they were willing to endorse the CLC's proposal as a compromise. CLC dropped the proposal in 2019. Countervailance Countervailance involves supporting green technologies via industrial policy to create a countervailing power to the CCCM lobby. Governments are best placed to leverage the countervailance toolkit through instituting measures such as: R&D tax credits, innovation incubators, subsidies for green innovation, renewable portfolio standards, renewable energy auctions, government procurement for green technologies, and policies that de-risk green investments. The aim of the countervailance toolkit is to increase the uptake of green technologies and bring down their costs so that they can displace carbon-intensive incumbent technologies. An example of countervailance is Germany's feed-in-tariff for solar energy passed in 2000. One of the authors of the feed-in tariff law argued that history would call it the "Birth Certificate of the Solar Age", since it created assured demand for renewable energy that led to increased production and learning-by-doing (Farmer and Lafond 2016). Countervailance bypasses head-on engagement with the CCCM lobby and helps dissipate a large portion of the political conflict by enabling market forces to drive rapid deployment (Breetz, Mildenberger and Stokes 2018). As green technologies acquire market share, novel political realignments tend to emerge (Meckling, Sterner and Wagner 2017;Meckling 2019). "Politically active green tech clusters" can become powerful advocates of stronger climate policies, deter policy backsliding, and create further windows of opportunities for institutionalist reform. This feedback dynamic can help advance the energy transition even in the absence of global coordination (Meckling 2019). An instructive example occurred in Denmark after a centre-right coalition government abandoned several renewable energy commitments in the late 1990s. Vestas, the country's largest wind turbine manufacturer, threatened to leave Denmark and take its suppliers. It formed an ad hoc green lobbying coalition within the Danish Board of Industry. The government quickly realised that it was in its best interest to heed the demands of the green business coalition. They 12 subsequently re-instated various support measures for the wind industry, admitting that they had underestimated the sentiments of big green businesses. Co-optation Co-optation involves bringing climate policy obstructionists to the side of the climate movement. Co-opters can push for a number of different changes within business organisations such as: commitments to stop funding CCCM lobby groups; linking executive pay to measurable emissions reductions and adopting internal carbon pricing. Co-opters navigate the art and politics of persuasion, and their required skillset is not unlike that of an effective politician. The theory of change is based on the idea that by convincing a relatively small number of elite individuals, such as the CEOs of large, energy-intensive companies or top government officials, great sums of capital can be reallocated away from climate-forcing assets. Compared to the other strategies, co-optation is available to relatively few members of the climate movement, and perhaps for this reason, its potential is frequently discounted. Examples of co-opters in the climate movement include Pope Francis who has used his moral authority to summon oil and gas executives to change strategy; family members of executives who are in a unique position to change hearts and minds; and, majority shareholders, high profile advisors, CEOs and elite academics who have a sense of climate consciousness. Co-optation is likely to be a strategy of choice in contexts where ordinary citizens have relatively less bargaining power compared to corporations. Looking ahead, strategists of co-optation could move beyond attempts to persuade hydrocarbon businesses and start building new alliances with businesses in sectors that have been largely overlooked in climate policy but can play a pivotal role in precipitating change. Google, Amazon, Facebook (Meta) and other technology companies have plans to eliminate or neutralize their carbon footprints. These companies have market-moving power and their actions across supply chains, data centres, and global distribution networks could amplify net-zero efforts in other areas of the economy. Box 1 gives examples of how the five strategies have been deployed in the climate movement in the US. B ox 1: U S A rchetypes of the Five Strateg ies A ntagonism : Sierra Club (1892 -present): N G O litigating to close 340+ coal plants across the U S The Sierra Club, founded in the 19 th century, uses litigation and grassroots campaigns to decommission coal plants across the US, with 349 plants having closed (amounting to 905 coal-plant production units) and "181 to go" (Sierra Club 2021a; Sierra Club 2021b). The Sierra Club claims to have brought about almost 170MM of clean energy in place of decommissioned coal plants and avoided 2,322 miles of gas pipeline (Sierra Club 2021a). Institutionalism : Regional Greenhouse Gas Initiative (RGGI) (2009 -present): A cap-and-trade schem e in Eastern states The Regional Greenhouse Gas Initiative Program (RGGI) was the first mandatory, CO2-limiting cap-andtrade programme in the US. Since its inception, the initiative has held 50 auctions, selling 1.11 billion CO2 allowances (worth $3.78bn in total) to electric power generators in the ten eastern states participating in the program. In 2020, the emissions cap, which drops each year, was 96.2 million tonnes, with an aim of being 86.9 million tonnes in 2030 (Potomac Economics 2010). A ppeasem ent: The POWER+ Plan (2016 -present): C om pensation to coal com m unities The Obama Administration introduced the POWER+ Plan to invest federal resources in regions that were historically reliant on the coal economy and vulnerable to the energy transition (The White House 2015). The Plan allocated funds to affected workers ($20m), economic development ($6m), the Environmental Protection Agency ($5m), and rural communities ($97m) (The White House 2016). Since 2015, the Appalachian region in the Northeast (comprised of states like Virginia, West Virginia and Pennsylvania) has received almost $300m in grants to revive and rebuilt communities (ARC 2021). C hoosing Strategies We now move to a dynamic perspective and consider how the five strategies build-off each other. Strategy choice depends, in the first instance, on initial conditions related to the macro-structural parameters (democratization, climate consciousness and green business interests) but subsequently, on how the deployment of strategies affects these variables. Therefore, from a dynamic perspective, strategy sequencing is important. To see why, consider the following examples: Example 1: Consider a setting where the state is heavily captured by business interest groups ( ≈ 0) and citizens have low climate consciousness ( 1 < 0.5). This setting could, for example, represent a Middle Eastern petrol producing state. In this context, the strategist will want to focus on increasing the strength of green business interests relative to CCCM interests (i.e., increasing ) through co-optation or countervailance. Co-optation could be used to convince the ruling elite that global demand for hydrocarbons is likely to diminish and there is a need to diversify towards fast-growing low-carbon industries. Countervailance could play a role in demonstrating the feasibility and disruptive market potential of low-carbon alternatives. Strategies that require political opportunity such as antagonism are unlikely to succeed since ≈ 0. If democratic institutional reforms are pursued that increase democratization i.e. = 0.25, then the climate movement's agenda will still face uncertainties since most citizens are against more ambitious climate policy. The pathway in this case would be to first increase green business interests, which may then translate into greater climate consciousness. Example 2: Let's now consider a case where democratization and green business interests are low but citizens' preferences are tilted strongly in favour of high climate ambition ( 1 > 0.5). This could be parts of the United States where citizens favour climate action but the political elite is captured by CCCM lobbies. In this case, if a strategist pursues structural democratic reforms (i.e. raising ) via institutionalism, then the politician will have stronger incentives to support emissions reductions because the voice of climate conscious citizens suddenly has more weight. In the absence of being able to pursue structural democratic reforms that raise , the climate strategist could continue pursuing co-optation and countervailance to increase green business incentives. Example 3: Finally, for a strategist in a setting where most citizens favour stronger climate policy and democratization is high (e.g. the Netherlands), there is greater political opportunity through which climate conscious citizens can pursue strong antagonistic tactics such as climate lawsuits. This can directly increase climate policy ambition (e.g. the Urgenda case). The creation of stronger green business interests can also create clusters of green industrial lobbies that can help support institutional reform such as mandatory disclosure of climate risks and countervailance tactics such as subsidies for green technologies. This simple sketch illustrates how in a dynamic setting, strategies need to be sequenced appropriately since they can build-off each other. Ill-conceived sequencing can lock-in stalemates. There are many potential sequencing options which depend on initial conditions and feedback dynamics. Strategies may also be deployed jointly to increase efficacy. For example, appeasement on its own, without complementary measures could lead to inefficiently large pay-outs to CCCM capital-owners. This could also create perverse incentives to falsely project continued operations to secure compensation for "early" closures. Germany's coal exit law stipulates that a total of 4.35 billion Euros in compensation will be paid for planned shutdowns by 2030 (Wettengel 2020). However, legal challenges are imminent as the European Commission questions whether "compensating operators for foregone profits reaching very far into the future corresponds to the minimum required" (European Commission 2021). It is likely that antagonism or institutionalism will be needed as complementary strategies to safeguard public interest and put a reasonable upper bound on compensation to capital-owners. Citizens can leverage institutions designed to protect the environment to file antagonistic lawsuits or alternatively, countervailance could be used to create green industrial clusters, which can lobby the government to enact institutional reforms that threaten the CCCM business model. Our analysis demonstrates that due to positive feedbacks and mutual reinforcement, each strategy likely has a role to play. Some may initially outperform others due to the institutional context, while others may set the stage for more ambitious action subsequently. Tactics that garner the most success are: (i) appropriate to the actors who carry them out; (ii) appropriate to the institutional setting in which they are applied; and (iii) timely. Previous literature in the field has suggested solutions that fall within one ambit or the other: for example, Meckling et al. (2017) talk about the importance of green industrial policy as a precursor to carbon pricing. By contrast, Zhao and Alexandroff (2019) focus on appeasement as a key strategy, highlighting Germany's compensation efforts as a way to push forward the transition. We combine these perspectives to illustrate how strategy choice and sequencing depend on the initial conditions and the dynamics of three macrostructural parameters: climate consciousness among the citizenry, green industrial incentives and the level of democratization, and how the deployment of strategies in turn also affects these parameters, forming feedback dynamics. Future work could empirically examine how each of these strategies perform in different institutional contexts and explore questions around the sequencing of strategies. ).The CCCM lobby in the US has swayed politicians through several different tactics. This includes offering politicians lucrative private sector roles after office (Blanes i Vidal, Draca, and Fons-Rosen 2012), strategically leveraging tax-free corporate philanthropy (Bertrand et al. 5 2020; Brulle 2018), threatening politicians with competition if they do not acquiesce to demands (Stokes 2020; Dal Bó and Di Tella 2003; Chamon and Kaplan 2013), influencing voters through funding advocacy institutions that promote climate skepticism (DellaVigna, Durante and La Ferarra 2016; Farrell 2016; Farrell 2019), and inserting representatives into regulatory institutions, such as the Environmental Protection Agency to dilute climate policy (Leonard 2019). Table 1 . 1The Sensitivity of Strategies to Initial C onditions Make it an electoral liability to ignore the climate crisis via awareness campaigns and grassroots movements e.g. Fridays for Future, Sunrise Movement, Extinction Rebellion (antagonism)Initial Conditions (If): Goal (Then): Strategy & Tactic (By): Citizens are against policy & citizens have at least as much bargaining power as businesses e.g. deindustrialised mining towns Increase 1 Financial compensation to coal workers and regional transition funds (appeasement) Green business interests are weak and corporations have more bargaining power than citizens. e.g. US Congress where CCCM interests exert large influence Increase Incentivize dirty firms to become clean via: -business model reform and executive incentives (co-optation); -tax breaks for clean tech, R&D support, grants (countervailance) -financial compensation to capital owners (appeasement) Citizens are for policy but have less bargaining power than businesses e.g. Germany where a climate conscious citizenry contends with a powerful CCCM lobby Increase Increase Incentivize dirty firms to become clean via: -climate lawsuits, boycotts, and reputational damage (antagonism); -institutional reforms, including carbon pricing and mandatory disclosure of risks (institutionalism). In the case of countries without democratic elections, this can be rephrased as a politician's "ability to retain power".2 Consensus democracies such as those of the Nordic countries, or semi-direct representative democracies such as that of Switzerland, will have a relatively high value of . Where there is a strong revolving door between industry and government, such as in the United States, is lower. In China, where citizens cannot vote but still play a role insofar as they can leverage implicit threats of civil disobedience, is even lower.3 For simplicity we assume there is no neutrality for firms or citizens in relation to how perceived welfare will change in response to climate ambition. This can be modelled but it will not change the core conclusions. See: https://coal.sierraclub.org/campaign The Little Hedge Fund Taking Down Big Oil. The New York Times. Jessica C Aguirre, 2021, Aguirre, Jessica C. 2021. The Little Hedge Fund Taking Down Big Oil. The New York Times. [online] Available at: <https://www.nytimes.com/2021/06/23/magazine/exxon-mobil- engine-no-1-board.html> [Accessed 18 November 2021]. Political competition, path dependence, and the strategy of sustainable energy transitions. Michaël Aklin, Johannes Urpelainen, American Journal of Political Science. 573Aklin, Michaël, and Johannes Urpelainen. 2013. "Political competition, path dependence, and the strategy of sustainable energy transitions." American Journal of Political Science 57:3 (September): 643-658. Appalachian Regional Commission (ARC). 2021. ARC's POWER Initiative. Appalachian Regional Commission (ARC). 2021. ARC's POWER Initiative. [online] Available at: <https://www.arc.gov/arcs-power-initiative/> [Accessed 18 November 2021]. Another avenue of action: an examination of climate change countermovement industries' use of PAC donations and their relationship to Congressional voting over time. Kerry Ard, Nick Garcia, Paige Kelly, Environmental Politics. 266Ard, Kerry, Nick Garcia, and Paige Kelly. 2017. "Another avenue of action: an examination of climate change countermovement industries' use of PAC donations and their relationship to Congressional voting over time." Environmental Politics 26:6 (August): 1107-1131. Sceptical Climate Part 2: Climate Science in Australian Newspapers. W Bacon, Australian Centre for Independent Journalism. Bacon, W. 2013. Sceptical Climate Part 2: Climate Science in Australian Newspapers. Australian Centre for Independent Journalism, 1-222. Tax-exempt Lobbying: Corporate Philanthropy as a Tool for Political Influence. Marianne Bertrand, Matilde Bombardini, Raymond Fisman, Francesco Trebbi, American Economic Review. 1107Bertrand, Marianne, Matilde Bombardini, Raymond Fisman, and Francesco Trebbi. 2020. "Tax-exempt Lobbying: Corporate Philanthropy as a Tool for Political Influence." American Economic Review 110:7 (July): 2065-2102. Revolving door lobbyists. Jordi Blanes I Vidal, Mirko Draca, Christian Fons-Rosen, American Economic Review. 1027Blanes i Vidal, Jordi, Mirko Draca, and Christian Fons-Rosen. 2012. "Revolving door lobbyists." American Economic Review 102:7 (July): 3731-48. Early Warnings and Emerging Accountability: Total's Responses to Global Warming. Christophe Bonneuil, Pierre-Louis Choquet, Benjamin Franta, Global Environmental Change. 71102386Bonneuil, Christophe, Pierre-Louis Choquet, and Benjamin Franta. 2021. "Early Warnings and Emerging Accountability: Total's Responses to Global Warming, 1971-2021." Global Environmental Change 71: 102386. The political logics of clean energy transitions. Hanna Breetz, Matto Mildenberger, Leah Stokes, Business and Politics. 20Breetz, Hanna, Matto Mildenberger, and Leah Stokes. 2018. "The political logics of clean energy transitions." Business and Politics 20:4 (April): 492-522. Engine No 1, the giant-killing hedge fund, has big plans. The Financial Times. Derek Brower, Ortenca Aliaj, Brower, Derek, Ortenca Aliaj. 2021. Engine No 1, the giant-killing hedge fund, has big plans. The Financial Times. 3 June 2021. [online] Available at: <https://www.ft.com/content/ebfdf67d-cbce-40a5-bb29-d361377dea7a> [Accessed 20 November 2021]. Institutionalizing Delay: Foundation Funding and the Creation of US climate Change Counter-Movement Organizations. Robert J Brulle, Climatic Change. 122Brulle, Robert J. 2014 "Institutionalizing Delay: Foundation Funding and the Creation of US climate Change Counter-Movement Organizations." Climatic Change 122:4 (April): 681- 694. The Climate Lobby: A Sectoral Analysis of Lobbying Spending on Climate Change in the USA. Robert J Brulle, Climatic Change. 149Brulle, Robert J. 2018. "The Climate Lobby: A Sectoral Analysis of Lobbying Spending on Climate Change in the USA, 2000 to 2016." Climatic Change 149:3 (March): 289-303. 17 Networks of Opposition: A Structural Analysis of US Climate Change Countermovement Coalitions 1989-2015. Robert J Brulle, Sociological Inquiry. Brulle, Robert J. 2019. "Networks of Opposition: A Structural Analysis of US Climate Change Countermovement Coalitions 1989-2015." Sociological Inquiry. Shifting Public Opinion on Climate Change: An Empirical Assessment of Factors Influencing Concern over Climate Change in the US. Robert J Brulle, Jason Carmichael, J. Craig Jenkins, Climatic Change. 1142Brulle, Robert J., Jason Carmichael, and J. Craig Jenkins. 2012. "Shifting Public Opinion on Climate Change: An Empirical Assessment of Factors Influencing Concern over Climate Change in the US, 2002-2010." Climatic Change 114:2 (February): 169-188. Greenpeace bank accounts frozen by Indian government. J Burke, 4Burke, J. 2015. Greenpeace bank accounts frozen by Indian government. [online] The Guardian. Accessed: 04 November 2020. 2021. California Solar Initiative (CSI). California Public Utilities Commission (CPUCCalifornia Public Utilities Commission (CPUC). 2021. California Solar Initiative (CSI). [online] Available at: <https://www.cpuc.ca.gov/industries-and-topics/electrical-energy/demand- side-management/california-solar-initiative> [Accessed 17 November 2021]. Bringing the Environment Back In: Overcoming the Tragedy of the Diffusion of the Commons Metaphor. Benjamin Cashore, Steven Bernstein, Perspectives on Politics. Cashore, Benjamin, and Steven Bernstein. 2022. "Bringing the Environment Back In: Overcoming the Tragedy of the Diffusion of the Commons Metaphor." Perspectives on Politics, 1-24. The Iceberg Theory of Campaign Contributions: Political Threats and Interest Group Behavior. Marcos Chamon, Ethan Kaplan, American Economic Journal: Economic Policy. 5Chamon, Marcos, and Ethan Kaplan. 2013. "The Iceberg Theory of Campaign Contributions: Political Threats and Interest Group Behavior." American Economic Journal: Economic Policy 5:1 (February): 1-31. Influencing Climate Change Policy: The Effect of Shareholder Pressure and Firm Environmental Performance. Cynthia E Clark, Elise Perrault Crawford, Business & Society. 51Clark, Cynthia E., and Elise Perrault Crawford. 2012 "Influencing Climate Change Policy: The Effect of Shareholder Pressure and Firm Environmental Performance." Business & Society 51:1 (January): 148-175. Climate Action 100+. 2021. Investors | Climate Action 100+. Climate Action 100+. 2021. Investors | Climate Action 100+. [online] Available at: <https://www.climateaction100.org/whos-involved/investors/> [Accessed 5 December 2021]. Asset Revaluation and the Existential Politics of Climate Change. Jeff Colgan, Jessica Green, Thomas Hale, International Organization. Colgan, Jeff, Jessica Green, and Thomas Hale. 2020. "Asset Revaluation and the Existential Politics of Climate Change." International Organization, 1-25. Congressional Research Service (CRS). 2019. The POWER Initiative: Energy Transition as Economic Development. Congressional Research Service. Washington, D.CCongressional Research Service (CRS). 2019. The POWER Initiative: Energy Transition as Economic Development. Washington, D.C.: Congressional Research Service, pp.1-13. Climate Change, Financial Stability and Monetary Policy. Yannis Dafermos, Maria Nikolaidi, Giorgos Galanis, Ecological Economics. 152Dafermos, Yannis, Maria Nikolaidi, and Giorgos Galanis. 2018. "Climate Change, Financial Stability and Monetary Policy." Ecological Economics 152 (October): 219-234. Capture by Threat. Dal Bó, Ernesto , Rafael Di Tella, Journal of Political Economy. 111Dal Bó, Ernesto, and Rafael Di Tella. 2003. "Capture by Threat." Journal of Political Economy 111:5 (October): 1123-1154. Marketbased Lobbying: Evidence from Advertising Spending in Italy. Stefano Dellavigna, Ruben Durante, Brian Knight, Eliana La Ferrara, American Economic Journal: Applied Economics. 8DellaVigna, Stefano, Ruben Durante, Brian Knight, and Eliana La Ferrara. 2016. "Market- based Lobbying: Evidence from Advertising Spending in Italy." American Economic Journal: Applied Economics 8:1 (January): 224-56. The Frederick Douglass Papers. Frederick Douglass, Yale University Press3Douglass, Frederick. 1979. The Frederick Douglass Papers: 1855-63. Vol. 3. Yale University Press. The Evidence for Motivated Reasoning in Climate Change Preference Formation. James N Druckman, Mary C Mcgrath, Nature Climate Change. 92Druckman, James N., and Mary C. McGrath. 2019. "The Evidence for Motivated Reasoning in Climate Change Preference Formation." Nature Climate Change 9:2 (January): 111-119. Engine No.1 -Homepage. Engine No.1. 2021. Engine No.1 -Homepage. [online] Available at: <https://engine1.com/> [Accessed 20 November 2021]. 2021 California Solar Initiative Annual Program Assessment. California Public Utilities Commission (CPUC). Asal Esfahani, Cherie Chan, Christopher Westling, Erica Petrofsky, Joshua Litwin, Narissa Jimenez-Petchumrus, Tory Francisco, Esfahani, Asal, Cherie Chan, Christopher Westling, Erica Petrofsky, Joshua Litwin, Narissa Jimenez-Petchumrus, Tory Francisco. 2021. 2021 California Solar Initiative Annual Program Assessment. California Public Utilities Commission (CPUC). [online] Available at: < https://www.cpuc.ca.gov/-/media/cpuc-website/divisions/energy- division/documents/csi-progress-reports/2021-csi-apa.pdf> [Accessed 18 November 2021]. State aid: Commission opens in-depth investigation into compensation for early closure of lignite-fired power plants in Germany. Press Release. 2 March. Brussels. RetrievedEuropean CommissionEuropean Commission. 2021. "State aid: Commission opens in-depth investigation into compensation for early closure of lignite-fired power plants in Germany." Press Release. 2 March, Brussels. Retrieved: 14 March 2020 (https://ec.europa.eu/commission/presscorner/detail/en/ip_21_972). How predictable is technological progress. J D Farmer, F Lafond, Research Policy. 45Farmer, J.D. and Lafond, F., 2016. How predictable is technological progress?. Research Policy, 45(3), pp.647-665. Sensitive intervention points in the post-carbon transition. J D Farmer, C Hepburn, M C Ives, T Hale, T Wetzer, P Mealy, R Rafaty, S Srivastav, R Way, Science. 3646436Farmer, J.D., Hepburn, C., Ives, M.C., Hale, T., Wetzer, T., Mealy, P., Rafaty, R., Srivastav, S. and Way, R. 2019. Sensitive intervention points in the post-carbon transition. Science, 364(6436): 132-134. Evidence-based strategies to combat scientific misinformation. J Farrell, K Mcconnell, R Brulle, Nature Climate Change. 93Farrell, J., McConnell, K. and Brulle, R., 2019. Evidence-based strategies to combat scientific misinformation. Nature Climate Change, 9(3), pp.191-195. Corporate Funding and Ideological Polarization about Climate Change. Justin Farrell, Proceedings of the National Academy of Sciences. 113Farrell, Justin. 2016. "Corporate Funding and Ideological Polarization about Climate Change." Proceedings of the National Academy of Sciences 113:1 (April): 92-97. The growth of climate change misinformation in US philanthropy: evidence from natural language processing. J Farrell, Environmental Research Letters. 14334013Farrell, J., 2019. The growth of climate change misinformation in US philanthropy: evidence from natural language processing. Environmental Research Letters, 14(3), p.034013. Larry Fink's 2021 Letter to CEOs. Larry Fink, BlackRock, IncAccessedFink, Larry. 2021. Larry Fink's 2021 Letter to CEOs. BlackRock, Inc. [online] Available at: <https://www.blackrock.com/corporate/investor-relations/larry-fink-ceo-letter> [Accessed 18 November 2021]. Framing Political Opportunity. William A Gamson, David S Meyer, John D Mcadam, Mayer N Mccarthy, Zald, Pp. 275-90 in Comparative Perspectives on Social Movements: Political Opportunities, Mobilizing Structures, and Cultural Framings. Cambridge University PressGamson, William A., and David S. Meyer. 1996. "Framing Political Opportunity" edited by Doug McAdam, John D. McCarthy, and Mayer N. Zald." Pp. 275-90 in Comparative Perspectives on Social Movements: Political Opportunities, Mobilizing Structures, and Cultural Framings. Cambridge University Press. Contentious Politics in Complex Societies. Marco G Giugni, Florence Passy, Rowman & Littlefield Publishers, IncPp 81-108. From Contention to DemocracyGiugni, Marco G., and Florence Passy. 1998. "Contentious Politics in Complex Societies." Pp 81-108. From Contention to Democracy. Rowman & Littlefield Publishers, Inc. Transition, Hedge, or Resist? Understanding Political and Economic Behavior toward Decarbonization in the Oil and Gas Industry. Jessica Green, Jennifer Hadden, Thomas Hale, Paasha Mahdavi, Review of International Political Economy. Green, Jessica, Jennifer Hadden, Thomas Hale and Paasha Mahdavi. 2021. "Transition, Hedge, or Resist? Understanding Political and Economic Behavior toward Decarbonization in the Oil and Gas Industry." Review of International Political Economy, 1-28. Mapping Low-Carbon Energy Transitions Around the World: The United States of America. Samantha Gross, ESADEBarcelonaGross, Samantha. 2019. Mapping Low-Carbon Energy Transitions Around the World: The United States of America. Barcelona: ESADE. Gene M Grossman, Elhanan Helpman, Special Interest Politics. MIT PressGrossman, Gene M., and Elhanan Helpman. 2001. Special Interest Politics. MIT Press. Lobbying Friends and Foes in Climate Policy: The Case of Business and Environmental Interest Groups in the European Union. Anne Gullberg, Therese, Energy Policy. 368Gullberg, Anne Therese. 2008. "Lobbying Friends and Foes in Climate Policy: The Case of Business and Environmental Interest Groups in the European Union." Energy Policy 36:8 (August): 2964-2972. Boomerang Effects in Science Communication: How Motivated Reasoning and Identity cues Amplify Opinion Polarization about Climate Mitigation Policies. P Hart, Erik C Sol, Nisbet, Communication Research. 396Hart, P. Sol, and Erik C. Nisbet. 2012. "Boomerang Effects in Science Communication: How Motivated Reasoning and Identity cues Amplify Opinion Polarization about Climate Mitigation Policies." Communication Research 39:6 (December): 701-723. The New Abolitionism". The Nation. Retrieved 16. Chris Hayes, Hayes, Chris. 2014. "The New Abolitionism". The Nation. Retrieved 16 January 2021. (https://www.thenation.com/article/archive/new-abolitionism/) Will COVID-19 fiscal recovery packages accelerate or retard progress on climate change. Cameron Hepburn, Brian O&apos;callaghan, Nick Stern, Joseph Stiglitz, Dimitry Zenghelis, Oxford Review of Economic Policy. 36Hepburn, Cameron, Brian O'Callaghan, Nick Stern, Joseph Stiglitz and Dimitry Zenghelis. 2020. "Will COVID-19 fiscal recovery packages accelerate or retard progress on climate change?" Oxford Review of Economic Policy, 36:1 pp.S359-S381. Cooptation and Non-Cooptation: Elite Strategies in Response to Social Protest. Markus Holdo, Social Movement Studies. 18Holdo, Markus. 2019. "Cooptation and Non-Cooptation: Elite Strategies in Response to Social Protest." Social Movement Studies 18:4 (July): 444-462. Interest group competition and coalition formation. Thomas Holyoke, American Journal of Political Science. 53Holyoke, Thomas. 2009. "Interest group competition and coalition formation." American Journal of Political Science 53.2 (April): 360-375. The Global Politics of Climate Change: Challenge for Political Science. R O Keohane, PS: Political Science & Politics. 481Keohane, R.O., 2015. "The Global Politics of Climate Change: Challenge for Political Science. PS: Political Science & Politics, 48(1): 19-26. The Polarization of American Environmental Policy: A Regression Discontinuity Analysis of Senate and House Votes. Sung Kim, Johannes Eun, Urpelainen, Review of Policy Research. 344Kim, Sung Eun, and Johannes Urpelainen. 2017. "The Polarization of American Environmental Policy: A Regression Discontinuity Analysis of Senate and House Votes, 1971-2013." Review of Policy Research 34:4 (July): 456-484. Kochland: The Secret History of Koch Industries and Corporate Power in America. Christopher Leonard, Simon & SchusterLeonard, Christopher. 2020. Kochland: The Secret History of Koch Industries and Corporate Power in America. Simon & Schuster. Political conflict and climate policy: the European emissions trading system as a Trojan Horse for the low-carbon transition? Climate Policy. J Markard, D Rosenbloom, Markard, J. and Rosenbloom, D. 2020. Political conflict and climate policy: the European emissions trading system as a Trojan Horse for the low-carbon transition? Climate Policy: 1-20. Climate Change Counter Movement Neutralization Techniques: A Typology to Examine the Climate Change Counter Movement. Ruth E Mckie, Sociological Inquiry. 892McKie, Ruth E. 2019. "Climate Change Counter Movement Neutralization Techniques: A Typology to Examine the Climate Change Counter Movement." Sociological Inquiry 89:2 (May): 288-316. Policy Sequencing Toward Decarbonization. Jonas Meckling, Thomas Sterner, Gernot Wagner, Nature Energy. 2Meckling, Jonas, Thomas Sterner, and Gernot Wagner. 2017. "Policy Sequencing Toward Decarbonization." Nature Energy 2:12 (December): 918-922. Governing Renewables: Policy Feedback in a Global Energy Transition. Jonas Meckling, Environment and Planning C: Politics and Space. 372Meckling, Jonas. 2019. "Governing Renewables: Policy Feedback in a Global Energy Transition." Environment and Planning C: Politics and Space 37:2 (March): 317-338. Strategic State Capacity How States Counter Opposition to Climate Policy. Jonas Meckling, Jonas Nahm, Comparative Political Studies. 55Meckling, Jonas and Jonas Nahm. 2022. "Strategic State Capacity How States Counter Opposition to Climate Policy." Comparative Political Studies. Vol. 55. Macroeconomic impact of stranded fossil fuel assets. J F Mercure, H Pollitt, J E Viñuales, N R Edwards, P B Holden, U Chewpreecha, P Salas, I Sognnaes, A Lam, F Knobloch, Nature Climate Change. 87Mercure, J.F., Pollitt, H., Viñuales, J.E., Edwards, N.R., Holden, P.B., Chewpreecha, U., Salas, P., Sognnaes, I., Lam, A. and Knobloch, F. 2018. Macroeconomic impact of stranded fossil fuel assets. Nature Climate Change, 8(7): 588-593. Carbon Captured: How Business and Labor Control Climate Politics. M Mildenberger, MIT PressMildenberger, M. (2020). Carbon Captured: How Business and Labor Control Climate Politics. MIT Press Beliefs about Climate Beliefs: The Importance of Second-order Opinions for Climate Politics. Matto Mildenberger, Dustin Tingley, British Journal of Political Science. 49Mildenberger, Matto, and Dustin Tingley. 2019. "Beliefs about Climate Beliefs: The Importance of Second-order Opinions for Climate Politics." British Journal of Political Science 49:4 (October): 1279-1307. 3 Green Youth Movements Allege Digital Censorship. J Nandi, 4Nandi, J. 2020. 3 Green Youth Movements Allege Digital Censorship. [online] Hindustan Times. Accessed: 04 November 2020. Transition in China". Energy Transition Show (podcast). 06. Chris Nelder, 16Nelder, Chris, host. 2021. "Transition in China". Energy Transition Show (podcast). 06 January 2021. Accessed: 16 January 2021. https://xenetwork.org/ets/ Merchants of Doubt: How a Handful of Scientists Obscured the Truth on Issues from Tobacco Smoke to Global Warming. Naomi Oreskes, Erik M Conway, Bloomsbury Publishing USAOreskes, Naomi, and Erik M. Conway. 2011. Merchants of Doubt: How a Handful of Scientists Obscured the Truth on Issues from Tobacco Smoke to Global Warming. Bloomsbury Publishing USA. Annual report on the market for RGGI CO 2 allowances. Potomac Economics, 17Potomac Economics. 2010. Annual report on the market for RGGI CO 2 allowances: 2009. [online] Available at: <https://www.rggi.org/sites/default/files/Uploads/Market- Monitor/Annual-Reports/MM_2009_Annual_Report.pdf> [Accessed 17 November 2021]. Revoking coal mining permits: an economic and legal analysis. Ryan Rafaty, Sugandha Srivastav, Bjorn Hoops, Climate Policy. Rafaty, Ryan, Sugandha Srivastav and Bjorn Hoops. 2020. Revoking coal mining permits: an economic and legal analysis. Climate Policy: 1-17. Sources, Abundance, and Fate of Gaseous Atmospheric Pollutants. Final Report and Supplement. E Robinson, R C Robbins, Stanford Research InstituteRobinson, E., and R. C. Robbins. 1968. "Sources, Abundance, and Fate of Gaseous Atmospheric Pollutants. Final Report and Supplement." Stanford Research Institute. The Threat of Political Bargaining to Climate Mitigation in Brazil. Pedro Rr Rochedo, Britaldo Soares-Filho, Roberto Schaeffer, Eduardo Viola, Alexandre Szklo, F P André, Alexandre Lucena, Juliana Leroy Koberle, Raoni Davis, Regis Rajão, Rathmann, Nature Climate Change. 8Rochedo, Pedro RR, Britaldo Soares-Filho, Roberto Schaeffer, Eduardo Viola, Alexandre Szklo, André FP Lucena, Alexandre Koberle, Juliana Leroy Davis, Raoni Rajão, and Regis Rathmann. 2018. "The Threat of Political Bargaining to Climate Mitigation in Brazil." Nature Climate Change 8:8 (August): 695-698. . Sierra Club vs. Morton. 1972. U.S. 727405Sierra Club vs. Morton. 1972. U.S. 727 405 (Supreme Court). We're Moving Beyond Coal and Gas | Beyond Coal. Sierra Club, Sierra Club. 2021. "We're Moving Beyond Coal and Gas | Beyond Coal." [online] Available at: <https://coal.sierraclub.org/campaign> [Accessed 17 November 2021]. Case Updates. Sierra Club, Sierra Club. 2021. Case Updates. [online] Available at: <https://www.sierraclub.org/environmental-law/case-updates> [Accessed 17 November 2021]. The Politics of Fossil Fuel Subsidies and their Reform. Jakob Skovgaard, Harro Van Asselt, Cambridge University PressSkovgaard, Jakob, and Harro van Asselt. 2018. The Politics of Fossil Fuel Subsidies and their Reform. Cambridge University Press. Theory of Collective Behavior. Niel J Smelser, The Free PressGlencoeSmelser, Niel. J. 1963. Theory of Collective Behavior. The Free Press of Glencoe. Short Circuiting Policy: Interest Groups and the Battle over Clean Energy and Climate Policy in the American States. Leah Stokes, Cardamore, Oxford University PressUSAStokes, Leah Cardamore. 2020. Short Circuiting Policy: Interest Groups and the Battle over Clean Energy and Climate Policy in the American States. Oxford University Press, USA. FACT SHEET: The Partnerships for Opportunity and Workforce and Economic Revitalization (POWER) Initiative. The White House, Office of the Press SecretaryWashington, D.C.The White House. 2015. FACT SHEET: The Partnerships for Opportunity and Workforce and Economic Revitalization (POWER) Initiative. Washington, D.C.: The White House, Office of the Press Secretary. Investing in Coal Communities, Workers, and Technology: The POWER+ Plan. The White House, The White House. 2016. Investing in Coal Communities, Workers, and Technology: The POWER+ Plan. [online] Available at: <https://obamawhitehouse.archives.gov/sites/default/files/omb/budget/fy2016/assets/fact _sheets/investing-in-coal-communities-workers-and-technology-the-power-plan.pdf> [Accessed 18 November 2021]. Committed emissions from existing energy infrastructure jeopardize 1.5 C climate target. D Tong, Q Zhang, Y Zheng, K Caldeira, C Shearer, C Hong, Y Qin, S J Davis, Nature. 5727769Tong, D., Zhang, Q., Zheng, Y., Caldeira, K., Shearer, C., Hong, C., Qin, Y. and Davis, S.J., 2019. Committed emissions from existing energy infrastructure jeopardize 1.5 C climate target. Nature, 572(7769), pp.373-377. The Quiet Opposition: How the Pro-economy Lobby Influences Climate Policy. Juho Vesa, Antti Gronow, Tuomas Ylä-Anttila, Global Environmental Change. 63102117Vesa, Juho, Antti Gronow, and Tuomas Ylä-Anttila. 2020. "The Quiet Opposition: How the Pro-economy Lobby Influences Climate Policy." Global Environmental Change 63 (July): 102117. Spelling out the Coal Exit-Germany's Phase-out Plan. Julian Wettengel, Clean Energy Wire. Retrieved. Wettengel, Julian. 2020. "Spelling out the Coal Exit-Germany's Phase-out Plan." Clean Energy Wire. Retrieved: 14 March 2021 (https://www.cleanenergywire.org/news/german- government-and-coal-power-companies-sign-lignite-phase-out-agreement). Agenda-Setting Effects of Climate Change Litigation: Interrelations Across Issue Levels, Media, and Politics in the Case of Urgenda Against the Dutch Government. Anke Wonneberger, Rens Vliegenthart, Environmental Communication. Wonneberger, Anke, and Rens Vliegenthart. 2021. "Agenda-Setting Effects of Climate Change Litigation: Interrelations Across Issue Levels, Media, and Politics in the Case of Urgenda Against the Dutch Government." Environmental Communication (March): 1-16. Current and Future Struggles to Eliminate Coal. Stephen Zhao, Alan Alexandroff, Energy Policy. 129Zhao, Stephen, and Alan Alexandroff. 2019. "Current and Future Struggles to Eliminate Coal." Energy Policy, 129, 511-520.
sample_18678
1
arxiv
Reply to comment of Bister and co-authors on the critique of the dissipative heat engine * 27 Oct 2010 October 28, 2010 A M Makarieva Theoretical Physics Division Petersburg Nuclear Physics Institute St. Pe-tersburg 188300GatchinaRussia V G Gorshkov Theoretical Physics Division Petersburg Nuclear Physics Institute St. Pe-tersburg 188300GatchinaRussia B.-L Li Department of Botany and Plant Sciences Ecological Complexity and Modeling Laboratory University of California 92521-0124RiversideCAUSA A D Nobre Centro de Ciencia do Sistema Terrestre INPE 12227-010Sao Jose dos CamposSPBrazil Reply to comment of Bister and co-authors on the critique of the dissipative heat engine * 27 Oct 2010 October 28, 201010.1098/rspa.2010.0087 I doubt not, but we have one common design; I mean, a sincere endeavour after knowledge...Sir Isaac NewtonThe dissipative heat engine (DHE) is based on a Carnot cycle with external heat Q in received at temperature T s and released at T o < T s . In contrast to the classical Carnot engine, mechanical work A d in the DHE is not exported to external environment but dissipates to heat within the engine. Makarieva et al. (2010, hereafter MGLN) asserted that the laws of thermodynamics prohibit an increase of A d beyond the Carnot limit: Bister et al. (2010, hereafter BRPE) counterargued that such an increase is possible and that hurricanes can be viewed as a natural DHE. Here we show that the arguments of BRPE are not consistent with the energy conservation law and thus do not refute MGLN's claims.We first note that, unlike BRPE implied, MGLN did not confuse A d for work W made on external bodies. Indeed, that the DHE does not produce any work on external environment is obvious from the DHE definition and leaves little space for confusion. MGLN consistently defined work A d as work dissipated within the engine. Neither did MGLN characterize dissipation as a form of mechanical work. However, we do emphasize that mechanical energy in the DHE dissipates at the same rate at which it is produced. Thus, in BRPE's notations mechanical work A d produced by the DHE per unit time is given by the unnumbered formula for dissipation rate D on p. 3 (its relation to hurricane velocity V is given by the unnumbered formula on p. 4 at β = 0):According to BRPE, while external work W of any engine is bounded by the Carnot limit, no limits exist to work A d and it can rise practically infinitely at very small T o .Any heat engine is put into operation by an external dynamic system that creates a departure from thermodynamic equilibrium and determines the major The dissipative heat engine (DHE) is based on a Carnot cycle with external heat Q in received at temperature T s and released at T o < T s . In contrast to the classical Carnot engine, mechanical work A d in the DHE is not exported to external environment but dissipates to heat within the engine. Makarieva et al. (2010, hereafter MGLN) asserted that the laws of thermodynamics prohibit an increase of A d beyond the Carnot limit: Bister et al. (2010, hereafter BRPE) counterargued that such an increase is possible and that hurricanes can be viewed as a natural DHE. Here we show that the arguments of BRPE are not consistent with the energy conservation law and thus do not refute MGLN's claims. A d ≤ εQ in , ε ≡ (T s − T o )/T s . We first note that, unlike BRPE implied, MGLN did not confuse A d for work W made on external bodies. Indeed, that the DHE does not produce any work on external environment is obvious from the DHE definition and leaves little space for confusion. MGLN consistently defined work A d as work dissipated within the engine. Neither did MGLN characterize dissipation as a form of mechanical work. However, we do emphasize that mechanical energy in the DHE dissipates at the same rate at which it is produced. Thus, in BRPE's notations mechanical work A d produced by the DHE per unit time is given by the unnumbered formula for dissipation rate D on p. 3 (its relation to hurricane velocity V is given by the unnumbered formula on p. 4 at β = 0): A d = [(T s − T o )/T o ]Q in . According to BRPE, while external work W of any engine is bounded by the Carnot limit, no limits exist to work A d and it can rise practically infinitely at very small T o . Any heat engine is put into operation by an external dynamic system that creates a departure from thermodynamic equilibrium and determines the major parameters of the cycle. In our example (MGLN, Fig. 1) the piston is moved by a spring such that the working gas can expand and receive heat isothermally. In the hurricane the role of spring is played by the horizontal gradient of air pressure. As MGLN illustrated, the first law of thermodynamics uniquely relates isothermal expansion of the gas to the amount of heat it receives. If the expansion (set externally by the spring) does not change, the isothermal dissipation of mechanical energy to heat within the DHE necessarily results in a decrease of the external heat input, while the total amount of heat received by the gas remains constant. Consequently, work A d remains unchanged by dissipation instead of increasing as BRPE propose. This can be seen in Fig. 1b of BRPE. Other things being equal, the electric heater put at the oceanic surface warms the adjacent air and reduces the heat input from the ocean. The cycle with electric heater (internal dissipation) shown in Fig. 1b of BRPE is then of equal intensity with the ordinary Carnot cycle in Fig. 1a. BRPE implicitly agree that to accomodate the additional heat input originating from dissipation the gas must expand further. They refer to simulations of Bister & Emanuel (1998, hereafter BE98) to claim that "dissipative heating led to a further reduction in the central pressure, corresponding to enhanced isothermal expansion." But to further reduce air pressure in the hurricane one has to perform additional work on external environment: indeed, it is necessary to take the gas away from the hurricane and squeeze it to somewhere else. The DHE not performing any external work cannot accomplish it. The statement of BRPE that dissipative heating leads to a pressure reduction conflicts with the energy conservation law, as the work needed to reduce the pressure originates then from nowhere. Mass and momentum conservation and the first law of thermodynamics, from which BRPE claim BE98 derive their results, all allow for solution V = 0 that corresponds to thermodynamic equilibrium and absence of air motion. This is an inherent limitation of the thermodynamic approach. Without identifying a physical mechanism that sustains a certain disequilibrium it is not possible to describe hurricane dynamics. BE98 as well as Emanuel (1986, hereafter E86), whose work is the basis of BE98 approach, did so by borrowing the essential parameters of the cycle from observations. (For example, as the energy input to hurricane is supposed to be proportional to the difference of saturated and actual air enthalpies, Eq. (1.1) of BRPE, and approaches zero at 100% relative humidity, E86 and BE98 set relative humidity at around 80%. No theoretical explanation was given as to why, despite the proposed intense influx of water vapour into the hurricane air, the air remains unsaturated.) Numerical simulations based on semi-empirical approaches do not explain or predict the hurricane pressure reduction from the first physical principles and, as we illustrated above, may come in conflict with the latter. There is an apparent need for new theoretical concepts in hurricane research; we hope that the comment of BRPE and our reply will contribute to their development. References Bister, M., Rennó, N. O., Pauluis. O. & Emanuel, K. 2010 Comment on Makarieva et al. 'A critique of some modern applications of the Carnot heat concept: the dissipative heat engine cannot exist'. 10.1098/rspa.2010.0087Proc. R. Soc. A. concept: the dissipative heat engine cannot exist'. Proc. R. Soc. A, doi: 10.1098/rspa.2010.0087. Dissipative heating and hurricane intensity. M Bister, K A Emanuel, Meteorol. Atmos. Phys. 65Bister, M. & Emanuel, K. A. 1998 Dissipative heating and hurricane inten- sity. Meteorol. Atmos. Phys. 65, 233-240. An air-sea interaction theory for tropical cyclones. Part I. K A Emanuel, J. Atmos. Sci. 43Emanuel, K. A. 1986 An air-sea interaction theory for tropical cyclones. Part I. J. Atmos. Sci. 43, 585-605. A critique of some modern applications of the Carnot heat engine concept: the dissipative heat engine cannot exist. A M Makarieva, V G Gorshkov, B.-L Li, A D Nobre, Proc. R. Soc. A. 466Makarieva, A. M., Gorshkov, V. G., Li, B.-L. & Nobre, A. D. 2010 A critique of some modern applications of the Carnot heat engine concept: the dissipative heat engine cannot exist. Proc. R. Soc. A 466, 1893-1902.
sample_19259
0.8118
arxiv
Teleoperando Robôs Pioneer Utilizando Android 11 Jan 2015 Eduardo Gouveia Pinheiro edu.g.pinheiro@gmail.com Departamento de Computação Universidade Federal de São Carlos (UFSCar) Sorocaba -SP Brasil Túlio Casagrande tuliocasagrande@gmail.com Departamento de Computação Universidade Federal de São Carlos (UFSCar) Sorocaba -SP Brasil Alberto Departamento de Computação Universidade Federal de São Carlos (UFSCar) Sorocaba -SP Brasil Teleoperando Robôs Pioneer Utilizando Android 11 Jan 2015 This paper presents an application with ROS, Aria and RosAria to control a ModelSim simulated Pioneer 3-DX robot. The navigation applies a simple autonomous algorithm and a teleoperation control using an Android device sending the gyroscope generated information.Resumo. Este trabalho apresenta uma aplicação utilizando ROS, Aria e Ro-sAria para o controle de um rôbo Pioneer 3-DX simulado em ModelSim. A navegação é feita utilizando um algoritmo de autonomia simples e pelo controle teleoperado de um dispositivo Android, que envia as informações geradas pelo giroscópio. Introdução O uso de robôs móveis autônomos é um assunto imensamente abordado na literatura de Inteligência Artificial. Segundo [Ghallab et al. 2004], o planejamento automatizado necessita de ferramentas de processamento para que a navegação possa ser feita de maneira acessível e eficiente. Muitas vezes, essa navegação ocorre em cenários complexos e em constantes mudanças. Mesmo quando o planejamento é feito de forma extensa e minuciosa, em momentos críticos é necessário que haja intervenção humana. Este trabalho propõe o uso de dispositivos portáteis com o sistema operacional Android para teleoperar robôs móveis autônomos Pioneer. Em situações sem intervação humana, o robô tomaria as ações para qual está programado, como ajustar sua trajetória e evitar obstáculos. Em momentos críticos, o operador poderia controlar o robô à distância. O artigo está estruturado da seguinte forma: na Seção 2 são brevemente descritos os trabalhos correlatos disponíveis na literatura. Na Seção 3 está a descrição básica da proposta e na Seção 4 são apresentados os algoritmos e implementações avaliados neste trabalho. Por fim, conclusões e direções para trabalhos futuros são descritos na Seção 5. Trabalhos correlatos Os campos de estudo de robôs autônomos e de navegação teleoperada são assuntos muito abordados pela literatura de Robótica. Entende-se por robô autônomo, todo robô que aceita instruções superficiais sobre suas tarefas e as executam sem a necessidade de maiores intervenções humanas [Ottoni and Lages 2000]. [Nadvornik and Smutny 2014] utilizaram um robô Lego Mindstorms teleoperado por meio de um aplicativo Android. A comunicação é feita por um protocolo sem fio arXiv:1501.02475v1 [cs.RO] 11 Jan 2015 bluetooth e baseia-se na interação por voz e por toque, sendo que a navegação ocorre com a ajuda de um sonar na parte dianteira do protótipo construído. [M. Selvam 2014] aplicou uma interface multimídia Android para o reconhecimento de áreas inimigas em zonas de guerra. Utilizando uma aplicação para smartphones fácil e intuitiva, o autor propôs controlar o robô através da interface de toque (touchscreen). [ Ko et al. 2014] utilizaram a programação de um robô autônomo para a manutenção de estufas fazendo a pulverização de inseticidas. Este trabalho é um exemplo de como a robótica está sendo inserida em diversas áreas, tendo em vista a atual tendência da agricultura em adotar alternativas tecnológicas para diminuir o custo e o tempo de trabalho. [ Chung et al. 2004] utilizaram o algoritmo Wall Follower e propuseram um controlador que utiliza um feedback não-linear para ajustar a navegação do robô a uma velocidade constante e a uma distância segura de uma parede desconhecida e suave. Proposta A arquitetura do sistema robótico proposto utiliza os seguintes elementos: framework ROS (Robotics Operating System) 1 , as bibliotecas ARIA 2 e RosAria 3 , o simulador Mobi-leSim 4 , o aplicativo ROS Android Sensor Driver 5 e aplicações em C++. Algoritmo e Implementação A aplicação foi desenvolvida em C++ e o código-fonte com instruções de execução estão disponíveis no GitHub 7 . Basicamente, o programa apresenta as seguintes funcionalidades: 1. Teleoperação do robô por meio da captação dos movimentos do giroscópio de um celular Android; 2. Autonomia simples, cuja navegação se baseia na detecção e emparelhamento do robô com as paredes do ambiente, também conhecido como Wall Follower [Turennout et al. 1992], sendo considerado um dos mais simples algoritmos de resolução de labirintos. A aplicação também apresenta um dispositivo visual de segurança para o usuário navegar com o controle Android. A Figura 3 mostra em sua parte esquerda a saída do programa em execução e à direita a correspondência na simulação do robô. Figura 3. Sonares indicando proximidade das paredes Conclusões A utilização da framework ROS, com as bibliotecas Aria e RosAria permitem o desenvolvimento de uma interface única de comunicação, que facilita a interoperabilidade entre diversos modelos de robôs da fabricante MobileRobots. O código proposto funciona para a maioria dos modelos da família Pioneer, tais como: P3-DX, P3-AT ou AmigoBot, com nenhuma ou poucas modificações. Além disso, mesmo se utilizados modelos de outros fabricantes, o código sofreria poucas alterações, visto que a interface proposta pelo ROS é padronizada. As contribuições futuras consistem em refinar o algoritmo de navegação autônoma, de forma a incluir a construção de representações internas, tais como mapas e cálculos de trajetória. Além disso, a comunicação com o Android poderia ser expandida, de forma a enviar informações multimodais para o robô, como voz ou toque. Por fim, a utilização de um robô real poderia trazer novas experiências, tais como perdas de pacotes, leituras erradas dos sensores, filtragem de ruídos e detecção de falhas. Figura 1 . 1Robô Pioneer 3-DX Para este trabalho foi utilizado o modelo Pioneer 3-DX da MobileRobots 6 , mostrado na Figura 1. O Pioneer 3-DX é um robô compacto com duas rodas conectadas em dois motores diferenciais. O modelo básico possui ainda odômetro e dois conjuntos de sonares (frontais e traseiros), conforme a Figura 1. O modelo também possui diversos acessórios opcionais, tais como: telêmetro (sensores laser), bumpers (sensores de colisão), câmera, manipuladores de 2 até 7 graus de liberdade e entre outros. A Figura 2 ilustra um robô Pioneer 3-DX com os seguintes acessórios: Figura 2. Robô Pioneer 3-DX com acessórios [1] câmera; [2] SICK LMS-500 (telêmetro); [3] sensores ultrassônicos frontais; [4] Pioneer Gripper (manipulador com 2 DOF); [5] bumpers traseiros; e [6] sensores ultrassônicos traseiros. Segundo informações do fabricante, o Pioneer 3-DX é o robô móvel mais utilizado atualmente em ambientes acadêmicos e de pesquisa, com preços que iniciam em US$ 3.995 para o modelo básico. ROS.org | Powering the world's robots. Disponível em: http://www.ros.org. 2 ARIA -MobileRobots Research and Academic Customer Support. Disponível em: http:// robots.mobilerobots.com/wiki/ARIA. 3 RosAria -ROS Wiki. Disponível em: http://wiki.ros.org/ROSARIA. 4 MobileSim -MobileRobots Research and Academic Customer Support. Disponível em: http:// robots.mobilerobots.com/wiki/MobileSim. 5 ROS Android Sensors Driver. Disponível em: https://play.google.com/store/apps/ details?id=org.ros.android.sensors_driver. Adept MobileRobots Pioneer 3-DX (P3DX) differential drive robot for research and education. Disponível em: http://www.mobilerobots.com/ResearchRobots/PioneerP3DX.aspx. 7 Repositório tuliocasagrande/rosaria. Disponível em: https://github.com/ tuliocasagrande/rosaria. Wallfollowing control of a two-wheeled mobile robot. [ Referências, Chung, KSME International Journal. 188Referências [Chung et al. 2004] Chung, T. L., Bui, T., Kim, S., Oh, M., and T.T., N. (2004). Wall- following control of a two-wheeled mobile robot. KSME International Journal, Vol. 18, No. 8. Autonomous greenhouse mobile robot driving strategies from system integration perspective: Review and application. Mechatronics. [ Ghallab, IEEE/ASME Transactions on. Morgan Kaufmann Publishers IncAutomated Planning: Theory and Practice[Ghallab et al. 2004] Ghallab, M., Nau, D., and Traverso, P. (2004). Automated Planning: Theory and Practice. Morgan Kaufmann Publishers Inc., San Francisco, CA, USA. [Ko et al. 2014] Ko, M., Ryuh, B., Kim, K., Suprem, A., and Mahalik, N. (2014). Autono- mous greenhouse mobile robot driving strategies from system integration perspective: Review and application. Mechatronics, IEEE/ASME Transactions on, pages 01-12. Smart phone based robotic control for surveillance applications. M Selvam, International Journal of Research in Engineering and Technology. IJ-RET'14[M.Selvam 2014] M.Selvam (2014). Smart phone based robotic control for surveillance applications. International Journal of Research in Engineering and Technology (IJ- RET'14). Remote control robot using android mobile device. J Nadvornik, P Smutny, Control Conference (ICCC). Nadvornik and Smutny. 15th International Carpathian[Nadvornik and Smutny 2014] Nadvornik, J. and Smutny, P. (2014). Remote control robot using android mobile device. In Control Conference (ICCC), 2014 15th International Carpathian, pages 373-378. Planejamento de trajetórias para robôs móveis em ambientes desconhecidos. G L Ottoni, W F Lages, P V Turennout, G Honderd, L J Schelven, XIII Congresso Brasileiro de Automática. Florianópolis, SCWallfollowing control of a mobile robot. Internacional Conference on Robotics and Automation[Ottoni and Lages 2000] Ottoni, G. L. and Lages, W. F. (2000). Planejamento de trajetó- rias para robôs móveis em ambientes desconhecidos. In XIII Congresso Brasileiro de Automática, Florianópolis, SC. [Turennout et al. 1992] Turennout, P. v., Honderd, G., and Schelven, L. J. v. (1992). Wall- following control of a mobile robot. Internacional Conference on Robotics and Auto- mation.
sample_19459
0.5164
arxiv
Re-appraisal of the global climatic role of natural forests for improved climate projections and policies Anastassia M Makarieva Theoretical Physics Division Petersburg Nuclear Physics Institute 188300Gatchina, St. PetersburgRussia Institute for Advanced Study Technical University of Munich Lichtenbergstraße 2 a85748GarchingGermany Andrei V Nefiodov Theoretical Physics Division Petersburg Nuclear Physics Institute 188300Gatchina, St. PetersburgRussia Anja Rammig School of Life Sciences Technical University of Munich Hans-Carl-von-Carlowitz-Platz 285354FreisingGermany Antonio Donato Nobre Centro de Ciência do Sistema Terrestre INPE 12227-010São José dos Campos, São PauloBrazil Re-appraisal of the global climatic role of natural forests for improved climate projections and policies Along with the accumulation of atmospheric carbon dioxide, the loss of primary forests and other natural ecosystems is a major disruption of the Earth system causing global concern. Quantifying planetary warming from carbon emissions, global climate models highlight natural forests' high carbon storage potential supporting conservation policies. However, some model outcomes effectively deprioritize conservation of boreal and temperate forests suggesting that increased albedo upon deforestation could cool the planet. Potential conflict of global cooling versus regional forest conservation could harm environmental policies. Here we present theoretical and observational evidence to demonstrate that, compared to the carbon-related warming, the model skills for assessing climatic impacts of deforestation is low. We argue that deforestation-induced global cooling results from the models' limited capacity to account for the global effect of cooling from evapotranspiration of intact forests. Transpiration of trees can change the greenhouse effect via small modifications of the vertical temperature profile.Due to their convective parameterization (which postulates a certain critical temperature profile), global climate models do not properly capture this effect. This parameterization may lead to underestimation of warming from the loss of evapotranspiration in both high and low latitidues, and therefore, conclusions about deforestation-induced global cooling are not robust. To avoid deepening the environmental crisis, these conclusions should not inform policies of vegetation cover management. Studies are mounting quantifying the stabilizing impact of natural ecosystems evolved to maintain environmental homeostasis. Given the critical state and our limited understanding of both climate and ecosystems, an optimal policy would be a global moratorium on the exploitation of all natural forests. Hurtt et al., 2020, their Fig. 7 ) and increase of atmospheric CO2 (right axis, data downloaded from https://www.eea.europa.eu/data-and-maps/daviz/atmospheric-concentration-of-carbon-dioxide-5). During the industrial era, primary ecosystems have declined, and CO2 concentration has grown, by approximately one half. (Wilhere, 2021). Proponents of ecosystem preservation often borrow from the decarbonization argumentation and invoke the carbon storage potential of natural forests as a major illustration of their climatic importance. For example, the ground-breaking proforestation initiative in the United States began with emphasizing how much carbon the unexploited forests can remove from the atmosphere if allowed to develop to their full ecological potential (Moomaw et al., 2019). However, the carbon-storage argument for temperate and boreal forests is undermined by the fact that global climate models suggest that deforestation in these regions could cool the planet. Here increased albedo is estimated to overcome the warming caused by deforestation-induced carbon emissions (Jia et al., 2019, Fig. 2.17), even if the latter can be underestimated (Schepaschenko et al., 2021). These model outcomes have been known for quite a while (e.g, Snyder et al., 2004), but recently these ideas gained prominence approaching implementation. A recent Science commentary warned that regrowing boreal forests would not make the Earth cooler (Pearce, 2022), a conclusion that is purely derived from global climate model simulations (e.g., De Hertog et al., 2022). The World Resources Institute's report "Not just carbon" noted that the increased albedo from deforestation would cool the Earth and emphasized that the positive climate role of boreal forests is only local (Seymour et al., 2022a, b). Accordingly, a recent study in Nature Ecology and Evolution did not include primary boreal forests into Nature's critical assets (Chaplin-Kramer et al., 2022). One of the criteria for an ecoregion to be classified as a critical asset, was its proximity to people -and primary boreal forests are often distant from any human settlements (which is a major reason for why they are still primary). Together, these mainstream messages not only de-emphasize the preservation of natural boreal and, to a lesser degree, temperate forests, but implicitly incentivize their destruction. In this Perspective, we would like to ring an alarm bell by showing that this potentially biased picture of the role of natural forests, in particular boreal forests, for stabilizing Earth's climate is based on a few model assumptions ruling out important evapotranspiration feedbacks and can result in policies deepening rather than mitigating the climate crisis. We also outline a possible path forward. 2 Global cooling from plant transpiration Local versus global cooling We argue that the conclusion of a cooler Earth upon the loss of boreal forests stems from the limited capacity of global climate models to quantify another effect of the opposite sign: global cooling from forest transpiration. That transpiring plants provide local cooling is well-known (e.g., Huryna and Pokorný, 2016;Alkama and Cescatti, 2016;Ellison et al., 2017;Hesslerová et al., 2018, and see Fig. 2). Instead of converting to heat, a certain part of absorbed solar energy is spent to break the intermolecular (hydrogen) bonds between the water molecules during evapotranspiration. As a result, the evaporating surface cools. When more sunlight is reflected back to space, the planet receives less energy and it is intuitively clear that it must cool. In comparison, although evaporation does cool locally, the captured energy does not disappear but is released upon condensation elsewhere in the Earth system. In contrast with the well developed methodology of explaining the rising planetary temperature with increasing CO 2 (e.g., Benestad, 2017, and references therein), how and whether loss of plant transpiration could warm the planet remains unclear. While the IPCC science does recognize that global cooling from plant transpiration exists (Jia et al., 2019, Fig. 2.17), its description is not to be found in textbooks. However, with the environmental science being inherently transdisciplinary, understanding this effect is important for the broader community of ecosystem researchers and conservationists, as it will enable a critical assessment of model outputs offered to guide large-scale vegetation management. Conceptual picture To illustrate the effect, we will use a simple model of energy transfer (Fig. 3). The greenhouse substances are represented by discrete layers that absorb all incoming thermal radiation and radiate all absorbed energy equally up and down. In the absence of absorbers, the Earth's surface emits as much thermal radiation as it receives from the Sun (Fig. 3a). Each layer of the greenhouse substances redirects part of the thermal radiation back to the Earth's surface. As a result, the planetary surface warms, and the more so, the greater the amount of absorbers (cf. Fig. 3b and c). When a certain part of the incoming solar radiation is absorbed in the upper atmosphere (for example, by aerosols or clouds), it escapes interaction with the absorbers beneath. Accordingly, the planetary surface cools by an amount by which the absorbers would multiply this escaping part if it dissipated to thermal radiation at the surface (cf. Fig. 3c and d). This illustrates how where the solar energy dissipates to thermal radiation, with unchanged amount of greenhouse gases and total absorbed solar energy, impacts the planetary surface temperature. Similarly, in the presence of the non-radiative heat fluxes of sensible and latent heat, the amount of solar energy converted to thermal radiation at the surface diminishes -and so does the amount of thermal radiation redirected by the absorbers back to the surface. Surface thermal radiation and temperature decline (cf. Fig. 3d and e,f). The non-radiative fluxes "hide" a certain part of absorbed solar energy from the greenhouse substances easing its ultimate release to space. Convection, condensation and precipitation "deposit the latent heat removed from the surface above the level of the main water vapor absorbers, whence it is radiated to space" (Bates, 2003). This energy escaping partially from interaction with the absorbers is the cause of global cooling from plant transpiration. A related process is the atmospheric transport of heat from the equator to higher latitudes, where the water vapor concentration in the colder atmosphere is smaller. This transport likewise "hides" a certain part of solar energy absorbed at the equator from the abundant greenhouse substances (water vapor) in the warm tropical atmosphere. In the result, despite the amount of absorbers does not change, the globally averaged greenhouse effect diminishes and the planetary surface cools (Bates, 1999;Caballero, 2001). Marvel et al. (2013) modeled an idealized atmosphere with two strong circulation cells connecting the equator and the poles. With such a circulation, the Earth's surface became eleven degrees Kelvin cooler than the modern Earth (Marvel et al., 2013, their Fig. 1e and Fig. 3 bottom). Increasing the non-radiative flux (from zero in (d) to F L > 0 in (e) and (f)) decreases surface thermal radiation F s by a magnitude proportional to F L itself and to the number of absorbing layers ∆τ beneath the height where this flux dissipates to thermal radiation (1 in (e) and 2 in (f)). Historical deforestation affected about 13% of land area (or 3.8% of planetary surface) (Fig. 1). With the global mean latent flux of F L = 80 W m −2 , if deforestation has reduced this flux by thirty per cent (∆F L ∼ −0.3F L ), this could increase the surface radiation by −0.038∆F L ∼ 0.9 W m −2 (cf. Fig. 3d and e) or twice that value (cf. Fig. 3d and f), Table 1. Given an equilibrium climate sensitivity ε ∼ 1 K/(W m −2 ) (Zelinka et al., 2020), the latter case z e =0 z e = z 1 z e = z 2 (a) Earth's surface Solar radiation Thermal radiation to space Figure 3. Scheme to illustrate the dependence of the planetary surface temperature on the amount of greenhouse substances (a-c) and on the magnitude and spatial distribution of the non-radiative energy fluxes (d-f). Thickness of each layer of the greenhouse substances corresponds to unit optical depth τ = 1 (one free path of thermal photons -the mean distance between two consecutive acts of absorption and re-emission by the absorber molecules); τs is the total number of layers: τs = 0 in (a), 1 in (b) and 2 in (c-f). A "gray" atmosphere is assumed, where absorption of thermal radiation is the same for all wavelengths (Ramanathan and Coakley Jr., 1978;Makarieva and Gorshkov, 2001;Gorshkov et al., 2002). Thermal radiation of the planetary surface Fs = σT 4 s (W m −2 ) and of the upper radiative layer to space Fe = σT 4 e are related to surface temperature Ts and temperature of the upper radiative layer Te by Stefan-Boltzmann law, where σ = 5.7 × 10 −8 W m −2 K −4 is the Stefan-Boltzmann constant. All energy fluxes are shown in the units of absorbed solar radiation q, which is in the steady-state equal to thermal radiation emitted by the planet (Fe = q); in (d-f), qa = 0.3q is solar energy absorbed by the atmosphere; in (e,f), FL is the non-radiative heat flux accounting for both sensible and latent heat. With q = 239 W m −2 , configuration (f) approximately corresponds to the modern Earth (Trenberth et al., 2009). Thermal radiation is emitted to space from mean height ze: (b) (c) (d) (e) (f) (a) (b) Greenhouse gases 1 2 1 (c) 1 1 (d) 1 1 (e) 1 1 (f) 1 1 (c) 3 2 2 (d)(a) 1 1 (b) 1 (c) 1 (d) 0.7 0.3 1 (e) 0.7 0.3 1 (f) 0.7 0.3 1 (a) q F e (d) q F e (a) F s = F e = q (b) F s = (τ s +1) q = 2 q (c) F s = (τ s +1) q = 3 q (d) F s = 3 q-τ s q a = 2.4 q q a (e) F L F s = 3 q-2q a -F L (f) F L F s = 3 q-2q a -2F Lwith qa = 78 W m −2 0.3q, Fs = 390 W m −2 1.6q, FL = 97 W m −2 0.4qze = 0 in (a), ze = z1 > 0 in (b) and ze = z2 > z1 in (c-f). corresponds to a warming of about two degrees Kelvin (Table 1). This should be manifested as an increase in the temperature difference between the surface and the upper radiative layer (the mean temperature lapse rate Γ = (T s − T e )/z e , Fig. 3). If the optical thickness of the atmosphere is greater, the cooling will be proportionally larger. This work (Fig. 3d,f) Historical * * * 13 −30 2 * Tropical forests replaced by deserts in a coupled atmosphere-biosphere model. * * Deforestation of a fully forested planet without changing the albedo; ∆T is the sum of two effects, change in roughness and change in evapotranspiration efficiency as shown in Table 1 Dependence of global transpirational cooling on atmospheric circulation The higher up convection transports heat, the more pronounced global cooling it exerts as the energy is radiated more directly to space from the upper atmospheric layer (cf. Fig. 3e and f). Besides the altitude, it matters how rapidly the air ultimately descends. When the air rises and increases its potential energy in the gravitational field, its internal energy accordingly declines, and it cools. As originally evaporation cooled the evaporating surface, the release of latent heat during condensation in the rising air partially offsets this decline of the internal energy of air molecules making the air warmer than it would be without condensation. Radiating this extra thermal energy to space takes time. The more time the air warmed by latent heat release spends in the upper atmosphere (above the main absorbers), the more energy is radiated unimpeded to space and the stronger the global transpirational cooling. With the characteristic radiative cooling rate of the order of 2 K day −1 , it takes about fifteen-thirty days to radiate the latent heat released by tropical moist convection (Goody, 2003). Therefore, the long-distance moisture transport (including the biotic pump run by forests, Makarieva and Gorshkov, 2007) enhances global transpirational cooling: moist air travels for many days thousands of kilometers from the ocean to land where it ascends and latent heat is released. Then the dry air warmed by latent heat makes the same long way back in the upper atmosphere radiating energy to space (Fig. 4). If, on the contrary, the warmed air descends rapidly and locally, then most heat is brought back to the surface before it is radiated, and the net cooling effect can be nullified. Disruptions in the long-distance moisture transport (e.g., by deforestation) and violent local rains should warm the Earth. In smaller convective clouds up to a quarter of ascending air descends locally at a relatively high vertical velocity (Heus and Jonker, 2008;Katzwinkel et al., 2014). Global climate models do not correctly reproduce either the long-distance ocean-to-land moisture transport or the moisture transport over the ocean (Sohail et al., 2022). For example, the Amazon streamflow is underestimated by up to 50% (Marengo, 2006;Hagemann et al., 2011, their Fig. 5). This corresponds to a 10% error in the global continental streamflow, the latter being of the same order as global continental evaporation. Nor do global climate models correctly reproduce how the local diurnal cycle of convection changes upon deforestation producing extreme low and high temperatures (Lejeune et al., 2017, their Fig. 7). These are indirect indications of the models' limited capacity to reproduce global transpirational cooling. Global transpirational cooling in global climate models We have seen that, for a given amount of absorbers, surface temperature is determined by the vertical distribution of the nonradiative heat fluxes (Fig. 3d-f). But these fluxes themselves depend on the vertical temperature gradient: if the air temperature declines with height faster than a certain critical lapse rate 1 , the atmosphere is unstable to convection. The non-radiative heat fluxes originate proportional to the difference between the actual and the critical temperature lapse rates (Ramanathan and Coakley Jr., 1978). Therefore, strictly speaking, it is not justified to freely vary where and how the non-radiative heat fluxes dissipate to thermal radiation, not paying attention to whether the resulting vertical temperature profile is consistent with their specified values. However, since the non-radiative (convective) and net radiative energy fluxes in the Earth's atmosphere are of the same order of magnitude (100 and 60 W m −2 , respectively Trenberth et al., 2009), a rough estimate of global transpirational cooling can be obtained from considering the radiative transfer alone as done in Fig. 3d-f. (This would not be possible if the convective fluxes were an order of magnitude higher than the radiative flux). We emphasize that our goal here is not to obtain an accurate estimate of global transpirational cooling, but to present plausible arguments showing that it can be large. An exact estimate of what happens when the evapotranspiration and the latent heat flux are suppressed on a certain part of land area requires solving the problem simultatenously for the radiative-convective transfer and the temperature profile. This problem is too complicated for modern global climate models, which therefore apply the so-called convective parameterization. The idea is to postulate the (generally unknown) value of a critical temperature lapse rate instead of solving for it. While the numerical simulation is run, "whenever the radiative equilibrium lapse rate is greater than the critical lapse rate, the lapse rate is set equal to the critical lapse rate" (Ramanathan and Coakley Jr., 1978). Therefore, by construction, global climate models cannot provide any independent information about the climatic effect of evapotranspirational cooling -that should be manifested as the change in the global mean lapse rate -besides what was fed into them a priori via convective parameterization. Global climate models have been built with a major goal to assess radiative forcing from changing carbon dioxide concentrations. They do have this capacity: this forcing can be approximately estimated assuming an unchanged atmospheric temperature profile. It is under this assumption that Arrhenius (1896) obtained the first ever estimate of global warming from CO 2 doubling 2 . But radiative forcing caused by the suppression of evapotranspiration is a conceptually different problem for which convective parameterization precludes a solution that would be non-zero in the first order. Therefore, in the models, global warming resulting from the loss of transpirational cooling is, for the same deforested area, at least one order of magnitude smaller than our estimate (Table 1). For example, according to global climate models, tropical deforestation on 16% of land area would produce a global warming of 0.2 K (Snyder et al., 2004), while converting most land from forest to grassland (with unchanged albedo) would warm the Earth by about half a degree Kelvin (Davin and de Noblet-Ducoudré, 2010), see Table 1. As an illustration of the lack of conceptual clarity with regard to global transpirational cooling, one can refer to the conclusion of Davin and de Noblet-Ducoudré (2010, their Table 1) that modeled global warming due to the loss of evapotranspiration is a "non-radiative" forcing as compared to the change of albedo. This conclusion is reached by noting that loss of evapotran- homogenized and quality controlled, integrated sub-daily data set (Willett et al., 2014); ERA5, the fifth generation European Center for Medium-range Weather Forecasts global reanalysis (Hersbach et al., 2020); amip, Atmospheric Model Intercomparison Project, atmosphereonly simulations (without the ocean-atmosphere feedbacks in the climate system) (Gates et al., 1999); cmip, Phase 6 of the Coupled Model Intercomparison Project (includes amip simulations as an integral part) (Eyring et al., 2016). See Allan et al. (2022) for further details. In (d-f), d(Ts − T )/dt for AIRS is calculated using HadISDH dTs/dt. Note that altitude z(p) of a given pressure level p increases slightly as the surface temperature grows, but for p < 300 mb it is a minor effect compared to the increase of the temperature difference Ts − T (p). spiration practically does not change the radiation balance at the top of the atmosphere: ∆F e → 0 such that ∆T /∆F e ε. However, using this logic, CO 2 increase would not be a radiative forcing either, because, once the planetary temperature equilibrates, CO 2 increase per se (feedbacks absent) does not change the outgoing radiation at the top of the atmosphere. Indeed, Fig. 3 illustrates how the planetary temperature changes due to the radiative forcing from an increased amount of greenhouse substances (a-c) and due to the radiative forcing from changing non-radiative fluxes (d-f). The incoming solar and outgoing longwave radiation remain the same in all cases (F e = q and ∆F e = 0). In current models, it is assumed that as the planet warms, the temperature lapse rate should slightly diminish following moist adiabat (the so-called lapse rate feedback, Sejas et al., 2021). This robust model feature is not, however, supported by observations (Fig. 5). Satellite data are consistent with an increase in the lapse rate (Fig. 5). The temperature difference between the surface and the upper radiatve layer z e (located between 500 and 400 mb, Benestad, 2017) grows at approximately the same rate as the surface temperature itself. This effect is especially pronounced over land (Fig. 5c,f). This is consistent with a radiative forcing imposed by changing non-radiative fluxes, including those due to the land cover change (Fig. 3d-f). Discussion and conclusions For the ecological audience it could be difficult to assess the credibility of our quantitative estimates, so we would like to emphasize two of the more unequivocal points. First, global climate models do indicate that the regional loss of forest evapotranspiration leads to global warming. Eventhough the effect is small (Table 1), it is of the opposite sign compared to the albedo-related cooling from deforestation that is invoked to argue that certain forests are not globally beneficial in the climate change context. Despite this obvious importance for the policy-relevant model outcomes, a conceptual description of how evapotranspiration cools the Earth, and how its loss would lead to global warming, is absent from the meteorological literature. Conceptual understanding lacking, how can one independently assess whether the models get the effect right? Second, global warming resulting from the loss of evapotranspiration is to be pronounced as an increase in the vertical lapse rate of air temperature. Due to the convective parameterization, global climate models keep this lapse rate roughly constant as the planet warms (Held and Soden, 2006). However, this robust feature of global climate models does not agree with observations that accommodate a considerable increase in the temperature difference between the surface and the upper radiative layer (Fig. 5). Policies based on the model outcomes that we have criticized are being shaped right now, and avoiding delays in their re-evaluation is desirable. While the above arguments are percolating the meteorological literature, interested readers can approach their colleagues in the field of meteorology to see how they respond to the above two challenges, and thus get an indirect confirmation (or disproval) of our argumentation. Our results highlight the importance of a valid concept put in the core of a model. The assumption of an a priori specified critical lapse rate in the convective parameterization yields a negligible global transpirational cooling, which translates into de-emphasizing the preservation of boreal forests. Concepts are powerful; incorrect concepts can be destructive. This brings us to the question, is there a concept that ecology could offer to put in the core of a global climate model, to adequately represent the biosphere? From our perspective, it is the concept of environmental homeostasis, which is the capacity of natural ecosystems to compensate for environmental disturbances and stabilize a favorable for life environment and climate (Lovelock and Margulis, 1974;Gorshkov, 1995). Recent studies discuss how the biotic control can be evident in the observed dynamics of the Earth's temperature Ball, 2020, 2021;Arnscheidt and Rothman, 2022). When the information about how the natural ecosystem influences environment is lacking, the best guess could be to assume that they provide a stabilising feedback to the disturbance. There was already a predicament in climate science that could have been facilitated by such an approach. It was the "missing sink" problem: when the rates of carbon accumulation in the atmosphere and the ocean became known with sufficient accuracy, it turned out that a signifcant part of fossil fuel emissions could not be accounted for. The enigmatic "missing sink" was later assigned to the terrestrial biota (Popkin, 2015). While now it is commonly referred to as plant CO 2 fertilization, this is a response at the level of the ecological community as a whole: for there to be a net sink, as the plants synthesize more organic matter, heterotrophs must refrain from decomposing it at a higher rate under the warming conditions (cf. Wieder et al., 2013). Surprisingly, while the idea that ecological succession proceeds in the direction of the ecosystem attaining increased control of the environment and maximum protection from environmental perturbations was dominant in ecology (Odum, 1969), a community's stabilizing response to the CO 2 disturbance was not predicted but rather opposed by ecologists on the basis that undisturbed ecosystems should have a closed matter cycle 3 (Hampicke, 1980;Amthor, 1995). However, based on the premises of the biotic regulation concept (Gorshkov, 1995;Gorshkov et al., 2000), and long before the missing sink was assigned to the terrestrial biota, Gorshkov (1986, p. 946) predicted that the undisturbed ecosystems should perform a compensatory response to rising atmospheric CO 2 by elevating synthesis of carbohydrates. Today, climate science faces a new challenge. Global climate models with an improved representation of clouds display a higher sensitivity of the Earth's climate to CO 2 doubling than models with a poorer representation of clouds (Zelinka et al., 2020;Kuma et al., 2022). This implies more dire projections for future climate change, but also poses the problem of how to account for the past temperature changes that are not affected by the model improvements and have been satisfactorily explained assuming a lower climate sensitivity. The concept of the environmental homeostasis and the biotic regulation of the environment provide a possible solution: the climate sensitivity may have been increasing with time -reflecting the decline of natural ecosystems and their global stabilising impact (Fig. 1). Currently model uncertainties are assessed by comparing outputs from models developed by different research centers (Zelinka et al., 2020). This provides a minimal uncertainty estimate, as the model development may follow universal principles sharing both progress and errors. A distinct approach would be to attempt building a model that departs significantly from the others in its core concept and see if such a model can be plausibly tuned to competitively describe observations. Success of such a model would force the range of model uncertainties to be extended. As global climate models are currently being used to navigate our spacecraft Earth, with its multibillion crew, through the storm of global climate disruption, such a stress test on their performance would not be superfluous. Such an endeavour requires a plausible alternative concept, and we propose that a global climate model built around the stabilising impact of natural ecosystems can become such an alternative. This will require an interdisciplinary effort and an account of global transpirational cooling, the role of natural ecosystems in the long-distance moisture transport (Makarieva and Gorshkov, 2007;van der Ent et al., 2010;Ellison et al., 2012;Poveda et al., 2014;Molina et al., 2019) and water cycle stabilization (O'Connor et al., 2021;Baudena et al., 2021;Zemp et al., 2017) and the distinct impact of ecosystems at different stages of ecological succession on the surface temperature and fire regime (e.g., Baker and Spracklen, 2019;Aleinikov, 2019;Lindenmayer et al., 2022) and the cloud cover (Cerasoli et al., 2021;Duveiller et al., 2021). Living systems function on the basis of solar energy that under terrestrial conditions can be converted to useful work with a near 100% efficiency. What processes are enacted with use of this energy, is determined by the genetic programs of all the organisms composing the ecological community. Randomly changing the species composition and morphological status of living organisms in the communityfor example, by replacing natural forest with a plantation with maximized productivity or by forcing the forest to remain in the early successional state (Kellett et al., 2023) -disturbs the flow of environmental information and disrupts the ecosystem's capacity to respond to environmental disturbances. While fundamental science is being advanced, the precautionary principle should be strictly applied. Any control system increases its feedback as the perturbation grows. Therefore, as the climate destabilisation deepens, the remaining natural ecosystems should be exerting an ever increasing compensatory impact per unit area. In other words, the global climate price of losing a hectare of natural forest grows as the climate situation worsens. We call for an urgent global moratorium on the exploitation of the remaining natural ecosystems and a broad application of the proforestation strategy to allow them to restore to their full ecological and climate-regulating potential. Figure 1 . 1Decline of primary forest and non-forest ecosystems (left axis, data from Figure 2 . 2Local cooling from plant transpiration. With incoming solar radiation of about 1 kW m −2 , dry area on the deforested plot (left panel) has temperature of 55.3 • C. Young transpiring trees (right panel) lower the surface temperature by almost 30 • C. Distance between the two spots is 1 meter. Measurements and photo credit Jan Pokorný. FL) is the local reduction of latent heat on the deforested area ∆S (% of land area Sl); ∆T is the change of global surface temperature Estimated as ∆T ∼ −0.29(∆S/S l )∆F L ∆τ ε, assuming that deforestation reduces latent heat flux by 30% of F L = 80 W m −2(Trenberth et al., 2009) on 13% of land (the area affected by historical deforestation(Fig. 1), 0.29 is the relative global land area) with ∆τ = τs = 2 as optical depth of the atmosphere(Fig. 3d,f); ε ∼ 1 K/(W m −2 ) is the assumed equilibrium climate sensitivity to radiative forcing. Figure 4 . 4Visualization of the link between transpirational cooling and air circulation. After latent heat is released upon condensation, this energy can be radiated to space while the air travels back to the ocean in the upper troposhere. Figure 5 . 5Mean trends of the surface temperature Ts (a-c) and of the temperature difference (Ts − T ) between the surface and atmospheric pressure levels (d-f) for the planet as a whole (a,d), ocean (b,e) and land (c,f) over 1988-2014 in models (amip, cmip) versus observations (AIRS, HadISDH, ERA5). In (a-c), whiskers for HadISDH and ERA5 indicate ± one standard deviation, for amip and cmip -the maximum and minimum values. Shading in (d-f) indicates ± one standard deviation. Dashed, solid and dash-dotted model curves in (d-f) were obtained, respectively, by using the maximum, median and minimum values of dTs/dt and dT /dt in the model ensembles (amip and cmip). Data from Fig. S4 of Allan et al. (2022): AIRS, Atmospheric Infrared Sounder satellite data (Tian et al., 2019); HadISDH, The Met Office Hadley Centre Table 1 . 1Estimates of global warming from the loss of tree transpiration associated with deforestation; ∆FL (% of the global mean value Lapse rate Γ is the absolute magnitude of the vertical temperature gradient, Γ ≡ −∂T /∂z. 2 If the lapse rate Γ is known, an alternative way to calculate how surface temperature rises with increasing concentration of greenhouse substances is to calculate the change of radiative height ∆ze = z 2 − z 1 (cf.Fig. 3band c) using the hydrostatic equilibrium; then use ∆Ts = Γ∆ze. This represents what can be called Odum's paradox, who thought that ecological succession culminates in ecosystem's maximum control of the environment(Odum, 1969). But if the ecosystem functions on the basis of closed matter cycles, its environmental impact (and, hence, environmental control) is zero by definition. The biotic regulation concept introduced the notion of directed openness of the matter cycles to compensate for environmental disturbances(Gorshkov, 1995). AcknowledgmentsThe auhors are grateful to Jan Pokorný, David Ellison, Ugo Bardi, Jon Schull and Zuzana Mulkerin for useful discussions.We thank Richard P. Allan for kindly supplying the data for trends in atmospheric and near surface temperature in numerical The fire history in pine forests of the plain area in the Pechora-Ilych Nature Biosphere Reserve (Russia) before 1942: Possible anthropogenic causes and long-term effects. A Aleinikov, 10.24189/ncr.2019.033Nat. Conserv. Res. 4Aleinikov, A.: The fire history in pine forests of the plain area in the Pechora-Ilych Nature Biosphere Reserve (Russia) before 1942: Possible anthropogenic causes and long-term effects, Nat. Conserv. Res., 4, 21-34, https://doi.org/10.24189/ncr.2019.033, 2019. Biophysical climate impacts of recent changes in global forest cover. R Alkama, A Cescatti, 10.1126/science.aac8083Science. 351Alkama, R. and Cescatti, A.: Biophysical climate impacts of recent changes in global forest cover, Science, 351, 600-604, https://doi.org/10.1126/science.aac8083, 2016. Global changes in water vapor 1979-2020. R P Allan, K M Willett, V O John, Trent , T , 10.1029/2022JD036728J. Geophys. Res.: Atmos. 1272022Allan, R. P., Willett, K. M., John, V. O., and Trent, T.: Global changes in water vapor 1979-2020, J. Geophys. Res.: Atmos., 127, e2022JD036 728, https://doi.org/10.1029/2022JD036728, 2022. Terrestrial higher-plant response to increasing atmospheric [CO2] in relation to the global carbon cycle. J S Amthor, 10.1111/j.1365-2486.1995.tb00025.xGlob. Change Biol. 1Amthor, J. S.: Terrestrial higher-plant response to increasing atmospheric [CO2] in relation to the global carbon cycle, Glob. Change Biol., 1, 243-274, https://doi.org/10.1111/j.1365-2486.1995.tb00025.x, 1995. C W Arnscheidt, D H Rothman, 10.1126/sciadv.adc9241Presence or absence of stabilizing Earth system feedbacks on different time scales. 89241Arnscheidt, C. W. and Rothman, D. H.: Presence or absence of stabilizing Earth system feedbacks on different time scales, Sci. Adv., 8, eadc9241, https://doi.org/10.1126/sciadv.adc9241, 2022. On the influence of carbonic acid in the air upon the temperature of the ground. S : Arrhenius, Xxxi, 10.1080/14786449608620846Lond. Edinb. Dublin Philos. Mag. J. Sci. 411896Arrhenius, S.: XXXI. On the influence of carbonic acid in the air upon the temperature of the ground, Lond. Edinb. Dublin Philos. Mag. J. Sci., 41, 237-276, https://doi.org/10.1080/14786449608620846, 1896. Climate benefits of intact Amazon forests and the biophysical consequences of disturbance. J C A Baker, D V Spracklen, 10.3389/ffgc.2019.00047Front. For. Glob. Change. 2Baker, J. C. A. and Spracklen, D. V.: Climate benefits of intact Amazon forests and the biophysical consequences of disturbance, Front. For. Glob. Change, 2, https://doi.org/10.3389/ffgc.2019.00047, 2019. A dynamical stabilizer in the climate system: A mechanism suggested by a simple model. J R Bates, 10.3402/tellusa.v51i3.13458Tellus A: Dyn. Meteorol. Oceanogr. 51Bates, J. R.: A dynamical stabilizer in the climate system: A mechanism suggested by a simple model, Tellus A: Dyn. Meteorol. Oceanogr., 51, 349-372, https://doi.org/10.3402/tellusa.v51i3.13458, 1999. On climate stability, climate sensitivity and the dynamics of the enhanced greenhouse effect. J R Bates, DCESS REPORT. 3Bates, J. R.: On climate stability, climate sensitivity and the dynamics of the enhanced greenhouse effect, DCESS REPORT, 3, 1-38, 2003. Effects of land-use change in the Amazon on precipitation are likely underestimated. M Baudena, O A Tuinenburg, P A Ferdinand, A Staal, 10.1111/gcb.15810Glob. Change Biol. 27Baudena, M., Tuinenburg, O. A., Ferdinand, P. A., and Staal, A.: Effects of land-use change in the Amazon on precipitation are likely underestimated, Glob. Change Biol., 27, 5580-5587, https://doi.org/10.1111/gcb.15810, 2021. A mental picture of the greenhouse effect. R E Benestad, 10.1007/s00704-016-1732-yTheor. Appl. Climatol. 128Benestad, R. E.: A mental picture of the greenhouse effect, Theor. Appl. Climatol., 128, 679-688, https://doi.org/10.1007/s00704-016-1732- y, 2017. Surface wind, subcloud humidity and the stability of the tropical climate. R Caballero, 10.3402/tellusa.v53i4.12224Tellus A: Dyn. Meteorol. Oceanogr. 53Caballero, R.: Surface wind, subcloud humidity and the stability of the tropical climate, Tellus A: Dyn. Meteorol. Oceanogr., 53, 513-525, https://doi.org/10.3402/tellusa.v53i4.12224, 2001. Cloud cooling effects of afforestation and reforestation at midlatitudes. S Cerasoli, J Yin, A Porporato, 10.1073/pnas.2026241118Proc. Natl. Acad. Sci. USA. Natl. Acad. Sci. USA118Cerasoli, S., Yin, J., and Porporato, A.: Cloud cooling effects of afforestation and reforestation at midlatitudes, Proc. Natl. Acad. Sci. USA, 118, https://doi.org/10.1073/pnas.2026241118, 2021. . R Chaplin-Kramer, R A Neugarten, R P Sharp, P M Collins, S Polasky, D Hole, R Schuster, M Strimas-Mackey, M Mulligan, C Brandon, S Diaz, E Fluet-Chouinard, L J Gorenflo, J A Johnson, C M Kennedy, P W Keys, K Longley-Wood, P B Mcintyre, M Noon, U Pascual, C Reidy Liermann, P R Roehrdanz, G Schmidt-Traub, M R Shaw, M Spalding, W R Turner, vanChaplin-Kramer, R., Neugarten, R. A., Sharp, R. P., Collins, P. M., Polasky, S., Hole, D., Schuster, R., Strimas-Mackey, M., Mulligan, M., Brandon, C., Diaz, S., Fluet-Chouinard, E., Gorenflo, L. J., Johnson, J. A., Kennedy, C. M., Keys, P. W., Longley-Wood, K., McIntyre, P. B., Noon, M., Pascual, U., Reidy Liermann, C., Roehrdanz, P. R., Schmidt-Traub, G., Shaw, M. R., Spalding, M., Turner, W. R., van Mapping the planet's critical natural assets. A Soesbergen, R A Watson, 10.1038/s41559-022-01934-5Nat. Ecol. Evol. Soesbergen, A., and Watson, R. A.: Mapping the planet's critical natural assets, Nat. Ecol. Evol., https://doi.org/10.1038/s41559-022- 01934-5, 2022. Climatic impact of global-scale deforestation: Radiative versus nonradiative processes. E L Davin, N De Noblet-Ducoudré, 10.1175/2009JCLI3102.1J. Clim. 23Davin, E. L. and de Noblet-Ducoudré, N.: Climatic impact of global-scale deforestation: Radiative versus nonradiative processes, J. Clim., 23, 97-112, https://doi.org/10.1175/2009JCLI3102.1, 2010. The biogeophysical effects of idealized land cover and land management changes in Earth system models. S J De Hertog, F Havermann, I Vanderkelen, S Guo, F Luo, I Manola, D Coumou, E L Davin, G Duveiller, Q Lejeune, J Pongratz, C.-F Schleussner, S I Seneviratne, W Thiery, 10.5194/esd-13-1305-2022Earth Syst. Dynam. 13De Hertog, S. J., Havermann, F., Vanderkelen, I., Guo, S., Luo, F., Manola, I., Coumou, D., Davin, E. L., Duveiller, G., Lejeune, Q., Pongratz, J., Schleussner, C.-F., Seneviratne, S. I., and Thiery, W.: The biogeophysical effects of idealized land cover and land management changes in Earth system models, Earth Syst. Dynam., 13, 1305-1350, https://doi.org/10.5194/esd-13-1305-2022, 2022. Revealing the widespread potential of forests to increase low level cloud cover. G Duveiller, F Filipponi, A Ceglar, J Bojanowski, R Alkama, A Cescatti, 10.1038/s41467-021-24551-5Nat. Commun. 12Duveiller, G., Filipponi, F., Ceglar, A., Bojanowski, J., Alkama, R., and Cescatti, A.: Revealing the widespread potential of forests to increase low level cloud cover, Nat. Commun., 12, 4337, https://doi.org/10.1038/s41467-021-24551-5, 2021. On the forest cover-water yield debate: from demand-to supply-side thinking. D Ellison, N Futter, M Bishop, K , 10.1111/j.1365-2486.2011.02589.xGlob. Change Biol. 18Ellison, D., N. Futter, M., and Bishop, K.: On the forest cover-water yield debate: from demand-to supply-side thinking, Glob. Change Biol., 18, 806-820, https://doi.org/10.1111/j.1365-2486.2011.02589.x, 2012. D Ellison, C E Morris, B Locatelli, D Sheil, J Cohen, D Murdiyarso, V Gutierrez, M Van Noordwijk, I F Creed, J Pokorny, D Gaveau, D V Spracklen, A B Tobella, U Ilstedt, A J Teuling, S G Gebrehiwot, D C Sands, B Muys, B Verbist, E Springgay, Y Sugandi, C A Sullivan, 10.1016/j.gloenvcha.2017.01.002Trees, forests and water: Cool insights for a hot world. 43Ellison, D., Morris, C. E., Locatelli, B., Sheil, D., Cohen, J., Murdiyarso, D., Gutierrez, V., van Noordwijk, M., Creed, I. F., Pokorny, J., Gaveau, D., Spracklen, D. V., Tobella, A. B., Ilstedt, U., Teuling, A. J., Gebrehiwot, S. G., Sands, D. C., Muys, B., Verbist, B., Springgay, E., Sugandi, Y., and Sullivan, C. A.: Trees, forests and water: Cool insights for a hot world, Glob. Environ. Change, 43, 51-61, https://doi.org/10.1016/j.gloenvcha.2017.01.002, 2017. Overview of the Coupled Model Intercomparison Project Phase 6 (CMIP6) experimental design and organization. V Eyring, S Bony, G A Meehl, C A Senior, B Stevens, R J Stouffer, K E Taylor, 10.5194/gmd-9Geosci. Model Dev. 9Eyring, V., Bony, S., Meehl, G. A., Senior, C. A., Stevens, B., Stouffer, R. J., and Taylor, K. E.: Overview of the Coupled Model Intercom- parison Project Phase 6 (CMIP6) experimental design and organization, Geosci. Model Dev., 9, 1937-1958, https://doi.org/10.5194/gmd- 9-1937-2016, 2016. An overview of the results of the Atmospheric Model Intercomparison Project (AMIP I). W L Gates, J S Boyle, C Covey, C G Dease, C M Doutriaux, R S Drach, M Fiorino, P J Gleckler, J J Hnilo, S M Marlais, T J Phillips, G L Potter, B D Santer, K R Sperber, K E Taylor, D N Williams, 10.1175/1520-0477Bull. Amer. Meteor. Soc. 80080<0029:AOOTRO>2.0.CO;2,Gates, W. L., Boyle, J. S., Covey, C., Dease, C. G., Doutriaux, C. M., Drach, R. S., Fiorino, M., Gleckler, P. J., Hnilo, J. J., Mar- lais, S. M., Phillips, T. J., Potter, G. L., Santer, B. D., Sperber, K. R., Taylor, K. E., and Williams, D. N.: An overview of the re- sults of the Atmospheric Model Intercomparison Project (AMIP I), Bull. Amer. Meteor. Soc., 80, 29-56, https://doi.org/10.1175/1520- 0477(1999)080<0029:AOOTRO>2.0.CO;2, 1999. On the mechanical efficiency of deep, tropical convection. R Goody, 10.1175/1520-0469060<2827:OTMEOD>2.0.COJ. Atmos. Sci. 60Goody, R.: On the mechanical efficiency of deep, tropical convection, J. Atmos. Sci., 60, 2827-2832, https://doi.org/10.1175/1520- 0469(2003)060<2827:OTMEOD>2.0.CO;2, 2003. Radiative-convective processes and changes of the flux of thermal radiation into space with increasing optical thickness of the atmosphere. V Gorshkov, A Makarieva, T Pujol, Proceedings of the XXXVI Winter School of Petersburg Nuclear Physics Institute (Nuclear and Particle Physics). the XXXVI Winter School of Petersburg Nuclear Physics Institute (Nuclear and Particle Physics)PNPI RAS, Gatchina, St. Petersburg, RussiaGorshkov, V., Makarieva, A., and Pujol, T.: Radiative-convective processes and changes of the flux of thermal radiation into space with increasing optical thickness of the atmosphere, pp. 499-525, PNPI RAS, Gatchina, St. Petersburg, Russia, Proceedings of the XXXVI Winter School of Petersburg Nuclear Physics Institute (Nuclear and Particle Physics), February 25 -March 3, 2002. Atmospheric disturbance of the carbon cycle: Impact upon the biosphere. V G Gorshkov, 10.1007/BF02891905Nuov. Cim. C. 9Gorshkov, V. G.: Atmospheric disturbance of the carbon cycle: Impact upon the biosphere, Nuov. Cim. C, 9, 937-952, https://doi.org/10.1007/BF02891905, 1986. Physical and biological bases of life stability. V G Gorshkov, 10.1007/978-3-642-85001-1Man, Biota, Environment. SpringerGorshkov, V. G.: Physical and biological bases of life stability. Man, Biota, Environment, Springer, Berlin, Heidelberg, https://doi.org/10.1007/978-3-642-85001-1, 1995. Biotic regulation of the environment: Key issue of global change. V G Gorshkov, V V Gorshkov, A M Makarieva, SpringerBerlinGorshkov, V. G., Gorshkov, V. V., and Makarieva, A. M.: Biotic regulation of the environment: Key issue of global change, Springer, Berlin, 2000. Impact of a statistical bias correction on the projected hydrological changes obtained from three GCMs and two hydrology models. S Hagemann, C Chen, J O Haerter, J Heinke, D Gerten, C Piani, 10.1175/2011JHM1336.1J. Hydrometeor. 12Hagemann, S., Chen, C., Haerter, J. O., Heinke, J., Gerten, D., and Piani, C.: Impact of a statistical bias correction on the projected hydrological changes obtained from three GCMs and two hydrology models, J. Hydrometeor., 12, 556-578, https://doi.org/10.1175/2011JHM1336.1, 2011. The effect of the atmosphere-biosphere exchange on the global carbon cycle. U Hampicke, 10.1007/BF01978577Experientia. 36Hampicke, U.: The effect of the atmosphere-biosphere exchange on the global carbon cycle, Experientia, 36, 776-781, https://doi.org/10.1007/BF01978577, 1980. Robust responses of the hydrological cycle to global warming. I M Held, B J Soden, 10.1175/JCLI3990.1J. Clim. 19Held, I. M. and Soden, B. J.: Robust responses of the hydrological cycle to global warming, J. Clim., 19, 5686-5699, https://doi.org/10.1175/JCLI3990.1, 2006. H Hersbach, B Bell, P Berrisford, S Hirahara, A Horányi, J Muñoz-Sabater, J Nicolas, C Peubey, R Radu, D Schepers, A Simmons, C Soci, S Abdalla, X Abellan, G Balsamo, P Bechtold, G Biavati, J Bidlot, M Bonavita, G De Chiara, P Dahlgren, D Dee, M Diamantakis, R Dragani, J Flemming, R Forbes, M Fuentes, A Geer, L Haimberger, S Healy, R J Hogan, E Hólm, M Janisková, S Keeley, P Laloyaux, P Lopez, C Lupu, G Radnoti, P De Rosnay, I Rozum, F Vamborg, S Villaume, J.-N Thépaut, 10.1002/qj.3803The ERA5 global reanalysis. 146Hersbach, H., Bell, B., Berrisford, P., Hirahara, S., Horányi, A., Muñoz-Sabater, J., Nicolas, J., Peubey, C., Radu, R., Schepers, D., Simmons, A., Soci, C., Abdalla, S., Abellan, X., Balsamo, G., Bechtold, P., Biavati, G., Bidlot, J., Bonavita, M., De Chiara, G., Dahlgren, P., Dee, D., Diamantakis, M., Dragani, R., Flemming, J., Forbes, R., Fuentes, M., Geer, A., Haimberger, L., Healy, S., Hogan, R. J., Hólm, E., Janisková, M., Keeley, S., Laloyaux, P., Lopez, P., Lupu, C., Radnoti, G., de Rosnay, P., Rozum, I., Vamborg, F., Villaume, S., and Thépaut, J.-N.: The ERA5 global reanalysis, Quart. J. Roy. Meteor. Soc., 146, 1999-2049, https://doi.org/10.1002/qj.3803, 2020. The effect of forest disturbance on landscape temperature. P Hesslerová, H Huryna, J Pokorný, J Procházka, 10.1016/j.ecoleng.2018.06.011Ecol. Eng. 120Hesslerová, P., Huryna, H., Pokorný, J., and Procházka, J.: The effect of forest disturbance on landscape temperature, Ecol. Eng., 120, 345-354, https://doi.org/10.1016/j.ecoleng.2018.06.011, 2018. Subsiding shells around shallow cumulus clouds. T Heus, H J J Jonker, 10.1175/2007JAS2322.1J. Atmos. Sci. 65Heus, T. and Jonker, H. J. J.: Subsiding shells around shallow cumulus clouds, J. Atmos. Sci., 65, 1003-1018, https://doi.org/10.1175/2007JAS2322.1, 2008. Harmonization of global land use change and management for the period 850-2100 (LUH2) for CMIP6. G C Hurtt, L Chini, R Sahajpal, S Frolking, B L Bodirsky, K Calvin, J C Doelman, J Fisk, S Fujimori, K Klein Goldewijk, T Hasegawa, P Havlik, A Heinimann, F Humpenöder, J Jungclaus, J O Kaplan, J Kennedy, T Krisztin, D Lawrence, P Lawrence, L Ma, O Mertz, J Pongratz, A Popp, B Poulter, K Riahi, E Shevliakova, E Stehfest, P Thornton, F N Tubiello, D P Van Vuuren, X Zhang, 10.5194/gmd-13-5425-2020Geosci. Model Dev. 13Hurtt, G. C., Chini, L., Sahajpal, R., Frolking, S., Bodirsky, B. L., Calvin, K., Doelman, J. C., Fisk, J., Fujimori, S., Klein Goldewijk, K., Hasegawa, T., Havlik, P., Heinimann, A., Humpenöder, F., Jungclaus, J., Kaplan, J. O., Kennedy, J., Krisztin, T., Lawrence, D., Lawrence, P., Ma, L., Mertz, O., Pongratz, J., Popp, A., Poulter, B., Riahi, K., Shevliakova, E., Stehfest, E., Thornton, P., Tubiello, F. N., van Vuuren, D. P., and Zhang, X.: Harmonization of global land use change and management for the period 850-2100 (LUH2) for CMIP6, Geosci. Model Dev., 13, 5425-5464, https://doi.org/10.5194/gmd-13-5425-2020, 2020. The role of water and vegetation in the distribution of solar energy and local climate: A review. H Huryna, J Pokorný, 10.1007/s12224-016-9261-0Folia Geobot. 51Huryna, H. and Pokorný, J.: The role of water and vegetation in the distribution of solar energy and local climate: A review, Folia Geobot., 51, 191-208, https://doi.org/10.1007/s12224-016-9261-0, 2016. 10.5281/zenodo.6417333IPBES: Global assessment report on biodiversity and ecosystem services of the Intergovernmental Science-Policy Platform on Biodiversity and Ecosystem Services, IPBES secretariat. Bonn, Germany1148IPBES: Global assessment report on biodiversity and ecosystem services of the Intergovernmental Science-Policy Platform on Biodiversity and Ecosystem Services, IPBES secretariat, Bonn, Germany, https://doi.org/10.5281/zenodo.6417333, 1148 pages, 2019. 10.1017/9781009157896IPCC: Climate Change 2021: The Physical Science Basis. Contribution of Working Group I to the Sixth Assessment Report of the Intergovernmental Panel on Climate Change. Cambridge, United Kingdom and New York, NY, USACambridge University Pressin pressIPCC: Climate Change 2021: The Physical Science Basis. Contribution of Working Group I to the Sixth Assessment Report of the Intergovernmental Panel on Climate Change, Cambridge University Press, Cambridge, United Kingdom and New York, NY, USA, https://doi.org/10.1017/9781009157896, in press, 2021. Chapter 2. Land-climate interactions, in: Climate Change and Land: an IPCC special report on climate change, desertification, land degradation, sustainable land management, food security, and greenhouse gas fluxes in terrestrial ecosystems. G Jia, E Shevliakova, P Artaxo, N De Noblet-Ducoudré, R Houghton, J House, K Kitajima, C Lennard, A Popp, A Sirin, R Sukumar, L Verchot, P R Shukla, J Skea, E Calvo Buendia, V Masson-Delmotte, H.-O Pörtner, D C Roberts, P Zhai, R Slade, S Connors, R Van Diemen, M Ferrat, E Haughey, S Luz, S Neogi, M Pathak, J Petzold, J Pereira, P Vyas, E Huntley, K Kissick, M Belkacemi, J Malley, in pressJia, G., Shevliakova, E., Artaxo, P., De Noblet-Ducoudré, N., Houghton, R., House, J., Kitajima, K., Lennard, C., Popp, A., Sirin, A., Sukumar, R., and Verchot, L.: Chapter 2. Land-climate interactions, in: Climate Change and Land: an IPCC special report on climate change, desertification, land degradation, sustainable land management, food security, and greenhouse gas fluxes in terrestrial ecosystems, edited by Shukla, P. R., Skea, J., Calvo Buendia, E., Masson-Delmotte, V., Pörtner, H.-O., Roberts, D. C., Zhai, P., Slade, R., Connors, S., van Diemen, R., Ferrat, M., Haughey, E., Luz, S., Neogi, S., Pathak, M., Petzold, J., Portugal Pereira, J., Vyas, P., Huntley, E., Kissick, K., Belkacemi, M., and Malley, J., https://www.ipcc.ch/srccl/cite-report/, in press, 2019. Measurements of turbulent mixing and subsiding shells in trade wind cumuli. J Katzwinkel, H Siebert, T Heus, R A Shaw, 10.1175/JAS-D-13-0222.1J. Atmos. Sci. 71Katzwinkel, J., Siebert, H., Heus, T., and Shaw, R. A.: Measurements of turbulent mixing and subsiding shells in trade wind cumuli, J. Atmos. Sci., 71, 2810-2822, https://doi.org/10.1175/JAS-D-13-0222.1, 2014. Forest-clearing to create earlysuccessional habitats: Questionable benefits, significant costs. M J Kellett, J E Maloof, S A Masino, L E Frelich, E K Faison, S L Brosi, D R Foster, 10.3389/ffgc.2022.1073677Front. For. Glob. Change. 5Kellett, M. J., Maloof, J. E., Masino, S. A., Frelich, L. E., Faison, E. K., Brosi, S. L., and Foster, D. R.: Forest-clearing to create early- successional habitats: Questionable benefits, significant costs, Front. For. Glob. Change, 5, https://doi.org/10.3389/ffgc.2022.1073677, 2023. Machine learning of cloud types shows higher climate sensitivity is associated with lower cloud biases. P Kuma, F A Bender, .-M, A Schuddeboom, A J Mcdonald, Ø Seland, 10.5194/acp-2022-184Atmos. Chem. Phys. Discuss. 20222022preprintKuma, P., Bender, F. A.-M., Schuddeboom, A., McDonald, A. J., and Seland, Ø.: Machine learning of cloud types shows higher climate sen- sitivity is associated with lower cloud biases, Atmos. Chem. Phys. Discuss., 2022, 1-32, https://doi.org/10.5194/acp-2022-184, [preprint], 2022. Observational evidence that a feedback control system with proportional-integral-derivative characteristics is operating on atmospheric surface temperature at global scale. L M W Leggett, D A Ball, 10.1080/16000870.2020.1717268Tellus A: Dyn. Meteorol. Oceanogr. 72Leggett, L. M. W. and Ball, D. A.: Observational evidence that a feedback control system with proportional-integral-derivative characteristics is operating on atmospheric surface temperature at global scale, Tellus A: Dyn. Meteorol. Oceanogr., 72, 1-14, https://doi.org/10.1080/16000870.2020.1717268, 2020. Empirical evidence for a global atmospheric temperature control system: physical structure. L M W Leggett, D A Ball, 10.1080/16000870.2021.1926123Tellus A: Dyn. Meteorol. Oceanogr. 73Leggett, L. M. W. and Ball, D. A.: Empirical evidence for a global atmospheric temperature control system: physical structure, Tellus A: Dyn. Meteorol. Oceanogr., 73, 1-24, https://doi.org/10.1080/16000870.2021.1926123, 2021. Historical land-cover change impacts on climate: Comparative assessment of LUCID and CMIP5 multimodel experiments. Q Lejeune, S I Seneviratne, Davin , E L , 10.1175/JCLI-D-16-0213.1J. Clim. 30Lejeune, Q., Seneviratne, S. I., and Davin, E. L.: Historical land-cover change impacts on climate: Comparative assessment of LUCID and CMIP5 multimodel experiments, J. Clim., 30, 1439-1459, https://doi.org/10.1175/JCLI-D-16-0213.1, 2017. The interactions among fire, logging, and climate change have sprung a landscape trap in Victoria's montane ash forests. D B Lindenmayer, E J Bowd, C Taylor, G E Likens, 10.1007/s11258-021-01217-2Plant Ecol. 223Lindenmayer, D. B., Bowd, E. J., Taylor, C., and Likens, G. E.: The interactions among fire, logging, and climate change have sprung a landscape trap in Victoria's montane ash forests, Plant Ecol., 223, 733-749, https://doi.org/10.1007/s11258-021-01217-2, 2022. Atmospheric homeostasis by and for the biosphere: the gaia hypothesis. J Lovelock, L Margulis, 10.3402/tellusa.v26i1-2.9731Tellus. 26Lovelock, J. and Margulis, L.: Atmospheric homeostasis by and for the biosphere: the gaia hypothesis, Tellus, 26, 2-10, https://doi.org/10.3402/tellusa.v26i1-2.9731, 1974. The greenhouse effect and the stability of the global mean surface temperature. A Makarieva, V Gorshkov, Dokl. Earth Sci. 377Makarieva, A. and Gorshkov, V.: The greenhouse effect and the stability of the global mean surface temperature, Dokl. Earth Sci., 377, 210-214, 2001. Biotic pump of atmospheric moisture as driver of the hydrological cycle on land. A M Makarieva, V G Gorshkov, 10.5194/hess-11-1013-2007Hydrol. Earth Syst. Sci. 11Makarieva, A. M. and Gorshkov, V. G.: Biotic pump of atmospheric moisture as driver of the hydrological cycle on land, Hydrol. Earth Syst. Sci., 11, 1013-1033, https://doi.org/10.5194/hess-11-1013-2007, 2007. On the hydrological cycle of the Amazon basin: A historical review and current state-of-the-art. J A Marengo, Rev. Bras. Meteorol. 21Marengo, J. A.: On the hydrological cycle of the Amazon basin: A historical review and current state-of-the-art, Rev. Bras. Meteorol., 21, 1-19, 2006. Geophysical limits to global wind power. K Marvel, B Kravitz, K Caldeira, 10.1038/nclimate1683Nat. Clim. Change. 3Marvel, K., Kravitz, B., and Caldeira, K.: Geophysical limits to global wind power, Nat. Clim. Change, 3, 118-121, https://doi.org/10.1038/nclimate1683, 2013. Forest-induced exponential growth of precipitation along climatological wind streamlines over the Amazon. R D Molina, J F Salazar, J A Martínez, J C Villegas, P A Arias, 10.1029/2018JD029534J. Geophys. Res.: Atmos. 124Molina, R. D., Salazar, J. F., Martínez, J. A., Villegas, J. C., and Arias, P. A.: Forest-induced exponential growth of precipitation along climatological wind streamlines over the Amazon, J. Geophys. Res.: Atmos., 124, 2589-2599, https://doi.org/10.1029/2018JD029534, 2019. Intact forests in the United States: Proforestation mitigates climate change and serves the greatest good. W R Moomaw, S A Masino, E K Faison, 10.3389/ffgc.2019.00027Front. For. Glob. Change. 2Moomaw, W. R., Masino, S. A., and Faison, E. K.: Intact forests in the United States: Proforestation mitigates climate change and serves the greatest good, Front. For. Glob. Change, 2, https://doi.org/10.3389/ffgc.2019.00027, 2019. Forests buffer against variations in precipitation. J C O&apos;connor, S C Dekker, A Staal, O A Tuinenburg, K T Rebel, M J Santos, 10.1111/gcb.15763Glob. Change Biol. 27O'Connor, J. C., Dekker, S. C., Staal, A., Tuinenburg, O. A., Rebel, K. T., and Santos, M. J.: Forests buffer against variations in precipitation, Glob. Change Biol., 27, 4686-4696, https://doi.org/10.1111/gcb.15763, 2021. The strategy of ecosystem development: An understanding of ecological succession provides a basis for resolving man's conflict with nature. E P Odum, 10.1126/science.164.3877.262Science. 164Odum, E. P.: The strategy of ecosystem development: An understanding of ecological succession provides a basis for resolving man's conflict with nature, Science, 164, 262-270, https://doi.org/10.1126/science.164.3877.262, 1969. The forest forecast. F Pearce, 10.1126/science.adc9867Science. 376Pearce, F.: The forest forecast, Science, 376, 788-791, https://doi.org/10.1126/science.adc9867, 2022. The hunt for the world's missing carbon. G Popkin, 10.1038/523020aNature. 523Popkin, G.: The hunt for the world's missing carbon, Nature, 523, 20-22, https://doi.org/10.1038/523020a, 2015. Seasonal precipitation patterns along pathways of South American low-level jets and aerial rivers. G Poveda, L Jaramillo, L F Vallejo, 10.1002/2013WR014087Water Resour. Res. 50Poveda, G., Jaramillo, L., and Vallejo, L. F.: Seasonal precipitation patterns along pathways of South American low-level jets and aerial rivers, Water Resour. Res., 50, 98-118, https://doi.org/10.1002/2013WR014087, 2014. Climate modeling through radiative-convective models. V Ramanathan, J A CoakleyJr, 10.1029/RG016i004p00465Rev. Geophys. 16Ramanathan, V. and Coakley Jr., J. A.: Climate modeling through radiative-convective models, Rev. Geophys., 16, 465-489, https://doi.org/10.1029/RG016i004p00465, 1978. Russian forest sequesters substantially more carbon than previously reported. D Schepaschenko, E Moltchanova, S Fedorov, V Karminov, P Ontikov, M Santoro, L See, V Kositsyn, A Shvidenko, A Romanovskaya, V Korotkov, M Lesiv, S Bartalev, S Fritz, M Shchepashchenko, F Kraxner, 10.1038/s41598-021-92152-9Sci. Rep. 11825Schepaschenko, D., Moltchanova, E., Fedorov, S., Karminov, V., Ontikov, P., Santoro, M., See, L., Kositsyn, V., Shvidenko, A., Ro- manovskaya, A., Korotkov, V., Lesiv, M., Bartalev, S., Fritz, S., Shchepashchenko, M., and Kraxner, F.: Russian forest sequesters substan- tially more carbon than previously reported, Sci. Rep., 11, 12 825, https://doi.org/10.1038/s41598-021-92152-9, 2021. Understanding the differences between TOA and surface energy budget attributions of surface warming. S Sejas, X Hu, M Cai, Fan , H , 10.3389/feart.2021.725816Front. Earth Sci. 9Sejas, S., Hu, X., Cai, M., and Fan, H.: Understanding the differences between TOA and surface energy budget attributions of surface warming, Front. Earth Sci., 9, https://doi.org/10.3389/feart.2021.725816, 2021. Policies underestimate forests' full effect on the climate. F Seymour, M Wolosin, E Gray, Seymour, F., Wolosin, M., and Gray, E.: Policies underestimate forests' full effect on the climate, https://www.wri.org/insights/ how-forests-affect-climate, October 23, 2022a. Not just carbon: Capturing all the benefits of forests for stabilizing the climate from local to global scales. F Seymour, M Wolosin, E Gray, 10.46830/wrirpt.19.00004Washington, DCReportSeymour, F., Wolosin, M., and Gray, E.: Not just carbon: Capturing all the benefits of forests for stabilizing the climate from local to global scales, Report, Washington, DC, https://doi.org/10.46830/wrirpt.19.00004, 2022b. Evaluating the influence of different vegetation biomes on the global climate. P K Snyder, C Delire, J A Foley, 10.1007/s00382-004-0430-0Clim. Dynam. 23Snyder, P. K., Delire, C., and Foley, J. A.: Evaluating the influence of different vegetation biomes on the global climate, Clim. Dynam., 23, 279-302, https://doi.org/10.1007/s00382-004-0430-0, 2004. Observed poleward freshwater transport since 1970. T Sohail, J D Zika, D B Irving, J A Church, 10.1038/s41586-021-04370-w,2022Nature. 602Sohail, T., Zika, J. D., Irving, D. B., and Church, J. A.: Observed poleward freshwater transport since 1970, Nature, 602, 617-622, https://doi.org/10.1038/s41586-021-04370-w, 2022. The Atmospheric Infrared Sounder Obs4MIPs Version 2 data set. B Tian, E J Fetzer, E M Manning, 10.1029/2018EA000508Earth Space Sci. 6Tian, B., Fetzer, E. J., and Manning, E. M.: The Atmospheric Infrared Sounder Obs4MIPs Version 2 data set, Earth Space Sci., 6, 324-333, https://doi.org/10.1029/2018EA000508, 2019. Earth's global energy budget. K E Trenberth, J T Fasullo, J Kiehl, 10.1175/2008BAMS2634.1Bull. Amer. Meteor. Soc. 90Trenberth, K. E., Fasullo, J. T., and Kiehl, J.: Earth's global energy budget, Bull. Amer. Meteor. Soc., 90, 311-324, https://doi.org/10.1175/2008BAMS2634.1, 2009. Origin and fate of atmospheric moisture over continents. R J Van Der Ent, H H G Savenije, B Schaefli, S C Steele-Dunne, 10.1029/2010WR009127Water Resour. Res. 46van der Ent, R. J., Savenije, H. H. G., Schaefli, B., and Steele-Dunne, S. C.: Origin and fate of atmospheric moisture over continents, Water Resour. Res., 46, W09 525, https://doi.org/10.1029/2010WR009127, 2010. Global soil carbon projections are improved by modelling microbial processes. W R Wieder, G B Bonan, Allison , S D , 10.1038/nclimate1951Nat. Clim. Change. 3Wieder, W. R., Bonan, G. B., and Allison, S. D.: Global soil carbon projections are improved by modelling microbial processes, Nat. Clim. Change, 3, 909-912, https://doi.org/10.1038/nclimate1951, 2013. A Paris-like agreement for biodiversity needs IPCC-like science. G F Wilhere, 10.1016/j.gecco.2021.e01617Glob. Ecol. Conserv. 28Wilhere, G. F.: A Paris-like agreement for biodiversity needs IPCC-like science, Glob. Ecol. Conserv., 28, https://doi.org/10.1016/j.gecco.2021.e01617, 2021. HadISDH land surface multi-variable humidity and temperature record for climate monitoring. K M Willett, R J H Dunn, P W Thorne, S Bell, M De Podesta, D E Parker, P D Jones, Williams Jr, C N , 10.5194/cp-10-1983-2014Clim. Past. 10Willett, K. M., Dunn, R. J. H., Thorne, P. W., Bell, S., de Podesta, M., Parker, D. E., Jones, P. D., and Williams Jr., C. N.: HadISDH land surface multi-variable humidity and temperature record for climate monitoring, Clim. Past, 10, 1983-2006, https://doi.org/10.5194/cp-10- 1983-2014, 2014. Causes of higher climate sensitivity in CMIP6 models. M D Zelinka, T A Myers, D T Mccoy, S Po-Chedley, P M Caldwell, P Ceppi, S A Klein, K E Taylor, 10.1029/2019GL085782Geophys. Res. Lett. 472020Zelinka, M. D., Myers, T. A., McCoy, D. T., Po-Chedley, S., Caldwell, P. M., Ceppi, P., Klein, S. A., and Taylor, K. E.: Causes of higher climate sensitivity in CMIP6 models, Geophys. Res. Lett., 47, e2019GL085 782, https://doi.org/https://doi.org/10.1029/2019GL085782, 2020. Deforestation effects on Amazon forest resilience. D C Zemp, C.-F Schleussner, H M J Barbosa, A Rammig, 10.1002/2017GL072955Geophys. Res. Lett. 44Zemp, D. C., Schleussner, C.-F., Barbosa, H. M. J., and Rammig, A.: Deforestation effects on Amazon forest resilience, Geophys. Res. Lett., 44, 6182-6190, https://doi.org/10.1002/2017GL072955, 2017.
sample_19681
1
arxiv
A Deep Learning Synthetic Likelihood Approximation of a Non-stationary Spatial Model for Extreme Streamflow Forecasting April 28, 2023 Reetam Majumder North Carolina State University Brian J Reich North Carolina State University A Deep Learning Synthetic Likelihood Approximation of a Non-stationary Spatial Model for Extreme Streamflow Forecasting April 28, 20231 arXiv:2212.07267v2 [stat.ME] 26 Apr 2023Deep LearningDensity regressionMax-stable pro- cessesGaussian processVecchia approximationClimate change Extreme streamflow is a key indicator of flood risk, and quantifying the changes in its distribution under non-stationary climate conditions is key to mitigating the impact of flooding events. We propose a non-stationary process mixture model (NPMM) for annual streamflow maxima over the central US (CUS) which uses downscaled climate model precipitation projections to forecast extremal streamflow. Spatial dependence for the model is specified as a convex combination of transformed Gaussian and max-stable processes, indexed by a weight parameter which identifies the asymptotic regime of the process. The weight parameter is modeled as a function of the annual precipitation for each of the two hydrologic regions within the CUS, introducing spatio-temporal non-stationarity within the model. The NPMM is flexible with desirable tail dependence properties, but yields an intractable likelihood. To address this, we embed a neural network within a density regression model which is used to learn a synthetic likelihood function using simulations from the NPMM with different parameter settings. Our model is fitted using observational data for 1972-2021, and inference carried out in a Bayesian framework. The two regions within the CUS are estimated to be in different asymptotic regimes based on the posterior distribution of the weight parameter. Annual streamflow maxima estimates based on global climate models for two representative climate pathway scenarios suggest an overall increase in the frequency and magnitude of extreme streamflow for 2006-2035 compared to the historical period of 1972-2005. Introduction The increase in the frequency of hydroclimatic extreme events in the last few decades has caused devastating economic damage and claimed thousands of human lives (Hirabayashi et al., 2013;Winsemius et al., 2018). (Winsemius et al., 2016) predicted an increase in this cost due to sea level rise and extreme precipitation events brought about by climate change. Uncertainty in climate change projections, particularly those associated with precipitation (Bhowmik et al., 2017), also results in significant challenges to the design and maintenance of water infrastructure (e.g., Vahedifard et al., 2017;Kasler and Hecht, 2017). This is further exacerbated by the complexity of flooding events Condon et al., 2015;Kundzewicz et al., 2017;François et al., 2019) as extremal streamflow, which is a key measure of flood risk, shows spatial clustering (Hirsch and Ryberg, 2012;Majumder et al., 2022). There is therefore a need to account for spatial and temporal variability (i.e., non-stationarity) in extremal streamflow due to precipitation when assessing current and future flood risk (Milly et al., 2008;Vogel et al., 2011;Kundzewicz et al., 2014;Salas and Obeysekera, 2014;Milly et al., 2015;Šraj et al., 2016). A relatively simple approach to projecting flood risk on the basis of extreme streamflow is by the statistical extrapolation of spatiotemporal trends observed in the historical record. Extreme value analysis (EVA) methods have been used to model the relationship between flooding, watershed characteristics, and the weather, using regressions or hierarchical models to account for non-stationarity (Šraj et al., 2016;Dawdy et al., 2012;Lima et al., 2016). However, purely statistical projections of extremal streamflow that do not consider physical variables which are expected to change under climate change (e.g., temperature and precipitation) are likely to be unreliable for long-term projections (Jain and Lall, 2001). Precipitation has a large impact on groundwater flow and is therefore a major driver of extremal streamflow. Like streamflow, it exhibits non-stationarity (Cheng et al., 2014;Kunkel et al., 2020) which needs to be incorporated into any modeling that attempts to provide future projections of extremal streamflow. In this paper, our objective is to build a spatial model relating precipitation and streamflow and use climate model forecasts of future precipitation to understand flood risk under different climate change scenarios. While climate change is often described in terms of the mean, it will mostly be experienced through extremes. Data for extreme events are by definition sparse, and parametric models must therefore be carefully chosen based on extremal theory to estimate small probabilities. Standard measures of dependence such as correlation and spatial models such as Gaussian processes (GP) do not adequately model extreme events; in order to properly account for spatial dependence while modeling rare event probabilities, we use spatial extreme value analysis (EVA). For modeling block maxima, e.g., the annual maximum of daily streamflow, the commonly used spatial EVA model is the max-stable process (MSP) (De Haan and Ferreira, 2006;Smith, 1990;Tawn, 1990;Schlather, 2002;Kabluchko et al., 2009;Buishand et al., 2008;Wadsworth and Tawn, 2012;Reich and Shaby, 2012). MSPs are a natural asymptotic model for block maxima, but can also be applied to peaks over a threshold using a censored likelihood (e.g., Huser and Davison, 2014;Reich et al., 2013). Exact inference for MSPs is challenging, and commonly used censored likelihood models for MSPs are also computationally intractable for all but a small number of spatial locations (Schlather, 2002;Kabluchko et al., 2009;Wadsworth andTawn, 2012, 2014;Wadsworth, 2015). Further, MSPs enforce asymptotic dependence among spatial locations (Huser and Wadsworth, 2019), an unreasonable assumption for environmental data that often has weakening spatial dependence with increasing extremeness. Alternatives and extensions to MSPs include process mixture models (Huser and Wadsworth, 2019;Majumder et al., 2022; and maxinfinitely divisible process (MIDP) models (Bopp et al., 2021), both of which can accommodate more flexible asymptotic regimes of tail dependence. Climate-informed flood projections which consider non-stationarity is an ongoing area of research Condon et al., 2015;François et al., 2019;Schlef et al., 2018Schlef et al., , 2021Sankarasubramanian and Lall, 2003;Zhang et al., 2015;Bertola et al., 2019;Awasthi et al., 2022), but flood projections are not commonly studied as a spatial EVA problem. The intractability of common spatial EVA likelihoods pose computational challenges which make it difficult to fit realistic statistical models. For example, in a study of a large geographic region under a changing climate, it is unrealistic to assume stationarity in the degree of extremal dependence between nearby locations. Non-stationarity could appear due to dependence on variables which vary spatio-temporally, or due to physical considerations like topography. Recent work on incorporating non-stationarity in spatial EVA models include Wadsworth and Tawn (2022), which incorporates non-stationarity using the framework of Sampson and Guttorp (1992). They deform the coordinate system into one where the process is stationary; this approach, however, does not use covariates. Huser and Genton (2016) use covariates in the covariance structure of an MSP, extending the work of Paciorek and Schervish (2006). Chevalier et al. (2021) uses multidimensional scaling to capture regional variation in the asymptotic spatial dependence of an MSP, and Zhong et al. (2022) construct an MIDP which include covariates to capture spatiotemporal non-stationarities. Similarly, our work proposes a spatial EVA model that allows extremal dependence to vary over both space and time via climate covariates. While this model is flexible and intuitive, it is difficult to fit using standard computational methods. Many of the modeling and computational limitations of extreme value theory have been addressed using deep learning. For example, (Cannon, 2010;Vasiliades et al., 2015;Shrestha et al., 2017;Pasche and Engelke, 2022;Richards and Huser, 2022) and the references therein use neural networks to obtain flexible regression frameworks relating covariates to extreme quantities. Similar to the application in this paper, Shrestha et al. (2017) use neural networks to model the dependence of extreme streamflow and precipitation and temperature, and then use these relationships with climate models to project future extreme streamflow events. Recently, Wilson et al. (2022) have used a convolutional neural network to regress spatial fields onto the parameters of an extreme value distribution. Computational limitations due to intractable likelihoods associated with spatial extreme value processes have also been addressed using deep learning. Lenzi et al. (2021); Sainsbury-Dale et al. (2022) replace maximum likelihood estimators with neural networks, while Majumder et al. (2022) develop synthetic likelihood functions by sampling from the spatial extreme value process with different parameter settings, and fitting these simulations with neural networks to learn an approximate likelihood function connecting the data with the model parameters. In this work, we propose a non-stationary process mixture model (NPMM) for climate-informed estimation of extremal streamflow. We specify a statistical EVA model for annual streamflow maxima within the central US (CUS) region, and use downscaled and bias-corrected precipitation projections obtained from the Multivariate Adaptive Constructed Analogs (MACA) dataset (Abatzoglou and Brown, 2012) as predictors. The NPMM addresses two important aspects of climate-informed EVA modeling. First, the process mixture model allows learning both the type and strength of asymptotic (in)dependence from the data by interpolating between a GP and an MSP. Second, the NPMM introduces non-stationarity by allowing the asymptotic regime of the spatial process to vary spatio-temporally as a function of precipitation for sub-regions within the CUS. Climate models not only consider different distributions of climate variables between historical and future time periods, they also consider multiple future pathways where model outputs diverge considerably as we extend the time horizon. Covariates allow us to accommodate potential changes in the spatial or marginal behavior or both for extreme streamflow under future climate projections which deviate from historical patterns. Inference for the NPMM is separated into density estimation and parameter estimation. The density estimation, used to approximate the intractable likelihood of the spatial process, is carried out using semiparametric quantile regression (SPQR) (Xu and Reich, 2021). The quantile process has a basis function representation, whose weights are estimated using a feed-forward neural network. The NPMM provides a flexible framework for incorporating covariates into the spatial process as well as the marginal distributions at each location, and we use it to project extremal streamflow for 2006-2035 informed by climate model precipitation under two different climate pathways. The rest of the paper is organized as follows. We introduce the streamflow and precipitation datasets for the CUS region in Section 2. Section 3 presents the NPMM and discusses density estimation, parameter estimation, and tail behavior for the model. Density estimation using SPQR for the CUS locations is carried out in Section 4, and we conduct a simulation study to see how errors in density estimation affect parameter estimates. The analysis of extremal streamflow as a function of precipitation is presented in Section 5, along with future projections of extremal streamflow based on downscaled and bias-corrected climate model precipitation data. Section 6 concludes. 2 Hydroclimatic data for the Central US Observed streamflow data The USGS Hydro-Climatic Data Network (HCDN) (Lins, 2012) is a dataset of streamflow records within the United States and its Territories. The HCDN consists of locations that are minimally impacted by anthropogenic activity, making it suitable to study the effects of changing climate on streamflow. The HCDN has been used to study the effect of climatic variables on streamflow (Sankarasubramanian et al., 2001;Oh and Sankarasubrama- nian, 2012) and to study the change in extremal streamflow over time (Majumder et al., 2022). For studying water resources, the USGS divides the US into groups of nested Hydrologic Units, identified by Hydrologic Unit Codes (HUCs). The first level of classification divides the US into 21 regions, referred to as HUC-02 regions. Our study focuses on two specific HUC-02 regions for which we have a complete data record between 1972-2021; the lower half of Region 10, denoted as 10L, and Region 11. Together, they span a region in the Central US (CUS) that consist of 55 gauges spread across South Dakota, Nebraska, Colorado, Wyoming, Kansas, Iowa, Missouri, Arkansas, Oklahoma, New Mexico and Texas. Figure 1 plots the sample 0.99 quantile of annual streamflow maxima (measured in m 3 /s) over the last 50 years at each station. There is spatial variation in these data, with extremal streamflow increasing from west to the east. Observed precipitation data The CUS is characterized by severe convective storms (Risser et al., 2019;, and precipitation trends that could potentially influence flooding (Kunkel et al., 2020). (Condon et al., 2015) have used monthly average precipitation as a model predictor to project future floods, while (Awasthi et al., 2022) have used monthly total precipitation as predictors to project flood frequencies under near-term climate change. We refer the reader to (Awasthi et al., 2022) for further references regarding the use of precipitation and temperature as predictors of extremal streamflow. In this study, we use seasonal and annual precipitation means as predictors of annual extremal streamflow. Monthly precipitation data is sourced from the NOAA Monthly US Climate Gridded Dataset (NClimGrid) (Vose et al., 2014), which is based on the Global Historical Climatology Network (GHCN) dataset. NClimGrid data is available on a 5km × 5km grid, and for each of the 55 HCDN stations we use monthly precipitation for all NClimGrid cells for the corresponding basins as outlined in Figure 1. The NClimGrid data are treated as covariates to estimate both the marginal parameters at each site as well as dependence parameters for the underlying spatial process. For our response variable Y t (s), the extremal streamflow for year t and location s, we consider the corresponding seasonal precipitations as covariates. Following (Awasthi et al., 2022), the seasons correspond to winter (JFM), spring (AMJ), summer (JAS), and autumn (OND), where JFM denotes the months of January-February-March, and so on. Figure 2a plots the mean seasonal precipitation across the 2 HUC-02 regions. Not only is there spatial variability within a season, we also see heterogeneity across seasons. The highest values are observed in the southeast, and lower values seen along the west. We also note that the spring season has the highest precipitation. Figure 2b plots the 0.99 quantile of the seasonal precipitation associated with the HCDN sites for each season. Additionally, we define the covariates Z 1t and Z 2t as the annual precipitation within HUC-02 Regions 10L and 11, respectively, which is computed as the total precipitation for all NClimGrid points for the corresponding region. Figure 3 plots a time series of annual precipitation for the 2 HUC-02 regions from 1972-2021. We note that Region 11, which is located in the southern part of the CUS, has higher precipitation than Region 10L. forcings (1950-2005) as well as future Representative Concentration Pathways (RCPs) RCP 4.5 and RCP 8.5 scenarios (2006-2100) from the native coarse resolution of the GCMs to a higher spatial resolution of 4km. RCP 4.5 assumes that total anthropogenic CO 2 will peak around 2040, and decline till 2080, whereas RCP 8.5 assumes that CO 2 concentrations continue to rise until the end of the century. MACA provides monthly precipitation (pr) as one of its outputs; we obtain both the historical runs for 1972-2005 for calibrating it to NClimGrid output, and use it to estimate extremal streamflow for the CUS from 2006-2035. The quality of the GCM model projections can vary according to variable, climate pathway, geographic region, and time horizon, and (Joyce and Coulson, 2020, page 9) provides criteria for selecting climate models. We choose 6 models for each RCP scenario following on the model rankings provided by Joyce and Coulson (2020); the chosen models are the top three ranked projections in terms of precipitation change (dry, wet) at mid-century (2041-2070) under the 2 scenarios (RCP 4.5, RCP 8.5) at the coterminous US scale. While our study focuses on projections up until 2035, our choice of models ensure that these results can be extended for longer durations, and account for model and scenario uncertainty. The models chosen for RCP 4.5 are IPSL-CM5A-MR, bcc-csm1-1-m, IPSL-CM5A-LR, CSIRO-Mk3-6-0, CNRM-CM5, and MRI-CGCM3; models chosen for RCP 8.5 are IPSL-CM5A-MR, HadGEM2-ES, inmcm4, CNRM-CM5, MRI-CGCM3, and CSIRO-Mk3-6-0. We refer readers to Joyce and Coulson (2020) for further comparisons of all 20 models. Figure 4 contains a schematic of the observational and climate model datasets used in this study, as well as the historical and projection time periods. The GCM data do not have temporal correspondence; GCM output for the year 2005 is not a representation of the weather in 2005. Rather, GCM data for the historical and future periods are designed to approximate the distribution of the observed or forecast data for similar time periods. The lack of temporal correspondence makes it inappropriate to regress observed stream- flow onto modeled precipitation to estimate the relationship between these variables. However, given a model fit using temporally-correspondent observed precipitation and streamflow, estimates generated using bias-corrected GCM data as covariates can be used to compare the changes in the distribution across different time periods. Figure 5 plots mean seasonal precipitation over the CUS based on the CNRN-CM5 model for the GCM historical period of 1972-2005. This is one of the models projecting a wetter future, and the historical precipitation from this model is higher than the observed NClimGrid data in Figure 2a. The spatial patterns are broadly similar between the two datasets, and the GCM output needs to be calibrated to the observational data before it can be used as a covariate to model extremal streamflow. The GCM output is calibrated to remove bias compared to the observed precipitation at each location. The GCM log-precipitation outputs during the historical period are calibrated to have the same sample mean and variance as the observed precipitation for the same time period. This log-linear transformation is estimated and applied separately for each HCDN station and each GCM forcing, and applied to the GCM precipitation projections as well. Precipitation for the 2 HCDN regions are also similarly calibrated. It is recommended that averages of the weather over at least 30 years be used to assess the climate. Hence, we consider a historical (baseline) period of 1972-2005 and a future projection period of 2006-2035, and study changes in the extremal quantiles of the distribution of predicted streamflow maxima for these two time periods. 3 Non-stationary Process Mixture Models for Spatial Extremes The NPMM for block maxima Let Y t (s) be the extreme observation at time t and spatial location s, for t ∈ {1, . . . , T } and s ∈ {s 1 , . . . , s n }. The observations Y t (s) are defined as block maxima, and are thus assumed to arise from a generalized extreme value (GEV) distribution with location µ t (s), scale σ t (s), and shape ξ t (s): Y t (s) ∼ GEV{µ t (s), σ t (s), ξ t (s)}, whose cumulative distribution function (CDF) F t,s (y) := P[Y t (s) < y] is P Y t (s) < y = exp − 1 + ξ t (s) y − µ t (s) σ t (s) −1/ξt(s) . (1) The CDF is defined over the set y : 1 + ξ t (s)(y − µ t (s))/σ t (s) > 0 . Denote Z jt , for j = 1, 2 and t = 1, . . . , 50, as the annual precipitation for the two HUC-02 regions (10L and 11) defined in Section 2. We define X 1t (s) as the annual precipitation for the HUC-02 region that location s belongs to, i.e., X 1t (s) = I{s ∈ Region 10L}Z 1t + I{s ∈ Region 11}Z 2t , where I(·) is the indicator function. Further, denote X it (s), i = 2, . . . , 5 and t = 1, . . . , 50 as the seasonal precipitation for site s at time t for the four seasons as defined in Section 2. We assume the GEV location parameters vary spatially and are dependent on precipitation, while the scale and shape parameters also vary spatially, i.e., µ t (s) = µ 0 (s) + 5 i=1 µ i (s)X it (s), σ t (s) = σ(s). ξ t (s) = ξ(s).(2) The CDF transformed variables U t (s) := F t,s Y t (s) share common uniform marginal distributions but are spatially correlated; this transformation separates residual spatial dependence in U t (s) from the spatial dependence induced by spatial variation in the GEV parameters, which can be modeled using GP priors over s. A spatial dependence model on U t (s) is obtained via the transformation U t (s) = G t,s V t (s) , such that V t (s) = δ t (s)g R R t (s) + (1 − δ t (s))g W W t (s) ,(3) where R t (s) is a max-stable process (MSP), W t (s) is a Gaussian process (GP), and g R and g W are transformations to ensure that g R R t (s) and g W W t (s) both follow the standard exponential distribution. Without loss of generality, we assume that R t (s) has a marginal GEV(1, 1, 1) distribution and W t (s) has a marginal N(0, 1) distribution; the corresponding transformations are g R (r) = − log(1 − exp(−1/r)) and g W (w) = − log(1 − Φ(w)) for the standard normal CDF Φ(w). By construction, V t (s) follows a two-parameter hypoexponential distribution marginally, with CDF G t,s (v) = 1 − 1 − δ t (s) 1 − 2δ t (s) e − 1 (1−δ t (s)) v + δ t (s) 1 − 2δ t (s) e − 1 δ t (s) v .(4) The parameters δ t (s) ∈ [0, 1] are weight parameters that control the relative contribution of the two spatial processes at every site and time point. The spatial dependence model in (3) was originally introduced in (Majumder et al., 2022) where it assumed a constant value of δ t (s) = δ. In practice, however, it is reasonable to partition the sites into L regions such that sites within each partition share a common value of δ t (s) at any given time point t, with different partitions having potentially different values of δ t (s). Locations can be assigned to partitions based on underlying geophysical characteristics of the data, or clustered according to an appropriate distance metric. For streamflow data, the two HUC-02 regions (10L and 11) are considered partitions of the CUS. Thus L = 2 for our study, and we denote δ 1t and δ 2t as the weight parameters for these 2 partitions, i.e., δ t (s) = I{s ∈ Region 10L}δ 1t + I{s ∈ Region 11}δ 2t . As with the marginal parameters, we assume δ 1t and δ 2t depend on partitionspecific covariates: g −1 (δ it ) = β i0 + β i1 Z it , i = 1, 2,(5) where g(·) is an appropriate link function, and Z it are the annual precipitation for the two HUC-02 regions as defined in Section 2. The variable δ it depends on time through the covariate Z it . Mixing the asymptotically dependent MSP with the asymptotically independent GP provides a rich model for spatial dependence, while the covariates help capture changes in the spatiotemporal dependence. We model the correlation of the GP W t (s) using the isotropic poweredexponential correlation function Cor W t (s 1 ), W t (s 2 ) = exp{−(h/ρ W ) α W } with distance h = ||s 1 −s 2 ||, smoothness α W ∈ (0, 2), and range ρ W > 0. The MSP R t (s) is assumed to have isotropic Brown-Resnick spatial dependence defined by the variogram γ(h) = (h/ρ R ) α R for smoothness α R ∈ (0, 2) and range ρ R > 0. We also incorporate a nugget into the process mixture. We denote the proportion of the variance explained by the spatial process by r, and construct W t (s) and R t (s) as: Cor W t (s 1 ), W t (s 2 ) = r · exp{−(h/ρ W ) α W } R t (s) = max{r · R 1t (s), (1 − r) · R 2t (s)}, where R 1t (s) is an MSP, and R 2t (s) iid ∼ GEV(1, 1, 1) distributed independently of R 1t (s). We refer to this model as a non-stationary process mixture model (NPMM), with marginal parameters θ 1 = {µ 0 (s i ), ..., µ 5 (s i ), σ(s i ), ξ(s i ); i = 1 : n} and spatial dependence parameters θ 2 = {β 10 , β 11 , β 20 , β 21 , ρ R , α R , ρ W , α W , r}. Alternative spatial dependence structures are viable under the NPMM; in general, most spatial processes are compatible with the methodology presented in this work. For the purposes of this particular problem, we choose a relatively smooth spatial process, and aim to capture additional complexity using spatio-temporally varying coefficients (STVC) models Gelfand et al. Asymptotic joint tail behavior for the NPMM Extremal spatial dependence of the process at sites s 1 and s 2 is often measured using the conditional exceedance probability, χ u (s 1 , s 2 ) := P{U (s 1 ) > u|U (s 2 ) > u},(6) where u ∈ (0, 1) is a threshold. The random variables U (s 1 ) and U (s 2 ) are defined as asymptotically dependent if the limit χ(s 1 , s 2 ) = lim u→1 χ u (s 1 , s 2 )(7) is positive, and independent if χ(s 1 , s 2 ) = 0. To examine the model in a simpler case, we assume δ 1t to be the same for t = 1, . . . , T , and define δ i := δ it , i = 1, 2. We numerically approximate χ u (s 1 , s 2 ) for various values of u, δ 1 and δ 2 . We scale our region of interest and all 55 sites within it to fall within the unit square, and consider the extremal spatial dependence between a hypothetical pair of sites at a distance of h = 0.12 from each other. The value for h is chosen as the solution to: h = max i=1:55 ||s i − s i * ||, where a : b is used as shorthand notation for a, a + 1, . . . , b − 1, b, and s i * is the site closest to s i . In its original scale, this is equivalent to HCDN stations 218 km apart. Figure 6a plots the behavior of χ u (s 1 , s 2 ) for different (δ 1 , δ 2 ) pairs. Assuming an isotropic model, χ u (s 1 , s 2 ) is a function only of the distance h = ||s 1 − s 2 ||, and so we use the notation χ u (h) := χ u (s 1 , s 2 ). While χ u (h) depends on (δ 1 , δ 2 ) in our work, we suppress the dependence for notational convenience and instead use χ u (h) in the remainder of the text. As in (Huser and Wadsworth, 2019), we set the GP to have a correlation of 0.40, which is equivalent to fixing ρ W = 0.134 and ρ R = 0.19ρ W (see Section 4 for a discussion on the choice of ρ W and ρ R ), and computed the conditional exceedance probability for u = 0.9999. When δ 1 = δ 2 = δ, (Majumder et al., 2022) have shown using empirical studies that χ u (h) → 0 if δ < 0.5 and χ u (h) > 0 for δ > 0.5. An analytical result consistent with this finding was also derived for the case of a shared extremal process, i.e., for R(s 1 ) = R(s 2 ) = R, at which point we recovered the similar result from (Huser and Wadsworth, 2019). From Figure 6a, we can also see that χ u (h) → 0 when both δ 1 , δ 2 < 0.5. To understand the tail behavior of the process when δ 1 is high and δ 2 is low (and vice-versa), we consider the case where δ 1 = δ, δ 2 = 1−δ, for δ ∈ (0, 1). We find that χ(h) → 0 in this situation for all values of δ; this is verified empirically in Figure 6b where χ u (h) → 0 for different values of δ 1 and δ 2 . It also corresponds to the diagonal in Figure 6a which is shown to go to 0. This is intuitively reasonable; R(s) and W (s) are independent, and thus asymptotic dependence is only achieved if both sites have large delta and thus both sites allow substantial contribution for the asymptotically dependent process R(s). An analytical derivation of this result for the case of a shared extremal process is provided in A. Density regression using Deep Learning for the NPMM Assume the process is observed at n sites s 1 , ..., s n . We partition the parameters into those that affect the marginal distributions in (2), denoted θ 1 , and those that affect the spatial dependence, denoted θ 2 . Denoting Y (s i ) ≡ Y i and U i := F (Y i ; θ 1 ), we can express the joint distribution for all the observations using a change of variables, as: f y (y 1 , ..., y n ; θ 1 , θ 2 ) = f u (u 1 , ..., u n ; θ 2 ) n i=1 dF (y i ; θ 1 ) dy i .(8) Model fitting for the NPMM is challenging due to the way the spatial dependence is specified; the joint distribution of the MSP R(s) is available only for a moderate number of locations, and working with the term f u (u 1 , ..., u n ; θ 2 ) in (8) analytically is not viable. As in (Majumder et al., 2022), the change of variables in (8) sets the process mixture component up for density estimation. The density estimation is carried out on a surrogate likelihood based on a Vecchia decomposition (Vecchia, 1988;Stein et al., 2004;Datta et al., 2016;Katzfuss and Guinness, 2021) of the joint distribution f u (u 1 , ..., u n ; θ 2 ), f u (u 1 , ..., u n ; θ 2 ) = n i=1 f i (u i |θ 2 , u 1 , ..., u i−1 ) ≈ n i=1 f i (u i |θ 2 , u (i) ),(9) for u (i) = {u j ; j ∈ N i } and N i ⊆ {1, . . . , i − 1}. The set of locations s (i) are analogously defined as s (i) = {s j ; j ∈ N i } and is referred to as the Vecchia neighboring set. The approximation therefore entails truncating the dependence that u i has on all its previous i − 1 ordered sites to instead consider dependence on only up to m sites, i.e., |N i | ≤ m. The first term of the approximation is the marginal density f 1 (u 1 |θ 2 ). The univariate conditional distribution terms on the right hand side of (9) do not have closed-form expressions. Density regression is carried out for each of the n − 1 terms separately using the semi-parametric quantile regression (SPQR) model introduced in (Xu and Reich, 2021): f i (u i |x i , W) = K k=1 π ik (x i , W i )B k (u i ),(10) for i = 2 : n, where π ik (x i , W i ) ≥ 0 are probability weights with K k=1 π ik (x i ) = 1 that depend on the parameters W i , and B k (u i ) ≥ 0 are M-spline basis functions that, by definition, satisfy B k (u)du = 1 for all k. The density regression model in (10) treats u (i) and θ 2 as features (covariates), denoted as x i , with u i being the corresponding response variable. By increasing the number of basis functions K and appropriately selecting the weights π ik (x i ), the mixture distribution in (10) can approximate any continuous density function (e.g., Chui et al., 1980;Abrahamowicz et al., 1992) which makes it suitable for our application. The weights are modeled using a neural network (NN) with H hidden layers and a multinomial logistic (softmax) activation function on its output layer, i.e., π ik (x i , W i ) = f N N i (x i , W i ), for i = 2, . . . , n.(11) Instead of using observational data, the weights are learned from training data generated from the process mixture model with parameters θ 2 ∼ p * , which can then be used to obtain realizations from the process over sites s i and s (i) from the model conditioned on θ 2 . Specifically, we generate data at the observed spatial site with the same Vecchia neighbor sets as the problem at hand. We select the design distribution p * with support covering the range of plausible values for θ 2 . Given these values, we generate U (s) at s ∈ {s i , s (i) }. The feature set x i for modeling u i at site s i thus contains the spatial parameters θ 2 , and process values at the neighboring sites U (s (i) ). Since we can generate arbitrarily large datasets from the design distribution, model fit is not affected by any data scarcity of the observations. This is important since NNs often require large datasets for training. The NNs have their own hyperparameters which cannot be estimated directly but rather need to be tuned. These include the network architecture -the number of hidden layers (H), the size of each hidden layer (L h ), the number of basis functions (K), the activation function (ψ(·)), etc. They also include NN training parameters like the learning rate, batch size, number of epochs, and early stopping criteria. We have assumed the same network architecture for all the NNs in (11), with the exception of differences due to a smaller Vecchia neighboring set for the first few sites. The model is fit using the R (R Core Team, 2022) package SPQR (Xu and Majumder, 2022) whose inbuilt cross-validation functions can be used to tune the NN hyperparameters. Once the weights have been learned, applying the NN to the approximate likelihood is straightforward, and the Vecchia approximation ensures that the computational burden increases linearly in the number of spatial locations. Algorithm 1 outlines the local SPQR approximation. Parameter estimation using MCMC for the NPMM Given the approximate model in (8)-(9) for f y with an SPQR approximation for the spatial dependence f u , a Bayesian analysis using Markov Chain Monte Carlo (MCMC) methods is used for parameter estimation. We use Metropolis updates for both θ 1 and θ 2 . For an STVC model with local GEV coefficients for site i, we update parameters {µ t (s i ), σ(s i ), ξ(s i )} as a block sequentially by site, and exploit the Vecchia approximation to use only terms in the likelihood corresponding to sites which appear either as the response variable in the Vecchia approximation or in a Vecchia neighbor set. The coefficients (β i0 , β i1 ) are updated as a block for each i, and the weight parameters δ ti , i = 1, 2 Algorithm 1 Local SPQR approximation Require: sites s 1 , . . . , s n with sets of neighboring locations s (1) , . . . , s (n) Require: Design distribution p * , training sample size (10) using SPQR i ← i + 1 end while are updated as a result of that. All Metropolis updates are tuned to give acceptance probabilities of 0.4, and convergence is diagnosed based on the visual inspection of the trace plots. N i ← 2 while i ≤ n do j ← 1 while j ≤ N do Draw values of θ 2j ∼ p * Generate U j (s) at s ∈ {s i , s (i) } given θ 2j using (3) Define features x ij = (θ 2j , u (i)j ), where u (i)j = {U j (s); s ∈ s (i) } j ← j + 1 end while solveŴ i ← argmax W N j=1 f i (u ij |x ij , W) for f i (u i |x i , W) defined in Density Estimation for CUS Sites and Numerical Studies Density estimation for the NPMM only requires knowledge of the spatial configuration of sites, and a reasonable design distribution. We consider the n = 55 HCDN sites with the domain scaled to the unit square for convenience. Sites are assigned to the two different regions with their own weight parameters based on which HUC-02 region they belong to. Figure 7 plots the distribution of the 55 sites, alongside site 45 and its Vecchia neighboring set of m = 15 neighbors. We assume a common smoothness parameter α R = α W = 1 to put the 2 spatial processes on the same scale. A further assumption is made to improve model identifiability; we parameterize ρ W and ρ R to have the same effective range. We define the effective range as the distance at which the GP correlation reaches 0.05 and the extremal co- efficient χ for the MSP reaches 0.05. In (Majumder et al., 2022), this was achieved by setting ρ = ρ W and ρ R = 0.19ρ. Local SPQR model architecture: For density estimation, we fit local SPQR models for each site s i , i = 2 : 55. The local SPQR models have identical architectures for each site with 2 hidden layers with 30 and 20 neurons respectively, 15 output nodes, a learning rate of 0.01, and 100 epochs with a batch size of 1000. The model architecture was chosen by comparing the log-likelihood of fitted models with different architectures, and are very similar to those used in (Majumder et al., 2022). The number of output nodes in this case correspond to the number of basis functions used to approximate the true conditional density. While the analytical form of the conditional densities are not available for the NPMM, Majumder et al. (2022) was able to study this for a GP, which is equivalent to setting δ 1t = δ 2t = 0. The conditional densities are univariate Gaussian and analytically available in this case; 10-15 output nodes were found to be sufficient in modeling the conditional density, with higher values leading to random fluctuations in the estimated approximated conditional density. We train the SPQR models with the design distribution p * , generating 2 × 10 6 samples uniformly from for goodness of fit and variable importance plot (right) for the local SPQR model. δ 12 in the variable importance plots is defined as log δ 1 − log δ 2 . ρ, δ 1t , δ 2t , r ∈ (0, 1) with all parameters independent of each other. Choosing p * ∼ U (0, 1) for each of the parameters allows us to explore the parameter space uniformly within its support. The response u i is a function of exactly one of δ 1t or δ 2t depending on which region s i belongs to. The other weight parameter is relevant for density estimation only if one of the neighbors is in the other region. Thus, some sites require exactly one of δ 1t or δ 2t , while other sites require both. To ensure consistent dimensions of the feature vector across locations as well as identifiability of the weight parameters, we define δ y and δ y to be the weight parameters corresponding to the response and the neighbors respectively. If all neighbors belong to the same region as the response, δ y = δ y . Finally, we define δ (y) = log δ y − log δ y , which is non-zero only if some of the neighbors belong to a different region from the response. Instead of using δ 1t and δ 2t , we use δ y and δ (y) as covariates for density estimation. Algorithm 1 is then used to fit the local SPQR models. Figure 8a plots the probability integral scores for the local SPQR model at site 45; the scores falling along the Y = X line (partially visible, in red) suggests a good model fit. Figure 8b plots the variable importance scores for the two nearest neighbors (denoted as X 1 and X 2 ) as well as the spatial parameters of the process. The neighbors have the highest importance across the quantiles, and the spatial parameters are important covariates for Numerical study for parameter estimation: Before using the density estimates on the observed annual streamflow maxima data, we consider 3 scenarios with different spatial and marginal GEV parameters in order to ascertain how the density-estimation errors propagate to parameter-estimation errors. We assume δ 1t and δ 2t are independent of each other and depend on time by means of a probit link function, i.e., Φ −1 (δ it ) = β i0 + β i1 Z it , i = 1, 2.(12) As covariates, we use Z 1t = (t −t)/10 and Z 2t = Z 1t − 0.05, where t = 1972 + t − 1 andt is the mean of t. For all cases, the location parameters of the GEV are assumed to depend on a covariate as in (2), and we use X t (s) = Z 1t for all sites. Within a scenario, each site is assumed to have the same marginal GEV parameters. Table 1 lists the true parameter values for the 3 scenarios. We generated 60 datasets for each scenario. Each dataset contains 50 independent realizations of the NPMM at the 55 sites shown in Figure 7. For priors, we select µ 0 , µ 1 , log(σ) ∼ Normal(0, 10 2 ), ξ ∼ Normal(0, 0.25 2 ), β 10 , β 11 , β 20 , β 21 ∼ Normal(0, 1), and ρ, r ∼ Uniform(0, 1). We approximate the posterior using MCMC with 11,000 iterations and Metropolis candidate distributions tuned to have an acceptance probability of around 0.4. After discarding the first 1,000 iterations as burn-in, we compute posterior means and 95% confidence intervals for each parameter based on the remaining samples. The posterior distributions of β 10 , β 11 , β 20 , and β 21 are used to evaluate the posterior distributions of the mean of δ 1t and δ 2t . Figure 9 plots the sampling distribution of the posterior mean estimator of model parameters of interest and provides the empirical coverage of 95% posterior intervals at the bottom of each panel. Posterior estimators of the GEV parameters have relatively little bias and nominal coverage. To evaluate the posterior of δ 1t and δ 2t , we plot δ i = 1 50 50 t=1 δ it , for i = 1, 2. Estimation of δ i proves more challenging, likely due to the spatial configuration of the locations, and the relatively low importance of δ y and δ (y) in the SPQR model. While bias and variability are higher for the spatial parameters, but our methods can still distinguish between the asymptotic regimes of δ 1 and δ 2 . Analysis of Extremal Streamflow in Central US Model description We assign an STVC model to each of the marginal GEV parameters. The responses are modeled as Y t (s) ∼ GEV µ 0 (s) + 5 j=1 µ j (s)X jt (s), σ(s), ξ(s) .(13) The intercept process µ 0 (s) is assigned a GP prior with nugget effects to allow local heterogeneity: µ 0 (s) =μ 0 (s) + e 0 (s) e 0 (s) iid ∼ Normal(0, v µ 0 ) µ 0 (s) ∼ GP(β µ 0 , τ 2 µ 0 K(s, s )), where K(s, s ) = exp{−||s − s ||/ρ µ 0 } β µ 0 ∼ Normal(0, 10 2 ), τ 2 µ 0 , v 2 µ 0 iid ∼ IG(0.1, 0.1), log ρ µ 0 ∼ Normal(−2, 1), where IG(·, ·) is the inverse-Gamma distribution. The slopes µ j (s), j = 1 : 5, the log-scale log σ(s), and the shape ξ(s) are modeled similarly using GPs. The STVC parameters are denoted as θ 3 = {β µ 0 , τ 2 µ 0 , ρ µ 0 , . . . , β ξ , τ 2 ξ , ρ ξ }. For the residual model, we use the process mixture model in Section 3 for spatial dependence and assume independence across years. The simplifying assumptions that we make for the MSP R t (s) and the GP W t (s) in Section 4 are maintained here. The model for the weight parameters δ 1t and δ 2t along with the priors for all parameters in θ 2 are written as: Φ −1 (δ it ) = β i0 + β i1 Z it , i = 1, 2 β 10 , β 11 , β 20 , β 21 ∼ Normal(0, 1) ρ, r ∼ Uniform(0, 1). Note that the priors on the spatial ranges are for the scaled domain. In addition, both the streamflow and precipitation data have been rescaled to [0,1] to ensure stable estimates. Figure 10a plots χ u (h) for rank-standardized streamflow data as a function of u for different values of h. The rank standardization ensures a Uniform(0, 1) marginal distribution at each location. The plot suggests an asymptotically independent process. Figure 10b plots the mean of the annual variograms of the streamflow data. It shows a range of over 500 km, as well as the presence of a nugget effect. Extremal streamflow patterns within the CUS The local SPQR models from Section 4 are used to compute the density estimates. For parameter estimation, we ran 2 independent MCMC chains for 15,000 iterations each, discarding the first 5,000 of each chain as burn-in. Table 2 lists the posterior means and standard deviations of the spatial parameters based on the 20,000 post-burn-in posterior samples. The posterior mean of r suggests the presence of a nugget effect. For the posterior distribution of δ i , i = 1, 2, we evaluate 1 50 50 t=1 δ it for each posterior MCMC sample of (β i0 , β i1 ) and interpret it as the average value of the weight parameter conditioned on precipitation. The empirical 95% confidence intervals for the slope parameters β i1 are β 11 ∈ (−0.76, 2.56), and β 21 ∈ (−1.18, 2.47); both intervals include zero, suggesting that the weight parameters for the two regions which ascribe the asymptotic regime of extremal streamflow are not associated with the annual regional precipitation. To understand changes in δ it as a function of annual precipitation, we evaluate it for 1972-2021 based on the posterior means of (β i0 , β i1 ). Figure 11 plots the value of the weight parameter for the 2 HUC-02 regions from 1972-2021. Region 11 which corresponds to the lower half of the CUS, has a higher estimate of the weight parameter than region 10L. The sites in region 11 tend to show asymptotic dependence, while the sites in region 10L vary between asymptotic dependence and asymptotic dependence in different years. The estimates are quite different for the 2 regions and vary quite a lot from year to year for region 10L, indicating the appropriateness of the non-stationarity assumption of the spatial process. Figure 12 shows the goodness of fit of the marginal GEV models, based on maximum likelihood estimates (MLE) computed individually at each site in 12a, and estimates derived using the posterior means of the NPMM in 12b. Visual inspection suggests that the NPMM provides overall better fits compared to independent MLE despite having more bias. We compared the standard errors of the GEV parameters based on the MLE with the posterior standard deviation of the GEV parameters based on the NPMM, and found that the latter was always lower; see Table 4 in B.3 for more details. Since extremes data is often scarce by definition, pooling in spatial information across sites is crucial for improving model fits and in turn getting valid inference. The posterior means and standard deviations for the components of θ 3 are also provided in Table 5. Figure 13 shows the posterior means of the slope parameters for each HCDN site. Since each site has 5 slopes corresponding to the annual precipitation as well as 4 seasonal precipitations, we focus on the largest slope parameters for each site, corresponding to the season where precipitation has the most significant effect on streamflow. Figure 13a plots the slope parameter for the most significant season at each site; the colors denote the magnitudes of the slope parameter for the most significant season and the shapes denote the season it corresponds to. We see that most of the points are for spring (AMJ), and exactly one location (in region 11) is affected more by annual precipitation than by seasonal precipitation. To assess the strength of the significance for all seasons, we computed the posterior probability of each slope parameter being greater than 0, i.e., P[µ j (s) > 0] for j = 2 : 5. The slope corresponding to the annual precipitation is not considered in this case, and all 55 sites had at least one seasonal slope with a non-zero probability. we count the number of seasons where P[µ j (s) > 0] > 0.90 for each site; the resulting plot is presented in Figure 13b. The lower values in the plot indicate that precipitation has a large effect on streamflow only in spe- cific seasons, whereas the higher values signify that maximum streamflow is a function of seasonal precipitation from different seasons for different years. We refer the reader to (Awasthi et al., 2022) for further discussion on the seasonal/annual effect of precipitation on streamflow for different regions. Considering that most of these sites have 3-4 significant seasons as shown in Figure 13b, it is reasonable to conclude that maximum streamflow is affected by the convective storms that occur in the CUS and the associated precipitation. Finally, Figure 14 contains posterior means of the scale and shape parameters of all the watersheds. Both parameters are spatially dependent over the CUS region. We also note that the posterior means of the shape parameter are positive for 54 of the 55 sites. Annual streamflow maxima projections under RCP 4.5 and RCP 8.5 We used the bias-corrected MACA precipitation data for six RCP 4.5 and six RCP 8.5 models as specified in Section 2.3 to get future projections of streamflow. RCP 4.5, RCP 8.5) and each GCM model listed in Section 2.3, we use seasonal and annual bias-corrected GCM precipitation to generate estimates of annual streamflow maxima using the following steps: 1. Draw 1000 post burn-in samples θ (1) 1 , . . . , θ from the posterior distribution of the GEV parameters. Repeat steps 2-3 for each sample and each scenario 2. Use bias-corrected GCM precipitation as covariates in (2) to get GEV distribution location, scale, and shape parameter estimates independently for each site 3. Solve for and compute the 0.90 and 0.99 quantiles of the distribution of streamflow maxima over the entire time period. The quantiles for each site, given the GEV parameters for the entire time period (34 years for the historical period and 30 years for the projection period), can be computed by univariate root-finding algorithms. This gives us 1000 extremal quantile estimates of the distribution of annual streamflow maxima at each of the 55 sites for the historical, RCP 4.5, and RCP 8.5 scenarios. For each of the two RCP scenarios and two extremal quantile levels, we study and report the percent change in annual streamflow maxima compared to the historical period. Figures 15-16 show the mean percentage change in the observed 0.90 and 0.99 quantiles under the RCP 4.5 and RCP 8.5 projections, averaged over the 1000 estimates. The top row of each figure consists of models that project a wetter future, whereas the bottom row consists of models which project a drier future. In both figures, the triangles denote an increase, while the circles denote a decrease in annual streamflow maxima at each location. Four of the six models under each RCP scenario are common to both scenarios -CNRM-CM5, CSIRO-Mk3-6-0, and MRI-CGCM3 which project wetter futures, and IPSL-CM5A-MR, which projects a drier future. The output based on these four models can thus be compared across scenarios and quantile levels. For a particular quantile level, with the exception of CSIRO-Mk3-6-0, the wetter models predict more positive changes under RCP 8.5 than under RCP 4.5 Similarly, IPSL-CM5A-MR predicts more negative changes under RCP 8.5 than under RCP 4.5. CSIRO-Mk3-6-0 shows noticeable differences between RCP 4.5 and RCP 8.5 with several locations that show positive change under one scenario showing negative change under the other and vice versa. We expect further divergences between scenarios if this study is extended to a longer time horizon due on the underlying assumptions of the 2 RCP scenarios. Looking across quantile levels, we note that the 0.99 quantiles in Figure 16 estimate lower levels of change, ranging from -2.7%-8.4%, compared to the 0.90 quantiles in Figure 15 which show changes between -10.3%-12.3%. However, the number of locations with positive changes are the same or higher when we go from the 0.90 quantile to the 0.99 quantile under both RCP scenarios. Under RCP 4.5, all six models estimate that more than 50% locations have increased flow for both quantile levels, with values ranging from 51% -93%. For RCP 8.5, four out of the six models estimate more than half the locations to have increased streamflow. In this case, the values range from 22% -91%; in all cases, CSIRO-Mk3-6-0 gives the lowest estimates. Table 3 shows the expected number of locations jointly above the threshold for the historical and projection periods based on Monte-Carlo simulations from the fitted spatial model using bias-corrected GCM precipitation data. The values in parentheses correspond to the minimum and maximum of the estimates obtained from the 6 GCM models used. If the probability of exceeding the threshold at all locations were independent, the number of locations above the threshold would follow a Binomial distribution with parameters n = 55 and probability 1 − u, for the two cases of u = 0.90 and u = 0.99. In turn, the expected number of locations above the threshold under the independence assumption would be 5.5 and 0.55 respectively. For both the historical and projection periods, estimates from most of the models are higher than estimates from the independence assumption. In particular, both the mean and median for each of the 8 sets of values are higher than what we would get from an independence assumption. Overall, this suggests that concurrent extremal streamflow at multiple locations is likely to keep occurring into the near future. Discussion In this paper, we propose a non-stationary process mixture model for spatial extreme value analysis. The marginal distributions of the process are GEV, while the spatial dependence is specified as an interpolation of a GP and an MSP indexed by a weight parameter which is allowed to vary spatio-temporally, introducing non-stationarity. Similarly, STVC specifications used for the marginal parameters make the model flexible in terms of learning different spatio-temporal patterns present in the data. The model is an extension of the (stationary) process mixture model introduced in Majumder et al. (2022). The intractable joint likelihood for the spatial model is approximated using a Vecchia decomposition, and is learned using the density regression approach of Xu and Reich (2021). The density regression estimates a quantile process for the approximate likelihood whose weights are obtained from a neural network by maximizing the approximate likelihood. We use the NPMM to provide climate informed near-term projections of annual streamflow maxima for the central US region. The CUS is affected by convective storms and, therefore, any projections of streamflow should take into account seasonal and annual precipitation over the region. The CUS is divided into two HUC-02 regions, and the asymptotic regime for the regions are estimated independently. We used observed NClimGrid precipitation data to fit the model for annual streamflow maxima. The means of the posterior distribution puts Region 11 in the south to be asymptotically dependent for all 50 years, whereas Region 10L in the north is asymptotically dependent for 39 out of the 50 years and asymptotically independent for the rest of the years. Region 10L also has more variability in the posterior mean of asymptotic (in)dependence parameter from year to year. These inter-year differences and differences between the regions justify the appropriateness of the non-stationary assumptions we make about the process. While we find no significant linear relationship between region-wide precipitation and the logit of weight parameter, we note that region 11 has higher precipitation compared to region 10L. Afterwards, bias-corrected GCM precipitation pro-jections are used as covariates to obtain streamflow estimates for the future period of 2006-2035 and compared against the historical period of 1972-2005. Based on our projections, both the magnitude of extremal streamflow as well as the number of locations which are concurrently affected by these extreme events are likely to increase in the near-term future. Future research will focus on generating long-term climate-informed projections. The current work considers only seasonal precipitation as covariates, as adding too many variables adversely affected MCMC convergence. However, longer-term precipitation as well as temperature can affect streamflow Awasthi et al. (2022), and we would like to incorporate additional covariates in future work. Learning the weight parameter proves more challenging for the NPMM compared to its stationary equivalent; we hope to improve the spatial dependence in the model as well as the estimates obtained from it by incorporating network structure, as has been done for both max-stable (Asadi et al., 2015) and Gaussian (Santos-Fernandez et al., 2022) processes. Relaxing the simplifying assumptions on the smoothness and range parameters would improve the spatial modeling, but could make estimation more difficult as more variables are free to vary. Finally, the synthetic likelihood approach to density estimation for spatial processes using deep learning is not specific to the NPMM, and we would like to explore its performance and properties for other spatial extremes models. A Derivation of Conditional Exceedance for a Common Spatial Process (Majumder et al., 2022) derived χ(s 1 , s 2 ) for a process mixture model with a common MSP R(s 1 ) = R(s 2 ) = R and W (s 1 ) and W (s 2 ) are independent. We extend that and focus on a specific case where δ 1 = δ and δ 2 = 1 − δ, where δ 1 , δ 2 are defined as in Section 3.2. This is a convenient case because with this restriction both sites have the same marginal distribution. This case is also interesting because it illustrates the behavior of the process when the two sites are in different asymptotic regimes. We denote (1). Under these conditions, the joint survival probability is as follows: g W {W (s 1 )} = W * 1 , g W {W (s 2 )} = W * 2 , g R (R) = R * for convenience. By assumption W * 1 , W * 2 , R * iid ∼ ExponentialP r[Y 1 > y, Y 2 > y] = P r[δ 1 R * + (1 − δ 1 )W * 1 > y, δ 2 R * + (1 − δ 2 )W * 2 > y] = E R * P r W * 1 > y − δr 1 − δ P r W * 1 > y − (1 − δ)r δ |R * = r . Defining r 1 := (y − δr)/(1 − δ) and r 2 := (y − (1 − δ)r)/δ, we get P r[Y 1 > y, Y 2 > y] = E R * P r{W * 1 > r 1 }P r{W * 2 > r 2 }I{r 1 > 0, r 2 > 0} + E R * P r{W * 1 > r 1 }I{r 1 > 0, r 2 < 0} + E R * P r{W * 2 > r 2 }I{r 1 < 0, r 2 > 0} + E R * I{r 1 < 0, r 2 < 0} . (14) Note that: r 1 > 0, r 2 > 0 =⇒ r < min(y/δ, y/(1 − δ)) r 1 > 0, r 2 < 0 =⇒ (y/(1 − δ) < r < y/δ)I{δ < 0.5} r 1 < 0, r 2 > 0 =⇒ (y/δ < r < y/(1 − δ))I{δ > 0.5} r 1 < 0, r 2 < 0 =⇒ r > max(y/δ, y/(1 − δ)) We first assume that δ < 0.5. Denoting the four terms on the right-hand side of (14) as J 1 , J 2 , J 3 , and J 4 , we first see that J 3 = 0. The remaining three terms are computed individually. J 1 = exp −y 1 δ + 1 1 − δ y/1−δ 0 exp r δ 1 − δ + 1 − δ δ exp{−r}dr = exp −y 1 δ + 1 1 − δ y/1−δ 0 exp 3δ 2 − 3δ + 1 δ(1 − δ) r dr = k 1 exp −y 1 δ + 1 1 − δ exp 3δ 2 − 3δ + 1 δ(1 − δ) 2 y − 1 = k 1 exp − y 1 − δ exp − 1 − 2δ (1 − δ) 2 y − exp − y δ , where k 1 is the appropriate constant arising from the integration. J 2 = exp − y 1 − δ y/δ y/1−δ exp r δ 1 − δ − 1 dr = k 2 exp − y 1 − δ exp − 1 − 2δ δ(1 − δ) y − exp − 1 − 2δ (1 − δ) 2 y , where k 2 is the appropriate constant that arises from the integration. Finally, J 4 = exp{−y/δ}. The marginal survival probability can be obtained from (4). We denote it as M , where M = δ 1 − 2δ exp{− y δ } − 1 − δ 1 − 2δ exp{− y 1 − δ }. J 2 M = k 2 exp − 1−2δ δ(1−δ) y − exp − 1−2δ (1−δ) 2 y δ 1−2δ exp −y 1−2δ δ(1−δ) − 1−δ 1−2δ =⇒ lim y→∞ J 2 M = 0 Finally, J 4 M = exp − y δ δ 1−2δ exp{− y δ } − 1−δ 1−2δ exp{− y 1−δ } = exp −y 1−2δ δ(1−δ) δ 1−2δ exp −y 1−2δ δ(1−δ) − 1−δ 1−2δ =⇒ lim y→∞ J 4 M = 0. ∴ χ(s 1 , s 2 ) = 0. Next, consider the case of δ > 0.5. We see that the term J 2 in (14) is 0. Like before, we simplify the remaining 3 terms. J 1 = exp −y 1 δ + 1 1 − δ y/δ 0 exp r δ 1 − δ + 1 − δ δ exp{−r}dr = exp −y 1 δ + 1 1 − δ y/δ 0 exp 3δ 2 − 3δ + 1 δ(1 − δ) r dr = k 3 exp −y 1 δ + 1 1 − δ exp 3δ 2 − 3δ + 1 δ 2 (1 − δ) y − 1 = k 3 exp − y δ exp − 2δ − 1 δ 2 y − exp − y 1 − δ , where k 3 is the appropriate constant from the integration. We note the symmetry between J 1 for δ < 0.5 and J 1 computed for δ > 0.5. It is straightforward to show that lim y→∞ J 1 /M = 0 in this case as well. It follows by symmetry that lim y→∞ J 4 /M = 0 for δ > 0.5. Finally, we verify the behavior for J 3 : where k 4 is the appropriate constant for integration. Thus, lim y→∞ J 3 /M = 0 due to its symmetry with J 2 . Therefore, for δ ∈ (0, 0.5) ∪ (0.5, 1), χ(s 1 , s 2 ) = 0. J 3 = exp − y δ y/1−δ y/δ exp r 1 − δ δ − 1 dr = k 4 exp − y δ exp − 2δ − 1 δ(1 − δ) y − exp − 2δ − 1 δ 2 y , B Computational Details B.1 Asymptotic joint tail behavior Figure 17 depicts the behavior of χ u (0.12) at the 0.9999 quantile for two related models, which relax our current model assumption of ρ R = 0.19ρ W . In Figure 17a, we assume that ρ R = ρ W . This increases the range of χ u (0.12) as more extremal dependence is introduced. In Figure 17b, we replace the MSP with a GEV(1,1,1) distribution, which makes this equivalent to the model presented in Huser and Wadsworth (2019). This has the maximum amount of extremal dependence among this class of models by construction, which is reflected in the high range of χ u (0.12). However, for both cases, the same behavior holds for different values of δ 1 and δ 2 , with asymptotic dependence only if both sites are in an asymptotic dependence regime. Vecchia neighboring set can have up to 15 neighbors. Location 16 is the first location which has all 15 neighbors, and locations 35 and 50 also have all 15 neighbors. For all 4 locations, the nearest neighbor has the highest importance. The importance of the second neighbor varies from location to location. We have found this to be a function of the spatial configurationin particular, how far the second neighbor is from the response site, as well as how close it is to the other neighbors. It could also depend on whether it belongs to the same region or not. The remainder of the neighbors show similar behavior with a steady drop off of their importances, and have thus been omitted for clarity. It is interesting to note the fundamentally different way the neighbors affect the quantiles of the response compared to how the spatial parameters affect them. The neighbors have the largest effect around the median and drop off in importance near the extreme quantiles at both ends. The spatial parameters have the opposite behavior. We also note that δ y is more important to the response compared to δ (y) . This is to be expected since δ y is the mixing parameter that corresponds to the response, while δ (y) can be either 0 or a function of the other mixing parameter that does not directly affect the response. Table 4 provides a comparison of the marginal GEV model fits across locations based on the NPMM, as well as independent MLE estimates of the GEV parameters. The MLE estimates were used as initial values in our MCMC; we computed the standard errors for each variable and averaged it across the 55 sites. For the NPMM estimate, we compute the posterior SD of each parameter based on 20,000 post-burn in samples, and similarly average over all 55 locations. In all cases, the NPMM has lower spread, suggesting a better model fit. Finally, Table 5 provides posterior means and SD of the GP parameters associated with the STVC model for the marginal parameters described in Section 5.1. B.2 Variable importance plots B.3 Parameter estimates Figure 1 : 1HCDN sites in HUC-02 regions 10L and 11: Locations and 0.99 quantiles of annual streamflow maxima (in m 3 /s) at 55 HCDN stations overlaid on an elevation map (in m) of the central United States region bounded by [−107, −90] × [30, 44]. The two large polygons within the figure correspond to regions 10L (top) and 11 (bottom), and the smaller polygons correspond to the HCDN basins that each station measures streamflow for. quantiles of seasonal precipitation associated with each HCDN site. Figure 2 : 2Seasonal distribution of NClimGrid precipitation for 1972-2021: Seasons are specified on the top right of each panel and defined as winter (JFM), spring (AMJ), summer (JAS), and autumn (OND). Figure 3 : 3Time series of annual NClimGrid precipitation (in mm) from 1972-2021 for the 2 HUC-02 regions of the CUS. Values represent an average over all grid cells within the corresponding region. 2.3 Global Climate Model output of future precipitation While Global Climate Models (GCMs) do not produce streamflow estimates, they provide precipitation variables which we use to predict extremal streamflow. The Multivariate Adaptive Constructed Analogs (MACA 1 ) dataset Abatzoglou and Brown (2012) is a statistical downscaling method for GCMs. MACA downscales the model output from 20 GCMs of the Coupled Model Inter-Comparison Project 5 (CMIP5) Taylor et al. (2012) for historical GCM Figure 4 : 4Datasets used in the study, with periods of availability and usage details. Figure 5 : 5Mean seasonal precipitation (in mm) over the CUS based on the CNRM-CM5 model for the GCM historical period of 1972-2005. Seasons are specified on the top right of each panel and defined as winter (JFM), spring (AMJ), summer (JAS), and autumn (OND). (2003);Majumder et al. (2022) on the components of θ 1 . χ u (0.12) for different values of δ with δ 1 = δ and δ 2 = 1 − δ. Figure 6 : 6Empirical χ u (h) where h = 0.12 for the process mixture model as a function of δ 1 and δ 2 for sites corresponding to the HCDN stations in the CUS. Figure 7 : 7Sites used to fit SPQR models: Distribution of 55 watershed locations scaled to the unit square. Squares and circles denote the 2 different regions. The blue square corresponds to site 45, and the red squares and circles correspond to its Vecchia neighboring set. Figure 8 : 8Model diagnostics for local SPQR fit at site 45: Q-Q plot (left) one of the extremal quantiles. The remaining neighbors have significantly lower importances compared to the first few and have been omitted from the plot for clarity; their exact magnitude often depends on the spatial configuration of the locations. Variable importance plots for additional locations are provided in B.2. Figure 9 : 9Marginal and spatial parameter estimates: Sampling distribution of the posterior mean for GEV and spatial parameters for the three simulation scenarios. The red dots are the true values, and empirical coverage of the 95% intervals are provided at the bottom of each plot. variogram for annual maximum streamflow, averaged over 50 years of data. Figure 10 : 10Spatial behavior of annual maximum streamflow in terms of the conditional exceedance and the variogram. Figure 11 : 11Posterior means of δ 1 corresponding to region 10L and δ 2 corresponding to region 11, computed annually for 1972-2021. Figure 12 : 12Goodness of fit for the marginal distributions of annual streamflow maxima: Q-Q plots for MLE computed independently at all sites (left), and based on posterior means from the NPMM (right). of seasons with for which µ(s) > 0 with high probability. Figure 13 : 13Posterior means of slope parameters for annual streamflow maxima: Estimates of µ(s) = max(µ j (s)) for i = j(1)4 corresponding to the 4 seasons with shapes denoting the season with the highest slope value (left), and number of seasons (excluding annual) where P[µ(s) > 0] > 0.90 (right). of shape parameter ξ(s). Figure 14 : 14Posterior means of scale and shape parameters of annual streamflow maxima. Future projections for MACA (and CMIP5 data in general) begin from 2005, and we consider the distribution of extremal streamflow forecasts for the period from 2006-2035. Each CMIP5 model also provides historical runs alongside the projections, from which we estimate the distribution of extremal streamflow for 1972-2005. For each scenario (historical, Change in projected streamflow based on RCP 8.5. Figure 15 : 15Percentage change in observed 0.90 quantile under RCP 4.5 and RCP 8.5 for 2006-2035, compared to the baseline period of 1972-2005. Triangles denote positive values and circles denote negative values. Change in projected streamflow based on RCP 8.5. Figure 16 : 16Percentage change in observed 0.99 quantile under RCP 4.5 and RCP 8.5 for 2006-2035, compared to the baseline period of 1972-2005. Triangles denote positive values and circles denote negative values. ) χ u (h) when ρ R = ρ W . ) χ u (h) when R t (s) = R. Figure 17 : 17Empirical χ u (h) for different combinations of δ 1 and δ 2 with threshold u = 0.9999 under two different model specifications. Figure 18 presents 18variable importance plots for 4 different locations within our study area. Location 11 does not have a full suite of neighbors, as the Figure 18 : 18Variable importance (VI) plots based on SPQR output for 4 different locations within the CUS. Table 1 : 1True parameter values for the 3 simulation study scenarios. Table 2 : 2Posterior means and standard deviations (SD) of spatial parameters of the NPMM based on MCMC.Parameter Mean SD Parameter Mean SD β 10 -0.15 0.33 ρ 0.25 0.49 β 11 0.92 0.86 r 0.88 0.03 β 20 0.47 0.41 δ 1 0.53 0.10 β 21 0.65 0.94 δ 2 0.71 0.12 1 Table 3 : 3Measure of joint exceedance in projected streamflow maxima:Mean number of locations jointly above the 0.90 and 0.99 quantile thresholds. Values in parentheses represent the minimum and maximum projections from among the 6 models used in each scenario.u = 0.90 u = 0.99 RCP 4.5 RCP 8.5 RCP 4.5 RCP 8.5 1972-2005 (5.49,5.55) (5.49,5.55) (0.54,0.56) (0.54,0.56) 2006-2035 (5.49,5.54) (5.50,5.53) (0.54,0.56) (0.55,0.56) Table 4 : 4Model fit diagnostics for marginal GEV parameters: Standard errors based on the maximum likelihood estimates of GEV distributions fitted independently at each location (MLE), and posterior standard deviations based on the process mixture model (NPMM). Values represent an average taken over all 55 locations.Parameter MLE NPMM Parameter MLE NPMM µ 0 0.05 0.03 µ 1 0.17 0.09 µ 2 0.07 0.05 µ 3 0.09 0.06 µ 4 0.08 0.05 µ 5 0.07 0.05 σ 0.20 0.01 ξ 0.22 0.13 Table 5 : 5STVC parameter estimates: Mean and SD for the GP parameters for the marginal GEV parameters.Param. Mean SD Param. Mean SD Param. Mean SDβ µ0 -0.01 0.18 τ 2 µ0 0.19 0.04 ρ µ0 4.52 1.60 β µ1 -0.06 0.25 τ 2 µ1 0.26 0.08 ρ µ1 3.24 1.53 β µ2 0.20 0.29 τ 2 µ2 0.30 0.09 ρ µ2 2.86 1.46 β µ3 0.26 0.32 τ 2 µ3 0.33 0.11 ρ µ3 2.56 1.43 β µ4 0.06 0.24 τ 2 µ4 0.25 0.07 ρ µ4 3.50 1.55 β µ5 0.08 0.22 τ 2 µ5 0.23 0.06 ρ µ5 3.73 1.59 β σ 0.17 2.19 τ 2 σ 0.89 0.48 ρ σ 1.36 1.20 β ξ 0.33 0.69 τ 2 ξ 0.72 0.29 ρ ξ 1.57 1.14 https://www.climatologylab.org/maca.html AcknowledgmentsThe authors thank Prof. Sankarasubramanian Arumugam of NC State University for discussion of the data and scope of the project.FundingThis work was supported by grants from the Southeast National Synthesis Wildfire and the United States Geological Survey's National Climate Adaptation Science Center (G21AC10045) and the National Science Foundation (DMS2152887, CBET2151651). Part of this research was performed while author Reetam Majumder was visiting the Institute for Mathematical and Statistical Innovation (IMSI), which is supported by the National Science Foundation (Grant No. DMS-1929348).The conditional exceedance probability χ(s 1 , s 2 ) can be expressed as:Each of the limits are evaluated individually: Global flood risk under climate change. Y Hirabayashi, R Mahendran, S Koirala, L Konoshima, D Yamazaki, S Watanabe, H Kim, S Kanae, Nature Climate Change. 3Y. Hirabayashi, R. Mahendran, S. Koirala, L. Konoshima, D. Yamazaki, S. Watanabe, H. Kim, S. Kanae, Global flood risk under climate change, Nature Climate Change 3 (2013) 816-821. Disaster risk, climate change, and poverty: assessing the global exposure of poor people to floods and droughts. H C Winsemius, B Jongman, T I Veldkamp, S Hallegatte, M Bangalore, P J Ward, Environment and Development Economics. 23H. C. Winsemius, B. Jongman, T. I. Veldkamp, S. Hallegatte, M. Bangalore, P. J. Ward, Disaster risk, climate change, and poverty: assessing the global exposure of poor people to floods and droughts, Environment and Development Economics 23 (2018) 328-348. Global drivers of future river flood risk. H C Winsemius, J Aerts, L Van Beek, M Bierkens, A Bouwman, B Jongman, J Kwadijk, W Ligtvoet, P Lucas, D Van Vuuren, P Ward, 10.1038/nclimate2893Nature Climate Change. 6H. C. Winsemius, J. Aerts, L. van Beek, M. Bierkens, A. Bouwman, B. Jong- man, J. Kwadijk, W. Ligtvoet, P. Lucas, D. van Vuuren, P. Ward, Global drivers of future river flood risk, Nature Climate Change 6 (2016) 381-385. doi:10.1038/nclimate2893. Multivariate downscaling approach preserving cross correlations across climate variables for projecting hydrologic fluxes. R D Bhowmik, A Sankarasubramanian, T Sinha, J Patskoski, G Mahinthakumar, K E Kunkel, Journal of Hydrometeorology. 18R. D. Bhowmik, A. Sankarasubramanian, T. Sinha, J. Patskoski, G. Mahinthakumar, K. E. Kunkel, Multivariate downscaling approach preserving cross correlations across climate variables for projecting hydro- logic fluxes, Journal of Hydrometeorology 18 (2017) 2187-2205. Lessons from the Oroville dam. F Vahedifard, A Aghakouchak, E Ragno, S Shahrokhabadi, I Mallakpour, 10.1126/science.aan0171doi:10. 1126/science.aan0171Science. 355F. Vahedifard, A. AghaKouchak, E. Ragno, S. Shahrokhabadi, I. Mallakpour, Lessons from the Oroville dam, Science 355 (2017) 1139-1140. doi:10. 1126/science.aan0171. As emergency spillway flows, state says repairs to crippled Oroville dam could run $200 million, The Sacramento Bee. D Kasler, P Hecht, D. Kasler, P. Hecht, As emergency spillway flows, state says repairs to crippled Oroville dam could run $200 million, The Sacramento Bee (2017). URL: https://www.sacbee.com/news/local/article132154774.html. Floods and climate: emerging perspectives for flood risk assessment and management. B Merz, J Aerts, K Arnbjerg-Nielsen, M Baldi, A Becker, A Bichet, G Blöschl, L M Bouwer, A Brauer, F Cioffi, J Delgado, M Gocht, F Guzzetti, S Harrigan, K Hirschboeck, C Kilsby, W Kron, H Kwon, U Lall, R Merz, K Nissen, P Salvatti, T Swierczynski, U Ulbrich, A Viglione, P Ward, M Weiler, B Wilhelm, M Nied, Natural Hazards and Earth System Sciences. 14B. Merz, J. Aerts, K. Arnbjerg-Nielsen, M. Baldi, A. Becker, A. Bichet, G. Blöschl, L. M. Bouwer, A. Brauer, F. Cioffi, J. Delgado, M. Gocht, F. Guzzetti, S. Harrigan, K. Hirschboeck, C. Kilsby, W. Kron, H. Kwon, U. Lall, R. Merz, K. Nissen, P. Salvatti, T. Swierczynski, U. Ulbrich, A. Viglione, P. Ward, M. Weiler, B. Wilhelm, M. Nied, Floods and climate: emerging perspectives for flood risk assessment and management, Natural Hazards and Earth System Sciences 14 (2014) 1921-1942. Climate change and non-stationary flood risk for the upper Truckee River basin. L Condon, S Gangopadhyay, T Pruitt, Hydrology and Earth System Sciences. 19L. Condon, S. Gangopadhyay, T. Pruitt, Climate change and non-stationary flood risk for the upper Truckee River basin, Hydrology and Earth System Sciences 19 (2015) 159-175. Differences in flood hazard projections in Europe -their causes and consequences for decision making. Z W Kundzewicz, V Krysanova, R Dankers, Y Hirabayashi, S Kanae, F F Hattermann, S Huang, P C Milly, M Stoffel, P Driessen, P Matczak, P Quevauviller, H Schellnhuber, Hydrological Sciences Journal. 62Z. W. Kundzewicz, V. Krysanova, R. Dankers, Y. Hirabayashi, S. Kanae, F. F. Hattermann, S. Huang, P. C. Milly, M. Stoffel, P. Driessen, , P. Matczak, P. Quevauviller, H. Schellnhuber, Differences in flood hazard projections in Europe -their causes and consequences for decision making, Hydrological Sciences Journal 62 (2017) 1-14. Design considerations for riverine floods in a changing climate -a review. B François, K Schlef, S Wi, C Brown, Journal of Hydrology. 574B. François, K. Schlef, S. Wi, C. Brown, Design considerations for riverine floods in a changing climate -a review, Journal of Hydrology 574 (2019) 557-573. Has the magnitude of floods across the USA changed with global CO 2 levels?. R M Hirsch, K R Ryberg, Hydrological Sciences Journal. 57R. M. Hirsch, K. R. Ryberg, Has the magnitude of floods across the USA changed with global CO 2 levels?, Hydrological Sciences Journal 57 (2012) 1-9. Modeling extremal streamflow using deep learning approximations and a flexible spatial process. R Majumder, B J Reich, B A Shaby, 10.48550/ARXIV.2208.03344doi:10. 48550/ARXIV.2208.033442022R. Majumder, B. J. Reich, B. A. Shaby, Modeling extremal streamflow using deep learning approximations and a flexible spatial process, 2022. doi:10. 48550/ARXIV.2208.03344. Stationarity is dead: Whither water management?. P Milly, J Betancourt, M Falkenmark, R M Hirsch, Z W Kundzewicz, D P Lettenmaier, R J Stouffer, Earth. 4P. Milly, J. Betancourt, M. Falkenmark, R. M. Hirsch, Z. W. Kundzewicz, D. P. Lettenmaier, R. J. Stouffer, Stationarity is dead: Whither water management?, Earth 4 (2008). Nonstationarity: flood magnification and recurrence reduction factors in the United States. R M Vogel, C Yaindl, M Walter, Journal of the American Water Resources Association. 47R. M. Vogel, C. Yaindl, M. Walter, Nonstationarity: flood magnification and recurrence reduction factors in the United States, Journal of the American Water Resources Association 47 (2011) 464-474. Flood risk and climate change: global and regional perspectives. Z W Kundzewicz, S Kanae, S I Seneviratne, J Handmer, N Nicholls, P Peduzzi, R Mechler, L M Bouwer, N Arnell, K Mach, R Muir-Wood, G Robert Brakenridge, W Kron, G Benito, Y Honda, K Takahashi, B Sherstyukov, Hydrological Sciences Journal. 59Z. W. Kundzewicz, S. Kanae, S. I. Seneviratne, J. Handmer, N. Nicholls, P. Peduzzi, R. Mechler, L. M. Bouwer, N. Arnell, K. Mach, R. Muir- Wood, G. Robert Brakenridge, W. Kron, G. Benito, Y. Honda, K. Taka- hashi, B. Sherstyukov, Flood risk and climate change: global and regional perspectives, Hydrological Sciences Journal 59 (2014) 1-28. Revisiting the concepts of return period and risk for nonstationary hydrologic extreme events. J D Salas, J Obeysekera, Journal of Hydrologic Engineering. 19J. D. Salas, J. Obeysekera, Revisiting the concepts of return period and risk for nonstationary hydrologic extreme events, Journal of Hydrologic Engineering 19 (2014) 554-568. On critiques of "Stationarity is dead: Whither water management?. P C Milly, J Betancourt, M Falkenmark, R M Hirsch, Z W Kundzewicz, D P Lettenmaier, R J Stouffer, M D Dettinger, V Krysanova, Water Resources Research. 51P. C. Milly, J. Betancourt, M. Falkenmark, R. M. Hirsch, Z. W. Kundzewicz, D. P. Lettenmaier, R. J. Stouffer, M. D. Dettinger, V. Krysanova, On critiques of "Stationarity is dead: Whither water management?", Water Resources Research 51 (2015) 7785-7789. The influence of non-stationarity in extreme hydrological events on flood frequency estimation. M Šraj, A Viglione, J Parajka, G Blöschl, Journal of Hydrology and Hydromechanics. 64M.Šraj, A. Viglione, J. Parajka, G. Blöschl, The influence of non-stationarity in extreme hydrological events on flood frequency estimation, Journal of Hydrology and Hydromechanics 64 (2016) 426-437. Regional flood-frequency analysis: How we got here and where we are going. D R Dawdy, V W Griffis, V K Gupta, Journal of Hydrologic Engineering. 17D. R. Dawdy, V. W. Griffis, V. K. Gupta, Regional flood-frequency anal- ysis: How we got here and where we are going, Journal of Hydrologic Engineering 17 (2012) 953-959. A hierarchical Bayesian GEV model for improving local and regional flood quantile estimates. C H Lima, U Lall, T Troy, N Devineni, Journal of Hydrology. 541C. H. Lima, U. Lall, T. Troy, N. Devineni, A hierarchical Bayesian GEV model for improving local and regional flood quantile estimates, Journal of Hydrology 541 (2016) 816-823. Floods in a changing climate: Does the past represent the future?. S Jain, U Lall, Water Resources Research. 37S. Jain, U. Lall, Floods in a changing climate: Does the past represent the future?, Water Resources Research 37 (2001) 3193-3205. Non-stationary extreme value analysis in a changing climate. L Cheng, A Aghakouchak, E Gilleland, R W Katz, 10.1007/s10584-014-1254-5Climatic Change. 127L. Cheng, A. AghaKouchak, E. Gilleland, R. W. Katz, Non-stationary ex- treme value analysis in a changing climate, Climatic Change 127 (2014) 353-369. doi:10.1007/s10584-014-1254-5. Easterling, Precipitation extremes: Trends and relationships with average precipitation and precipitable water in the contiguous United States. K E Kunkel, T R Karl, M F Squires, X Yin, S T Stegall, D R , Journal of Applied Meteorology and Climatology. 59K. E. Kunkel, T. R. Karl, M. F. Squires, X. Yin, S. T. Stegall, D. R. East- erling, Precipitation extremes: Trends and relationships with average pre- cipitation and precipitable water in the contiguous United States, Journal of Applied Meteorology and Climatology 59 (2020) 125-142. Extreme value theory: an introduction. L De Haan, A Ferreira, Springer21L. De Haan, A. Ferreira, Extreme value theory: an introduction, volume 21, Springer, 2006. Max-stable processes and spatial extremes. R L Smith, Unpublished manuscriptR. L. Smith, Max-stable processes and spatial extremes, 1990. Unpublished manuscript. Modelling multivariate extreme value distributions. J A Tawn, Biometrika. 77J. A. Tawn, Modelling multivariate extreme value distributions, Biometrika 77 (1990) 245-253. M Schlather, Models for stationary max-stable random fields. 5M. Schlather, Models for stationary max-stable random fields, Extremes 5 (2002) 33-44. Stationary max-stable fields associated to negative definite functions. Z Kabluchko, M Schlather, L De Haan, The Annals of Probability. 37Z. Kabluchko, M. Schlather, L. de Haan, Stationary max-stable fields asso- ciated to negative definite functions, The Annals of Probability 37 (2009) 2042-2065. On spatial extremes: with application to a rainfall problem. T A Buishand, L De Haan, C Zhou, The Annals of Applied Statistics. 2T. A. Buishand, L. de Haan, C. Zhou, On spatial extremes: with application to a rainfall problem, The Annals of Applied Statistics 2 (2008) 624-642. Dependence modelling for spatial extremes. J L Wadsworth, J A Tawn, Biometrika. 99J. L. Wadsworth, J. A. Tawn, Dependence modelling for spatial extremes, Biometrika 99 (2012) 253-272. A hierarchical max-stable spatial model for extreme precipitation. B J Reich, B A Shaby, The Annals of Applied Statistics. 6B. J. Reich, B. A. Shaby, A hierarchical max-stable spatial model for extreme precipitation, The Annals of Applied Statistics 6 (2012) 1430-1451. Space-time modelling of extreme events. R Huser, A C Davison, Journal of the Royal Statistical Society, Series B. 76R. Huser, A. C. Davison, Space-time modelling of extreme events, Journal of the Royal Statistical Society, Series B 76 (2014) 439-461. A hierarchical model for seriallydependent extremes: A study of heat waves in the western US. B J Reich, B A Shaby, D Cooley, Journal of Agricultural, Biological and Environmental Statistics. 19B. J. Reich, B. A. Shaby, D. Cooley, A hierarchical model for serially- dependent extremes: A study of heat waves in the western US, Journal of Agricultural, Biological and Environmental Statistics 19 (2013) 119-135. Efficient inference for spatial extreme value processes associated to log-Gaussian random functions. J L Wadsworth, J A Tawn, 10.1093/biomet/ast042Biometrika. 101J. L. Wadsworth, J. A. Tawn, Efficient inference for spatial extreme value processes associated to log-Gaussian random functions, Biometrika 101 (2014) 1-15. doi:10.1093/biomet/ast042. On the occurrence times of componentwise maxima and bias in likelihood inference for multivariate max-stable distributions. J L Wadsworth, 10.1093/biomet/asv029Biometrika. 102J. L. Wadsworth, On the occurrence times of componentwise maxima and bias in likelihood inference for multivariate max-stable distribu- tions, Biometrika 102 (2015) 705-711. URL: https://doi.org/10.1093/ biomet/asv029. doi:10.1093/biomet/asv029. Modeling spatial processes with unknown extremal dependence class. R Huser, J L Wadsworth, Journal of the American Statistical Association. 114R. Huser, J. L. Wadsworth, Modeling spatial processes with unknown ex- tremal dependence class, Journal of the American Statistical Association 114 (2019) 434-444. Hierarchical transformed scale mixtures for flexible modeling of spatial extremes on datasets with many locations. L Zhang, B A Shaby, J L Wadsworth, 10.1080/01621459.2020.1858838Journal of the American Statistical Association. 117L. Zhang, B. A. Shaby, J. L. Wadsworth, Hierarchical transformed scale mixtures for flexible modeling of spatial extremes on datasets with many locations, Journal of the American Statistical Association 117 (2022) 1357- 1369. doi:10.1080/01621459.2020.1858838. A hierarchical max-infinitely divisible spatial model for extreme precipitation. G P Bopp, B A Shaby, R Huser, 10.1080/01621459.2020.1750414Journal of the American Statistical Association. 116G. P. Bopp, B. A. Shaby, R. Huser, A hierarchical max-infinitely divisible spatial model for extreme precipitation, Journal of the American Statistical Association 116 (2021) 93-106. doi:10.1080/01621459.2020.1750414. Projecting flood hazard under climate change: An alternative approach to model chains. J Delgado, B Merz, H , Natural Hazards and Earth System Sciences. 14J. Delgado, B. Merz, H. Apel, Projecting flood hazard under climate change: An alternative approach to model chains, Natural Hazards and Earth System Sciences 14 (2014) 1579-1589. A general methodology for climate-informed approaches to long-term flood projection -Illustrated with the Ohio river basin. K E Schlef, B Francois, A W Robertson, C Brown, Water Resources Research. 54K. E. Schlef, B. Francois, A. W. Robertson, C. Brown, A general method- ology for climate-informed approaches to long-term flood projection -Il- lustrated with the Ohio river basin, Water Resources Research 54 (2018) 9321-9341. Comparing flood projection approaches across hydro-climatologically diverse United States river basins. K E Schlef, B François, C Brown, Water Resources Research. 57K. E. Schlef, B. François, C. Brown, Comparing flood projection approaches across hydro-climatologically diverse United States river basins, Water Resources Research 57 (2021) e2019WR025861. Flood quantiles in a changing climate: Seasonal forecasts and causal relations. A Sankarasubramanian, U Lall, Water Resources Research. 39A. Sankarasubramanian, U. Lall, Flood quantiles in a changing climate: Sea- sonal forecasts and causal relations, Water Resources Research 39 (2003). Evaluation of flood frequency under non-stationarity resulting from climate indices and reservoir indices in the East River basin. Q Zhang, X Gu, V P Singh, M Xiao, X Chen, China, Journal of Hydrology. 527Q. Zhang, X. Gu, V. P. Singh, M. Xiao, X. Chen, Evaluation of flood fre- quency under non-stationarity resulting from climate indices and reservoir indices in the East River basin, China, Journal of Hydrology 527 (2015) 565-575. Informed attribution of flood changes to decadal variation of atmospheric, catchment and river drivers in Upper Austria. M Bertola, A Viglione, G Blöschl, Journal of Hydrology. 577123919M. Bertola, A. Viglione, G. Blöschl, Informed attribution of flood changes to decadal variation of atmospheric, catchment and river drivers in Upper Austria, Journal of Hydrology 577 (2019) 123919. Sankarasubramanian, Projecting flood frequency curves under near-term climate change. C Awasthi, S A Archfield, K R Ryberg, J E Kiang, A , 10.1029/2021WR031246Water Resources Research. 58C. Awasthi, S. A. Archfield, K. R. Ryberg, J. E. Kiang, A. Sankarasub- ramanian, Projecting flood frequency curves under near-term climate change, Water Resources Research 58 (2022) e2021WR031246. doi:https: //doi.org/10.1029/2021WR031246. Higher-dimensional spatial extremes via single-site conditioning. J Wadsworth, J Tawn, 10.1016/j.spasta.2022.100677Spatial Statistics. 51100677J. Wadsworth, J. Tawn, Higher-dimensional spatial extremes via single-site conditioning, Spatial Statistics 51 (2022) 100677. doi:https://doi.org/ 10.1016/j.spasta.2022.100677. Nonparametric estimation of nonstationary spatial covariance structure. P D Sampson, P Guttorp, Journal of the American Statistical Association. 87P. D. Sampson, P. Guttorp, Nonparametric estimation of nonstationary spa- tial covariance structure, Journal of the American Statistical Association 87 (1992) 108-119. URL: http://www.jstor.org/stable/2290458. Non-stationary dependence structures for spatial extremes. R Huser, M G Genton, 10.1007/s13253-016-0247-4Journal of Agricultural, Biological, and Environmental Statistics. 21R. Huser, M. G. Genton, Non-stationary dependence structures for spatial extremes, Journal of Agricultural, Biological, and Environmental Statistics 21 (2016) 470-491. doi:10.1007/s13253-016-0247-4. Spatial modelling using a new class of nonstationary covariance functions. C J Paciorek, M J Schervish, 10.1002/env.785Environmetrics. 17C. J. Paciorek, M. J. Schervish, Spatial modelling using a new class of nonstationary covariance functions, Environmetrics 17 (2006) 483-506. doi:https://doi.org/10.1002/env.785. Modeling nonstationary extreme dependence with stationary max-stable processes and multidimensional scaling. C Chevalier, O Martius, D Ginsbourger, Journal of Computational and Graphical Statistics. 30C. Chevalier, O. Martius, D. Ginsbourger, Modeling nonstationary extreme dependence with stationary max-stable processes and multidimensional scaling, Journal of Computational and Graphical Statistics 30 (2021) 745- 755. Modeling nonstationary temperature maxima based on extremal dependence changing with event magnitude. P Zhong, R Huser, T Opitz, 10.1214/21-AOAS1504The Annals of Applied Statistics. 16P. Zhong, R. Huser, T. Opitz, Modeling nonstationary temperature maxima based on extremal dependence changing with event magnitude, The Annals of Applied Statistics 16 (2022) 272 -299. doi:10.1214/21-AOAS1504. A flexible nonlinear modelling framework for nonstationary generalized extreme value analysis in hydroclimatology, Hydrological Processes. A J Cannon, An International Journal. 24A. J. Cannon, A flexible nonlinear modelling framework for nonstationary generalized extreme value analysis in hydroclimatology, Hydrological Pro- cesses: An International Journal 24 (2010) 673-685. Nonstationary frequency analysis of annual maximum rainfall using climate covariates. L Vasiliades, P Galiatsatou, A Loukas, Water Resources Management. 29L. Vasiliades, P. Galiatsatou, A. Loukas, Nonstationary frequency analysis of annual maximum rainfall using climate covariates, Water Resources Management 29 (2015) 339-358. Projecting future nonstationary extreme streamflow for the Fraser River. R R Shrestha, A J Cannon, M A Schnorbus, F W Zwiers, Climatic Change. 145CanadaR. R. Shrestha, A. J. Cannon, M. A. Schnorbus, F. W. Zwiers, Projecting future nonstationary extreme streamflow for the Fraser River, Canada, Climatic Change 145 (2017) 289-303. Neural networks for extreme quantile regression with an application to forecasting of flood risk. O C Pasche, S Engelke, arXiv:2208.07590arXiv preprintO. C. Pasche, S. Engelke, Neural networks for extreme quantile regres- sion with an application to forecasting of flood risk, arXiv preprint arXiv:2208.07590 (2022). J Richards, R Huser, arXiv:2208.07581A unifying partially-interpretable framework for neural network-based extreme quantile regression. arXiv preprintJ. Richards, R. Huser, A unifying partially-interpretable framework for neural network-based extreme quantile regression, arXiv preprint arXiv:2208.07581 (2022). DeepGPD: A deep learning approach for modeling geospatio-temporal extreme events. T Wilson, P.-N Tan, L Luo, Proceedings of the 36th AAAI Conference on Artificial Intelligence. the 36th AAAI Conference on Artificial IntelligenceT. Wilson, P.-N. Tan, L. Luo, DeepGPD: A deep learning approach for modeling geospatio-temporal extreme events, in: Proceedings of the 36th AAAI Conference on Artificial Intelligence, 2022. A Lenzi, J Bessac, J Rudi, M L Stein, arXiv:2107.14346Neural networks for parameter estimation in intractable models. arXiv preprintA. Lenzi, J. Bessac, J. Rudi, M. L. Stein, Neural networks for parameter estimation in intractable models, arXiv preprint arXiv:2107.14346 (2021). Fast optimal estimation with intractable models using permutation-invariant neural networks. M Sainsbury-Dale, A Zammit-Mangion, R Huser, 10.48550/ARXIV.2208.129422022M. Sainsbury-Dale, A. Zammit-Mangion, R. Huser, Fast optimal estima- tion with intractable models using permutation-invariant neural networks, 2022. doi:10.48550/ARXIV.2208.12942. A comparison of statistical downscaling methods suited for wildfire applications. J T Abatzoglou, T J Brown, 10.1002/joc.2312International Journal of Climatology. 32J. T. Abatzoglou, T. J. Brown, A comparison of statistical downscaling meth- ods suited for wildfire applications, International Journal of Climatology 32 (2012) 772-780. doi:https://doi.org/10.1002/joc.2312. Bayesian nonparametric quantile process regression and estimation of marginal quantile effects. S G Xu, B J Reich, 10.1111/biom.13576Biometrics. 00S. G. Xu, B. J. Reich, Bayesian nonparametric quantile process regression and estimation of marginal quantile effects, Biometrics 00 (2021) 1-14. doi:https://doi.org/10.1111/biom.13576. USGS hydro-climatic data network. H F Lins, US Geological Survey Fact Sheet. 3047H. F. Lins, USGS hydro-climatic data network 2009 (HCDN-2009), US Geological Survey Fact Sheet 3047 (2012). Climate elasticity of streamflow in the United States. A Sankarasubramanian, R M Vogel, J F Limbrunner, 10.1029/2000WR900330Water Resources Research. 37A. Sankarasubramanian, R. M. Vogel, J. F. Limbrunner, Climate elasticity of streamflow in the United States, Water Resources Research 37 (2001) 1771-1781. doi:https://doi.org/10.1029/2000WR900330. Interannual hydroclimatic variability and its influence on winter nutrient loadings over the Southeast United States. J Oh, A Sankarasubramanian, 10.5194/hess-16-2285-2012doi:10.5194/ hess-16-2285-2012Hydrology and Earth System Sciences. 16J. Oh, A. Sankarasubramanian, Interannual hydroclimatic variability and its influence on winter nutrient loadings over the Southeast United States, Hydrology and Earth System Sciences 16 (2012) 2285-2298. doi:10.5194/ hess-16-2285-2012. Detected changes in precipitation extremes at their native scales derived from in situ measurements. M D Risser, C J Paciorek, T A O&apos;brien, M F Wehner, W D Collins, 10.1175/JCLI-D-19-0077.1Journal of Climate. 32M. D. Risser, C. J. Paciorek, T. A. O'Brien, M. F. Wehner, W. D. Collins, Detected changes in precipitation extremes at their native scales derived from in situ measurements, Journal of Climate 32 (2019) 8087-8109. doi:10.1175/JCLI-D-19-0077.1. Accounting for the spatial structure of weather systems in detected changes in precipitation extremes, Weather and Climate Extremes. L Zhang, M D Risser, E M Molter, M F Wehner, T A O&apos;brien, 10.1016/j.wace.2022.10049938100499L. Zhang, M. D. Risser, E. M. Molter, M. F. Wehner, T. A. O'Brien, Ac- counting for the spatial structure of weather systems in detected changes in precipitation extremes, Weather and Climate Extremes 38 (2022) 100499. doi:https://doi.org/10.1016/j.wace.2022.100499. . R S Vose, S Applequist, M Squires, I Durre, M J Menne, C N WilliamsJr, C Fenimore, K Gleason, D Arndt, U S Monthly, 10.7289/V5SX6B56NOAA National Centers for Environmental Information. 1Climate Gridded DatasetR. S. Vose, S. Applequist, M. Squires, I. Durre, M. J. Menne, C. N. Williams Jr., C. Fenimore, K. Gleason, D. Arndt, NOAA Monthly U.S. Climate Gridded Dataset (NClimGrid), Version 1, 2014. NOAA National Centers for Environmental Information, DOI:10.7289/V5SX6B56, accessed on Nov 1, 2022. An overview of CMIP5 and the experiment design. K E Taylor, R J Stouffer, G A Meehl, 10.1175/BAMS-D-11-00094.1Bulletin of the American Meteorological Society. 93K. E. Taylor, R. J. Stouffer, G. A. Meehl, An overview of CMIP5 and the experiment design, Bulletin of the American Meteorological Society 93 (2012) 485 -498. doi:10.1175/BAMS-D-11-00094.1. Climate scenarios and projections. L A Joyce, D Coulson, 10.2737/rmrs-gtr-413Technical ReportL. A. Joyce, D. Coulson, Climate scenarios and projections, Technical Re- port, 2020. doi:10.2737/rmrs-gtr-413. Spatial modeling with spatially varying coefficient processes. A E Gelfand, H.-J Kim, C F Sirmans, S Banerjee, 10.1198/016214503000170Journal of the American Statistical Association. 98A. E. Gelfand, H.-J. Kim, C. F. Sirmans, S. Banerjee, Spatial modeling with spatially varying coefficient processes, Journal of the American Statistical Association 98 (2003) 387-396. doi:10.1198/016214503000170. Estimation and model identification for continuous spatial processes. A V Vecchia, Journal of the Royal Statistical Society: Series B (Methodological). 50A. V. Vecchia, Estimation and model identification for continuous spatial processes, Journal of the Royal Statistical Society: Series B (Methodolog- ical) 50 (1988) 297-312. Approximating likelihoods for large spatial data sets. M L Stein, Z Chi, L J Welty, Journal of the Royal Statistical Society: Series B (Statistical Methodology). 66M. L. Stein, Z. Chi, L. J. Welty, Approximating likelihoods for large spatial data sets, Journal of the Royal Statistical Society: Series B (Statistical Methodology) 66 (2004) 275-296. Hierarchical nearestneighbor Gaussian process models for large geostatistical datasets. A Datta, S Banerjee, A O Finley, A E Gelfand, Journal of the American Statistical Association. 111A. Datta, S. Banerjee, A. O. Finley, A. E. Gelfand, Hierarchical nearest- neighbor Gaussian process models for large geostatistical datasets, Journal of the American Statistical Association 111 (2016) 800-812. A general framework for Vecchia approximations of Gaussian processes. M Katzfuss, J Guinness, Statistical Science. 36M. Katzfuss, J. Guinness, A general framework for Vecchia approximations of Gaussian processes, Statistical Science 36 (2021) 124-141. Degree of L p Approximation by Monotone Splines. C Chui, P Smith, J Ward, SIAM Journal on Mathematical Analysis. 11C. Chui, P. Smith, J. Ward, Degree of L p Approximation by Monotone Splines, SIAM Journal on Mathematical Analysis 11 (1980) 436-447. Nonparametric density estimation for censored survival data: Regression-spline approach. M Abrahamowicz, A Clampl, J O Ramsay, Canadian Journal of Statistics. 20M. Abrahamowicz, A. Clampl, J. O. Ramsay, Nonparametric density esti- mation for censored survival data: Regression-spline approach, Canadian Journal of Statistics 20 (1992) 171-185. R Core Team, R: A Language and Environment for Statistical Computing, R Foundation for Statistical Computing. Vienna, Austria, 2022R Core Team, R: A Language and Environment for Statistical Comput- ing, R Foundation for Statistical Computing, Vienna, Austria, 2022. URL: https://www.R-project.org/. SPQR: Semi-Parametric Quantile Regression. S Xu, R Majumder, R package version 0.1.0S. Xu, R. Majumder, SPQR: Semi-Parametric Quantile Regression, 2022. URL: https://CRAN.R-project.org/package=SPQR, R package version 0.1.0. Extremes on river networks. P Asadi, A C Davison, S Engelke, The Annals of Applied Statistics. 9P. Asadi, A. C. Davison, S. Engelke, Extremes on river networks, The Annals of Applied Statistics 9 (2015) 2023-2050. Bayesian spatio-temporal models for stream networks. E Santos-Fernandez, J M Ver Hoef, E E Peterson, J Mcgree, D J Isaak, K Mengersen, Computational Statistics & Data Analysis. 170107446E. Santos-Fernandez, J. M. Ver Hoef, E. E. Peterson, J. McGree, D. J. Isaak, K. Mengersen, Bayesian spatio-temporal models for stream net- works, Computational Statistics & Data Analysis 170 (2022) 107446.
sample_19923
0.7142
arxiv
"Evaluación de la Contaminación del Aire por Material Particulado PM2.5 en la ciudad del Cusco Respecto de los Índices de Calidad del Aire " Assessment of Atmospheric Pollution by Particulate Matter PM2.5 in the city of Cusco respect to the Air Quality Indices between the years 2017 and 2018" entre 2017 y 2018" Bruce Stephen Warthon Olarte Escuela Profesional de Física Facultad de Ciencias Universidad Nacional de San Antonio Abad del Cusco (UNSAAC) Ivan Cesar Miranda Hankgo Escuela Profesional de Física Facultad de Ciencias Universidad Nacional de San Antonio Abad del Cusco (UNSAAC) Iván Ruben Quispe Ccolque Escuela Profesional de Física Facultad de Ciencias Universidad Nacional de San Antonio Abad del Cusco (UNSAAC) Rafael Eduardo Ponce Amanca Escuela Profesional de Física Facultad de Ciencias Universidad Nacional de San Antonio Abad del Cusco (UNSAAC) Victor Fernando Ramos Salcedo Escuela Profesional de Física Facultad de Ciencias Universidad Nacional de San Antonio Abad del Cusco (UNSAAC) Ariatna Isabel Zamalloa Ponce De Leon Escuela Profesional de Física Facultad de Ciencias Universidad Nacional de San Antonio Abad del Cusco (UNSAAC) Ruben Alfredo Tupayachi Latorre Escuela Profesional de Física Facultad de Ciencias Universidad Nacional de San Antonio Abad del Cusco (UNSAAC) Warthon Julio Lucas Ascarza Departamento Académico de Física "Evaluación de la Contaminación del Aire por Material Particulado PM2.5 en la ciudad del Cusco Respecto de los Índices de Calidad del Aire " Assessment of Atmospheric Pollution by Particulate Matter PM2.5 in the city of Cusco respect to the Air Quality Indices between the years 2017 and 2018" entre 2017 y 2018"Correo electrónico: In this scientific article, the data on air pollution by PM2.5 particulate matter was evaluated in different locations in the city of Cusco with respect to the Environmental Quality Indexes (INCA) of the Ministry of the Environment of the Peruvian Government. The results show that air pollution in the city of Cusco is an environmental risk problem. More than 84% of the monitored sites have a bad rating (101-500), the corresponding color is orange. This result shows that the air that citizens of Cusco breathe is of poor quality and the population could experience health problems. The recommendation is to avoid outdoor exercises and activities. In the district of San Jerónimo Cusco, the average concentration has been 125 ug/m3, which corresponds to the INCA interval of ˃125, within the red color threshold for care. The health effects are described as chronic lung and cardiovascular diseases, and the health authority should declare levels of alert. It has been concluded that according to INCA, the air in the city of Cusco is of poor quality and falls within the threshold of the Care State Value (VUEC). Resumen En este artículo científico se evaluó la data de la contaminación del aire por material particulado PM2.5 en diferentes lugares de la ciudad del Cusco respecto de los Índices de Calidad Ambiental (INCA) del Ministerio del Ambiente del Gobierno Peruano. Los resultados muestran que la contaminación del aire en la ciudad del Cusco es un problema ambiental de riesgo. Mas del 84% de los sitios monitoreados tiene calificación mala (101-500), el color correspondiente es anaranjado, este resultado muestra que el aire que respiran los ciudadanos del Cusco es de mala calidad y la población podría experimentar problemas de salud, la recomendación es evitar realizar ejercicios y actividades al aire libre. En el distrito de San Jerónimo Cusco la concentración promedio ha sido de 125 ug/m3 su equivalente en el intervalo INCA es ˃125, se encuentra dentro del color rojo correspondiente al umbral de cuidado, los efectos en la salud se describen como enfermedades pulmonares crónicas y cardiovasculares, la autoridad de salud debe declarar niveles de estado de alerta. Se ha concluido que según los INCA el aire de la ciudad del Cusco es mala y el inicio del valor de umbral del estado de cuidado (VUEC). Introducción La contaminación del aire es uno de los principales problemas ambientales a nivel mundial, las partículas en suspensión también conocidas como material particulado (PM), son los contaminantes más comunes que están presentes en la atmósfera. Estas partículas tienen un diámetro inferior a 2.5 micras (PM2.5) y son capaces de penetrar en los pulmones, causando problemas de salud como enfermedades respiratorias y cardiovasculares (World Health Organization, 2021). En los últimos años, la concentración de PM2.5 en la atmósfera terrestre ha sido objeto de estudio en diversas regiones del mundo con la finalidad de dar a conocer la problemática que existe debido al material particulado (PM). La Ciudad del Cusco viene experimentando un deterioro en la calidad del aire, los valores de las concentraciones de los contaminantes atmosféricos PM2.5 han sobrepasado los Estándares de Calidad del Aire en el distrito de San Jerónimo Cusco (OEFA, 2018), estos niveles conllevan riesgos en la salud pública. Según estudios epidemiológicos, la exposición prolongada a niveles elevados de PM2.5 está asociada con un aumento de enfermedades respiratorias crónicas, enfermedades cardiovasculares, cáncer de pulmón y otros problemas de salud (Pope et al., 2020). La contaminación del aire por PM2.5 se debe a varios agentes principalmente de origen antrópico como las emisiones de vehículos, la quema de combustibles fósiles, la actividad industrial, (Dockery & Pope, 1944). La exposición a altos niveles de PM2.5 causó más de cuatro millones de muertes prematuras en 2016, representando cerca del 8% del total de las muertes en todo el mundo (Cohen et al., 2017). Desde 1970, se han realizado múltiples estudios para evaluar los niveles de PM2.5 en distintas áreas geográficas y para comprender sus efectos sobre la salud humana (Brunekreef & Holgate, 2002;Pope & Dockery, 2006). Los valores altos de concentración de PM2.5 en lugares urbanos se relacionan con la quema de combustibles fósiles, la actividad industrial, las emisiones de polvo de la construcción y la quema de biomasa para calefacción y cocina (Zhang, 2017). También es importante destacar, según Jiang (2017), que las condiciones meteorológicas pueden influir en la concentración de PM2.5 en el aire. Por ejemplo, la estabilidad atmosférica y la falta de viento pueden llevar a una acumulación de contaminantes en una zona específica, lo que puede aumentar la concentración de PM2.5 en el aire. La evaluación de la concentración de PM2.5 es importante en la gestión de la calidad del aire y la identificación de áreas críticas que requieren medidas de control y mitigación, y se lleva a cabo para evaluar los niveles de contaminación del aire y los posibles riesgos para la salud, se realizó una investigación que involucró el monitoreo de PM2.5 en diferentes lugares de la ciudad del Cusco mediante un muestreador de material particulado de alto volumen HIVOL de marca Ecotech con certificación de la agencia de protección ambiental US-EPA. La ciudad del Cusco presenta particularidades geográficas y climáticas que pueden influir en la concentración de PM2.5. Además, la topografía local y la vegetación pueden afectar la dispersión de PM2.5 en el aire (Zhang et al., 2010). Su ubicación en la Cordillera de los Andes, a una altitud de más de 3,300 metros sobre el nivel del mar, y su clima seco y soleado, pueden contribuir en la concentración de contaminantes atmosféricos (Instituto Nacional de Estadística e Informática, 2018). Debido a estas particularidades geográficas se ha realizado la evaluación de la concentración del PM2.5 usando los datos medidos a través de una red de monitoreo automatizada conocida como Sistema de monitoreo Shelter del Centro de Investigación de Energía y Atmósfera -UNSAAC en la ciudad del Cusco el cual cuenta con cinco analizadores automáticos de gases de efecto invernadero y un equipo muestreador de PM, durante el período de 2017 a 2018. La ciudad del Cusco se halla en un valle interandino de la zona sur oriental denominado valle del Huatanay, en la sierra del Perú ubicada entre los 3,244 y 3,700 m.s.n.m, a 13° 30' 45" latitud Sur y a 71° 58' 33" longitud Oeste. En esta región, García M.. (2019) destaca la presencia de otros factores meteorológicos que pueden contribuir a la concentración de PM2.5 en la ciudad de Cusco. Debido al legado histórico, la ciudad de Cusco recibe cientos de miles de turistas anualmente (Reporte Regional de Turismo -Cusco, 2021), el sector que genera mayor emisión de contaminantes atmosféricos es parque automotor (PRAL, 2006). El material particulado PM2.5. fue medido por DIGESA (2013), OEFA (2018), los resultados muestran que este parámetro ha sobrepasado los ECA establecidos por el MIANAM (DS 003-2017-MINAM). El segundo sector que contamina más la cuenca atmosférica (PRAL, 2006) es el sector de la fabricación de ladrillos artesanales. Para evaluar la contaminación atmosférica en la ciudad del Cusco se ha considerado los Índices de Calidad Ambiental para Aire (INCA); el rango numérico está comprendido entre 0 y 100, es adimensional y está relacionado a los Estándares de Calidad Ambiental de Aire (MINAN, 2016). Este índice se obtiene a partir de la medición de diversos contaminantes, tales como PM2.5, PM10, NO2, O3 y SO2, y se presenta en una escala de PM2.5 que varía de 0 a 500 (MINAN, 2016). Los valores del índice de calidad del aire más altos implican una mayor presencia de contaminantes en el aire, lo que aumenta los riesgos para la salud y el medio ambiente (US EPA, 2016). En ese sentido, evaluar la concentración de PM2.5 en la ciudad del Cusco es importante por su relación directa con la salud pública, el medio ambiente, el patrimonio natural y cultural de la ciudad, el conocimiento sobre los niveles de contaminación y los INCA permitirían una planificación urbana y toma de decisiones asertiva. Referente a la metodología se aplicó la evaluación espacial, medida del promedio de las concentraciones de material particulado, grafico mediante Power Bi, para la concentración de PM2.5, los mapas satelitales proporcionan información valiosa para la toma de decisiones en la planificación del transporte, la gestión de la calidad del aire y la protección de la salud pública. Esta herramienta puede ayudar a identificar áreas críticas de contaminación y diseñar estrategias de control de la contaminación. Cohen et al. (2017) destacan la importancia de la evaluación de la contaminación del aire en la salud pública. Para llevar a cabo la evaluación espacial de la contaminación atmosférica, se emplean herramientas de georreferenciación y análisis espacial como los Sistemas de Información Geográfica (SIG), los cuales facilitan la visualización y análisis de datos geoespaciales. Estos sistemas permiten identificar las zonas de mayor riesgo de contaminación, las cuales pueden ser mapeadas y analizadas para detectar patrones espaciales y tendencias en la distribución de la contaminación en diferentes áreas geográficas. (Jerrett et al., 2010). Según Yang et al. (2022) sugiere evaluar la distribución espacio temporal de las concentraciones de PM2.5 durante un periodo de tiempo. Material y Métodos Figura 1 Shelter para Monitoreo Ambiental (UNSAAC) Fuente: Elaboración propia, 2017. Equipo Muestreador: Figura 2 Muestreador de material particulado de alto volumen Fuente: Libro Energía limpia y cero emisión, 2017. Material de Muestreo: Para recolectar el material particulado pululante en el medio ambiente es preciso usar filtros de recolección, por ello en esta investigación se usan los filtros de cuarzo debido a que la muestra recolectada es representativa y recomendada a nivel mundial por su porosidad. Figura 3 Filtro de cuarzo sobre Hi-Vol en la ciudad de Cusco Fuente: Elaboración propia, 2017. Método de muestreo: En función a los filtros empleados, se ha aplicado la gravimétrica (método analítico cuantitativo), esto debido a la variación de masa que existe entre un valor inicial y un valor final para estudiar la concentración de material particulado. Procedimiento para recolección de muestra: El muestreo se hizo de acuerdo al protocolo establecido por el MINAM: 1. Los sitios de muestreo no fueron aleatorios, la selección de los lugares se definió considerando los siguientes criterios: cercanía a vías de tránsito vehicular y fábricas de ladrillo. En ambos casos el tránsito de peatones se realiza simultáneamente a las emisiones de contaminantes atmosféricos. 2. El shelter de monitoreo ambiental se transportó a los diferentes lugares de medición, el muestreador de material particulado (Hi-Vol) se ubicó en la parte posterior del shelter. 3. Un día previo a la medición se pesó cuatro veces la masa de un filtro de cuarzo obteniendo su masa inicial promedio (laboratorio de energía y atmósfera, UNSAAC), seguidamente se colocó dentro de una campana de desecación durante 24 horas. Al día siguiente se extrae el filtro para medir su masa cuatro veces y la obtención del promedio que se considera como valor referencial inicial (mi), seguidamente se transporta el filtro en una caja hermética hacia la ubicación donde se encuentra el Hi-Vol. 4. Se coloca el filtro dentro del Hi-Vol y se enciende el equipo durante 24 horas continuas 5. Al finalizar del periodo de muestreo se retira el filtro del Hi-Vol para transportarlo al laboratorio, se midió la masa final cuatro veces obteniendo su promedio, seguidamente se coloca dentro del desecador de vidrio durante 24 horas, luego de este lapso se midió cuatro veces la masa final obteniendo el promedio final (mf). 6. Mediante el método gravimétrico se determinó la masa del material particulado 7. La concentración del material particulado obtenido en el filtro se determino mediante las fórmulas establecidas en el protocolo establecido por el MINAM y EPA. Figura 4 Retiro de filtro de Cuarzo luego de su exposición al ambiente durante 24 horas consecutivas. Fuente: Elaboración propia, 2017. Según la tabla 1, la evaluación de promedios y valores máximos de concentración de PM2.5 en gráficos de barras se muestra en la Figura 6. Figura 6 Valores de concentración promedios de PM2.5 en cada punto de medición en la ciudad del Cusco. El índice de calidad de aire (INCA) dado para cada punto de monitoreo que se presenta en la tabla 3, fue elaborado usando los parámetros establecidos en la Resolución Ministerial N° 181-2016-MINAM. Estos parámetros se muestran en la ecuación (1). Fuente: Elaboración propia en Python, 2023. ( 2.5 ) = [ 2.5 ] * 100 25 ⋯ (1) Tabla 3 Cálculo de Índice de Calidad de Aire para los puntos de monitoreo de material particulado PM2.5 de la tabla 1. Fuente: Elaboración propia, 2023. Figura 7 Mapa de distribución de la concentración promedio de material particulado PM 2.5 por cada punto de monitoreo según datos de la tabla 1. Fuente: Elaboración propia en Power Bi, 2023 Discusión El análisis de los datos de concentración promedio de PM2.5 en la ciudad del Cusco durante el período de estudio (2017-2018) revela patrones de estudio interesantes en la distribución geográfica de este contaminante atmosférico. Utilizando el programa Power Bi, se generó una representación visual (Figura 7) de la cantidad promedio de concentración de PM2.5 por zonas, mediante círculos cuyo tamaño representa la magnitud de la concentración en cada punto de monitoreo, lo cual permite una evaluación visual de la contaminación del aire en la ciudad. Se observa que el punto 2, ubicado en el APV Virgen de Fátima, presenta los niveles más elevados de concentración de PM 2.5 en comparación con los demás puntos de monitoreo. Estos altos niveles de concentración sugieren que la contaminación por PM2.5 en esta zona podría estar relacionada con las ladrilleras cercanas, ya que la afluencia de vehículos en esta área es muy baja. Por otro lado, el punto 9, ubicado en San Blas, muestra los niveles más bajos de concentración de PM2.5 en comparación con los demás puntos de monitoreo. Esto podría deberse a la difícil geografía de la zona, lo cual limita la fluidez del tráfico vehicular en esta área. En los demás puntos de monitoreo, se observa que los niveles de concentración de PM2.5 son esperables debido a su cercanía a la Av. La Cultura, que es la avenida más transitada en la ciudad del Cusco, o a otras calles y avenidas céntricas con mayor flujo de tráfico vehicular, a diferencia del punto 9. Esto sugiere que la actividad vehicular es una de las principales fuentes de contaminación por PM2.5 en la ciudad del Cusco. Estos resultados concuerdan con estudios previos que han identificado el tráfico vehicular y las emisiones de las ladrilleras como importantes fuentes de contaminación del aire por PM2.5 en la ciudad del Cusco. Sin embargo, es importante destacar que la concentración de PM2.5 también puede verse afectada por otros factores, como las condiciones meteorológicas, la topografía del terreno y la estacionalidad, entre otros. Por lo tanto, es necesario realizar un análisis más detallado e integrado de estos factores para comprender plenamente los patrones de contaminación del aire en la ciudad del Cusco. Además, es relevante destacar que los niveles de concentración de PM2.5 en la ciudad del Cusco durante el período de estudio se encuentran por encima de los límites establecidos por las normas de calidad del aire, lo cual indica una preocupante situación de contaminación atmosférica en la ciudad. La exposición a niveles elevados de PM2.5 se ha asociado con una serie de efectos adversos para la salud humana, incluyendo enfermedades respiratorias, cardiovasculares y otras condiciones crónicas. Por lo tanto, es necesario tomar medidas adecuadas para reducir la contaminación del aire por PM2.5 en la ciudad del Cusco, con el fin de proteger la salud de la población. En este contexto, es fundamental implementar estrategias de mitigación, como la promoción del uso de transporte público y medios de transporte no motorizados, así como la mejora de la tecnología de las ladrilleras para reducir las emisiones de contaminantes. De igual manera, es necesario concientizar a la población sobre la importancia de reducir su huella de carbono y adoptar prácticas sostenibles en su vida cotidiana. Adicionalmente, es relevante establecer políticas y regulaciones más estrictas en cuanto a la calidad del aire y promover la participación activa de la comunidad en la toma de decisiones relacionadas con la gestión de la contaminación atmosférica. También es importante fomentar la investigación y monitoreo continuo de la calidad del aire para tener una comprensión más precisa de las fuentes y niveles de contaminación en la ciudad del Cusco. En resumen, el análisis de los datos de concentración promedio de PM2.5 en la ciudad del Cusco revela patrones de contaminación atmosférica relacionados principalmente con el tráfico vehicular y las emisiones de las ladrilleras. Estos resultados resaltan la necesidad de implementar medidas de mitigación y concientización para reducir la contaminación del aire y proteger la salud de la población. Es fundamental adoptar enfoques integrados y multidisciplinarios para abordar este problema y garantizar un ambiente saludable y sostenible en la ciudad del Cusco. Conclusiones El análisis de los datos de concentración promedio de PM2.5 en la ciudad del Cusco durante los años 2017 y 2018 demuestran que la contaminación atmosférica en cada sitio de medición está relacionada principalmente con el tráfico vehicular y las emisiones de las ladrilleras ubicadas en la ciudad del Cusco. La concentración de PM2.5 más alta en el año 2017 se midió la APV Virgen de Fátima, este punto de monitoreo se encuentra cerca al sector de ladrilleras. El punto de monitoreo ubicado en San Blas muestra los niveles más bajos de concentración de PM2.5, posiblemente debido al bajo tránsito vehicular. Mas del 84% de los puntos de monitoreo demuestran valores de concentración de PM2.5 elevados, según el INCA su calificación es mala y en el caso de la APV Virgen de Fátima su calificación es de Umbral de Cuidado, en el caso de San Blas su calificación es moderada; por consiguiente, el predominio de la calificación INCA es mala en la ciudad del Cusco; lo cual sugiere implementar estrategias de mitigación de manera urgente. Es necesario concientizar a la población sobre la importancia de reducir su huella de carbono y adoptar prácticas sostenibles en su vida cotidiana. Además, se requiere establecer políticas y regulaciones más estrictas en cuanto a la calidad del aire, así como promover la participación activa de la comunidad en la toma de decisiones relacionadas con la gestión de la contaminación atmosférica. La investigación y monitoreo continuo de la calidad del aire también son esenciales para obtener una comprensión más precisa de las fuentes y niveles de contaminación en la ciudad del Cusco. Declaración de conflicto de intereses Los autores declaran no presentar ningún tipo de conflicto de intereses Figura 5 5Codificación de filtros de cuarzo correspondientes al año 2017.Fuente: Elaboración propia, 2017. Resultados Tabla 1 Datos recogidos entre los años 2017 y 2018, periodo de medición 24 horas mediante el equipo Hi-Vol. Punto de monitoreo Distrito Lugar de monitoreo Promedio de PM 2.5 Mes de monitoreo Año de monitoreo 1 Cusco Campus Universitario: Facultad de Educación 65 Mayo 2017 2 San Sebastián APV Paraíso de Fátima 153.2 Junio / Agosto 2017 3 Cusco Campus Universitario, puerta número 05 (multired) 70.27 Setiembre 2017 4 Cusco Plaza de Armas 81.87 Octubre 2017 5 Cusco Colegio Clorinda Matto de Turner 79.23 Diciembre 2017 6 Wanchaq Local del Municipio Distrital 71.68 Diciembre 2017 7 Wanchaq Centro de Salud (CLAS) contiguo a la estación de bomberos 118.41 Enero 2018 8 Cusco Plaza San Francisco (cerca a pileta) 52.81 Enero / Febrero 2018 9 Cusco San Blas 20.19 Marzo 2018 10 Cusco Plazoleta Limacpampa 68.48 Marzo 2018 11 Cusco Plazoleta Pumacchupan 117.47 Abril 2018 12 Santiago Centro de salud, Belen Pampa (CLAS) 98.67 Mayo 2018 13 San Jerónimo Centro de Salud aledaño al local de la policia (CLAS) 105.66 Junio / Agosto 2018 Fuente: Elaboración propia, 2023. Tabla 2 2Índice de Calidad Ambiental referente a Material Particulado PM2.5Material particulado (PM2.5) promedio 24 horas Color Calificación Intervalo del INCA Intervalo de concentraciones ( 3 ) Verde Buena 0 -50 0 -12.5 Amarillo Moderada 51 -100 12.6 -25 Naranja Mala 101 -500 25.1 -125 Rojo Umbral de Cuidado >500 >125 Fuente: RM-N°-181-2016-MINAM. Relationships between fine particulate air pollution, cardiometabolic disorders, and cardiovascular mortality. Iii Pope, C A Turner, M C Burnett, R T Jerrett, M Gapstur, S M Diver, W R , . . Krewski, D , Circulation Research. 1266Pope III, C. A., Turner, M. C., Burnett, R. T., Jerrett, M., Gapstur, S. M., Diver, W. R., ... & Krewski, D. (2020). Relationships between fine particulate air pollution, cardiometabolic disorders, and cardiovascular mortality. Circulation Research, 126(6), 767-781 Energía Limpia y Cero Emisión. Warthon Ascarza, J , Universidad Nacional de San Antonio Abad del CuscoWarthon Ascarza J. L (2017). Energía Limpia y Cero Emisión. Universidad Nacional de San Antonio Abad del Cusco. http://vrin.unsaac.edu.pe/publicaciones/4/energia-limpia-y- cero-emision-.html Acute respiratory effects of particulate air pollution. D W Dockery, C A Pope, 10.1146/annurev.pu.15.050194.000543Annual Review of Public Health. 151Dockery, D. W., & Pope, C. A., 3rd. (1994). Acute respiratory effects of particulate air pollution. Annual Review of Public Health, 15(1), 107-132. doi:10.1146/annurev.pu.15.050194.000543 Ministerio de Transportes y Comunicaciones del Perú. (s.f.). Reportes de Turismo. Ministerio de Transportes y Comunicaciones del Perú. (s.f.). Reportes de Turismo. https://www.gob.pe/mtc/areasperu/turismo/reportes Ambient air pollution: Health impacts. World Health Organization. World Health Organization. (2021). Ambient air pollution: Health impacts. https://www.who.int/health-topics/air-pollution#tab=tab_1 Environmental health in China: progress towards clean air and safe water. J Zhang, D L Mauzerall, T Zhu, S Liang, M Ezzati, J V Remais, 10.1016/S0140-6736Lancet. 3759720Zhang, J., Mauzerall, D. L., Zhu, T., Liang, S., Ezzati, M., & Remais, J. V. (2010). Environmental health in China: progress towards clean air and safe water. Lancet, 375(9720), 1110-1119. doi:10.1016/S0140-6736(10)60062-1 Cusco:Perfil Socioeconómico. Decreto Supremo N° 003-2017-MINAM. Ministerio del Ambiente. Instituto Nacional de Estadística e Informática.Instituto Nacional de Estadística e Informática. (2018).Cusco:Perfil Socioeconómico. https://www.inei.gob.pe/media/MenuRecursivo/publicaciones_digitales/Est/Lib1539/in dex.html MINAM. (2017). Decreto Supremo N° 003-2017-MINAM. Ministerio del Ambiente. https://www.minam.gob.pe/disposiciones/decreto-supremo-n-003-2017-minam Estimates and 25-year trends of the global burden of disease attributable to ambient air pollution: an analysis of data from the Global Burden of Diseases Study. A J Cohen, M Brauer, R Burnett, H R Anderson, J Frostad, K Estep, M H Forouzanfar, 10.1016/s0140-6736Lancet. 38917Cohen, A. J., Brauer, M., Burnett, R., Anderson, H. R., Frostad, J., Estep, K., … Forouzanfar, M. H. (2017). Estimates and 25-year trends of the global burden of disease attributable to ambient air pollution: an analysis of data from the Global Burden of Diseases Study 2015. Lancet, 389(10082), 1907-1918. doi:10.1016/s0140-6736(17)30505-6 Air pollution and health. The Lancet. B Brunekreef, S T Holgate, 360Brunekreef, B., & Holgate, S. T. (2002). Air pollution and health. The Lancet, 360(9341), 1233-1242. Health effects of fine particulate air pollution: lines that connect. Iii Pope, C A Dockery, D W , Journal of the air & waste management association. 566Pope III, C. A., & Dockery, D. W. (2006). Health effects of fine particulate air pollution: lines that connect. Journal of the air & waste management association, 56(6), 709-742. Spatial analysis of air pollution and mortality in California. M Jerrett, R T Burnett, B S Beckerman, M C Turner, D Krewski, G Thurston, . . Samet, J M , American Journal of Respiratory and Critical Care Medicine. 1864Jerrett, M., Burnett, R. T., Beckerman, B. S., Turner, M. C., Krewski, D., Thurston, G., ... & Samet, J. M. (2010). Spatial analysis of air pollution and mortality in California. American Journal of Respiratory and Critical Care Medicine, 186(4), 344-352 Spatiotemporal distributions of PM2.5 concentrations in the Beijing-Tianjin-Hebei region from 2013 to 2020. Frontiers in environmental science. X Yang, D Xiao, H Bai, J Tang, W Wang, 10.3389/fenvs.2022.84223710Yang, X., Xiao, D., Bai, H., Tang, J., & Wang, W. (2022). Spatiotemporal distributions of PM2.5 concentrations in the Beijing-Tianjin-Hebei region from 2013 to 2020. Frontiers in environmental science, 10. doi:10.3389/fenvs.2022.842237 Decreto Supremo N° 181-2016-MINAM. Minam , Ministerio del AmbienteMINAM. (2016). Decreto Supremo N° 181-2016-MINAM. Ministerio del Ambiente, https://www.minam.gob.pe/wp-content/uploads/2016/07/RM-N%C2%B0-181-2016- MINAM.pdf Air Quality Index (AQI) Basics. United States Environmental Protection Agency. Usepa, USEPA. (2016). Air Quality Index (AQI) Basics. United States Environmental Protection Agency. https://www.airnow.gov/aqi/aqi-basics/ WHO global air quality guidelines: particulate matter (PM 2.5 and PM 10 ), ozone, nitrogen dioxide, sulfur dioxide and carbon monoxide. (2021, septiembre 22). P. 160. Who. intWHO global air quality guidelines: particulate matter (PM 2.5 and PM 10 ), ozone, nitrogen dioxide, sulfur dioxide and carbon monoxide. (2021, septiembre 22). P. 160. Who.int; . Omega Perú S.A. 12Filtros de Cuarzo diseñado específicamente para Monitoreo de aire Pallflex -Tissuquartz TM Filters.Filtros de Cuarzo diseñado específicamente para Monitoreo de aire Pallflex -Tissuquartz TM Filters. (2019, octubre 12). Omega Perú S.A. https://omegaperu.com.pe/filtros-de- cuarzo-disenado-especificamente-para-monitoreo-de-aire-pallflex-tissuquartz-tm- filters/ TSP y PM2.5 -Sanambiente. Muestreador de Partículas HI. 10Super User. (s/fSuper User. (s/f). Muestreador de Partículas HI-VOL para PM10, TSP y PM2.5 -Sanambiente. Com.co. https://www.sanambiente.com.co/index.php/es/equipos-para-medicion-de- particulas/9-muestreador-de-particulas-hi-vol-para-pm10-tsp-y-pm2- Transboundary health impacts of transported global air pollution and international trade. Q Zhang, X Jiang, D Tong, S J Davis, H Zhao, G Geng, . . Zhang, Y , 10.1038/nature21712Nature. 5437647Zhang, Q., Jiang, X., Tong, D., Davis, S. J., Zhao, H., Geng, G., ... & Zhang, Y -(2017). Transboundary health impacts of transported global air pollution and international trade. Nature, 543(7647), 705-709. https://doi.org/10.1038/nature21712 Air pollution in Cusco (Peru): A review of current knowledge and future research needs. E García-Menéndez, M Beltrán, 10.1016/j.jenvman.2018.11.110Journal of Environmental . Management. 231García-Menéndez, E., & Beltrán, M. (2019). Air pollution in Cusco (Peru): A review of current knowledge and future research needs. Journal of Environmental . Management, 231, 852-860. https://doi.org/10.1016/j.jenvman.2018.11.110
sample_20037
0.9911
arxiv
Intercomparison of Machine Learning Methods for Statistical Downscaling: The Case of Daily and Extreme Precipitation 13 Feb 2017 February 15, 2017 Thomas Vandal Sustainability and Data Science Lab Civil Engineering Dept Northeastern University Evan Kodra risQ Inc Auroop R Ganguly Sustainability and Data Science Lab Civil Engineering Dept Northeastern University Intercomparison of Machine Learning Methods for Statistical Downscaling: The Case of Daily and Extreme Precipitation 13 Feb 2017 February 15, 2017 Statistical downscaling of global climate models (GCMs) allows researchers to study local climate change effects decades into the future. A wide range of statistical models have been applied to downscaling GCMs but recent advances in machine learning have not been explored. In this paper, we compare four fundamental statistical methods, Bias Correction Spatial Disaggregation (BCSD), Ordinary Least Squares, Elastic-Net, and Support Vector Machine, with three more advanced machine learning methods, Multi-task Sparse Structure Learning (MSSL), BCSD coupled with MSSL, and Convolutional Neural Networks to downscale daily precipitation in the Northeast United States. Metrics to evaluate of each method's ability to capture daily anomalies, large scale climate shifts, and extremes are analyzed. We find that linear methods, led by BCSD, consistently outperform non-linear approaches. The direct application of stateof-the-art machine learning methods to statistical downscaling does not provide improvements over simpler, longstanding approaches. * vandal.t@husky.neu.edu † evan.kodra@risq.io ‡ a.ganguly@neu.edu limiting models to coarse spatial and temporal scale projections. While the coarse scale projections are useful in understanding climate change at a global and continental level, regional and local understanding is limited. Most often, the critical systems society depends on exist at the regional and local scale, where projections are most limited. Downscaling techniques are applied to provide climate projections at finer spatial scales, exploiting GCMs to build higher resolution outputs. Statistical and dynamical are the two classes of techniques used for downscaling. The statistical downscaling (SD) approach aims to learn a statistical relationship between coarse scale climate variables (ie. GCMs) and high resolution observations. The other approach, dynamical downscaling, joins the coarse grid GCM projections with known local and regional processes to build Regional Climate Models (RCMs). RCMs are unable to generalize from one region to another as the parameters and physical processes are tuned to specific regions. Though RCMs are useful for hypothesis testing, their lack of generality across regions and extensive computational resources required are strong disadvantages. Introduction The sustainability of infrastructure, ecosystems, and public health depends on a predictable and stable climate. Key infrastructure allowing society to function, including power plants and transportation systems, are built to sustain specific levels of climate extremes and perform optimally in it's expected climate. Studies have shown that the changing climate has had, and will continue to have, significant impacts on critical infrastructure [13,31]. Furthermore, climate change is having dramatic negative effects to ecosystems, from aquatic species to forests ecosystems, caused by increases in greenhouse gases and temperatures [43,32,20]. Increases in frequency and duration of heat waves, droughts, and flooding is damaging public health [18,12]. Global Circulation Models (GCMs) are used to understand the effects of the changing climate by simulating known physical processes up to two hundred years into the future. The computational resources required to simulate the global climate on a large scale is enormous, Statistical Downscaling Statistical downscaling methods are further categorized into three approaches, weather generators, weather typing, and transfer functions. Weather generators are typically used for temporal downscaling, rather than spatial downscaling. Weather typing, also known as the method of analogues, searches for a similar historical coarse resolution climate state that closely represents the current state. Though this method has shown reasonable results [11], in most cases, it is unable to satisfy the non-stationarity assumption in SD. Lastly, transfer functions, or regression methods, are commonly used for SD by learning functional relationships between historical precipitation and climate variables to project high resolution precipitation. A wide variety of regression methods have been applied to SD, ranging from Bias Correction Techniques to Artificial Neural Networks. Traditional methods include Bias Correction Spatial Disaggregation (BCSD) [46] and Automated Regression Based Downscaling (ASD) [21] and are the most widely used. BSCD assumes that the climate variable being downscaled is well simulated by GCMs, which often is not the case with variables such as precipitation [35]. Rather than relying on projections of the climate variable being downscaled, regression methods can be used to estimate the target variable. For instance, precipitation can be projected using a regression model with variables such as temperature, humidity, and sea level pressure over large spatial grids. High dimensionality of covariates leads to multicollinearity and overfitting in statistical models stemming from a range of climate variables over three dimensional space. ASD improves upon multiple linear regression by selecting covariates implicitly, using covariate selection techniques such as backward stepwise regression and partial correlations. The Least Absolute Shrinkage and Selection Operator (Lasso), a widely used method for high dimensional regression problems through the utilization of a l1 penalty term, is analogous to ASD and has shown superior results in SD [42,19]. Principle component analysis (PCA) is another popular approach to dimensionality reduction in SD [39,14,24], decomposing the features into a lower dimensional space to minimize multicollinearity between covariates. PCA is disadvantaged by the inability to infer which covariates are most relevant to the problem, steering many away from the method. Other methods for SD include Support Vector Machines (SVM) [14], Artificial Neural Networks (ANNs) [40,8], and Bayesian Model Averaging [49]. Many studies have aimed to compare and quantify a subset of the SD models presented above by downscaling averages and/or extremes at a range of temporal scales. For instance, Burger et al. presented an intercomparison on five state-of-the-art methods for downscaling temperature and precipitation at a daily temporal resolution to quantify extreme events [5]. Another recent study by Gutmann et al. presented an intercomparison of methods on daily and monthly aggregated precipitation [17]. These studies present a basis for comparing SD models by downscaling at a daily temporal resolution to estimate higher level climate statistics, such as extreme precipitation and long-term droughts. In this paper we follow this approach to test the applicability of more advanced machine learning models to downscaling. Multi-task Learning for Statistical Downscaling Traditionally, SD has focused on downscaling a locations independently without accounting for clear spatial dependencies in the system. Fortunately, numerous machine learning advances may aid SD in exploiting such dependencies. Many of these advancements focus on an approach known as multi-task learning, aiming to learn multiple tasks simultaneously rather than in isolation. A wide variety of studies have shown that exploiting related tasks through multitask learning (MTL) greatly outperforms single-task models, from computer vision [48] to biology [27]. Consider the work presented by [10] in which increasing the number of tasks leads to more significant feature selection and lower test error through the inclusion of task relatedness and regularization terms in the objective function. MTL has also displayed the ability to uncover and exploit structure between task relationships [50,6,2]. Recently Goncalves et al. presented a novel method, Multi-task Sparse Structure Learning (MSSL), [16] and applied it to GCM ensembles in South America. MSSL aims to exploit sparsity in both the set of covariates as well as the structure between tasks, such as set of similar predictands, through alternating optimization of weight and precision (inverse covariance) matrices. The results showed significant improvements in test error over Linear Regression and Multi-model Regression with Spatial Smoothing (a special case of MSSL with a pre-defined precision matrix). Along with a lower error, MSSL captured spatial structure including long range teleconnections between some coastal cities. The ability to harness this spatial structure and task relatedness within a GCM ensembles drives our attention toward MTL in other climate applications. Consider, in SD, each location in a region as a task with an identical set of possible covariates. These tasks are related through strong unknown spatial dependencies which can be harnessed for SD projections. In the common high dimensional cases of SD, sparse features learned will provide greater significance as presented by [10]. Furthermore, the structure between locations will be learned and may aid projections. MSSL, presented by [16], accounts for sparse feature selection and structure between tasks. In this study we aim to compare traditional statistical downscaling approaches, BCSD, Multiple Linear Regression, Lasso, and Support Vector Machines, against new approaches in machine learning, Multi-task Sparse Structure Learning and Convolutional Neural Networks (CNNs). During experimentation we apply common training architectures as part of the automated statistical downscaling framework. Results are then analyzed with a variety of metrics including, root mean Square error (RMSE), bias, skill of estimating underlying distributions, correlation, and extreme indices. Statistical Downscaling Methods Bias Corrected Spatial Disaggregation BCSD [46] is widely used in the downscaling community due to its simplicity [1,5,45,30]. Most commonly, GCM data is bias corrected followed by spatial disaggregation on monthly data and then temporally disaggregated to daily projections. Temporal disaggregation is performed by selecting a month at random and adjusting the daily values to reproduce it's statistical distribution, ignoring daily GCM projections. Thrasher et al. presented a process applying BCSD directly to daily projections [41], removing the step of temporal disaggregation. We the following steps with overlapping a reanalysis dataset and gridded observation data. 1) Bias correction of daily projections using observed precipitation. Observed precipitation is first remapped to match the reanalysis grid. For each day of the year values are pooled, ± 15 days, from the reanalysis and observed datasets to build a quantile mapping. With the quantile mapping computed, the reanalysis data points are mapped, bias corrected, to the same distribution as the observed data. When applying this method to daily precipitation detrending the data is not necessary because of the lack of trend and is therefore not applied. 2) Spatial disaggregation of the bias-corrected reanalysis data. Coarse resolution reanalysis is then bilinearly interpolated to the same grid as the observation dataset. To preserve spatial details of the fine-grained observations, the average precipitation of each day of the year is computed from the observation and set as scaling factors. These scaling factors are then multiplied to the daily interpolated GCM projections to provide downscaled GCM projections. Automated Statistical Downscaling ASD is a general framework for statistical downscaling incorporating covariate selection and prediction [21]. Downscaling of precipitation using ASD requires two essential steps: 1. Classify rainy/non-rainy days (≥ 1mm), 2. Predict precipitation totals for rainy days. The predicted precipitation can then be written as: E[Y ] = R * E[Y |R] where R = 0, if P(Rainy) < 0.5 1, otherwise(1) Formulating R as a binary variable preserves rainy and non-rainy days. We test this framework using five pairs of classification and regression techniques. Multiple Linear Regression The simplicity of Multiple Linear Regression (MLR) motivated its use in SD, particularly as part of SDSM [44] and ASD [21]. To provide a baseline relative to the following methods, we apply a variation of MLP using PCA. As discussed previously, PCA is implemented to reduce the dimensionality of a high dimensional feature space by selecting the components that account for a percentage (98% in our implementation) of variance in the data. These principle components, X, are used as inputs to classify and predict precipitation totals. We apply a logistic regression model to classify rainy versus non-rainy days. MLP is then applied to rainy days to predict precipitation amounts, Y :β = argmin β Y − Xβ(2) This particular formulation will aid in comparison to [14] where PCA is coupled with an SVM. Elastic-Net Covariate selection can be done in a variety of methods, such as backward stepwise regression and partial correlations. Automatic covariate selection through the use of regularization terms, such as the L1/L2 norms in the statistical methods Lasso [42], Ridge [23], and Elastic-Net [51]. Elastic-Net uses a linear combination of L1/L2 norms which we will apply in this intercomparison. Given a set of covariates X and observations Y , Elastic-net is defined as: β = argmin β Y − Xβ 2 2 +λ1 β 1 +λ2 β 2 2(3) The L1 norm forces uninformative covariate coefficients to zero while the L2 norm enforces smoothness while allowing correlated covariates to persist. Cross-validation is applied with a grid-search to find the optimal parameter values for λ1 and λ2. High-dimensional Elastic-Net is much less computational than stepwise regression techniques and most often leads to more generalizable models. A similar approach is applied to the classification step by using a logistic regression with an L1 normalization term. Previous studies have considered the use of Lasso for SD [19] but to our knowledge, none have considered Elastic-Net. Support Vector Machine Regression Ghosh et al. introduced a coupled approach of PCA and Support Vector Machine Regression (SVR) for statistical downscaling [15,14]. The use of SVR for downscaling aims to capture non-linear effects in the data. As discussed previously, PCA is implemented to reduce the dimensionality of a high dimensional feature space by selecting the components that account for a percentage (98% in our implementation) of variance in the data. Following dimensionality reduction, SVR is used to define the transfer function between the principle components and observed precipitation. Given a set of covariates (the chosen principle components) X ∈ R n×m and Y ∈ R n with d covariates and n samples, the support vector regression is defined as [37]: f (x) = d i=1 wi × K(xi, x) + b(4) where K(xi, x) and wi are the kernel functions and their corresponding weights with a bias term b. The support vectors are selected during training by optimizing the number of points from the training data to define the relationship between then predictand (Y ) and predictors (X). Parameters C and ǫ are set during training, which we set to 1.0 and 0.1 respectively, corresponding to regularization and loss sensitivity. A linear kernel function is applied to limit overfitting to the training set. Furthermore, support vector classifier was used for classification of rainy versus non-rainy days. Multi-task Sparse Structure Learning Recent work in Multi-task Learning aims to exploit structure in the set of predictands while keeping a sparse feature set. Multi-task Sparse Structure Learning (MSSL) in particular learns the structure between predictands while enforcing sparse feature selection ( [16]). Goncalves et al. presented MSSL's exceptional ability to predict temperature through ensembles of GCMs while learning interesting teleconnections between locations ( [16]). Moreover, the generalized framework of MSSL allows for implementation of classification and regression models. Applying MSSL to downscaling with least squares regression (logistic regression for classification), we denote K as the number of tasks (observed locations), n as the number of samples, and d as the number of covariates with predictor X ∈ R n×d , and predictand Y ∈ R n×K . As proposed in [16], optimization over the precision matrix, Ω, is defined as min W ,Ω≻0 1 2 K k=1 XW k − Y k 2 2 − K 2 log|Ω| + T r(W ΩW T ) + λ Ω 1 +γ W 1(5) where W ∈ R d×K is the weight matrix and Ω ∈ R K×k is an inverse precision matrix. The L1 regularization parameters λ and γ enforce sparsity over Ω and W . Ω represents the structure contained between the high resolution observations. Alternating minimization is applied to (5) 1. Initialize Ω 0 = I k , W 0 = 0 dXk 2. for t=1,2,3,.. do W t+1 |Ω t = min W 1 2 K k=1 X k W k − Y k 2 2 +T r(W ΩW T ) + γ W 1 (6) Ω t+1 |W t+1 = min Ω T r(W ΩW T ) − K 2 log|Ω| + λ Ω 1(7) 6 and 7 are independently approximated through Alternating Direction Method of Multipliers (ADMM). Furthermore, by assuming the predictors of each task is identical (as it is for SD), 6 is updated using Distributed-ADMM across the feature space [4]. GCM Convolution Convolution Pooling Pooling Fully Connected Figure 1: Given a set of GCM inputs Y , the first layer extracts a set of feature maps followed by a pooling layer. A second convolution layer is then applied to the reduced feature space and pooled one more time. The second pooling layer is then flattened and fully connected to the high resolution observations. MSSL enforces similarity between rows of W by learning the structure Ω. For example, two locations which are nearby in space may tend to exhibit similar properties. MSSL will the exploit these properties and impose similarity in their corresponding linear weights. By enforcing similarity in linear weights, we are encouraging smoothness of SD projections between highly correlated locations. L1 regularization over W and Ω jointly encourages sparseness and does not force structure. The parameters encouraging sparseness, γ and λ, are chosen from a validation set using the grid-search technique. These steps are applied for both regression and classification. Convolutional Neural Networks Artificial Neural Networks (ANN) have been widely applied to SD with mixed results [40,36,5], to name a few. In the past, ANNs had difficulty converging to a local minimum. Recent progress in deep learning has renewed interested in ANNs and are beginning to have impressive results in many applications, including image classification and speech recognition [29,22,3]. In particular, Convolutional Neural Networks (CNNs) have greatly impacted computer vision applications by extracting, representing, and condensing spatial properties of the image [29]. SD may benefit from CNN advances by learning spatial representations of GCMs. Though CNNs rely on a high number of samples to reduce overfitting, dropout has been shown to be an effective method of reducing overfitting with limited samples [38]. We note that the number of observations available to daily statistical downscaling may cause overfitting. CNNs rely on two types of layers, a convolution layer and a pooling layer. In the convolution layer, a patch of size 3 × 3 is chosen and slid with a stride of 1 around the image. A non-linear transformation is applied to each patch resulting in 8 filters. Patches of size 2 × 2 are then pooled by selecting the maximum unit with a stride of 2. A second convolution layer with a 3 × 3 patch to 2 filters is followed by a max pooling layer of size 3 × 3 with stride 3. The increase of pooling size decreases the dimensionality further. The last pooling layer is then vectorized and densely connected to each high resolution location. This architecture is presented in Figure 1. Multiple variables and pressure levels from our reanalysis dataset are represented as channels in the CNN input. Our CNN is trained using the traditional back propagation optimization with a decreasing learning rate. During training, dropout with probability 0.5 is applied the densely connected layer. This method aims to exploit the spatial structure contained in the GCM. A sigmoid function is applied to the output layer for classification. To our knowledge, this is the first application of CNNs to statistical downscaling. Bias Corrected Spatial Disaggregation with MSSL To further understand the use of BCSD in Statistical Downscaling, we propose a technique to estimate the errors introduced in BCSD. As presented above, BCSD utilizes a relatively simple quantile mapping approach to statistical downscaling following by interpolation and spatial scaling. Following the BCSD estimates of the observed climate, we compute the presented errors, which may be consistent and have a predictive signal. Modeling such errors using the transfer function approaches above, such as MSSL, may uncover this signal and improve BCSD projections. To apply this technique, the following steps are taken: 1. Apply BCSD to the coarse scale climate variable and compute the errors. 2. Excluding a hold out dataset, use MSSL where they predictand is the computed errors and the predictands are from a different set of climate variables, such as Temperature, Wind, Sea Level Pressure, etc. 3. Subtract the expected errors modeled by step 2 from BCSD projections in step 1. The transfer function learned in step 2 is then applicable to future observations. Data The Northeastern United States endures highly variable season and annual weather patterns. Variable climate and weather patterns combined with diverse topology provides difficulty in regional climate projection. Precipitation in particular varies heavily in frequency and intensity seasonally and annually [26]. We choose this region to provide an in-depth comparison of statistical downscaling techniques for daily precipitation and extremes. United States Unified Gauge-Based Analysis of Precipitation High resolution gridded precipitation datasets often provide high uncertainties due to a lack of gauge based observations, poor quality control, and interpolation procedures. Fortunately, precipitation gauge data in the continental United States is dense with high temporal resolution (hourly and daily). The NOAA Climate Prediction Center CPC Unified Gauge-Based Analysis of Precipitation exploits the dense network of rain gauges to provide a quality controlled high resolution (0.25 • by 0.25 • ) gridded daily precipitation dataset from 1948 to the current date. State of the art quality control [7] and interpolation [47] techniques are applied giving us high confidence in the data. We select all locations within the northeastern United States watershed. NASA Modern-Era Retrospective Analysis for Research and Applications 2 (MERRA-2) Reanalysis datasets are often used as proxies to GCMs for statistical downscaling when comparing methods due to their low resolution gridded nature with a range of pressure levels and climate variables. Uncertainties and biases occur in each dataset, but state-of-the-art reanalysis datasets attempt to mitigate these issues. NASA's MERRA-2 reanalysis dataset [34] was chosen after consideration of NCEP Reanalysis I/II [25] and ERA-Interm [9] datasets. [28] showed the reduced bias of MERRA and ERA-Interm over NCEP Reanalysis II, which is most often used in SD studies. MERRA-2 provides a significant temporal resolution from 1980 to present with relatively high spatial resolution (0.50 • by 0.625 • ). Satellite data provided by NASA's GEOS-5 project in conjunction with NASA's data assimilation system when producing MERRA-2 [34]. Only variables available from the CCSM4 GCM model are selected as covariates for our SD models. Temperature, vertical wind, horizontal wind, and specific humidity are chosen from pressure levels 500hpa, 700hpa, and 850hpa. At the surface level, temperature, sea level pressure, and specific humidity are chosen as covariates. To most closely resemble CCSM4, each variable is spatially upscaled to 1.00 • to 1.25 • at a daily resolution. A large box centralized around the Northeastern Region ranging from 35 • to 50 • latitude and 270 • to 310 • longitude is used for each variable. When applying the BCSD model, we use a spatially upscaled Land Precipitation MERRA-2 Reanalysis dataset at a daily temporal resolution. Bilinear interpolation is applied over the coast to allow for quantile mapping of coastal locations as needed. Experiments and Evaluation In-depth evaluation of downscaling techniques is crucial in testing and understanding their credibility. The implicit assumptions in SD must be clearly understood and tested when applicable. Firstly, SD models assume that the predictors chosen credibly represent the variability in the predictands. This assumption is partially validated through the choice of predictors presented above, which physically represents variability of precipitation. The remainder of the assumption must be tested through experimentation and statistical tests between downscaled projections and observations. The second assumption then requires the statistical attributes of predictands and predictors to be valid outside of the data using for statistical modeling. A hold out set will be used to test the feasibility of this assumption at daily, monthly, and annually temporal resolutions. Third, the climate change signal must be incorporated in the predictands through GCMs. Predictands chosen for this experiment are available through CMIP5 CCSM4 simulations. It is understood that precipitation is not well simulated by GCMs and therefore not used in ASD models [35]. To test these assumptions, we provide in-depth experiments, analysis, and statistical metrics for each method presented above. The years 1980-2004 are used from training and years 2005-2014 are used for testing, taken from the overlapping time period of MERRA-2 and CPC Precipitation. For each method (excluding the special case of BCSD), we chose all covariates from each variable, pressure level, and grid point presented above, totaling 12,781 covariates. Each method applies either dimensionality reduction or regularization techniques to reduce complexity of this high dimensional dataset. Separate models are trained for each season (DJF, MAM, JJA, SON) and used to project the corresponding observations. Analysis and evaluation of downscaled projections aim to cover three themes: 1. Ability to capture daily anomalies. 2. Ability to respond to large scale climate trends on monthly and yearly temporal scales. 3. Ability to capture extreme precipitation events. Similar evaluation techniques were applied in recent intercomparison studies of SD [5,17]. Evaluation of daily anomalies are tested through comparison of bias (Projected -Observed), Root Mean Square Error (RMSE), correlations, and a skill score [33]. The skill score presented by [33] measures how similar two probability density functions are from a range of 0 to 1 where 1 corresponds to identical distributions. Statistics are presented for winter (DJF), summer (JJA), and annually to understand season credibility. Statistics for spring and fall are computed but not presented in order to minimize overlapping climate states and simply results. Each of the measures are computed independently in space then averaged to a single metric. Large scale climate trends are tested by aggregating daily precipitation to monthly and annual temporal scales. The aggregated projections are then compared using Root Mean Square Error (RMSE), correlations, and a skill score as presented in [33]. Due to the limited number of data points in the monthly and yearly projections, we estimate each measure using the entire set of projections and observations. Climate indices are used for evaluation of SD models' ability to estimate extreme events. Four metrics from ClimDEX (http://www.clim-dex.org), chosen to encompass a range of extremes, will be utilized for evaluation, as presented by Bürger [5]. Metrics will be computed on observations and downscaled estimates followed by annual (or monthly) comparisons. For example, correlating the maximum number of consecutive wet days per year between observations and downscaled estimates measures each SD models' ability to capture yearly anomalies. A skill score will also be utilized to understand abilities of reproducing statistical distributions. Results Results presented below are evaluated using a hold-out set, years 2005-2014. Each model's ability to capture daily anomalies, long scale climate trends, and extreme events are presented. Our goal is to understand a SD model's overall ability to provide credible projections rather than one versus one comparisons, therefore statistical significance was not computed when comparing statistics. Daily Anomalies Evaluation of daily anomalies depends on a model's ability to estimate daily precipitation given the state of the system. This is equivalent to analyzing the error between projections and observations. Four statistical measures are used to evaluate these errors: bias, Pearson Correlation, skill score, and root mean square error (RMSE), as presented in Figure 2, Figure 3, and Table 1). All daily precipitation measures are computed independently in space and averaged to provide a single value. This approach is taken to summarize the measures as simply as possible. Figure 2 shows the spatial representation of annual bias in Table 1. Overall, methods tend underestimate precipitation annually and seasonally with only PCASVR overestimating. BCSD-MSSL shows the lowest annual and summer bias and second lowest winter bias. BCSD is consistently under projects daily precipitation, but by modeling the possible error with MSSL, bias is reduced. PCAOLS and ELNET are less biased compared to MSSL. CNN has a strong tendency underestimate precipitation. Figure 2 shows consistent negative bias through space for BCSD, ELNET, PCAOLS, MSSL, and CNN while PCASVR shows no discernible pattern. Correlation measures in Table 1 presents a high linear relationship between projections and observations for the models ELNET (0.64 annually) and MSSL (0.62 annually). We find that BCSD has a lower correlation even in the presence of error correction in BCSD-MSSL. PCASVR provides low correlations, averaging 0.33 annually, but PCAOLS performs substantially better at 0.55. The skill score is used to measure a model's ability to reproduce the underlying distribution of observed precipitation where a higher value is better between 0 and 1. BCSD, MSSL, and PCASVR have the largest skill scores, 0.93, 0.92, and 0.91 annually. We find that modeling the errors of BCSD decreases the ability to replicate the underlying distribution. The more basic linear models, PCAOLS and ELNET, present lower skill scores. The much more complex CNN model has difficulty replicating the distribution. RMSE, presented in Figure 3 and Table 1, measures the overall ability of prediction by squaring the absolute errors. The boxplot in Figure 3, where the box present the quartiles and whiskers the remaining distributions with outliers as points, shows the distribution of RMSE annually over space. The regularized models of ELNET and MSSL have similar error distributions and outperform others. CNN, similar to its under performance in bias, shows a poor ability to minimize error. The estimation of error produced by BCSD-MSSL aids in lowering the RMSE of plain BCSD. PCAOLS reasonably minimizes RMSE while PCASVR severely under-performs compared to all other models. Regression models applied minimize error during optimization while BCSD does not. Seasonally, winter is easier to project with summer being a bit more challenging. Large Climate Trends Analysis of a SD model's ability to capture large scale climate trends can be done by aggregating daily precipitation to monthly and annual temporal scales. To increase the confidence in our measures, presented in Table II and Figures 4 and 5, we compare all observations and projections in a single computation, rather than separating by location and averaging. Table 2 and Figure 4 show a wide range of RMSE. A clear difficulty in projecting precipitation Table 3: Statistics for ClimDEX Indices: For each model's downscaled estimate we compute four extreme indices, consecutive wet days (CWD), very heavy wet days (R20), maximum 5 day precipitation (RX5day), and daily intensity index (SDII), for each location. We then compare these indices to those extracted from observations to compute correlation and skill metrics. in the fall, October in particular, is presented by each time-series in Figure 4. The difference in overall predictability relative to RMSE between the models is evident. BCSD and BCSD-MSSL have significantly lower monthly RMSEs compared to the others. Annually, BCSD-MSSL reduced RMSE by 25% compared to plain BCSD. The linear models, ELNET, MSSL, and PCAOLS, have similar predictability while the non-linear models suffer, CNN being considerably worse. The skill scores in Table 2 show more difficulty in estimating the annual distribution versus monthly distribution. On a monthly scale BCSD and BCSD-MSSL skill scores outperform all other models but BCSD suffers slightly on an annual basis. However, BCSD-MSSL does not lose any ability to estimate the annual distribution. PCAOLS annual skill score is remarkably higher than the monthly skill score. Furthermore, the three linear models outperform BCSD on an annual basis. PCASVR's skill score suffers on an annual scale and CNN has no ability to estimate the underlying distribution. Correlation measures between the models and temporal scales show much of the same. BCSD has the highest correlations in both monthly ( 0.85) and yearly ( 0.64) scales while BCSD-MSSL are slightly lower. CNN correlations fall just behind BCSD and BCSD-MSSL. PCASVR fails with correlation values of 0.22 and 0.18. ELNET has slightly higher correlations in relation to MSSL and PCAOLS. Extreme Events A SD model's ability to downscale extremes from reanalysis depends on both the response to observed anomalies and ability to reproduce the underlying distribution. Resulting correlation measures present the response to observed anomalies, shown in Figure 6 and Table 3. We find that BCSD has higher correlations for three metrics, namely consecutive wet days, very heavy wet days, and daily intensity index along with a similar results from 5-day maximum precipitation. Furthermore, modeling BCSD's expected errors with BCSD-MSSL decreases the ability to estimate the chosen extreme indices. Non-linear methods, PCASVR and CNN, suffer greatly in comparison to more basic bias correction and linear approaches. The linear methods, PCAOLS, ELNET, and MSSL, provide similar correlative performance. A skill score is used to quantify each method's ability to estimate an indices statistical distribution, presented in Table 3. Contrary to correlative results, PCASVR outperforms the other methods on two metrics, very heavy wet days and daily intensity index, with better than average scores on the other two metrics. BCSD also performs reasonably well in terms of skill scores while BCSD-MSSL suffers from the added complexity. MSSL estimates the number of consecutive wet days well but is less skilled on other metrics. The very complex CNN model has little ability to recover such distributions. Figure 6 displays a combination of correlative power and magnitude estimate of the daily intensity index. The SDII metric is computed from total annual precipitation and number of wet days. A low SDII metric corresponds to either a relatively large number of estimated wet days or low annual precipitation. We find that the on average methods underestimate this intensity. Based on Figure 5 we see that CNN severely underestimates annual precipitation, causing a low SDII. In contrast, PCASVR overestimates annual precipitation and intensity. Inconsistent results of PCASVR and CNN indicates that capturing non-linear relationships is outweighed by overfitting. However, BCSD and linear methods are more consistent throughout each metric. Discussion and Conclusion The ability of statistical downscaling methods to produce credible results is necessary for a multitude of applications. Despite numerous studies experimenting with a wide range of models for statistical downscaling, none have clearly outperformed others. In our study, we experiment with the off-the-shelf applicability of machine learning advances to statistical downscaling in comparison to traditional approaches. Multi-task Sparse Structure learning, an approach that exploits similarity between tasks, was expected to increase accuracy beyond automated statistical downscaling approaches. We find that MSSL does not provide improvements beyond ELNET, an ASD approach. Furthermore, the parameter set, estimated through cross-validation, attributed no structure aiding prediction. The recent popularity in deep learning along with it's ability to capture spatial information, namely Convolutional Neural Networks, motived us to experiment with basic architectures for statistical downscaling. CNNs benefit greatly by implicitly learning abstract non-linear spatial features based on the target variable. This approach proved to poorly estimate downscaled estimates relative to simpler methods. We hypothesize that implicitly learning abstract features rather than preserving the granular feature spaced caused poor performance. More experimentation with CNNs in a different architecture may still provide valuable results. BCSD, a popular approach to statistical downscaling, outperformed the more complex models in estimating underlying statistical distributions and climate extremes. In many cases, correcting BCSD's error with MSSL increased daily correlative performance but decreased skill of estimating the distribution. From this result, we can conclude that a signal aiding in prediction was lost during quantile mapping, interpolation, or spatial scaling. Future work may study and improve each step independently to increase overall performance. Of the seven statistical downscaling approaches studied, the traditional BCSD and ASD methods outperformed non-linear methods, namely Convolutional Neural Network and Support Vector regression, while downscaling daily precipitations. We find that BCSD is skilled at estimating the statistical distribution of daily precipitation, generating better estimates of extreme events. The expectation of CNN and MSSL, two recent machine learning advances which we found most applicable to statistical downscaling, to outperform basic modeled proved false. Improvements and customization of machine learning methods is needed to provide more credible projections. MERRA-2 climate reanalysis datasets used were provided by the Global Modeling and Assimilation Office at NASA's Goddard Space Flight Center. The CPC Unified Gauge-Based Analysis was provided by NOAA Climate Prediction Center. Figure 2 : 2Each map presents the spatial bias, or directional error, of the model. White represents no bias produced by the model while red and blue respectively show positive and negative biases.1. CWD -Consecutive wet days ≥ 1mm 2. R20 -Very heavy wet days ≥ 20mm 3. RX5day -Monthly consecutive maximum 5 day precip 4. SDII -Daily intensity index = Annual total / precip days ≥ 1m Figure 3 : 3Root mean square error (RMSE) is computed for each downscaling location and method. Each boxplot presents the distribution of all RMSEs for the respective method. The box shows the quartiles while the whiskers shows the remaining distribution, with outliers displayed by points. Figure 4 : 4The average root mean square Error for each month with each line representing a single downscaling model. Figure 5 :Figure 6 : 56Annual precipitation observed (x-axis) and projected (y-axis) for each model is presented along with the corresponding Pearson Correlation. Each point represents a single location and year. The daily intensity index (Annual Precipitation/Number of Precipitation Days) averaged per year. Table 1 : 1Daily statistical metrics averaged over space for annual, winter, and summer projections. Bias measures the directional error from each model. Correlation (larger is better) and RMSE (lower is better) describe the models ability to capture daily fluxuations in precipitation. The skill score statistic measure the model's ability to estimate the observed probability distribution. Table 2 : 2Large Scale Projection Results: After aggregating daily downscaled estimates to monthly and yearly time scales, RMSE and Skill are computed per location and averaged. AcknowledgmentsThis work was funded by NSF CISE Expeditions in Computing award 1029711, NSF CyberSEES award 1442728, and NSF BIGDATA award 1447587. A comparison of statistical downscaling methods suited for wildfire applications. T John, Timothy J Abatzoglou, Brown, International Journal of Climatology. 325John T Abatzoglou and Timothy J Brown. A comparison of statistical downscaling methods suited for wildfire applications. International Journal of Climatology, 32(5):772-780, 2012. A spectral regularization framework for multi-task structure learning. Andreas Argyriou, Massimiliano Pontil, Yiming Ying, Charles A Micchelli, Advances in neural information processing systems. Andreas Argyriou, Massimiliano Pontil, Yiming Ying, and Charles A Micchelli. A spectral regularization framework for multi-task structure learning. In Advances in neural informa- tion processing systems, pages 25-32, 2007. Learning sparse feature representations using probabilistic quadtrees and deep belief nets. Saikat Basu, Manohar Karki, Sangram Ganguly, Robert Dibiano, Supratik Mukhopadhyay, Ramakrishna Nemani, Proceedings of the European Symposium on Artificial Neural Networks, ESANN. the European Symposium on Artificial Neural Networks, ESANNSaikat Basu, Manohar Karki, Sangram Ganguly, Robert DiBiano, Supratik Mukhopad- hyay, and Ramakrishna Nemani. Learning sparse feature representations using probabilis- tic quadtrees and deep belief nets. In Proceedings of the European Symposium on Artificial Neural Networks, ESANN, 2015. Distributed optimization and statistical learning via the alternating direction method of multipliers. Stephen Boyd, Neal Parikh, Eric Chu, Borja Peleato, Jonathan Eckstein, Machine Learning. 3Stephen Boyd, Neal Parikh, Eric Chu, Borja Peleato, and Jonathan Eckstein. Distributed optimization and statistical learning via the alternating direction method of multipliers. Foundations and Trends R in Machine Learning, 3(1):1-122, 2011. Downscaling extremes-an intercomparison of multiple statistical methods for present climate. G Bürger, T Q Murdock, . T Werner, S R Sobie, A J Cannon, Journal of Climate. 2512G. Bürger, T. Q. Murdock, a. T. Werner, S. R. Sobie, and a. J. Cannon. Downscaling extremes-an intercomparison of multiple statistical methods for present climate. Journal of Climate, 25(12):4366-4388, June 2012. Integrating low-rank and group-sparse structures for robust multi-task learning. Jianhui Chen, Jiayu Zhou, Jieping Ye, Proceedings of the 17th ACM SIGKDD international conference on Knowledge discovery and data mining. the 17th ACM SIGKDD international conference on Knowledge discovery and data miningACMJianhui Chen, Jiayu Zhou, and Jieping Ye. Integrating low-rank and group-sparse structures for robust multi-task learning. In Proceedings of the 17th ACM SIGKDD international conference on Knowledge discovery and data mining, pages 42-50. ACM, 2011. Assessing objective techniques for gauge-based analyses of global daily precipitation. Mingyue Chen, Wei Shi, Pingping Xie, Viviane Silva, E Vernon, Wayne Kousky, John E Higgins, Janowiak, Journal of Geophysical Research. 113D4AtmospheresMingyue Chen, Wei Shi, Pingping Xie, Viviane Silva, Vernon E Kousky, R Wayne Higgins, and John E Janowiak. Assessing objective techniques for gauge-based analyses of global daily precipitation. Journal of Geophysical Research: Atmospheres, 113(D4), 2008. Downscaling Precipitation and Temperature with Temporal Neural Networks. Paulin Coulibaly, Yonas B Dibike, François Anctil, Journal of Hydrometeorology. 64Paulin Coulibaly, Yonas B. Dibike, and François Anctil. Downscaling Precipitation and Temperature with Temporal Neural Networks. Journal of Hydrometeorology, 6(4):483-496, 2005. The era-interim reanalysis: Configuration and performance of the data assimilation system. Dp Dee, Uppala, Paul Simmons, P Berrisford, Poli, Kobayashi, M A Andrae, G Balmaseda, Balsamo, Bauer, Quarterly Journal of the Royal Meteorological Society. 137656DP Dee, SM Uppala, AJ Simmons, Paul Berrisford, P Poli, S Kobayashi, U Andrae, MA Balmaseda, G Balsamo, P Bauer, et al. The era-interim reanalysis: Configuration and performance of the data assimilation system. Quarterly Journal of the Royal Meteorological Society, 137(656):553-597, 2011. Multi-task feature learning. A Evgeniou, Massimiliano Pontil, Advances in neural information processing systems. 1941A Evgeniou and Massimiliano Pontil. Multi-task feature learning. Advances in neural information processing systems, 19:41, 2007. A comparison of multi-site daily rainfall downscaling techniques under australian conditions. J Andrew, Frost, P Stephen, Bertrand Charles, Timbal, H S Francis, Raj Chiew, Mehrotra, C Kim, Richard E Nguyen, John L Chandler, Guobin Mcgregor, Fu, G C Dewi, Kirono, Journal of Hydrology. 4081Andrew J Frost, Stephen P Charles, Bertrand Timbal, Francis HS Chiew, Raj Mehrotra, Kim C Nguyen, Richard E Chandler, John L McGregor, Guobin Fu, Dewi GC Kirono, et al. A comparison of multi-site daily rainfall downscaling techniques under australian conditions. Journal of Hydrology, 408(1):1-18, 2011. Climate change: the public health response. Howard Frumkin, Jeremy Hess, George Luber, Josephine Malilay, Michael Mcgeehin, American Journal of Public Health. 983Howard Frumkin, Jeremy Hess, George Luber, Josephine Malilay, and Michael McGeehin. Climate change: the public health response. American Journal of Public Health, 98(3):435- 445, 2008. Water stress on us power production at decadal time horizons. Poulomi Ganguli, Devashish Kumar, Auroop R Ganguly, arXiv:1511.08449arXiv preprintPoulomi Ganguli, Devashish Kumar, and Auroop R Ganguly. Water stress on us power production at decadal time horizons. arXiv preprint arXiv:1511.08449, 2015. Svm-pgsl coupled approach for statistical downscaling to predict rainfall from gcm output. Subimal Ghosh, Journal of Geophysical Research: Atmospheres. 115D22Subimal Ghosh. Svm-pgsl coupled approach for statistical downscaling to predict rainfall from gcm output. Journal of Geophysical Research: Atmospheres, 115(D22), 2010. Statistical downscaling of gcm simulations to streamflow using relevance vector machine. Subimal Ghosh, Mujumdar, Advances in water resources. 311Subimal Ghosh and PP Mujumdar. Statistical downscaling of gcm simulations to stream- flow using relevance vector machine. Advances in water resources, 31(1):132-146, 2008. Multi-task sparse structure learning. Puja Andre R Goncalves, Soumyadeep Das, Vidyashankar Chatterjee, Sivakumar, Arindam Fernando J Von Zuben, Banerjee, Proceedings of the 23rd ACM International Conference on Conference on Information and Knowledge Management. the 23rd ACM International Conference on Conference on Information and Knowledge ManagementACMAndre R Goncalves, Puja Das, Soumyadeep Chatterjee, Vidyashankar Sivakumar, Fer- nando J Von Zuben, and Arindam Banerjee. Multi-task sparse structure learning. In Proceedings of the 23rd ACM International Conference on Conference on Information and Knowledge Management, pages 451-460. ACM, 2014. An intercomparison of statistical downscaling methods used for water resource assessments in the united states. Ethan Gutmann, Tom Pruitt, Martyn P Clark, Levi Brekke, R Jeffrey, David A Arnold, Roy M Raff, Rasmussen, Water Resources Research. 509Ethan Gutmann, Tom Pruitt, Martyn P Clark, Levi Brekke, Jeffrey R Arnold, David A Raff, and Roy M Rasmussen. An intercomparison of statistical downscaling methods used for water resource assessments in the united states. Water Resources Research, 50(9):7167- 7186, 2014. Climate change and human health: impacts, vulnerability and public health. Andy Haines, Sari Kovats, Diarmid Campbell-Lendrum, Carlos Corvalán, Public health. 1207Andy Haines, R Sari Kovats, Diarmid Campbell-Lendrum, and Carlos Corvalán. Cli- mate change and human health: impacts, vulnerability and public health. Public health, 120(7):585-596, 2006. Predictor selection for downscaling gcm data with lasso. Dorra Hammami, Tae Sam Lee, Bmj Taha, Jonghyun Ouarda, Lee, Journal of Geophysical Research: Atmospheres. 117D17Dorra Hammami, Tae Sam Lee, Taha BMJ Ouarda, and Jonghyun Lee. Predictor selec- tion for downscaling gcm data with lasso. Journal of Geophysical Research: Atmospheres, 117(D17), 2012. Highresolution global maps of 21st-century forest cover change. C Matthew, Hansen, V Peter, Rebecca Potapov, Matt Moore, Hancher, Alexandra Sa Turubanova, David Tyukavina, Thau, Sv Stehman, Goetz, Loveland, science. 3426160Matthew C Hansen, Peter V Potapov, Rebecca Moore, Matt Hancher, SA Turubanova, Alexandra Tyukavina, David Thau, SV Stehman, SJ Goetz, TR Loveland, et al. High- resolution global maps of 21st-century forest cover change. science, 342(6160):850-853, 2013. Automated regression-based statistical downscaling tool. Masoud Hessami, Philippe Gachon, Bmj Taha, André Ouarda, St-Hilaire, Environmental Modelling & Software. 236Masoud Hessami, Philippe Gachon, Taha BMJ Ouarda, and André St-Hilaire. Auto- mated regression-based statistical downscaling tool. Environmental Modelling & Software, 23(6):813-834, 2008. Deep neural networks for acoustic modeling in speech recognition: The shared views of four research groups. Geoffrey Hinton, Li Deng, Dong Yu, George E Dahl, Abdel-Rahman Mohamed, Navdeep Jaitly, Andrew Senior, Vincent Vanhoucke, Patrick Nguyen, Tara N Sainath, Signal Processing Magazine. 296IEEEGeoffrey Hinton, Li Deng, Dong Yu, George E Dahl, Abdel-rahman Mohamed, Navdeep Jaitly, Andrew Senior, Vincent Vanhoucke, Patrick Nguyen, Tara N Sainath, et al. Deep neural networks for acoustic modeling in speech recognition: The shared views of four research groups. Signal Processing Magazine, IEEE, 29(6):82-97, 2012. Ridge regression: Biased estimation for nonorthogonal problems. E Arthur, Robert W Hoerl, Kennard, Technometrics. 121Arthur E Hoerl and Robert W Kennard. Ridge regression: Biased estimation for nonorthog- onal problems. Technometrics, 12(1):55-67, 1970. Empirical-statistical downscaling and error correction of daily precipitation from regional climate models. Matthias Jakob Themeßl, Andreas Gobiet, Armin Leuprecht, International Journal of Climatology. 3110Matthias Jakob Themeßl, Andreas Gobiet, and Armin Leuprecht. Empirical-statistical downscaling and error correction of daily precipitation from regional climate models. In- ternational Journal of Climatology, 31(10):1530-1544, 2011. The ncep/ncar 40-year reanalysis project. Eugenia Kalnay, Masao Kanamitsu, Robert Kistler, William Collins, Dennis Deaven, Lev Gandin, Mark Iredell, Suranjana Saha, Glenn White, John Woollen, Bulletin of the American meteorological Society. 773Eugenia Kalnay, Masao Kanamitsu, Robert Kistler, William Collins, Dennis Deaven, Lev Gandin, Mark Iredell, Suranjana Saha, Glenn White, John Woollen, et al. The ncep/ncar 40-year reanalysis project. Bulletin of the American meteorological Society, 77(3):437-471, 1996. Secular trends of precipitation amount, frequency, and intensity in the united states. R Thomas, Richard W Karl, Knight, Bulletin of the American Meteorological society. 792Thomas R Karl and Richard W Knight. Secular trends of precipitation amount, fre- quency, and intensity in the united states. Bulletin of the American Meteorological society, 79(2):231-241, 1998. Tree-guided group lasso for multi-task regression with structured sparsity. Seyoung Kim, Eric P Xing, International Conference on Machine Learning. Seyoung Kim and Eric P Xing. Tree-guided group lasso for multi-task regression with structured sparsity. International Conference on Machine Learning, 2010. Validating atmospheric reanalysis data using tropical cyclones as thermometers. James P Kossin, Bulletin of the American Meteorological Society. 967James P Kossin. Validating atmospheric reanalysis data using tropical cyclones as ther- mometers. Bulletin of the American Meteorological Society, 96(7):1089-1096, 2015. Imagenet classification with deep convolutional neural networks. Alex Krizhevsky, Ilya Sutskever, Geoffrey E Hinton, Advances in neural information processing systems. Alex Krizhevsky, Ilya Sutskever, and Geoffrey E Hinton. Imagenet classification with deep convolutional neural networks. In Advances in neural information processing systems, pages 1097-1105, 2012. The utility of daily large-scale climate data in the assessment of climate change impacts on daily streamflow in california. P Edwin, Maurer, G Hugo, T Hidalgo, Das, D R Dettinger, Cayan, Hydrology and Earth System Sciences. 146Edwin P Maurer, Hugo G Hidalgo, T Das, MD Dettinger, and DR Cayan. The utility of daily large-scale climate data in the assessment of climate change impacts on daily streamflow in california. Hydrology and Earth System Sciences, 14(6):1125-1138, 2010. Climate change risks to us infrastructure: impacts on roads, bridges, coastal development, and urban drainage. Jason James E Neumann, Paul Price, Leonard Chinowsky, Lindsay Wright, Richard Ludwig, Russell Streeter, Joel B Jones, William Smith, Lesley Perkins, Jantarasami, Climatic Change. 1311James E Neumann, Jason Price, Paul Chinowsky, Leonard Wright, Lindsay Ludwig, Richard Streeter, Russell Jones, Joel B Smith, William Perkins, Lesley Jantarasami, et al. Climate change risks to us infrastructure: impacts on roads, bridges, coastal development, and urban drainage. Climatic Change, 131(1):97-109, 2015. Ecological and evolutionary responses to recent climate change. Camille Parmesan, Evolution, and Systematics. Annual Review of EcologyCamille Parmesan. Ecological and evolutionary responses to recent climate change. Annual Review of Ecology, Evolution, and Systematics, pages 637-669, 2006. Evaluation of the ar4 climate models' simulated daily maximum temperature, minimum temperature, and precipitation over australia using probability density functions. Se Perkins, Pitman, J Holbrook, Mcaneney, Journal of climate. 2017SE Perkins, AJ Pitman, NJ Holbrook, and J McAneney. Evaluation of the ar4 climate models' simulated daily maximum temperature, minimum temperature, and precipitation over australia using probability density functions. Journal of climate, 20(17):4356-4376, 2007. Nasa's modern-era retrospective analysis for research and applications. M Michele, Max J Rienecker, Ronald Suarez, Ricardo Gelaro, Julio Todling, Emily Bacmeister, Liu, G Michael, Siegfried D Bosilovich, Lawrence Schubert, Gi-Kong Takacs, Kim, Journal of Climate. 2414Michele M Rienecker, Max J Suarez, Ronald Gelaro, Ricardo Todling, Julio Bacmeister, Emily Liu, Michael G Bosilovich, Siegfried D Schubert, Lawrence Takacs, Gi-Kong Kim, et al. Merra: Nasa's modern-era retrospective analysis for research and applications. Jour- nal of Climate, 24(14):3624-3648, 2011. The real holes in climate science. Quirin Schiermeier, Nature News. 4637279Quirin Schiermeier. The real holes in climate science. Nature News, 463(7279):284-287, 2010. Downscaling temperature and precipitation: A comparison of regression-based methods and artificial neural networks. T Justin, S C Schoof, Pryor, International Journal of Climatology. 217Justin T Schoof and SC Pryor. Downscaling temperature and precipitation: A compar- ison of regression-based methods and artificial neural networks. International Journal of Climatology, 21(7):773-790, 2001. Support vector regression machines. Alex Smola, Vladimir Vapnik, Advances in neural information processing systems. 9Alex Smola and Vladimir Vapnik. Support vector regression machines. Advances in neural information processing systems, 9:155-161, 1997. Dropout: A simple way to prevent neural networks from overfitting. Nitish Srivastava, Geoffrey Hinton, Alex Krizhevsky, Ilya Sutskever, Ruslan Salakhutdinov, The Journal of Machine Learning Research. 151Nitish Srivastava, Geoffrey Hinton, Alex Krizhevsky, Ilya Sutskever, and Ruslan Salakhut- dinov. Dropout: A simple way to prevent neural networks from overfitting. The Journal of Machine Learning Research, 15(1):1929-1958, 2014. A statistical downscaling method for monthly total precipitation over turkey. , H Nüzhet Hasan Tatli, Dalfes, Menteş, International Journal of Climatology. 242Hasan Tatli, H Nüzhet Dalfes, and Ş Sibel Menteş. A statistical downscaling method for monthly total precipitation over turkey. International Journal of Climatology, 24(2):161- 180, 2004. A quantile regression neural network approach to estimating the conditional density of multiperiod returns. W James, Taylor, Journal of Forecasting. 194James W Taylor. A quantile regression neural network approach to estimating the condi- tional density of multiperiod returns. Journal of Forecasting, 19(4):299-311, 2000. Technical note: Bias correcting climate model simulated daily temperature extremes with quantile mapping. Bridget Thrasher, P Edwin, C Maurer, P B Mckellar, Duffy, Hydrology and Earth System Sciences. 169Bridget Thrasher, Edwin P Maurer, C McKellar, and PB Duffy. Technical note: Bias correcting climate model simulated daily temperature extremes with quantile mapping. Hydrology and Earth System Sciences, 16(9):3309-3314, 2012. Regression shrinkage and selection via the lasso. Robert Tibshirani, Journal of the Royal Statistical Society. Series B (Methodological). Robert Tibshirani. Regression shrinkage and selection via the lasso. Journal of the Royal Statistical Society. Series B (Methodological), pages 267-288, 1996. Ecological responses to recent climate change. Gian-Reto Walther, Eric Post, Peter Convey, Annette Menzel, Camille Parmesan, J C Trevor, Jean-Marc Beebee, Fromentin, Ove Hoegh-Guldberg, and Franz Bairlein. 416Gian-Reto Walther, Eric Post, Peter Convey, Annette Menzel, Camille Parmesan, Trevor JC Beebee, Jean-Marc Fromentin, Ove Hoegh-Guldberg, and Franz Bairlein. Eco- logical responses to recent climate change. Nature, 416(6879):389-395, 2002. Sdsm-a decision support tool for the assessment of regional climate change impacts. L Robert, Wilby, W Christian, Elaine M Dawson, Barrow, Environmental Modelling & Software. 172Robert L Wilby, Christian W Dawson, and Elaine M Barrow. Sdsm-a decision support tool for the assessment of regional climate change impacts. Environmental Modelling & Software, 17(2):145-157, 2002. Hydrologic implications of dynamical and statistical approaches to downscaling climate model outputs. W Andrew, Wood, R Lai, V Leung, D P Sridhar, Lettenmaier, Climatic change. 621-3Andrew W Wood, Lai R Leung, V Sridhar, and DP Lettenmaier. Hydrologic implications of dynamical and statistical approaches to downscaling climate model outputs. Climatic change, 62(1-3):189-216, 2004. Long-range experimental hydrologic forecasting for the eastern united states. W Andrew, Wood, P Edwin, Arun Maurer, Dennis P Kumar, Lettenmaier, Journal of Geophysical Research: Atmospheres. 107D20Andrew W Wood, Edwin P Maurer, Arun Kumar, and Dennis P Lettenmaier. Long-range experimental hydrologic forecasting for the eastern united states. Journal of Geophysical Research: Atmospheres, 107(D20), 2002. A gauge-based analysis of daily precipitation over east asia. Pingping Xie, Mingyue Chen, Song Yang, Akiyo Yatagai, Tadahiro Hayasaka, Yoshihiro Fukushima, Changming Liu, Journal of Hydrometeorology. 83Pingping Xie, Mingyue Chen, Song Yang, Akiyo Yatagai, Tadahiro Hayasaka, Yoshihiro Fukushima, and Changming Liu. A gauge-based analysis of daily precipitation over east asia. Journal of Hydrometeorology, 8(3):607-626, 2007. Robust visual tracking via multi-task sparse learning. Tianzhu Zhang, Bernard Ghanem, Si Liu, Narendra Ahuja, Computer Vision and Pattern Recognition (CVPR), 2012 IEEE Conference on. IEEETianzhu Zhang, Bernard Ghanem, Si Liu, and Narendra Ahuja. Robust visual tracking via multi-task sparse learning. In Computer Vision and Pattern Recognition (CVPR), 2012 IEEE Conference on, pages 2042-2049. IEEE, 2012. A new statistical precipitation downscaling method with bayesian model averaging: a case study in china. Xianliang Zhang, Xiaodong Yan, Climate Dynamics. 459Xianliang Zhang and Xiaodong Yan. A new statistical precipitation downscaling method with bayesian model averaging: a case study in china. Climate Dynamics, 45(9-10):2541- 2555, 2015. A convex formulation for learning task relationships in multi-task learning. Yu Zhang, Dit-Yan Yeung, Uncertainty in Artificial Intelligence. Yu Zhang and Dit-Yan Yeung. A convex formulation for learning task relationships in multi-task learning. Uncertainty in Artificial Intelligence, 2012. Regularization and variable selection via the elastic net. Hui Zou, Trevor Hastie, Journal of the Royal Statistical Society: Series B (Statistical Methodology). 672Hui Zou and Trevor Hastie. Regularization and variable selection via the elastic net. Journal of the Royal Statistical Society: Series B (Statistical Methodology), 67(2):301-320, 2005.
sample_20207
0.9517
arxiv
CARACTERISATION ELECTROMAGNETIQUE DE MILIEUX HETEROGENES NATURELS -APPLICATION AU SUIVI DE L'HUMIDITE DU SOL PAR RADIOMETRIE MICRO-ONDE F Demontoux f.demontoux@enscpb.fr Laboratoire PIOM-ENSCPB-UMR 5501, 33607-16 av Pey-Berland, Pessac G Ruffié Laboratoire PIOM-ENSCPB-UMR 5501, 33607-16 av Pey-Berland, Pessac J P Wigneron INRA-Unité de Bioclimatologie BP 81, Villenave d'Ornon33883Cedex M J Escorihuela CESBIO 18 avenue. Edouard Belin, bpi2801, 31401Toulouse cedex 9 J Grant INRA-Unité de Bioclimatologie BP 81, Villenave d'Ornon33883Cedex CARACTERISATION ELECTROMAGNETIQUE DE MILIEUX HETEROGENES NATURELS -APPLICATION AU SUIVI DE L'HUMIDITE DU SOL PAR RADIOMETRIE MICRO-ONDE INTRODUCTIONL'humidité de surface du sol est une variable clé pour décrire les échanges d'eau et d'énergie entre la terre et l'atmosphère. En hydrologie et en météorologie, la quantité d'eau contenue dans les couches supérieures du sol (0-5cm de la surface) permet d'évaluer le rapport entre l'évaporation réelle et l'évaporation potentielle au niveau d'un sol nu. Il est aussi possible de déterminer la répartition des précipitations en eaux de ruissellements ou en eaux « stockées » ou d'autres variables comme la conductivité hydraulique. Des études ont montré que les capteurs micro-ondes passifs à 1.4 GHz étaient les mieux adaptés, comme technique de télédétection, pour réaliser un suivi de l'humidité de surface des sols. Une mission de l' ESA (European Space Agency) est en cours de développement pour un lancement prévu en 2007: la mission SMOS (Soil Moisture and Ocean Salinity) ([2] Kerr et al., 2001). Une mission analogue de la NASA est aussi en cours: le projet HYDROS. La thématique principale associée à ces observations est le suivi des échanges hydriques au niveau planétaire dans le cadre du changement climatique. Ce projet européen regroupe des instituts de recherche en France (CESBIO, Météo-France, INRA) et dans de nombreux pays européens (Espagne, Italie, Hollande, Danemark, etc.). Les observations micro-ondes permettent d'estimer la permittivité équivalente de surface des sols, qui est le paramètre principal influant sur la mesure en bande L. Cependant, l'effet de la couverture de végétation, la présence de litière, la température, la rugosité du sol, la couverture neigeuse et la topographie , etc. ont également un effet sur l'émissivité micro-ondes en surface.Le but des travaux de recherche que nous proposons est l'amélioration de la compréhension des effets de telle structure. En particulier les effets de la litière et des hétérogénéités du sol sont probablement importants mais encore très méconnus ([3]Wigneron et al., 2001). Pour cela et dans un premier temps nous avons mis au point une approche expérimentale en laboratoire, mobile pour aller sur différents terrains. Cela permet d'effectuer des mesures pour des configurations variées en terme instrumental (en fréquence, en temporel, polarisation, incidence, bi-statique, effet Brewster, saut de fréquence …) et en terme de conditions de surface (sol homogène ou hétérogène, présence ou non de litière plus ou moins humide, etc.). L'utilisation de lois d'échelles est aussi envisagée. Des mesures au laboratoire en guide d'onde (figure 1) nous ont permis de caractériser les différents composants de la structure géologique (terre, roches) et de vérifier le modèle de Dobson [4] couramment utilisé. Figure 1 : Comparaison mesures en guide WR650 -modèle de Dobson [4] à 1.4GHz INTRODUCTION L'humidité de surface du sol est une variable clé pour décrire les échanges d'eau et d'énergie entre la terre et l'atmosphère. En hydrologie et en météorologie, la quantité d'eau contenue dans les couches supérieures du sol (0-5cm de la surface) permet d'évaluer le rapport entre l'évaporation réelle et l'évaporation potentielle au niveau d'un sol nu. Il est aussi possible de déterminer la répartition des précipitations en eaux de ruissellements ou en eaux « stockées » ou d'autres variables comme la conductivité hydraulique. Des études ont montré que les capteurs micro-ondes passifs à 1.4 GHz étaient les mieux adaptés, comme technique de télédétection, pour réaliser un suivi de l'humidité de surface des sols. Une mission de l' ESA (European Space Agency) est en cours de développement pour un lancement prévu en 2007: la mission SMOS (Soil Moisture and Ocean Salinity) ([2] Kerr et al., 2001). Une mission analogue de la NASA est aussi en cours: le projet HYDROS. La thématique principale associée à ces observations est le suivi des échanges hydriques au niveau planétaire dans le cadre du changement climatique. Ce projet européen regroupe des instituts de recherche en France (CESBIO, Météo-France, INRA) et dans de nombreux pays européens (Espagne, Italie, Hollande, Danemark, etc.). Les observations micro-ondes permettent d'estimer la permittivité équivalente de surface des sols, qui est le paramètre principal influant sur la mesure en bande L. Cependant, l'effet de la couverture de végétation, la présence de litière, la température, la rugosité du sol, la couverture neigeuse et la topographie , etc. ont également un effet sur l'émissivité micro-ondes en surface. Le but des travaux de recherche que nous proposons est l'amélioration de la compréhension des effets de telle structure. En particulier les effets de la litière et des hétérogénéités du sol sont probablement importants mais encore très méconnus ([3]Wigneron et al., 2001). Pour cela et dans un premier temps nous avons mis au point une approche expérimentale en laboratoire, mobile pour aller sur différents terrains. Cela permet d'effectuer des mesures pour des configurations variées en terme instrumental (en fréquence, en temporel, polarisation, incidence, bi-statique, effet Brewster, saut de fréquence …) et en terme de conditions de surface (sol homogène ou hétérogène, présence ou non de litière plus ou moins humide, etc.). L'utilisation de lois d'échelles est aussi envisagée. Des mesures au laboratoire en guide d'onde (figure 1) nous ont permis de caractériser les différents composants de la structure géologique (terre, roches) et de vérifier le modèle de Dobson [4] couramment utilisé. ETUDE DE LA REPONSE ELECTROMAGNETIQUE DE STRUCTURE GEOLOGIQUE Dans un deuxième temps, nous avons développé des programmes de simulation (méthode des éléments finis) qui permet de simuler les bancs de mesure complets. Le premier modèle utilisé ( Figure Le programme permet d'étudier la réponse électromagnétique de milieux géologiques en effectuant des études sur de nombreux paramètres telles que la permittivité, les épaisseurs ou la forme des strates ou encore la rugosité de surface. Nous pouvons aussi effectuer une variation des angles d'inclinaison (angle incidence et polarisation) des deux cornets. Nous comptons créer une base de données simulées et expérimentales sur un très large domaine de configuration de surface. Un modèle FDTD est aussi utilisé [5]. Il permet lui aussi d'introduire de nombreux paramètres tels que la porosité ou la topologie de surface ; la non homogénéité de l'humidité ou de densité de la terre ou encore la présence de cailloux et de strates de différents matériaux EMISSIVITE ET HUMIDITE DES SOLS Les études précédentes nous permettent de définir précisément les relations entre des structures géologiques complexes et les propriétés des ondes réfléchies par ces structures. Le radiomètre, quand à lui mesure la température de brillance du corps. Celle-ci peut être directement rattachée à la température apparente du corps et au coefficient de réflexion de la structure. Ce dernier est très lié à la permittivité des milieux qui elle-même est fonction de l'humidité des sols. Nous avons donc développé une méthode de calcul qui nous permet d'évaluer l'émissivité du sol dont le comportement électromagnétique a été simulé à l'aide de notre modèle. Les valeurs d'émissivité équivalente ainsi obtenues serviront à créer une base de données. Nous souhaitons ainsi améliorer la compréhension de l'influence de paramètres, tels que la rugosité de surface ou les gradients d'humidité, sur les mesures d'émissivité. Les résultats du modèle seront confrontés à la base de données expérimentales acquise sur le site SMOSREX à Toulouse où un radiomètre à 1. Deux approches peuvent être envisagées pour le calcul analytique de l'émissivité de nos structures. La première est une approche « cohérente » du problème. Elle tient compte de l'amplitude et de la phase du champ réfléchi dans le milieu. La seconde est une approche « non -cohérente ». Dans ce cas ; seul l'amplitude est prise en compte. L'approche « cohérente » est adaptée si les variations de permittivité sont beaucoup plus petites que la longueur d'onde dans le milieu. L'approche « noncohérente » est destinée davantage aux structures comportant des couches de taille comparable à la longueur d'onde. Les méthodes analytiques utilisées généralement sont limitées car elles ne permettent pas d'introduire des milieux non homogènes ou des rugosités entre les strates par exemple. Dans ce dernier cas une correction des calculs d'émissivité est envisageable mais limitée. Nous avons développé un modèle numérique (méthode des éléments finis) qui permet de calculer la réflectivité équivalente d'une structure géologique en introduisant différents paramètres tel que la rugosité de surface par exemple. Une méthode analytique (logiciel SIMULTIMAT ) a aussi été utilisée afin de valider les premiers résultats de notre modèle numérique ( Figure 5). Cette méthode est basée sur le calcul du coefficient de réflexion de nos structures à l'aide d'un produit de matrices représentant les interfaces entre chaque couche ainsi que le déphasage et l'atténuation dans chaque couche. CONCLUSION Nous avons débuté l'exploitation de notre modèle en calculant l'émissivité équivalente d'un sol en fonction de l'humidité ( Figure 6). Pour effectuer ces calculs nous avons repris les mesures que nous avons effectuées (Figure 1). Figure 6 : suivi de l'émissivité d'un sol en fonction de l'humidité Les résultats obtenus avec nos deux méthodes vont être maintenant confrontées aux mesures de terrain. Les structures géologiques étudiées seront plus complexes. Les prochaines études porteront donc sur l'introduction de rugosité de surface ainsi que sur l'effet d'une litière végétale qui peut être très hétérogènes. Enfin nous aborderons l'effet de gradients d'humidité dans le sol ou dans la litière. Figure 1 : 1Comparaison mesures en guide WR650 -modèle de Dobson [4] à 1.4GHz 2. Figure 2 : 22) représente une mesure en réflexion. Des comparaisons ont été effectuées entre des mesures et des simulations (HFSS-Ansoft, méthode des éléments finis) sur des configurations « simples » (figure 2) [6]. Elles montrent qu'il est possible d'obtenir un bon accord entre les résultats expérimentaux et les simulations.. Les figures 2 présentent les résultats du module et de la phase du coefficient de réflexion normalisés par une mesure sur une plaque court circuit. La comparaison des résultats expérimentaux et ceux issus de simulations montre une bonne corrélation. résultats de mesures et de calculs en réflexion sur une structure monocouche Le deuxième modèle réalisé représente le banc de mesure bi-statique (Figure 3). Figure 3 : 3Modèle numérique de simulation des mesures bi-statiquesCe modèle numérique permet une meilleure interprétation des mesures. Une étape de validation des simulations (par inter-comparaison simulations / observations expérimentales) a été effectué. LaFigure 4présente les résultats obtenus en effectuant les mesures sur de l'eau. Figure 4 : 4comparaison de résultats expérimentaux et numériques d'études bi-statiques 4GHz est installé en permanence depuis 2002 (expérience Météo-France/CESBIO/INRA/ONERA) sur une jachère. Sur ce terrain, les effets de l'hétérogénéité du sol et de la litière sont relativement marqué ([1] De Rosnay et al., 2005). Figure 5 : 5comparaison de calculs d'émissivité sur une structure bi-couche [ 1 ] 1De Rosnay P., Y. Kerr, J.-C. Calvet, J.-P. Wigneron, F. Lemaître, M.-J. Escorihuela, J. Munoz Sabater, K. Saleh, N. E. D. Fritz, G. Cherel, R. Durbe, A. Kruszewski, P. Waldteufel, L. Coret, G. Dedieu, 'SMOSREX: A Long Term Field Campaign Experiment for Soil Moisture and Land Surface Processes Remote Sensing, to be submitted, 2005. [2] Kerr Y. H., P.Waldteufel,J.-P. Wigneron ,J. Font, M.Berger,Soil Moisture Retrieval from Space: The Soil Moisture and Ocean Salinity (SMOS) Mission', IEEE Trans. Geosc. Remote Sens., 39(8) :1729-1735, 2001. [3] Wigneron J.-P., L. Laguerre, Y. Kerr, 'A simple parameterization of the L-band Microwave Emission from Rough Agricultural Soils', IEEE Trans. Geosc. Remote Sens., 39(8) :1697-1707, 2001. [4] Mironov, V.L., Dobson, M.C., Kaupp, V.H., Komarov, S.A. Kleshchenko, V.N. Generalized refractive mixing dielectric model for moist soils, IEEE Transactions on Geoscience and E.Heggy., P. Paillou, F. Costard, N. Mangold, G. Ruffie, F. Demontoux, J. Grandjean, J.M. Malezieux « Local geoelectrical models of the Martian subsurface for shallow groundwater detection using sounding radars » Journal.Geophys.Research., 2003, vol108n°E4,10.1029/2002JE1871 [6] F. Demontoux, G.Ruffié, J.P. Wigneron, M-J Escorihuela. Amélioration de l'étude de l'humidité de sols par radiométrie. Caractérisation et modélisation diélectriques de profils géologiques.JNM 2005, Nantes, 2005 [7] Microwave remote sensing Volume I, Ulaby, Moore, Fung, Artech House
sample_20220
0.9768
arxiv
Asterios Pantokratoras apantokr@civil.duth.gr School of Engineering Democritus University of Thrace 67100XanthiGreece Comment on "Conjugate heat transfer of mixed convection for viscoelastic fluid past a stretching sheet", by Kai-Long Hsiao and Guan-Bang Chen [Mathematical Problems in Engineering, Volume 2007, article 17058, 21 pages] In the above paper an analysis has been carried for the flow along a vertical linearly stretching sheet taking into account the heat conduction of the sheet. The sheet temperature varies in a linear way whereas the fluid is viscoelastic. The boundary layer equations are transformed into ordinary ones and subsequently are solved numerically. However, there are some errors in the above paper which are presented below:1. The basic parameters used in the above paper are the buoyancy parameter G, the viscoelastic parameter E, the Pr number and the conduction-convection parameter N ∞ . In the energy equation 2.6 a source term is included (q(T-T ∞ )). However, this source term has been ignored because no non-dimensional parameter exist in the paper which expresses the source term of the energy equation. 2. The quantities f IV (equation 2.9), Re x (equation 2.20) and T e (equation 2.25) have not been defined in the paper. 3. In the denominator of equations (2.20) and (2.22) a velocity u ∞ appears. Usually, in boundary layer theory, as u ∞ is defined the fluid velocity of the ambient fluid. However, in the present problem the ambient fluid velocity is zero (equation 2.7) and therefore the quantities in equations (2.20) and (2.22) can not be defined with a zero denominator. 4. The caption of figure 4.3 contains the sentence "Dimensionless temperature profiles θ'(0) versus η as G = 1.0, E = 0.001 and Pr =0.001,0.7,2.0,10.0". However the quantity θ'(0) is the temperature gradient at the plate and does not change along η. The caption of figure 4.4 contains the sentence "Dimensionless temperature profiles θ(0) versus η as G = 1, E = 0.0001 and Pr =0.001, 10". However the quantity θ(0) is the temperature at the plate and does not change along η. 6. The caption of figure 4.5 contains the sentence "Dimensionless temperature gradient profiles θ'(0) versus η as G = 1, E = 0.001 and Pr =0.001,0.7,2,10". However the quantity θ'(0) is the temperature gradient at the plate and does not change along η. do not approach the horizontal axis asymptotically) are truncated due to a small calculation domain used (see Pantokratoras, 2008b). Although the authors recognize the problem with these profiles (page 11) they did not solve it and these three profiles are wrong. 12. It is known in boundary layer theory that as the Pr number increases the temperature profiles become thinner and vice versa when the Pr number decreases the temperature profiles become thicker. See Arpaci and Larsen (1984, 7 . 7The caption of figure 4.6 contains the sentence "Dimensionless temperature profiles θ(0) versus η as G = 1, E = 0.001 and Pr =0.001, 10". However the quantity θ(0) is the temperature at the plate and does not change along η.8. The caption of figure 4.7 contains the sentence "Dimensionless temperature gradient profiles θ'(0) versus η as G = 1, E = 0.01 and Pr =0.001,0.7,2,10". However the quantity θ'(0) is the temperature gradient at the plate and does not change along η. 9. The caption of figure 4.8 contains the sentence "Dimensionless temperature profiles θ(0) versus η as G = 1, E = 0.01 and Pr =0.001,0.7,2,10". However the quantity θ(0) is the temperature at the plate and does not change along η. 10. The caption of figure 4.9 contains the sentence "Dimensionless temperature gradient profiles θ'(0) versus η as G = 1-25, E = 0.001-0.15 and Pr =1". However the horizontal axis contains the Pr number and not the the quantity η. 11. In figures 4.4, 4.6 and 4.8 the wide temperature profiles (those that Subhas Abel et al. (2007, page 964), Tsou et al. (1967, page 222), Wang (1994, page 60) and White (2006, page 325). In the above paper this principle has been violated. In figures 4.4, 4.6 and 4.8 the temperature profiles become thinner as the Pr number decreases and thicker as the Pr number increases. This is a serious error.page 225), Chen and Char (1988, page 575), Cortell (2007, page 870), Cortell (2008, page 1342), Kakac and Yener (1995, page 325), Pantokratoras (2004, page 1895), Pantokratoras (2008a, page 108), Schlichting and Gersten (2003, page 215), Siddheshwar and Mahabaleswar (2005, page 818), Convection Heat Transfer. V Arpaci, P Larsen, Prentice-HallNew JerseyArpaci, V. and Larsen, P. (1984). Convection Heat Transfer, Prentice-Hall, New Jersey. Heat transfer of a continuous stretching surface with suction or blowing. Chao-Kuang Chen, Ming-I Char, Journal of Mathematical Aalysis and Applications. 135Chen, Chao-Kuang and Char, Ming-I. (1988). Heat transfer of a continuous stretching surface with suction or blowing, Journal of Mathematical Aalysis and Applications , Vol. 135, pp. 568-580. Viscous flow and heat transfer over a nonlinearly stretching sheet. R Cortell, Applied Mathematics and Computation. 184Cortell, R.(2007). Viscous flow and heat transfer over a nonlinearly stretching sheet, Applied Mathematics and Computation, Vol. 184, pp. 864-873. A numerical tackling on Sakiadis flow with thermal radiation. R Cortell, Chinese Physics Letters. 25Cortell, R.(2008). A numerical tackling on Sakiadis flow with thermal radiation, Chinese Physics Letters, Vol. 25, pp. 1340-1342. Convective Heat Transfer. S Kakac, Y Yener, CRC Press2Boca Ratonnd ed.Kakac, S. and Yener, Y. (1995). Convective Heat Transfer, 2 nd ed., CRC Press, Boca Raton. Further results on the variable viscosity on flow and heat transfer to a continuous moving flat plate. A Pantokratoras, International Journal of Engineering Science. 42Pantokratoras, A. (2004). Further results on the variable viscosity on flow and heat transfer to a continuous moving flat plate, International Journal of Engineering Science, Vol. 42, pp. 1891-1896. Study of MHD boundary layer flow over a heated stretching sheet with variable viscosity. A numerical reinvestigation. A Pantokratoras, International Journal of Heat and Mass Transfer. 51Pantokratoras, A. (2008a). Study of MHD boundary layer flow over a heated stretching sheet with variable viscosity. A numerical reinvestigation, International Journal of Heat and Mass Transfer, Vol. 51, pp. 104-110. A common error made in investigation of boundary layer flows. A Pantokratoras, Applied Mathematical Modelling. published on linePantokratoras, A. (2008b). A common error made in investigation of boundary layer flows, Applied Mathematical Modelling (published on line) Boundary layer theory. H Schlichting, K Gersten, Springer9BerlinSchlichting, H. and Gersten, K. (2003). Boundary layer theory, 9 th ed., Springer, Berlin. Effects of radiation and heat source on MHD flow of a viscoelastic liquid and heat transfer over a stretching sheet. P G Siddheshwar, U S Mahabaleswar, International Journal of Non-Linear Mechanics. 40Siddheshwar, P.G. and Mahabaleswar, U.S. (2005). Effects of radiation and heat source on MHD flow of a viscoelastic liquid and heat transfer over a stretching sheet, International Journal of Non-Linear Mechanics, Vol. 40, pp. 807-820. Heat transfer in a viscoelastic boundary layer flow over a stretching sheet with viscous dissipation and non-uniform heat source. Subhas Abel, M Siddheshwar, P G Mahantesh, M Nandeppanavar, International Journal of Heat and Mass Transfer. 50Subhas Abel, M., Siddheshwar, P.G. and Mahantesh M. Nandeppanavar (2007). Heat transfer in a viscoelastic boundary layer flow over a stretching sheet with viscous dissipation and non-uniform heat source, International Journal of Heat and Mass Transfer, Vol. 50, pp. 960-966. Flow and heat transfer in the boundary layer on a continuous moving surface. F K Tsou, E M Sparrow, R J Goldstein, International Journal of Heat and Mass Transfer. 10Tsou, F.K. , Sparrow, E.M. and Goldstein, R.J. (1967). Flow and heat transfer in the boundary layer on a continuous moving surface, International Journal of Heat and Mass Transfer, Vol. 10, pp. 219-235. Mixed convection heat transfer from a vertical plate to non-Newtonian fluids. T Y Wang, International Journal of Heat and Fluid Flow. 16Wang, T.Y. (1994). Mixed convection heat transfer from a vertical plate to non-Newtonian fluids, International Journal of Heat and Fluid Flow, Vol. 16, pp. 55-61. F White, Viscous Fluid Flow, 3 rd edition. New YorkMcGraw-HillWhite, F. (2006), Viscous Fluid Flow, 3 rd edition, McGraw-Hill, New York.
sample_20305
0.6052
arxiv