UNIVERSITE MOHAMMED V DE RABAT

FACULTE DE MEDECINE ET DE PHARMACIE - RABAT

DOYENS HONORAIRES :

1962 – 1969 : Professeur Abdelmalek FARAJ

1969 – 1974 : Professeur Abdellatif BERBICH

1974 – 1981 : Professeur Bachir LAZRAK

1981 – 1989 : Professeur Taieb CHKILI

1989 – 1997 : Professeur Mohamed Tahar ALAOUI

1997 – 2003 : Professeur Abdelmajid BELMAHI

2003 - 2013 : Professeur Najia HAJJAJ – HASSOUNI

ADMINISTRATION:

Doyen

Professeur Mohamed ADNAOUI

Vice-Doyen chargé des Affaires Académiques et estudiantines

Professeur Brahim LEKEHAL

Vice-Doyen chargé de la Recherche et de la Coopération

Professeur Toufiq DAKKA

Vice-Doyen chargé des Affaires Spécifiques à la Pharmacie

Professeur Younes RAHALI

Secrétaire Général : Mr. Mohamed KARRA

1. ENSEIGNANTS.·CHERCHEURS MEDECINS ET PHARMACIENS

PROFESSEURS DE L'ENSEIGNEMENT SUP2RIEUR:

Décembre 1984 Pr. MMOUNI Abdelaziz Médecine Interne - Cl i nique Rovale Pr. MAAZOUZI Ahmed Wajdi Anesthésie -Réanimation Pr. SETTAF Abdellatif Pathologie Chirurgicale Janvier, Février et Décembre 1987 Pr. LA..CHKAR Hassan Médecine Interne Décembre 1988 Pr. DAFIRI Rachida Radiologie Décembre 1989 Pr. ADNAOUI Mohamed Médecine Interne -Doyen de l a FMPR Pr. OUAZZANI Taïbi Mohamed Réda Neurologie Janvier et Novembre 1 990 Pr. KHARBACH Aîcha Gynécologie .Obstétrique Pr. TAZI Saoud Anas Anesthésie Réanimation Février Avril Juillet et Décembre 1991 Pr. AZZOUZI Abderrahim Anesthésie Réanimation- Doven de FMPQ Pr. BAYAHIA Rabéa Néphrologie Pr. BELKOUCHI Abdelkader Chirurgie Générale Pr. BENCHEKROUN Belabbes Abdellatif Chirurgie Générale Pr. BENSOUDA Yahia Pharmacie galénique Pr.BERRAHO Amina Ophtalmologie Pr.BEZAD Rachid Gynécologie Obstétrique Méd. C hef M;1ternité des O rangers Pr. CHERRAH Yahia Pharmacologie Pr. CHOKAIRI Omar Histologie Embryologie Pr. KHATTAB Mohamed Pédiatrie Pr. SOUIAYMANI Rachida Pharmacologie ·Di r. du Centre Nati o mil PV Rabat Pr. TAOUFIK Jamal Chimie thérapeutique Décembre 1992 Pr. AHALIAT Mohamed Chirurgie Générale Doyen de FMPT Pr. BENSOUDA Adil Anesthésie Réanimation Pr. CHAHED OUAZZANI Laaziza Gastro·Entérologie Pr. CHRAIBI Chafiq Gynécologie Obstétrique Pr.EL OUAHABI Abdessamad Neurochirurgie Pr.FELIAT Rokaya Cardiologie Pr. JIDDANE Mohamed Anatomie Pr. TAGHY Ahmed Chirurgie Générale Pr. ZOUHDI Mimoun Microbiologie Mars 1994 Pr. BENJAAFAR Noureddine Radiothérapie Pr. BEN RAIS Nozha Biophysique Pr. CAOUI Malika Biophysique Pr. CHRAIBI Abdelmjid Endocrinologie et Maladies Métaboliques Doven de l à FMPA Pr. EL AMRANI Sabah Gynécologie Obstétrique Pr. EL BARDOUNI Ahmed Traumato-Orthopédie Pr. EL HASSANI My Rachid Radiologie Pr. ERROUGANI Abdelkader Chirurgie Générale - Di recteur du C HIS Pr. ESSAKALI Malika Immunologie Pr. ETTAYEBI Fouad Chirurgie Pédiatrique Pr. IFRINE Lahssan Chirurgie Générale Pr. MAHFOUD Mustapha Traumatologie - Orthopédie Pr. RHRAB Brahim Gynécologie -Obstétrique Pr. SENOUCI Karima Dermatologie Mars 1994 Pr. ABBAR Mohamed* Urologie Inspect eur du SSM Pr. BENTAHIIA Abdelali Pédiatrie Pr. BERRADA Mohamed Saleh Traumatologie - Orthopédie Pr. CHERKAOUI Lalla Ouafae Ophtalmologie Pr. IAKHDAR Amina Gynécologie Obstétrique Pr. MOUANE Nezha Pédiatrie Mars 1995 Pr. ABOUQUAL Redouane Réanimation Médicale Pr. AMRAOUI Mohamed Chirurgie Générale Pr. BAIDADA Abdelaziz Gynécologie Obstétrique Pr. BARGACH Samir Gynécologie Obstétrique Pr. EL MESNAOUI Abbes Chirurgie Générale Pr. ESSAKALI HOUSSYNI Leila Oto-Rhino-Laryngologie Pr. IBEN ATIYA ANDALOUSSI Ahmed Urologie Pr. OUAZZANI CHAHDI Bahia Ophtalmologie Pr. SEFIANI Abdelaziz Génétique Pr. ZEGGWAGH Amine Ali Réanimation Médicale Décembre 1996 Pr. BELKACEM Rachid Chirurgie Pédiatrie Pr. BOUIANOUAR Abdelkrim Ophtalmologie Pr. EL AIAMI EL FARICHA EL Hassan Chirurgie Générale Pr. GAOUZI Ahmed Pédiatrie Pr. OUZEDDOUN Naima Néphrologie Pr. ZBIR EL Mehdi* Cardiologie Di rect eur HMI Mohammed V Novembre 1997 Pr. ALAMI Mohamed Hassan Gynécologie-Obstétrique Pr. BEN SLIMANE Lounis Urologie Pr. BIROUK Nazha Neurologie Pr. ERREIMI Naima Pédiatrie Pr. FELIAT Nadia Cardiologie Pr. KADDOURI Noureddine Chirurgie Pédiatrique Pr. KOUTANI Abdellatif Urologie Pr. I.AHLOU Mohamed Khalid Chirurgie Générale Pr. MAHRAOUI CHAFIQ Pédiatrie Pr. TOUFIQ Jallal Psychiatrie Di recteur Hôp•.Ar.-razi Salé Pr. YOUSFI MALKI Mounia Gynécologie Obstétrique

Novembre 1998 Pr. BENOMAR ALI Neurologie Doyen de l a FMP Abu/cassis Pr.BOUGTAB Ahdesslam Chirurgie Générale Pr. ER RIHANI Hassan Oncologie Médicale Pr. BENKIRANE Majid* Hématologie Janvier 2000 Pr. ABID Ahmed* Pneumo-phtisiologie Pr. AIT OUAMAR Hassan Pédiatrie Pr. BENJELLOUN Dakhama Badr .Sououd Pédiatrie Pr. BOURKADI Jamal-Eddine Pneumo-phtisiologie Directeur Hôp. My Youssef Pr.CHARIF CHEFCHAOUNI Al Chirurgie Générale Montacer Pr. ECHARRAB El Mahjoub Chirurgie Générale Pr. EL FTOUH Mustapha Pneumo-phtisiologie Pr. EL MOSTARCHID Brahim* Neurochirurgie Pr. TACHINANTE Rajae Anesthésie-Réanimation Pr. TAZI MEZALEK Zoub_ida Médecine Interne Novembre 2000 Pr. AIDI Saadia Neurologie Pr. AJANA Fatima Zohra Gastro·Entérologie Pr.BENAMR Said Chirurgie Générale Pr.CHERTI Mohammed Cardiologie Pr. ECH.CHERIF EL KETTANI Selma Anesthésie-Réanimation Pr. EL HASSANI Amine Pédiatrie • Di rect eur Hôp. Chei kh Zaid Pr. EL KHADER Khalid Urologie Pr. GHARBI Mohamed El Hassan Endocrinologie et Maladies Métaboliques Pr. MDAGHRI ALAOUI Asmae Pédiatrie Décembre 2001 Pr. BALKHI Hicham* Anesthésie Réanimation Pr. BENABDELJLIL Maria Neurologie Pr. BENAMAR Loubna Néphrologie Pr. BENAMOR Jouda Pneumo-phtisiologie Pr. BENELBARHDADI lmane Gastro-Entérologie Pr.BENNANI Rajae Cardiologie Pr. BENOUACHANE Thami Pédiatrie Pr. BEZZA Ahmed* Rhumatologie Pr. BOUCHIKHI IDRISSI Med Larbi Anatomie Pr. BOUMDIN El Hassane* Radiologie Pr. CHAT Latifa Radiologie Pr. DAALI Mustapha* Chirurgie Générale Pr. EL HIJRI Ahmed Anesthésie Réanimation Pr. EL MAAQILI Moulay Rachid Neuro-Chirurgie Pr. EL MADHI Tarik Chirurgie-Pédiatrique Pr. EL OUNANI Mohamed Chirurgie Générale Pr. ETTAIR Said Pédiatrie • Directeur Hôp. d1Enlants Rabat Pr.GAZZAZ Miloudi* Neuro-Chirurgie Pr. HRORA Abdelmalek Chirurgie Générale Directeur Hôpital Ibn Sina Pr. KABIRI EL Hassane* Chirurgie Thoracique Pr. lAMRANI Moulay Omar Traumatologie Orthopédie Pr.LEKEHAL Brahim Chirurgie Vasculaire Périphérique V-D chargéAH Acad Est. Pr. MEDARHRI Jalil Chirurgie Générale Pr. MIKDAME Mohammed* Hématologie Clinique Pr. MOHSINE Raouf Chirurgie Générale Pr. NOUINI Yassine Urologie Pr. SABBAH Farid Chirurgie Générale Pr. SEFIANI Yasser Chirurgie Vasculaire Périphérique Pr. TAOUFIQ BENCHEKROUN Sournia Pédiatrie Décembre 2002 Pr. AL BOUZIDI Abderrahmane* Anatomie Pathologique Pr. AMEUR Ahmed * Urologie Pr.AMRI Rachida Cardiologie Pr. AOURARH Aziz* Gastro-Entérologie Pr. BAMOU Youssef * Biochimie-Chimie Pr. BELMEJDOUB Ghizlene* Endocrinologie et Maladies Métaboliques Pr.BENZEKRI Laila Dermatologie Pr. BENZZOUBEIR Nadia Gastro-Entérologie Pr. BERNOUSSI Zakiya Anatomie Pathologique Pr. CHOHO Abdelkrim * Chirurgie Générale Pr. CHKIRATE Bouchra Pédiatrie Pr. EL AlAMI EL Fellous Sidi Zouhair Chirurgie Pédiatrique Pr. EL HAOURI Mohamed * Dermatologie Pr.·FILALIADIB Abdelhai Gynécologie Obstétrique Pr. HAJJI Zakia Ophtalmologie Pr. JAAFAR Abdeloihab* Traumatologie Orthopédie Pr. KRIOUILE Yamina Pédiatrie Pr. MOUSSAOUI RAHALI Driss* Gynécologie Obstétrique Pr. OUJILAL Abdelilah Oto-Rhino-Laryngologie Pr. RAISS Mohamed Chirurgie Générale Pr. SIAH Samir * Anesthésie Réanimation Pr. THIMOU Amal Pédiatrie Pr. ZENTAR Aziz* Chirurgie Générale Janvier 2004 Pr.ABDELIAH El Hassan Ophtalmologie Pr. AMRANI Mariam Anatomie Pathologique Pr. BENBOUZID Mohammed Anas Ota-Rhine-Laryngologie Pr. BENKIRANE Ahmed* Gastro-Entérologie Pr.BOUI.AADAS Malik Stomatologie et Chirurgie Maxille-faciale Pr. BOURAZZA Ahmed* Neurologie Pr. CHAGAR Belkacem* Traumatologie Orthopédie Pr. CHERRADI Nadia Anatomie Pathologique Pr. EL FENNI Jamal* Radiologie Pr. EL HANCHI ZAKI Gynécologie Obstétrique Pr. EL KHORASSANI Mohamed Pédiatrie Pr. HACH!Hafid Chirurgie Générale Pr. JABOUIRIK Fatima Pédiatrie Pr. KHARMAZ Mohamed Traumatologie Orthopédie Pr. MOUGHIL Said Chirurgie Cardia-Vasculaire Pr. OUBAAZ Abdelbarre * Ophtalmologie Pr. TARIB Abdelilah* Pharmacie Clinique Pr. TIJAMI Fouad Chirurgie Générale Pr. ZARZUR Jamila Cardiologie Janvier 2005 Pr. ABBASSI Abdellah Chirurgie Réparatrice et Plastique Pr. AL KANDRY Sif Eddine* Chirurgie Générale Pr. ALLALI Fadoua Rhumatologie Pr. AMAZOUZI Abdellah Ophtalmologie Pr. BAHIRI Rachid Rhumatologie Di rect eur Hôp. Al Avachi Salé Pr. BARKA.T Amina Pédiatrie Pr. BENYASS Aatif Cardiologie Pr. DOUDOUH Abderrahim * Biophysique Pr. HAJJI Leila Cardiologie (mise en disponibilité) Pr. HESSISSEN Leila Pédiatrie Pr. JIDAL Mohamed* Radiologie Pr. LAAROUSSI Mohamed Chirurgie Cardio-vasculaire Pr. LYAGOUBI Mohammed Parasitologie Pr. SBIHI Souad Histo-Embryologie Cytogénétique Pr. ZERAIDI Najia Gynécologie Obstétrique AVRIL 2006 Pr. ACHEMLAL Lahsen* Rhumatologie Pr. BELMEKKI Abdelkader* Hématologie Pr. BENCHEIKH Razika O.R.L Pr. BIYI Abdelhamid* Biophysique Pr. BOUHAFS Mohamed El Amine Chirurgie ·Pédiatrique Pr. BOULAHYA Abdellatif* Chirurgie Cardio-Vasculaire. Di rect eur Hôpi t al Ibn Si na M Pr. CHENGUETI ANSARI Anas Gynécologie Obstétrique Pr. DOGHMI Nawal Cardiologie Pr. FELIAT Ibtissam Cardiologie Pr. FAROUDY Mamoun Anesthésie Réanimation Pr. HARMOUCHE Hicham Médecine Interne Pr. IDRISS LAHLOU Amine* Microbiologie Pr. JROUNDI Laila Radiologie Pr. KARMOUNI Tariq Urologie Pr. KILI Amina Pédiatrie Pr. KISRA Hassan Psychiatrie Pr. KISRA Mounir Chirurgie - Pédiatrique Pr. LAATIRIS Abdelkader* Pharmacie Galénique Pr. LMIMOUNI Badreddine* Parasitologie Pr. MANSOURI Hamid* Radiothérapie Pr. OUANASS Abderrazzak Psychiatrie Pr. SAFI Soumaya* Endocrinologie Pr. SEKKAT Fatima Zahra Psychiatrie Pr.SOUALHI Mouna Pneumo - Phtisiologie Pr.TELLAL Saida* Biochimie Octobre 2007 Pr. ABIDI Khalid Réanimation médicale Pr. ACHACHI Leila Pneumo phtisiologie Pr. ACHOUR Abdessamad* Chirurgie générale Pr. AIT HOUSSA Mahdi * Chirurgie cardia vasculaire Pr. AMHAJJI Larbi * Traumatologie orthopédie Pr. AOUFI Sarra Parasitologie Pr. BAITE Abdelouahed * Anesthésie réanimation Pr. BALOUCH Lhousaine * Biochimie-chimie Pr. BENZIANE Hamid * Pharmacie clinique Pr. BOUTIMZINE Nourdine Ophtalmologie Pr. CHERKAOUI Naoual * Pharmacie galénique Pr. EHIRCHIOU Abdelkader * Chirurgie générale Pr. EL BEKKALI Youssef * Chirurgie cardio-vasculaire Pr. EL ABSI Mohamed Chirurgie générale Pr. EL MOUSSAOUI Rachid Anesthésie réanimation Pr. EL OMARI Fatima Psychiatrie Pr. GHARIB Noureddine Chirurgie plastique et réparatrice Pr. HADADI Khalid * Radiothérapie Pr. ICHOU Mohamed * Oncologie médicale Pr. ISMAILI Nadia Dermatologie Pr. KEBDANI Tayeb Radiothérapie Pr. LOUZI Lhoussain * Microbiologie Pr. MADANI Naoufel Réanimation médicale Pr. MAHI Mohamed * Radiologie Pr. MARC Karima Pneumo phtisiologie Pr. MASRAR Azlarab Hématologie biologique Pr. MRANI Saad * Virologie Pr. OUZZIF Ez zohra Biochimie-chimie Pr. RABHI Monsef * Médecine interne Pr. RADOUANE Bouchaib* Radiologie Pr. SEFFAR Myriame Microbiologie Pr. SEKHSOKH Yessine * Microbiologie Pr. SIFAT Hassan * Radiothérapie Pr. TABERKANET Mustafa "* Chirurgie vasculaire périphérique Pr. TACHFOUTI Samira Ophtalmologie Pr. TAJDINE Mohammed Tariq* Chirurgie générale Pr. TANANE Mansour * Traumatologie-orthopédie Pr. TLIGUI Houssain Parasitologie Pr. TOUATI Zakia Cardiologie Mars 2009 Pr. ABOUZAHIR Ali * Médecine interne Pr.AGADR Aomar * Pédiatrie Pr. AIT AIJAbdelmounaim * Chirurgie Générale Pr. AIT BENHADDOU El Hachmia Neurologie Pr. AKHADDAR Ali * Neuro-chirurgie Pr. ALLALI Nazik Radiologie Pr. AMINE Bouchra Rhumatologie Pr. ARKHA Yassir Neuro-chirurgie Di reçt eur Hôp.des Spécialités Pr. BELYAMANI Lahcen • Anesthésie Réanimation Pr. BJIJOU Younes Anatomie Pr. BOUHSAIN Sanae * Biochimie-chimie Pr.BOUI Mohammed * Dermatologie Pr. BOUNAIM Ahmed * Chirurgie Générale Pr. BOUSSOUGA Mostapha * Traumatologie-orthopédie Pr. CHTATA Hassan Toufù.< * Chirurgie Vasculaire Périphérique Pr. DOGHMI Kamal * Hématologie clinique Pr. EL MALKI Hadj Omar Chirurgie Générale Pr.EL OUENNASS Mostapha* Microbiologie Pr. ENNIBI Khalid * Médecine interne Pr. FATHI Khalid Gynécologie obstétrique Pr. HASSIKOU Hasna * Rhumatologie Pr. KABBAJ Nawa Gastro-entérologie Pr. KABIRI Meryem Pédiatrie Pr. KARBOUBI Lamya Pédiatrie Pr. IAMSAOURI Jamal * Chimie Thérapeutique Pr. MARMADE Lahcen Chirurgie Cardio-vasculaire Pr. MESKINI Toufik Pédiatrie Pr. MESSAOUDI Nezha * Hématologie biologique Pr. MSSROURI Rahal Chirurgie Générale Pr.NASSAR lttimade Radiologie Pr. OUKERRAJ Latifa Cardiologie Pr. RHORFI Ismail Abderrahmani * Pneumo-Phtisiologie Octobre 2010 Pr. ALILOU Mustapha Anesthésie réanimation Pr. AMEZIANE Taoufiq* Médecine Interne Directeur ERSSM Pr. BEIAGUID Abdelaziz Physiologie Pr.CHADLI Mariama* Microbiologie Pr. CHEMSI Mohamed* Médecine Aéronautique Pr. DAMI Abdellah* Biochimie, Chimie P r. DARBI Abdellatif* Radiologie Pr. DENDANE Mohammed Anouar Chirurgie Pédiatrique Pr.EL HAFIDI Naima Pédiatrie Pr.EL KHARRAS Abdennasser* Radiologie Pr.EL MAZOUZ Samir Chirurgie Plastique et Réparatrice Pr. EL SAYEGH Hachem Urologie Pr. ERRABIH lkram Gastro-Entérologie Pr. LAMALMI Najat Anatomie Pathologique Pr. MOSADIK Ahlam Anesthésie Réanimation Pr. MOUJAHID Mountassir* Chirurgie Générale Pr. NAZIH Mouna* Hématologie Pr. ZOUAIDIA Fouad Anatomie Pathologique

Decembre 2010 Pr.ZNATI Kaoutar Anatomie Pathologique Mai 2012 Pr. AMRANI Abdelouahed Chirurgie pédiatrique Pr. ABOUEWAA Khalil * Anesthésie Réanimation Pr.BENCHEBBA Driss * Traumatologie-orthopédie Pr. DRISSI Mohamed * Anesthésie Réanimation Pr. EL AIAOUI MHAMDI Mouna Chirurgie Générale Pr. EL KHATIABI Abdessadek * Médecine Interne Pr. EL OUAZZANI Hanane * Pneumophtisiologie Pr.ER-RAJI Mounir Chirurgie Pédiatrique Pr. JAHID Ahmed Anatomie Pathologique Pr.RAISSOUNI Maha * Cardiologie

* Enseignants Militaires Février 2013 Pr.AHID Samir Pharmacologie Pr.AIT EL CADI Mina Toxicologie Pr.AMRANI HANCHI Laila Gastro-Entérologie Pr.AMOR Mourad Anesthésie Réanimation PrAWAB Almahdi Anesthésie Réanimation Pr.BEIAYACHI Jihane Réanimation Médicale Pr.BELKHADIR Zakaria Houssain Anesthésie Réanimation Pr.BENCHEKROUN Laila Biochimie-Chimie Pr.BENKIRANE Souad Hématologie Pr.BENNANA Ahmed* Informatique Pharmaceutique Pr.BENSGHIR Mustapha * Anesthésie Réanimation Pr.BENYAHIA Mohammed * Néphrologie Pr.BOUATIA Mustapha Chimie Analytique et Bromatologie Pr.BOUABID Ahmed Salim* Traumatologie orthopédie Pr BOUTARBOUCH Mahjouba Anatomie Pr. CHAIB Ali * Cardiologie Pr. DENDANE Tarek Réanimation Médicale Pr.DINI Nouzha * Pédiatrie Pr.ECH-CHERIF EL KEITANI Mohamed Anesthésie Réanimation Ali Pr.ECH-CHERIF EL KEITANI Najwa Radiologie Pr.ELFATEMI NIZARE Neure-chirurgie Pr.EL GUERROUJ Hasnae Médecine Nucléaire Pr.EL HARTI Jaouad Chimie Thérapeutique Pr.EL JAOUDI Rachid * Toxicologie Pr.EL KABABRI Maria Pédiatrie Pr. EL KHANNOUSSI Basma Anatomie Pathologique Pr.EL KHLOUFI Samir Anatomie Pr.EL KORAICHI Alae Anesthésie Réanimation Pr.EN-NOUAL! Hassane * Radiologie Pr.ERRGUIG Laila Physiologie Pr.FIKRI Meryern Radiologie Pr.GHFIR lmade Médecine Nucléaire Pr.IMANE Zineb Pédiatrie Pr.IRAQ!Hind Endocrinologie et maladies métaboliques Pr.KABBAJ Hakima Microbiologie Pr.KADIRI Mohamed * Psychiatrie Pr.LATIB Rachida Radiologie Pr.MAAMAR Mouna Fatima Zahra Médecine Interne Pr.MEDDAH Bouchra Pharmacologie Pr.MELHAOUI Adyl Neuro-chirurgie Pr.MRABTI Hind Oncologie Médicale Pr.NEJJARI Rachid Pharmacognosie Pr.OUBEJJA Houda Chirugie Pédiatrique Pr.OUKABLI Mohamed * Anatomie Pathologique Pr. RAHALI Younes Pharmacie Galénique Vice-Doyen à la Pharmacie Pr.RATBI Ilham Génétique Pr.RAHMAN! Mounia Neurologie Pr.REDA Karim * Ophtalmologie Pr.REGRAGUI 'X'afa Neurologie Pr.RKAIN Hanan Physiologie Pr.ROSTOM Samira Rhumatologie Pr.ROUAS Lamiaa Anatomie Pathologique Pr.ROUIBAA Fedoua * Gastro-Entérologie Pr SALIHOUN Mouna Gastro-Entérologie Pr.SAYAH Rochde Chirurgie Cardio-Vasculaire Pr.SEDDIK Hassan * Gastro-Entérologie Pr.ZERHOUNI Hicham Chirurgie Pédiatrique Pr.ZINE Ali * Traumatologie Orthopédie

• Enseignants Militaires

AVRIL 2013 Pr.EL KHATIB MOHAMED KARIM * Stomatologie et Chirurgie Maxillo-faciale MARS 2014 Pr.ACHIR Abdellah Chirurgie Thoracique Pr.BENCHAKROUN Mohammed T Traumatologie- Orthopédie Pr.BOUCHIKH Mohammed Chirurgie Thoracique Pr. EL KABBAJ Driss * Néphrologie Pr. EL MACHTANI IDRISSI Samira " Biochimie-Chimie Pr.HARDIZI Houyam Histologie·Embryologie.Cytogénétique Pr. HASSAN! Amale * Pédiatrie Pr. HERRAK Laila Pneumologie Pr. JANANE Abdellah • Urologie Pr. JEA.IDI Anass * Hématologie Biologique Pr. KOUACH Jaouad* Génycologie-Obstétrique Pr. LEMNOUER Abdelhay* Microbiologie Pr. MAKRAM Sanaa * Pharmacologie Pr. OUIAHYANE Rachid* Chirurgie Pédiatrique Pr. RHISSASSI Mohamed Jaafar CCV Pr. SEKKACH Youssef* Médecine Interne Pr. TAZI MOUKHA Zakia Génécologie-Obstétriq DECEMBRE 2014 Pr.ABILKACEM Rachid* Pédiatrie Pr.AIT BOUGHIMA Fadila Médecine Légale Pr. BEKKALI Hicham * Anesthésie-Réanimation Pr. BENAZZOU Salma Chirurgie Maxillo-Faciale Pr. BOUABDELIAH Mounya Biochimie-Chimie Pr. BOUCHRIK Mourad* Parasitologie Pr. DERRAJI Soufiane* Pharmacie Clinique Pr. DOBLALI Taoufik Microbiologie Pr. EL AYOUB! EL IDRISSI Ali Anatomie Pr. EL GHADBANE Abdedaim Hatim* Anesthésie-Réanimation Pr. EL MARJANY Mohammed* Radiothérapie Pr. FEJJAL Nawfal Chirurgie Réparatrice et Plastique Pr. JAHIDI Mohamed* O.R.L Pr. lAKHAL Zouhair* Cardiologie Pr. OUDGHIRI NEZHA Anesthésie-Réanimation Pr. RAMI Mohamed Chirurgie Pédiatrique Pr. SABIR Maria Psychiatrie Pr. SBAI IDRISSI Karim* Médecine préventive, santé publique et Hyg. AOUT 2015 Pr. MEZIANE Meryem Dermatologie Pr. TAHIRI Latifa Rhumatologie PROFESSEURSAGREGES 1 JANVIER 2016

Pr. BENKABBOU Amine Chirurgie Générale Pr. EL ASRI Fouad* Ophtalmologie Pr. ERRAMI Noureddine* O.R.L Pr. NITASSI Sophia O.R.L JUIN 2017 Pr. ABI Rachid* Microbiologie Pr. ASFALOU Ilyasse* Cardiologie Pr.BOUAYTI El Arbi* Médecine préventive, santé publique et Hyg. Pr. BOUTAYEB Saber Oncologie Médicale Pr. EL GHISSASSI Ibrahim Oncologie Médicale Pr. HAFIDI Jawad Anatomie Pr. OURAINI Saloua* 0. R.L Pr. RAZINE Rachid Médecine préventive, santé publique et Hyg. Pr. ZRARA Abdelhamid* Immunologie NOVEMBRE 2018

Pr. AMELLAL Mina Anatomie Pr. SOULY Karim Microbiologie Pr. TAHRI Rjae Histologie-Embryologie-Cytogénétique "' Enseignants Militaires"

2. ENSEIGNANTS-CHERCHEURS SCIENTIFIQUES

PROFEURS/Prs. HABILITES

Pr. ABOUDRAR Saadia Physiologie Pr. AlAMI OUHABI Naima Biochimie-chimie Pr. AIAOUI KATIM Pharmacologie Pr. AIAOUI SLIMANI Lalla Naïma Histologie-Embryologie Pr. ANSAR M'hammed Chimie Organique et Pharmacie Chimique Pr .BARKIYOU Malika Histologie-Embryologie Pr. BOUHOUCHE Ahmed Génétique Humaine Pr. BOUKLOUZE Abdelaziz Applications Pharmaceutiques Pr. CHAHED OUAZZANI Lalla Chadia Biochimie-chimie Pr. DAKKA Taoufiq Physiologie Pr. FAOUZI Moulay El Abbes Pharmacologie Pr. IBRAHIMI Azeddine Biologie moléculaire/Biotechnologie Pr. KHANFRI Jamal Eddine Biologie Pr. OUIAD BOUYAHYA IDRISSI Med Chimie Organique Pr. REDHA Ahlam Chimie Pr. TOUATI Driss Pharmacognosie Pr. ZAHIDI Ahmed Pharmacologie

Mise à jour le 04/02/2020 Khaled Abdellah Chef du Service des Ressources Humaines FMPR

Dédicaces

Toutes les lettres Ne sauraient trouver les mots qu’il faut ... Tous les mots ne sauraient exprimer la gratitude, L’amour, le respect, la reconnaissance... Aussi, c’est tout simplement que... Je dédie cette thèse à À Allah Le Tout puissant, l’unique et miséricordieux Qui m’inspire toujours, qui me guide dans le chemin droit Je vous dois tout ce que je suis devenu Louanges et remerciements Pour votre clémence et miséricorde

À l’âme de mon très chèr Pére

Comment t’oublier ? ta bonté reste encore gravée dans ma mémoire j’aurai voulu que tu assiste à l’aboutissement de ces années de dur labeur, que Dieu t’accorde la paix éternelle

À ma chère mère

Vous avez été pour moi tout au long de mes études et de ma vie le plus grand symbole d’amour, de soutien, de dévouement et de bonté.

Maman ta générosité et ta bienveillance à mon égard sont pour moi d’un soutien infini, tes prières et tes conseils sont pour moi une source intarissable de réconfort.

Aucun mot, aucune dédicace ne saurait exprimer toute ma gratitude et le respect que j’ai pour vous.

Je vous aime tellement, et je vous suis infiniment reconnaissante pour tous les sacrifices que vous avez consentis pour mon instruction et mon bien être.

Veuillez trouver dans ce travail le fruit de tous vos sacrifices et mon profond amour, j’espère durant toute mon existence, ne jamais vous décevoir, ni trahir votre confiance. Que le SEIGNEUR DIEU, vous protège et veille sur vous à jamais. Je vous aime. À mes sœurs et mes frères : Maryam, Elghalia, Fatima et Abdelhadi

Les mots ne sauraient exprimer l’entendu de l’affection que j’ai pour vous.

Je vous dédie ce travail avec tous mes vœux de bonheur, de santé et de réussite.

Je vous souhaite une vie pleine de bonheur, de santé et de prospérité.

Qu’ALLAH vous bénisse et vous protège.

Enfin, à toutes les personnes qui comptent pour moi, intervenues dans ma vie à un moment ou à un autre et qui ont participé à faire de moi celle que je suis aujourd’hui… A toute la famille

J’ai beaucoup de chance de vous avoir à mes côtés, et je vous souhaite beaucoup de bonheur et de réussite.

Veuillez retrouver en ce travail l’expression de mon amour, ma gratitude et mon grand attachement.

A mes très chers amis

Vous trouverez ici l’expression de mes sentiments les plus sincères.

Avec tout mon amour, je vous souhaite un avenir souriant.

A tous ceux qui ont contribué de près ou de loin à l’élaboration de ce travail.

Remerciements

À

Notre Maitre et Président de Thèse

Monsieur Abdelhamid BIYI

Professeur de Biophysique

Vous m’avez accordé un grand honneur en acceptant de présider le jury de ma thèse.

Vos qualités scientifiques, pédagogiques et surtout humaines seront pour nous un exemple à suivre dans l’exercice de notre profession.

Nous saisissions cette occasion pour exprimer notre haute estime, considération et gratitude.

Veuillez trouver ici, cher maitre, le témoignage de mon respect le plus profond et mes remerciements les plus sincères.

À

Notre Maitre et Rapporteur de Thèse

Monsieur Azeddine IBRAHIMI

Professeur de Biologie moléculaire/Biotechnologie

Nous vous reconnaissons la gentillesse et la spontanéité avec lesquelles vous avez bien voulu diriger ce travail.

Vous vous y êtes grandement impliqués par vos directives, vos remarques et suggestions, mais aussi par vos encouragements dans les moments clés de son élaboration.

Nous tenons à vous remercier aussi pour cette liberté que vous avez permise, votre manière de penser et de procéder, votre manière d’être, bref toute votre personnalité.

Qu’ALLAH vous protège et vous accorde santé, bonheur et prospérité à vous et à vos enfants.

À

Notre Maitre et Juge de Thèse

Monsieur Nabil MOATASSIM BILLAH

Professeur de Biophysique

C’est pour nous un grand honneur que vous acceptiez de siéger parmi notre honorable jury.

Votre modestie, votre sérieux et votre compétence professionnelle seront pour nous un exemple dans l’exercice de notre profession.

Permettez-nous de vous présenter dans ce travail, le témoignage de notre grand respect.

À

Notre Maitre et Juge de Thèse

Madame Mouna OUADGHIRI

Professeur de Biologie moléculaire

Nous sommes très sensibles à l’honneur que vous nous faites en acceptant de juger notre travail.

Notre gratitude est grande pour l’intérêt que vous avez montré à l’encontre de notre travail.

Veuillez accepter nos remerciements ainsi que le témoignage de notre respect et notre reconnaissance.

Liste des figures

Listes des figures

Figure 1: représentation de l‟expérience de la double fente, avec formation de franges claires et sombres d‟interférence...... 21

Figure 2: Electron-diffraction photograph from a single slit (Fraunhofer region)...... 28

Figure 3: Electron-diffraction photograph from a two slits (Fraunhofer region)...... 28

Figure 4: (a-f) Electron interference fringe patterns filmes from a TV monitort at increasing current densities ...... 28

Figure 5: Electron-opticale of the interference experiment ...... 29

Figure 6: Configuration simplifiée...... 32

Figure 7: Mouvement du masque...... 33

Figure 8: Accumulation de diffraction d'électrons...... 34

Figure 9: La lumière de photoluminescence d‟un centre coloré NV unique excité par un laser impulsionnel est envoyée sur un biprisme ...... 38

Figure 10: Enregistrement des franges d‟interférence à un photon...... 38

Figure 11: Observation de la construction des franges d‟interférence, photon par photon, au moyen de la caméra CCD intensifiée à t = 5sec ...... 39

Figure 12: Observation de la construction des franges d‟interférence, photon par photon, au moyen de la caméra CCD intensifiée à t = 60sec ...... 39

Figure 13: Circuit optique montrant l‟aspect corpusculaire d‟une particule ...... 40

Figure 14: Circuit optique montrant l‟aspect ondulatoire d‟une particule Lors de la première expérience, le photon passe soit d‟un coté soit de l‟autre...... 41

Figure 15: Expérience de pensée de l‟argument EPR ...... 42

Figure 16: Expérience de pensée de l‟argument EPR ...... 42

Figure 17: Résultat final de l‟expérience de choix retardé...... 43

Figure 18: Expérience de pensée de l‟argument EPR ...... 48

Figure 19: Un premier montage expérimental imaginé pour tester le paradoxe EPR ...... 56

Figure 20: Transitions électroniques dans le calcium...... 59

Figure 21: Schéma du montage tel qu‟utilisé par Aspect en 1981 ...... 60

Figure 22: Résultats des mesures de E (a,b) pour sept orientations relatives entre les deux analyseurs de polarisation. (Aspect et al. (1982) Physical Review Letters)...... 61

Figure 23: Schéma du montage expérimental tel qu‟utilisé par Aspect et ses collègues en 1982...... 63

Figure 24: Device for the capture and analysis of ekectromagnetic dignals ...... 106

Figure 25: Les modifications sont matérialisées par des marques biochimiques, apposées par des enzymes spécialisées (Dnmt ou DNA méthyltransférases) sur l‟ADN ou sur des protéines qui le structurent, les histones (cf. plus loin)...... 127

Figure 26: Modification biochimique des histones avec changement de la structure de la chromatine sous l‟effet de la méthylation...... 128

Figure 27: La couleur du pelage dépend de l‟état de méthylation d‟une petite séquence dans le gène Avy présente à proximité du gène responsable de la couleur : à l‟état méthylé, le gène agouti est réprimé, la couleur sera brune, mais à l‟état déméthylé, le gène sera actif et la couleur, jaune. Plusieurs versions de ce gène Agouti existent, ce qui conduit à des couleurs de pelage différentes, en modifiant le niveau et le type de pigment de la fourrure...... 129

Figure 28: Portrait de JB Lamarck (1744 –1829) ...... 131

Figure 29: Expérience de Weaver et al. Démontrant la programmation comportementale du statut épigénétique en fonction du comportement maternel...... 133

Figure 30: Le comportement maternel de léchage, toilettage et allaitement chez la ratte va moduler en fonction de son intensité la régulation épigénétique du locus du récepteur aux glucocorticoïdes chez les petits...... 133

Figure 31: Durant la famine hollandaise, les habitants mangeaient en moyenne 500 calories par jour (soit environ un quart du minimum nécessaire à un être humain)...... 134

Sommaire

Partie 1: La physique quantique ...... 1

Introduction ...... 3

Comprendre la révolution quantique ...... 5

I. Etat de la physique à la fin du XIXe siècle ...... 6

II. Quelques Questions ...... 11

III. La révolution ...... 13

1. Les quanta d‟énergie...... 14

2. L'effet photoélectrique ...... 15

3. La duale des électrons ...... 18

4. La mystérieuse expérience de la double fente ...... 20

La première révolution: la dualité onde-particule ...... 26

I. Dualité Onde-Corpuscule: l'expérience des fentes d’Young avec des électrons ...... 27

II. Réalisation de la célèbre expérience de pensée de Richard Feynman (2013) ...... 30

III. Ondes et Particules. Introduction aux idées fondamentales de la mécanique quantique ...... 37

1. Expérience du biprisme de Fresnel, de P.Grangier A. Aspect et G.Roger ...... 37

2. Expérience à choix retardé ...... 42 la deuxième Révolution quantique: ...... 45 l'intrication quantique ...... 45

I. Paradoxe EPR, inégalité de Bell et les expériences d'Alain Aspect ...... 46

1. Le Paradoxe EPR ...... 46

2. Inégalité de Bell ...... 52

3. Les expériences d'Aain aspect ...... 54

4. Les expériences actuels d'intrication quantique ...... 65

4.1. L‟intrication quantique confirmée par une expérience de Bell sans faille ...... 65

4.2. Un nouveau record pour la téléportation quantique...... 66

4.3. Un cas d'intrication quantique entre trois paires de photons ...... 67

4.4. L‟intrication quantique en resumé ...... 68

Physique quantique : discussion des expériences faites et simplification des équations . 69

I. La première révolution : la dualité onde-particule ...... 70

II. La deuxième révolution : l'intrication quantique ...... 76

1. Le paradoxe EPR ...... 76

2. Théorème de Bell ...... 80

3. Les expériences d'Alain Aspect ...... 83

La molécule : onde-particule ...... 86

I. Des interférences de molécules filmées en temps réel ...... 87

II. Interférence d'un polypeptide ...... 89

Partie 2 : la biologie quantique ...... 90

I. Introduction à la biologie quantique ...... 91

II. Révolution quantique en biologie ...... 93

III. L'intrication quantique dans les réactions chimiques ...... 95

IV. L’intrication quantique observée sur des objets presque macroscopiques ...... 96

V. La biophysique quantique selon Bruce Lipton ...... 97

VI. l'ADN quantique...... 101

VII. Le repliement des protéines reposerait sur la nature ondulatoire de la matière 102

VIII. La mystérieuse expérience de ...... 104

IX. La biologie quantique dans la photosynthèse ...... 110

La bacterie quantique ...... 113

I. La première bactérie quantique ...... 114

II. Mon hypothèse 1 : la mutation des génes bactérienne ...... 115

Le champ magnetique et la biologie ...... 118

I. La membrane cellulaire : le cerveau de la cellule ...... 119

II. L'epigénétique : Comment l’environnement influence nos gènes ...... 126

III. Les courants induits dans le corps humain ...... 137

IV. Le champ magnétique cardiaque: le coeur un puissant générateur d'ondes éléctromagnétique ...... 139

V. Mon hypothèse 2 : La différenciation cellulaire ...... 141

Conclusion ...... 144 resumes ...... 146 références ...... 150

Partie 1: La physique quantique

1

"Si vous croyez comprendre la mécanique quantique, c‟est que vous ne la comprenez pas"

Richard Phillips Feynman

"Si quelqu'un vous dit : " La science nous apprend que... ", il n'emploie pas le mot science comme il faut. La science ne nous apprend rien : c'est l'expérience qui nous apprend quelque chose. Si on vous dit : " La science montre que... ", répondez : " Comment la science le montre-t-elle ? Comment les savants ont-ils trouvé ça ? Comment ? Où ? Quoi ? " On ne doit pas dire : " La science montre que... ", mais : " Telle expérience, tel effet, montre que... " Et vous êtes en droit, vous aussi, comme tout un chacun, après avoir entendu un compte rendu de ces expériences (mais attention, soyez patient et écoutez bien tout) de décider si la conclusion qui en a été tirée est raisonnable ou pas."

"Si la mécanique quantique ne vous a pas encore profondément choqué, alors vous ne l‟avez pas encore comprise. Tout ce que nous appelons réel est fait de choses qui ne peuvent pas être considérées comme étant réelles."

Niels Bohr

"L'électron ne semble exister en tant qu'objet réel que lorsque nous l'observons! ... La réalité quantique est rationnelle, mais elle n'est pas visualisable."

Heinz Pagels

2

Introduction

3

"Il est absolument possible qu‟au delà de ce que perçoivent nos sens, se cachent des mondes insoupçonnés" - Albert Einstein

Derrière cette citation d‟Enstein, je me suis demandé quels sont les concepts qui traduisent des faits observables par la perception de nos sens. Comment arrivons nous à décrire ces phénomènes physiques visibles et surtout comment la théorie permet-elle de nous faire découvrir ces "mondes insoupçonnés".

Lors des grandes découverte scientifiques, l‟homme à pu dépasser les limites de ses perceptions sensorielles. La physique quantique va au delà encore, puisqu‟elle se joue de son observateur.

Mon choix s‟est porté sur ces phénomènes complexes et mystérieux. Nous allons dans ce chapitre nous intéresser dans un premier temps, à introduire les idées fondamentales de la mécanique quantique, à partir d‟expériences présentant les phénomènes de cette dernière. Dans un second temps, nous allons donner une représentation des systèmes quantiques.

Enfin nous étudierons le "mystère" de la physique quantique, à travers des paradoxes et des théorèmes, qui on tourmenté les grands cerveaux du XXeme siècle.

4

Comprendre la révolution quantique

5

Une introduction à la mécanique quantique sans équations fondée sur les expériences

o L'état de la physique à la fin du XIXe siècle : le déterminisme, Newton et Maxwell, particules et ondes.

o Quelques nuages obscurcissent le ciel: quelques problèmes non résolus à la fin du XIXe siècle.

o La révolution: Planck, Einstein, le premier Conseil Solvay, Bohr, de Broglie, la dualité onde-particule.

o Conclusion I. Etat de la physique à la fin du XIXe siècle

A la fin du XIXème siècle, deux théories complémentaires semblent expliquer tous les phénomènes: La mécanique de Newton et l‟électromagnétisme de Maxwell

Newton Maxwell 1643 - 1727 1831 - 1879

6

Ces théories sont déterministes

Par exemple, la théorie de Newton permet le calcul des orbites planétaires

Electromagnétisme de Maxwell

La théorie de Maxwell décrit les propriétés électriques et magnétiques de la matière. Elle explique aussi la nature de la lumière

La bobine de Ruhmkorff: l‟étincelle produite par une différence de potentiel élevée entre deux tiges est constituée d„un flux de charges électriques

L‟électricité peut être produite par induction magnétique: le mouvement d‟un fil métallique entre les fers d‟un aimant crée un courant électrique

7

Expérience d‟induction magnétique

Dynamo d‟une bicyclette

Production industrielle d‟électricité

La double fente

La cuve à ondes met les interférences en évidence.

Des franges d‟interférences sont produites par des petites vagues qui passent à travers une double fente.

8

Schéma de la formation de franges

L'expérience de Young

Un montage optique montre la nature ondulatoire de la lumière:

Une lumière monochromatique passe par une double fente et produit des franges d‟interférence sur l‟écran 9

La lumière est donc constituée d‟ondes

Un grand succès de la théorie de Maxwell est d‟avoir expliqué la nature des ondes lumineuses. Ce sont des ondes électromagnétiques qui n‟ont pas besoin d‟un milieu matériel pour se propager

Petite roue à ailettes

Une petite roue à ailettes est mise en mouvement par un flux d'électrons.... comme le fait l'eau (les électrons) pour un moulin (la roue)

10

Les électrons ont une masse et obéissent aux lois de Newton

Les électrons sont des particules

Conclusion à la fin du XIXe siècle

Deux théories complémentaires semblent décrire tous les phénomènes physiques:

- Les particules obéissent aux lois de Newton

- Les ondes lumineuses sont décrites par les équations de Maxwell.

Cependant personne ne comprend la nature profonde de ces lois. Elles sont capables d‟unifier un grand nombre de faits physiques mais elles résultent de l‟expérience et personne ne peut dire qu‟il en comprend réellement la nature profonde. II. Quelques Questions

Quelques petits problèmes ne peuvent être expliqués par les théories de Newton ou de Maxwell.

Pourquoi la lumière émise par les atomes ne contient-elle pas toutes les couleurs de l‟arc-en-ciel (spectre discret)?

Quelle est l‟origine de la radioactivité?

11

Pourquoi ne sommes-nous pas brulés quand nous regardons à l‟intérieur d‟un four?

Le problème du rayonnement du corps noir (catastrophe ultraviolette):

12

Tout objet émet un rayonnement qui dépend de sa température. Selon la théorie, l‟énergie émise devrait être infinie, en contradiction évidente avec l‟observation, puisque nous pouvons regarder à l‟intérieur d‟un four III. La révolution

1900: Planck découvre une formule qui décrit le rayonnement du corps noir

h est une constante inévitable.

Sans elle, pas de description, ni d‟explication, du rayonnement du corps noir.

Interprétation: la lumière rayonnée est émise par petits paquets dont l‟énergie dépend de sa fréquence :

E = h ν

13

1. Les quanta d’énergie.

1905 : Einstein et l‟effet photoélectrique

14

De la lumière peut éjecter des électrons d‟une plaque métallique.

Lorsque les électrons sont recueillis sur une anode, un courant peut circuler dans le circuit.

Seule de la lumière de fréquence élevée est capable d‟extraire des électrons de la plaque.

2. L'effet photoélectrique

L'expérience le résumé de l'expérience : de la lumière blanche éclaire une cellule photoélectrique au travers de différents filtres colorés

Quand des électrons sont éjectés de métal un courant électrique peut passer dans le circuit.

La lumière blanche éjecte des électrons, la lumière bleu aussi.

La lumière rouge est incapable d'éjecter des électrons.

Comment expliquer ?

L‟effet photoélectrique est expliqué par le fait que la lumière est constituée de quanta d‟énergie h ν qui se comportent comme des particules.

Plus tard, ils seront appelés photons.

Le caractère ondulatoire de la lumière est admis depuis l‟expérience de la double fente de Young au début du XIXe siècle.

Maintenant, la lumière a un caractère corpusculaire!

C‟est la dualité onde-particule

Ces résultats troublants ont été discutés lors du premier Conseil de Physique Solvay en 1911 auquel a été invitée l'élite scientifique de l'époque.

15

La théorie des quanta a encore été discutée lors des Conseils suivants. Notamment, en 1927, le cinquième Conseil Solvay a permis la discussion entre tous les protagonistes de la théorie quantique : Schrödinger, Heisenberg, Dirac, Pauli, Born, de Broglie, … Einstein et Bohr...

Le modèle de Bohr de l‟atome d‟hydrogène

16

L‟aspect corpusculaire de la lumière a été exploité par Bohr pour construire un modèle de l‟atome.

1. L‟électron unique de l‟atome d‟hydrogène ne peut se déplacer que sur certaines orbites autour du noyau. Chacune de ces orbites correspond à une énergie différente de l‟électron.

2. Quand un électron passe d‟une orbite à une autre correspondant à une énergie plus basse, un quantum de lumière est émis dont la fréquence ν dépend de la différence d‟énergie entre deux orbites.

3. Inversement, un quantum de lumière peut être absorbé par l‟électron si sa fréquence ν correspond à la différence d‟énergie entre les deux orbites.

On dit que les niveaux d‟énergie sont quantifiés.

Avec ce modèle, Bohr a été capable, entre autres, d‟expliquer la nature discrète du spectre atomique.

Mais quelle est l‟origine de la quantification des orbites ?

17

3. La nature duale des électrons

1924 : Louis de Broglie propose que :

Une onde est associé à l‟électron

Cette onde associée peut expliquer pourquoi seulement certaines orbites apparaissent dans l‟atome de Bohr.

Comme une corde de violon, un cercle peut seulement vibrer à certaines fréquences bien définies

L‟expérience de Debye-Scherrer : des électrons traversent une poudre cristalline et sont recueillis sur un écran fluorescent. Ils forment une figure d‟interférence. Les électrons se comportent comme des ondes ! Pourquoi les figures d'interférence sont-elles circulaires dans l'expérience de Debye- Scherrer? Discussions: Un rayon laser passe à travers deux réseaux de diffraction perpendiculaires : la figure d'interférences est faite de points. Quand les réseaux tournent, les rayons laser est dévié dans toutes les directions: les points forment des cercles concentriques. Dans l'expérience les cristaux de la poudre sonts orienté au hasard: donc, les électrons sont déviés dans toutes les directions et forment des interférences circulaires.

LES ELECTRONS SE COMPORTENT COMME DES ONDES

18

L‟expérience de Thomson : trajectoire des électrons dans un champ magnétique. Résumé de l'expérience: La trajectoire classique des électrons peut visualisé dans un tube à faisceau droit. Un faisceau d'électrons peut être produit par un canon à électrons. L'ampoule est remplie d'un gaz fluorescent qui permet la visualisation du faisceau. des bobines placées de part et d'autre du tube peuvent créer un champ magnétique, le champ magnétique courbe la trajectoire des électrons. En absence de champ magnétique le trajectoire est rectiligne. En sa présence le trajectoire devient circulaire. Donc, les électrons suivent des trajectoires des particules classiques. LES ELECTRONS SE COMPORTENT COMME DES PARTICULES. Conséquences de la dualité

Le déterminisme est perdu

Extension spatiale des ondes impossibilité de spécifier précisément la position des objets quantiques. Probabilités

Principe d‟incertitude

Impossibilité de mesurer simultanément la vitesse et la position des particules. Un temps infini est nécessaire pour mesurer avec précision leur énergie.

Complémentarité

Selon le montage expérimental, les objets quantiques se comportent comme des particules ou comme des ondes.

La dualité à l'œuvre

1909 : Taylor mène déjà une expérience. La lumière d‟une bougie est atténuée par des verres fumés. Exposition de plaques photographiques jusqu‟à trois mois. Des photons arrivent un par un sur les plaques. L‟accumulation des photons produit des franges d‟interférence source (1)

19

4. La mystérieuse expérience de la double fente (2)

l'expérience de la double fente Young

20

Les interférences qui appariassent progressivement sur l'écran démontrant la nature ondulatoire du phénomène

En 1800, à l‟aide d‟une célèbre expérience, le physicien britannique Thomas Young démontra que la lumière était constituée d‟ondes en raison des figures d‟interférence qu‟un faisceau de lumière produit lorsqu‟il passe à travers un écran percé de deux fentes. En 1905, le physicien allemand Albert Einstein démontra également, en découvrant l‟effet photoélectrique, que la lumière était composée de particules. Il ne restait dès lors qu‟à conclure que la lumière possédait à la fois des propriétés ondulatoires et corpusculaires. Nous observons l‟une plutôt que l‟autre en fonction du type d‟expérience réalisée. Nous en déduisons donc que le rayonnement électromagnétique a une espèce de «double vie », puisqu‟il est représenté aussi bien par des ondes (c‟est-à-dire de l‟énergie pure) que par des particules (c‟est-à-dire de la matière pure), qui ne peuvent toutefois jamais être révélées simultanément: il est possible d‟observer l‟une ou l‟autre, mais pas les deux à la fois. Cette dualité peut justement s’expliquer par le principe d’incertitude d’Heisenberg qui affirme qu‟il est impossible de déterminer simultanément la composante énergétique et la composante matérielle d‟un événement quantique donné. Au vu de cette théorie, matière et énergie, position et vitesse deviennent des « variables conjuguées » (ou complémentaires) et constituent dans leur ensemble la caractéristique d‟incertitude permanente des événements qui se vérifient en mécanique quantique.

Figure 1: représentation de l’expérience de la double fente, avec formation de franges claires et sombres d’interférence.(3)

21

Dualité onde-particule

IL est facile de vérifier cette dualité onde-particule en analysant l’expérience de la double fente de Thomas Young dans le détail et à la lumière des connaissances actuelles. Supposons une source lumineuse monochromatique placée derrière un écran percé de deux fentes.

Si nous occultons l‟une des deux fentes, la lumière se comporte comme une particule (c‟est aussi le cas lorsque les photons heurtent un point quelconque de l‟écran), tandis que si les deux fentes restent libres, la lumière se comporte comme une onde.

Le deuxième cas est vraiment le plus spectaculaire si on l‟étudie de près: à l‟époque, Young ne savait rien de mécanique quantique, il s‟est simplement borné à vérifier la formation de franges d‟interférence – l‟une des propriétés de la lumière, qui se comporte de façon tout à fait identique aux ondes qui se forment à la surface d‟un étang lorsque l‟on y jette une pierre – derrière l‟écran avec les deux fentes.

Si, au contraire, nous lançons deux cailloux dans l‟eau, nous obtenons deux fronts d‟onde qui interfèrent entre eux. De la même façon, nous obtenons deux fronts d‟onde – dans ce cas, électromagnétiques – produits par la lumière lorsqu‟elle passe par les deux fentes, lesquelles interfèrent comme dans le cas des deux pierres jetées dans l‟eau.

Les franges d’interférence

Jusque-là, la chose ne présente aucune anomalie particulière, si ce n‟est qu‟une singulière bizarrerie se manifeste lorsque, au lieu de lancer quantité de photons tous ensemble, nous ne lançons qu‟un photon à la fois contre l‟écran à fentes : il va de soi que nous pouvons le faire, car, grâce à Einstein, nous connaissons également la nature corpusculaire du photon.

Le bon sens nous dirait que le photon simple – étant donné que sa nature corpusculaire (ou rayonnement) fut en son temps vérifiée par Einstein – ne devrait passer qu‟à travers une seule des deux fentes.

D‟ailleurs, si nous lançons une balle de tennis contre un mur avec deux fenêtres, elle ne pourra clairement passer qu‟à travers l‟une d‟elles. Cependant, nous découvrons que le 22

comportement du photon est absolument déconcertant: il passe à travers les deux fentes en même temps, puis crée des franges d’interférence, en n’interagissant qu’avec lui-même!

Ce qui est troublant, ce n‟est pas tant ce mystérieux dédoublement de la particule que l‟absolue simultanéité avec laquelle se forment les franges d‟interférence, nées d‟un seul photon.

En résumé, le photon n’interagit qu’avec lui-même en se trouvant à deux endroits différents en même temps au point de créer l‟interférence, et les physiciens sont obligés de reconnaître que c‟est comme si le photon « connaissait » les points et les moments exacts où il doit se dédoubler pour donner lieu aux franges d‟interférence.

Mais cet événement incroyable s‟oppose violemment à tout ce que nous croyons savoir sur la réalité quotidienne, dès l‟instant où le fait qu‟une même particule puisse se trouver simultanément en deux endroits différents anéantit le principe de causalité pour le remplacer par un principe de synchronicité.

Double fente et mécaniques quantiques

Les résultats de l‟expérience de la double fente nous prouvent qu‟en mécanique quantique – c‟est-à-dire dans le règne des particules élémentaires – le principe de causalité est effectivement violé en raison de très étranges effets de superposition qui sont eux-mêmes une conséquence directe du principe d‟incertitude de Heisenberg, selon lequel nous ne pouvons jamais savoir à travers quelle fente le photon voyage: le photon semble en effet avoir voyagé à travers les deux fentes simultanément. Dans le domaine quantique, cette phénoménologie prend le nom d’« intrication », entanglement en anglais.

Dans le cas spécifique de l’expérience de la double fente, ce sont les dédoublements d’un même photon qui s’intriquent dans l’espace et le temps, et la structure la plus intime de la mécanique quantique – celle élaborée par le physicien théoricien américain David Bohm – nous indique que le photon atteint des positions bien précises derrière les fentes parce qu‟il est littéralement informé de façon « non locale » (c‟est-à-dire de façon totalement indépendante de l‟espace et du temps) par un « potentiel quantique » qui fonctionne comme un instrument de pilotage de la particule.

23

Les particules agissent donc en synchronie avec un potentiel quantique, dont la structure n‟est pas évidente dans le monde newtonien dans lequel nous vivons, mais qui existe sur un plan invisible en influençant de façon non manifeste notre réalité.

En substance, l’univers fonctionnerait à travers deux champs croisés, de la même manière que le champ électromagnétique décrit par les équations de Maxwell qui comporte un champ électrique et un champ magnétique orthogonaux. Domaine quantique et domaine classique seraient accouplés pareillement, le premier opérant de façon non locale et le second de façon causale. La manière dont les deux domaines s‟harmonisent est bien décrite dans la version de Bohm de l‟équation de Schrödinger.

La mécanique quantique étudie justement ce mystère de la réalité qui conduit les particules, comme dans le cas de l‟expérience de la double fente, à adopter un comportement apparemment insensé.

Photon : onde ou particule ?

Cette expérience déconcertante de la mécanique quantique démontre donc qu‟un photon se comporte comme une particule si nous occultons l‟une des deux fentes ou lorsque nous tentons de l‟observer avec un détecteur ou un filtre polarisant, tandis qu‟il se comporte comme une onde quand il interfère avec lui-même en passant par les deux fentes en même temps. Mais le phénomène de l‟interférence n‟est autre qu‟une forme expérimentalement établie du principe de superposition de la mécanique quantique.

Le phénomène de l‟interférence disparaît immédiatement si nous tentons de mettre un détecteur derrière l‟une des deux fentes pour essayer de comprendre à travers quelle fente passe la particule : la figure d’interférence n’apparaît que lorsque le chemin de la particule est inconnu ! Cela nous montre que l‟observateur en personne interagit avec l‟observé (le photon) en détruisant la superposition quantique.

Le type d‟expérience menée peut nous permettre de vérifier la nature d‟onde ou de particule d‟un photon donné: par exemple, si nous projetons un photon sur un cliché photographique sans fentes, nous obtenons la nature de particule, mais si nous le faisons passer à travers deux fentes, nous obtenons la nature d’onde.

24

Dans les deux cas, la fonction d‟onde d‟un état quantique donné s‟est effondrée, dans le sens où selon le type d‟expérience menée, la nature d‟onde ou de particule s‟est concrétisée. Mais si nous n‟effectuons aucune mesure, la lumière existe en tant que superposition d‟onde ou de particule: elle est les deux choses à la fois.

Le don d’ubiquité

Dans les années 70 et 80, il a été prouvé que le comportement manifesté dans l‟expérience de la double fente n‟est pas seulement une prérogative de particules énergétiques comme les photons, mais aussi de particules de matière comme les électrons et les neutrons.

Les particules de matière témoignent donc parfois de phénomènes ondulatoires, tout comme les particules d’énergie témoignent parfois de phénomènes particulaires. Par ailleurs, les particules de matière, si on les fait passer à travers un écran avec une double fente, puis qu‟on les étudie une par une, produisent exactement les mêmes franges d‟interférence, justement parce qu‟elles interfèrent avec elles-mêmes.

Ces particules aussi ont le don d‟ubiquité: elles se trouvent simultanément dans le même espace. Il s‟agit là d‟une énième situation où se manifeste de façon mystérieuse l‟intrication qui, lorsqu‟elle comporte l‟interférence entre ondes, présente cette caractéristique qui en mécanique quantique est connue sous le nom de « cohérence ».

25

La première révolution: la dualité onde- particule

26

I. Dualité Onde-Corpuscule: l'expérience des fentes d’Young avec des électrons (4).

Tout commence avec la mise en évidence de l‟électron en 1897 par JJ Thomson. Ce dernier utilise un tube cathodique, dont le principe était connu depuis une vingtaine d‟années. Dans ce tube, il crée en sus un champ électrique et un champ magnétique qui lui permettent de dévier les électrons sur l‟écran.

Comme la déflexion dépend à la fois du champ électrique E et du champ magnétique B, on peut par exemple chercher des valeurs des champs pour lesquels la déflexion est nulle (l‟effet des deux champs se compense). C‟est ainsi que Thomson calcule le ratio de la charge électrique et de la masse de l’électron. Il ne peut pas calculer séparément l‟un et l‟autre, et il faudra attendre l‟expérience de Millikan en 1909 pour déterminer la charge de l‟électron, et donc sa masse grâce au ratio trouvé par Thomson.

A ce stade de l‟histoire, l‟électron est donc une particule. L‟expérience qui changera tout est celle de Davison et Germer en 1927. Ces derniers balancent des électrons sur une cible en nickel (un cristal, donc) et obtiennent des interférences. Cela montre de façon décisive que les électrons se comportent comme une onde. On appelle parfois ce résultat « la diffraction » des électrons, mais il s‟agit aussi d‟interférences. Pour faire simple, cela se passe comme si chaque atome du cristal de nickel se comportait comme une mini-fente.

Dès cette expérience réalisée, on pouvait donc prédire que si on s‟amusait à balancer des électrons sur une double fente, il se passerait la même chose qu‟avec la lumière : des interférences.

27

Il fallut attendre 1961 pour que l‟allemand C. Jonsson réalise vraiment une expérience de diffraction/interférences d’électrons avec des fentes. (5)

.

Figure 3: Electron-diffraction Figure 2: Electron-diffraction

photograph from a single slit photograph from a two slits (Fraunhofer region). (Fraunhofer region).

Vous voyez qu‟au début des années 60, à l‟époque où Feynman faisait son cours à Caltech, on avait tout juste réalisé une expérience d‟interférences d‟électrons avec une double fente. Mais il ne s’agissait en aucun cas d’une expérience où les électrons étaient envoyés un par un ! (ce qui est quand même le cas qui déchire) Il faut attendre 1976 et une publication italienne pour véritablement visualiser des électrons individuels dans une figure d‟interférence, même s‟il ne s‟agit pas d‟une construction progressive puisque chacune des images ci-dessous correspond à une expérience effectuée avec des paramètres différents.(6)

Figure 4: (a-f) Electron interference fringe patterns filmes from a TV monitort at increasing current densities 28

Ensuite il faut encore patienter jusqu‟en 1989 et le travail d‟une équipe japonaise pour avoir véritablement une construction progressive sur une même expérience (7)

Figure 5: Electron-opticale of the interference experiment

Cette expérience a longtemps été considérée comme « la vraie », et pourtant elle diffère de ce que raconte Feynman en deux points : tout d‟abord il ne s‟agit pas d‟une expérience avec une double fente mais avec un « biprisme »; et ensuite une conséquence de cela est qu‟il n‟est pas possible de jouer à boucher une fente pour voir comment la figure change. 29

C‟est donc seulement en 2013 qu‟un groupe américain arrive à faire véritablement l‟expérience comme l‟imaginait Feynman, à la fois avec la construction progressive de la figure d‟interférences et la possibilité de boucher une des deux fentes.(8)

Un point tout de même : l‟expérience de 2013 n‟est pas encore exactement celle dont parlait Feynman. En effet elle ne permet pas vraiment de faire le cas où un détecteur intermédiaire vient essayer de savoir par quelle fente passe l‟électron. Les expériences de ce type sont dites « which-way » (par quelle chemin ?). Elles ne sont pas faite sur exactement le type de dispositif expérimental dont on vient de parler, comme par exemple la publication suivante où l‟on utilise des atomes qui interfèrent, et où les auteurs ont pu mettre en évidence la destruction des franges d‟interférences.(9) II. Réalisation de la célèbre expérience de pensée de Richard Feynman (2013)

La diffraction à double fente est une pierre angulaire de la mécanique quantique. Il illustre les principales caractéristiques de la mécanique quantique: l'interférence et la dualité particule-onde de la matière. En 1965, Richard Feynman a présenté une expérience de pensée pour montrer ces caractéristiques. Nous montrons ici la pleine réalisation de sa célèbre expérience de pensée. En plaçant un masque mobile devant une double fente pour contrôler la transmission à travers les fentes individuelles, des distributions de probabilité pour les agencements à simple et double fente ont été observées. De plus, en enregistrant des événements de détection d'électrons uniques diffractant à travers une double fente, un diagramme de diffraction a été construit à partir d'événements individuels. 30

Introduction

Richard Feynman a décrit la diffraction d'électrons comme un phénomène qui a en lui le cœur de la mécanique quantique. En réalité, il contient le seul mystère » Il a ensuite décrit une expérience de pensée pour laquelle il a déclaré `` vous ne devriez pas essayer de mettre en place '' parce que `` l'appareil devrait être fabriqué à une échelle incroyablement petite pour montrer les effets qui nous intéressent ''. Il a utilisé ces effets pour aider à illustrer les phénomènes de dualité onde-particule, qui est un postulat selon lequel toutes les particules présentent à la fois des propriétés d'onde et de particules. Les effets qu'il a décrits sont les suivants: les relations entre les distributions de probabilité des électrons à partir de fentes simples et doubles et l'observation de la diffraction des particules simples. Dans cet article, nous rapportons à la fois le contrôle sur les fentes individuelles pour observer les distributions de probabilité des fentes simples et doubles, et la construction d'un diagramme de diffraction à des taux de détection d'électrons uniques pour réaliser la pleine réalisation de l'expérience de pensée de Feynman. La perception générale est que l'expérience d'électrons à double fente a déjà été réalisée. Cela est vrai dans le sens où Jönsson a démontré la diffraction à partir de micro- fentes simples, doubles et multiples (jusqu'à cinq) mais il n'a pas pu observer la diffraction de particules simples, ni fermer les fentes individuelles. Dans deux expériences distinctes, la détection d'électrons individuels a été utilisée pour produire des modèles d'interférence; cependant, des biprismes ont été utilisés à la place des fentes doubles Tout d'abord, Pozzi a enregistré les modèles d'interférence à différentes densités de faisceau d'électrons. Ensuite, Tonomura a enregistré les positions des événements de détection d'électrons individuels et les a utilisés pour produire l'accumulation bien connue d'un motif d'interférence. Il est intéressant de souligner que la construction d'un motif de diffraction à double fente a été appelée «La plus belle expérience en physique» tandis que la construction d'une véritable double fente a, jusqu'à présent, n'a jamais été signalé. Plus récemment, la diffraction d'électrons a été démontrée avec des fentes simples et doubles à l'aide de nano-fentes fraisées par faisceau d'ions focalisés De plus, une seule fente dans une double fente a été fermée par un dépôt induit par le FIB Ce processus n'est pas réversible, donc l'observation de la distribution de probabilité des électrons à travers les deux 31

fentes simples n'a pas pu être effectuée. De plus, en utilisant un détecteur de pixels à lecture rapide, les électrons ont été enregistrés un par un et empilés dans un motif de diffraction final mais aucun motif spatial intermédiaire n'a été signalé. L'expérience de pensée de Feynman est résumée dans la figure 1 . La figure est une adaptation de Feynman Lectures on Physics, vol III, des figures 1 - 3 , avec le masque, des données expérimentales et des micrographies ajoutés. L'expérience de pensée comportait deux parties. Le premier consistait à observer les distributions de probabilité dans trois scénarios: les électrons voyageant à travers la fente 1 avec la fente 2 fermée (P 1); électrons voyageant à travers la fente 2 avec la fente 1 fermée (P 2); et les électrons voyageant à travers les deux fentes (P 12). Ces scénarios illustrent le principe de superposition mécanique quantique, c'est-à-dire les propriétés des ondes, et peuvent être démontrés avec le contrôle des fentes (figure 2). La deuxième partie de l'expérience de pensée a été l'observation d'électrons individuels associés à des «clics» de détection. Cela illustre qu'une onde d'électrons mécanique quantique ne peut pas être considérée comme comprenant plusieurs électrons, c'est-à-dire les propriétés des particules, qui peuvent être démontrées avec l'accumulation du diagramme de diffraction

Figure 6: Configuration simplifiée.

(a) Un faisceau d'électrons traverse une paroi avec deux fentes. Un masque mobile est positionné pour bloquer les électrons, permettant uniquement à ceux qui traversent la fente 1 (P 1), la fente 2 (P 2 ) ou les deux

(P 12 ) d'atteindre le filet de sécurité et le détecteur. (b), (c) Les distributions de probabilité sont montrées (expérimentales en intensité de fausses couleurs) pour les électrons qui traversent une seule fente (b), ou la double fente (c). Encart 1, 2: des micrographies électroniques de la double fente et du masque sont montrées. Les fentes individuelles mesurent 62 nm de large × 4 μm de haut avec une structure de support de 150 nm à mi- chemin le long de sa hauteur, et séparées de 272 nm. Le masque mesure 4,5 μm de large ×20 μm de hauteur.

32

Figure 7: Mouvement du masque.

Un masque est déplacé sur une double fente (encart) et les distributions de probabilité résultantes sont affichées. Le masque permet de bloquer une fente, les deux fentes ou aucune fente de manière non destructive. Les fentes individuelles ont une largeur de 62 nm et sont séparées de 272 nm. Le masque a une ouverture de 4,5 μm de large. Les dimensions étiquetées sont les positions du centre du masque. P 1 , P 2 et

P 12 sont les distributions de probabilité illustrées à la figure 33

Figure 8: Accumulation de diffraction d'électrons.

Les «blobs» indiquent les emplacements des électrons détectés. Les diagrammes d'accumulation intermédiaires des cinq ordres centraux du diagramme de diffraction (P 12 ) sont agrandis de la figure 2 34

Configuration expérimentale

La configuration expérimentale est représentée schématiquement sur la figure 1 (a). Un faisceau d'électrons d'une énergie de 600 eV, ce qui correspond à une longueur d'onde de Broglie de 50 pm, a été généré avec un filament thermionique de tungstène et plusieurs lentilles électrostatiques. Le faisceau a été collimaté avec une fente de 2 μm de largeur et 10 μm de hauteur placée à 16,5 cm. La double fente était située à 30,5 cm de la fente de collimation. Les motifs résultants ont été agrandis par une lentille quadripolaire électrostatique et imagés sur une plaque à microcanaux bidimensionnelle et un écran au phosphore, puis enregistrés avec une caméra à dispositif à couplage de charge. Pour une description plus détaillée de la configuration,

Deux méthodes ont été utilisées pour analyser les images. Pour étudier les distributions de probabilité, les images ont été résumées en ajoutant l'intensité de chaque image, puis normalisées. Il en est résulté une distribution de probabilité de fausses couleurs (figures 1 et 2 ). Pour étudier l'accumulation du diagramme de diffraction, chaque électron a été localisé à l'aide d'un schéma de détection «blob» Chaque détection a été remplacée par un blob, dont la taille représente l'erreur de localisation du schéma de détection. Les taches ont été compilées ensemble pour former les diagrammes de diffraction d'électrons (figure 3 ).

La fente de collimation, la double fente et le masque ont été fabriqués par fraisage FIB dans trois fenêtres à membrane de nitrure de silicium de 100 nm d'épaisseur. Le broyage FIB a été effectué sur un système Ga + 30 keV (FEI Strata 200xp). Après le broyage, chaque membrane a été recouverte d'environ 2 nm d'or. La double fente se compose de deux fentes de 62 nm de large avec une séparation de centre à centre de 272 nm (voir encadré 1 sur la figure 1 ). Chaque fente mesure 4 μm de haut et possède un support à 150 nm à mi-hauteur de sa hauteur. Le masque mesure 4,5 μm de large × 10 μm de haut (voir encadré 2 sur la figure 1 ) et a été placé à 240 μm loin de la double fente. Le masque était maintenu solidement dans un cadre qui pouvait glisser d'avant en arrière et était contrôlé par un actionneur piézoélectrique.

35

Résultats

Le masque mobile a été placé derrière la double fente, voir figure 1 . Le masque a été déplacé d'un côté à l'autre (figure 2 de haut en bas). Initialement, la majorité des électrons sont bloqués. Lorsque le masque est déplacé, la fente 1 devient partiellement, puis complètement ouverte. Lorsqu'une fente est ouverte, une diffraction à fente unique peut être observée (P 1 sur les figures 1 (b) et 2 ). Feynman indique cela comme la courbe noire pleine

P 1 (figure 1(b)), qui n'est que l'ordre central du diagramme de diffraction à fente unique. En raison de la séparation finie du masque et de la double fente, une faible diffraction à double fente peut être observée dans le premier ordre négatif du diagramme de diffraction à fente unique (voir le bord gauche de P 1 sur la figure 2 ).

Au fur et à mesure que le masque se déplace, de plus en plus d'électrons peuvent voyager à travers les deux fentes, changeant le modèle de diffraction à fente simple à diffraction à double fente. Lorsque le masque est centré sur la double fente, les deux fentes sont complètement ouvertes et une diffraction complète à double fente peut être observée

(P 12 sur les figures 1 (c) et 2 ). Dans cette position, l'interaction entre le masque et les électrons diffractants est négligeable. Les bords du masque sont à 2250 nm du centre et n'affecteraient que les ordres de diffraction supérieurs au 50e. Le masque est ensuite déplacé plus loin et l'inverse se produit; la diffraction à double fente revient à la diffraction à fente simple (P 2 sur les figures 1 (b) et 2). Maintenant, le diagramme de diffraction à fente simple a une faible contribution de diffraction à double fente dans son premier ordre positif.

Des modèles d'accumulation d'électrons ont été enregistrés avec le masque centré sur la double fente. L'intensité de la source d'électrons a été réduite de sorte que le taux de détection d'électrons dans le motif était d'environ 1 Hz. À ce rythme et à cette énergie cinétique, la distance moyenne entre des électrons consécutifs était de 2,3 × 10 6 m. Cela garantit qu'un seul électron est présent dans le système de 1 m de long à la fois, éliminant ainsi les interactions électron-électron. La lentille quadripolaire électrostatique a été réglée pour zoomer sur les cinq ordres de diffraction centraux. Sur la figure 3, l'accumulation du diagramme de diffraction est illustrée. Sur les figures 3 (a) - (c), les frappes d'électrons semblent être complètement aléatoires et ce n'est qu'après l'accumulation de nombreux

36

électrons qu'un motif peut être discerné, figure 3 d). Sur la figure 3 (e), le motif est clairement visible. L'accumulation finale du motif a pris environ 2 heures.

Conclusion

Dans cet article, nous montrons une réalisation complète de l'expérience de pensée de Feynman et illustrons les principales caractéristiques de la mécanique quantique: l'interférence et la dualité onde-particule de la matière. En contrôlant la transmission à travers les fentes individuelles d'une double fente, nous avons pu observer les diagrammes de diffraction de la fente 1 (P 1), de la fente 2 (P 2) et des deux (P 12), observant ainsi les propriétés d'onde des électrons. De plus, en enregistrant des événements de détection d'électrons uniques diffractant à travers une double fente, nous avons pu construire un diagramme de diffraction, observant ainsi les propriétés des particules des électrons. (10) III. Ondes et Particules. Introduction aux idées fondamentales de la mécanique quantique (11).

1. Expérience du biprisme de Fresnel, de P.Grangier A. Aspect et G.Roger

Après la pensée, vient le temps de l‟expérience. Or, jusqu‟à lors, l‟impossibilité technique de générer un photon unique nécessaire et indispensable à la démonstration qui va suivre ne permettait pas des mesures précises.

La première démonstration expérimentale d‟une source capable de produire des impulsions lumineuses à un seul photon, a été réalisée par Philippe Grangier, Alain Aspect, et Gérard Roger lors d‟une expérience menée à l‟Institut d‟Optique au milieu des années quatre- vingt, en utilisant une cascade radiative de l‟atome de calcium. Le principe qui permet de créer des photons uniques consiste à isoler l‟émission de fluorescence d‟un émetteur individuel. En effet, en raison de la conservation de l‟énergie, cet émetteur une fois porté dans un état excité se désexcite en émettant un, et un seul, photon de fluorescence. L‟interféromètre à division du front d‟onde est constitué par un biprisme de Fresnel. Ce système, analogue au dispositif des fentes de Young, présente l‟avantage de ne pas introduire de pertes significatives de lumière lors de la traversée du dispositif d‟interférométrie. 37

Figure 9: La lumière de photoluminescence d’un centre coloré NV unique excité par un laser impulsionnel est envoyée sur un biprisme (FB).

Deux photodiodes à avalanches (APD), sont positionnées en sortie du système interférométrique, loin de la zone de recouvrement des deux fronts d‟onde déviés par le biprisme. Pour un nombre d‟impulsions NT appliqué au centre NV individuel pendant une durée de mesure T, ce dispositif permet de mesurer le nombre de détections simples N1 et N2, ainsi que le nombre de détections en coïncidences NC. Dans une première expérience basée sur le dispositif décrit en figure, un photon unique est émis et traverse le prisme avant d‟être capté par les détecteurs N1 et N2 qui assure la présence d‟un photon unique. Le photon unique est détecté soit par N1 soit par N2 mais jamais par les deux capteurs à la fois (NC).

Figure 10: Enregistrement des franges d’interférence à un photon. × Un occulaire (O) de grandissement 10 conjugue un plan d‟observation situé dans la zone de recouvrement des fronts d‟onde issus du biprisme de Fresnel (FB) avec la surface de détection d‟une caméra CCD intensifiée. La distance z correspond à la séparation entre le biprisme et le plan conjugué par l‟occulaire sur la caméra.

38

Dans une seconde expérience, le photon après le passage dans le prisme est détecté à l‟aide d‟une caméra CCD. Les résultats sont représentés ci-dessous.

Figure 11: Observation de la construction des franges d’interférence, photon par photon, au moyen de la caméra CCD intensifiée à t = 5sec

Figure 12: Observation de la construction des franges d’interférence, photon par photon, au moyen de la caméra CCD intensifiée à t = 60sec

La première expérience met en évidence une anticorrélation entre les détections sur les deux voies de sortie du biprisme de Fresnel. Ce résultat ne peut s‟interpréter qu‟en considérant l‟image d‟une particule indivisible, choisissant un des deux chemins de l‟interféromètre, mais jamais les deux à la fois.

39

Dans la deuxième expérience, la figure d‟interférence enregistrée ne peut se comprendre qu‟en considérant une onde, se divisant pour moitié sur le biprisme de Fresnel, se propageant suivant les deux chemins de l‟interféromètre, pour finalement se recombiner dans le plan d‟observation où la caméra CCD est positionnée. La différence de chemin optique entre les deux chemins conduit alors au phénomène d‟interférence.

Ainsi, la lumière révèle des comportements classiques incompatibles suivant la nature de l‟expérience réalisée. Expérience à choix retardé de Wheeler

Dans cette section nous allons reprendre les expériences réalisées par P. Grangier et A. Aspec en 1982, basées sur les travaux de J. A. Wheeler, pour démontrer le phénomène de la dualité d‟un rayonnement. Ces expériences sont établies à partir de deux circuits optiques décrits si-dessous.

La première expérience consiste à envoyer des photons un par un sur une lame semi- réfléchissante. ils sont alors soit réfléchis, soit transmis, ce qui est détecté par les deux capteurs P1 et P2.

Figure 13: Circuit optique montrant l’aspect corpusculaire d’une particule

Dans la seconde expérience, on remplace les détecteurs par un sytème dit d‟interféromètre de Mach-Zehnder, constitué de deux miroirs et de deux miroirs semi-réfléchissants. Le faisceau de lumière cohérente projeté sur la lame semi-réfléchissante est divisé en deux faisceaux. Puis ces deux faisceaux sont recombinés à l‟aide d‟une autre lame semi- réfléchissante. Ils vont donc pouvoir interférer entre eux.

40

Figure 14: Circuit optique montrant l’aspect ondulatoire d’une particule Lors de la première expérience, le photon passe soit d’un coté soit de l’autre.

Lors de la deuxième expérience, on observe quelque chose qui est passé des deux coté à la fois. On a donc bien une dualité onde/particule.

Or, selon la méthode de penser de Bohr, on ne peut pas réaliser simultanément les deux expériences sur le même photon. On lui pose soit la première question : par quel coté passes- tu ? Soit la deuxième question : est ce que tu interfères et donc passes tu des deux cotés à la fois ?

Si l‟on se réfère aux ouvrages de Bohr, ce qui crée la réalité physique du système, ce n‟est pas une qualité intrinsèque au photon, mais l‟appareil de mesure lui même. Selon Bohr, le photon émis prendra un aspect corpusculaire si on lui demande de se comporter comme une particule ou un aspect ondulatoire si on lui demande de se comporter comme une onde.

Intervient alors Wheeler qui se demande ce qui se passerait si la mesure était effectuée après le passage du photon dans la lame semi-réfléchissante. En effet le photon ne sait pas encore laquelle des deux questions va lui être posée. Wheeler va proposer le schéma suivant

41

Figure 15: Expérience de pensée de l’argument EPR

Dans ce circuit optique on choisit de mettre ou d‟enlever la lame semi-réfléchissante après que le photon soit passé dans la première lame.

2. Expérience à choix retardé

Cette expérience a été réalisée à l‟institut d‟optique avec un dispositif plus complexe.

Figure 16: Expérience de pensée de l’argument EPR

L‟expérience de choix retardé est réalisée en choisissant de manière aléatoire la tension appliquée à l‟EOM 1, correspondant au choix aléatoire entre la configuration ouverte ou fermée de l‟interféromètre, et en filtrant la photoluminescence des centres colorés NV pour optimiser le contraste des interférences. Pour chaque photon envoyé dans l‟interféromètre, le résultat du tirage aléatoire est enregistré ainsi que la poten- tielle détection d‟un photon par les 42

détecteurs D1 et D2 positionnés sur les voies de sortie de l‟interféromètre. Pour piloter l‟expérience et enregistrer les données, un programme permet d‟une part de contrôler la tension appliquée au PZT 2, qui contrôle la différence de chemin optique entre les deux bras de l‟interféromètre, et d‟autre part de lire les informations enregistrées sur la carte d‟acquisition. La tension appliquée au PZT est modifiée pas à pas, avec un pas typique de l‟ordre de 0.5 V qui correspond à une modification de la diffé- rence de marche d‟environ 40 nm. La durée d‟enregistrement est fixée à 1.9 s pour chaque position du PZT, correspondant à la détection d‟environ 2000 photons. Toutes les données sont sauvegardées en temps réel et sont traitées à la fin de l‟expérience. Pour chaque position du PZT, le programme trie alors les événements correspondant à chacune des deux configurations de l‟interféromètre, faisant alors apparaître les résultats. Pour les événements correspondant à la configuration fermée de l‟interféromètre, nous observons un phénomène d‟interférence avec un contraste C = 94 1%, dont l‟écart à l‟unité est attribué à un recouvrement imparfait des fronts d‟onde associés aux deux chemins d‟interférence.

Figure 17: Résultat final de l’expérience de choix retardé.

43

(a)-Lorsque la tension demi-onde Vπ est appliquée aléatoirement à l‟EOM, un phénomène d‟interférence avec un contraste de 94 1% est obtenu. (b)- Lorsqu‟une tension nulle est appliquée à l‟EOM, les interférences disparaissent, correspondant à une parfaite détermination du chemin suivi par le photon dans l‟interféromètre. Les résultats de l‟expérience de choix retardé illustrent la nécessité de considérer l‟objet quantique d‟étude et l‟appareil de mesure comme une seule et même entité. En particulier, le comportement d‟un état de lumière à un photon dans un interféromètre dépend du choix de la configuration de mesure, même lorsque ce choix est réalisé aléatoirement. Ainsi, aucune réalité physique classique ne saurait être attribuée au photon indépendamment de l‟appareil de mesure, comme le stipule le principe de complémentarité. Comme le souligne Niels Bohr, « it obviously can make no difference as regards observable effects obtainable by a definite experimental arrangement, whether our plans of constructing or handling the instrument are fixed beforehand or whether we prefer to postpone the completion of our planning until a later moment when the particle is already on its way from one instrument to another ». Cependant, il n‟est pas possible de considérer que l‟état de lumière en entrée de l‟interféromètre adapte sa nature ondulatoire ou corpusculaire en fonction du dispositif expérimental de mesure. Pour expliquer les résultats de l‟expérience du choix retardé, il est nécessaire de considérer que l‟état de lumière se comporte simultanément comme une onde et une particule, bien que ces deux images classiques ne soient pas en accord.

Définition (Complémentarité selon Niels Bohr). Peu importe à quel point les phénomènes quantiques transcendent les explications de la physique classique, il n’en demeure pas moins que les descriptions que l’on en fera devront être données en termes classiques. L’argument est, simplement, que par « expérience » nous entendons une situation dans laquelle nous pouvons décrire aux autres ce que nous avons fait et appris ; par conséquent, la description des dispositifs expérimentaux et les résultats des observations doivent être exprimés dans un langage sans ambiguïté, applicable dans la terminologie de la physique classique. Ce point crucial entraîne l’impossibilité de toute séparation tranchée entre le comportement des objets atomiques et l’intéraction avec les instruments de mesure qui servent à définir les conditions dans lesquelles ces phénomènes apparaissent. 44

la deuxième Révolution quantique: l'intrication quantique

45

I. Paradoxe EPR, inégalité de Bell et les expériences d'Alain Aspect

Source (11)

EPR : Eistein, Podolsky et Rosen ont été les premiers à souligner le caractère paradoxal de l‟intrication. C‟est dans leur article de 1935, qu‟ils utiliseront ce principe pour montrer l‟opposition entre la mécanique quantique et la théorie réaliste de la localité du monde physique appelé paradoxe EPR.

1. Le Paradoxe EPR

En 1935, Einstein, Podolsky et Rosen mettent en avant une caractéristique de la mécanique quantique qui montre que cette théorie ne peut pas constituer une description parfaite du monde physique. C‟est l‟indéterminisme fondamental de la Mécanique Quantique, 2 qui sera à l‟origine du paradoxe EPR

Une bonne partie de sa vie, Einstein n'a cessé d'essayer de mettre la physique quantique en faute. Il critiquait en particulier le concept d‟intrication quantique, selon lequel l‟état de particules peut être lié quelle que soit la distance qui les sépare. En 1935, avec Boris Podolsky et Nathan Rosen, il a formulé ses objections sous forme d‟un paradoxe, aujourd'hui nommé paradoxe EPR. Selon ces trois physiciens, l‟intrication quantique implique qu‟il existe entre deux particules intriquées des interactions qui se propagent plus vite que la lumière. La seule façon d‟éviter ce conflit avec la relativité restreinte est de seeupposer que la physique quantique décrit la réalité de façon incomplète et qu‟il existe des « variables cachées », inconnues des physiciens, qui donnent l‟illusion de l‟intrication quantique. Pour le physicien danois Niels Bohr, principal contradicteur d‟Einstein, il n‟y a pas de conflit avec la relativité restreinte car l‟intrication quantique est un phénomène non local : il ne dépend pas des positions des particules dans l‟espace ; un système intriqué forme un tout dont on ne peut pas décrire séparément les composants. De nombreuses expériences ont été conçues pour confirmer la non-localité de l‟intrication. Mais toutes comportent de subtiles failles logiques, ou échappatoires. Une équipe menée par Ronald Hanson, de l‟université de Delft aux Pays- 46

Bas, a enfin conçu une expérience sans faille qui confirme la réalité de l‟intrication quantique.

Revenons d'abord sur la notion d'intrication quantique. En physique quantique, l‟état d‟une particule est décrit par une « fonction d‟onde ». Celle-ci décrit par exemple le spin de la particule (son moment cinétique intrinsèque). La fonction d'onde correspond à une superposition d'états. Le spin (que l‟on peut se représenter comme une petite flèche attachée à la particule) est ainsi une somme des états « vers le haut » et « vers le bas ». Lorsqu'on mesure l‟orientation du spin, la fonction d‟onde est modifiée (ou « réduite »), la superposition d'états disparait et le spin observé prend, de façon aléatoire, la valeur « haut » ou la valeur « bas », comme on s‟y attend pour un objet usuel.

Des particules forment un système intriqué lorsque leurs états sont liés, et ce même si elles sont éloignées les unes des autres. Que se passe-t-il lors de la mesure dans un système intriqué ? Considérons par exemple un système intriqué formé de deux particules dont les spins sont toujours opposés. Le spin de chaque particule est une superposition indeterminée des états haut et bas. Lorsque l‟on mesure le spin de la première particule, sa fonction d‟onde est réduite et on obtient une valeur de spin de façon aléatoire. Instantanément, l'orientation du spin de la seconde particule prend l‟état opposé, même si les particules sont trop éloignées l‟une de l‟autre pour avoir le temps d‟échanger une information (à la vitesse de la lumière). L‟intrication peut être vue comme une généralisation de la superposition d‟états à plusieurs particules.

Qui a raison, Bohr ou Einstein ?

Pour Einstein, cette transmission d'information plus rapide que la lumière est inacceptable: il doit exister des variables cachées pré-établies qui portent l‟information de l‟issue de la mesure et qui donnent l‟impression d‟une communication immédiate. Le débat en reste là jusqu‟en 1964. Cette année là, le physicien nord-irlandais John Bell propose le principe d‟une expérience qui permet de résoudre le problème. Il formalise la question par des inégalités, dites de Bell, qui sont évaluées au cours de l‟expérience. Si l‟inégalité n‟est pas respectée, alors le résultat de l‟expérience ne peut pas être expliqué par l'existence de variables cachées, et il faut se résoudre à admettre le caractère non local de la nature.

47

En 1982, l‟équipe d‟Alain Aspect, de l‟Institut d‟optique, à Orsay, met au point une expérience pour vérifier les inégalités de Bell. Dans le dispositif, des paires de photons intriqués sont produites, puis chacun des photon d‟une paire est dirigé vers un détecteur pour mesurer sa polarisation. Les deux instruments sont suffisamment éloignés l‟un de l‟autre pour éviter qu'une communication à la vitesse de la lumière puisse fausser le résultat de la mesure (On parle d'échappatoire de communication, ou échappatoire de localité).

Alain Aspect et ses collègues montrent que, les inégalités de Bell sont violées, confirmant ainsi le caractère non local de la physique quantique. Cependant, cette expérience souffre d‟une « échappatoire de détection ». Les photons sont en effet facilement absorbés durant leur trajet et tous ne sont pas détectés. On peut imaginer que les photons détectés violent les inégalités de Bell, mais que ce n'est pas le cas pour l'ensemble des photons émis. Pour pouvoir tirer une conclusion de l'expérience, il faut faire l‟hypothèse que l'échantillonnage des photons observés est représentatif des photons émis. Cette échappatoire est difficile à maîtriser.

L’argument EPR

Nous allons nous intéresser à la présentation de l‟argument EPR présenté par David Bohm en 1952.

Figure 18: Expérience de pensée de l’argument EPR

Deux photons v1 et v1 sont émis par la même source. On mesure la polarisation de v1 − selon l‟orientation de a et la polarisation de v2 selon l‟orientation− b. La mesure donne− le résultat, soit +1 soit 1. Si on répète N fois l‟opération, on peut calculer la probabilité de trouver +1 ou -1 pour la source v1 et +1 ou -1 pour la source v2 48

Supposons que l‟on prépare deux particules 1 et 2, dans un état intriqué (ou EPR), on peut donc écrire l‟état du système dans la base de polarisation (|x) ; (|x)) :

Nous allons calculer la probabilité jointe P++ que le photon d‟Alice soit +1 pour la direction aˆ et celui de Bob +1 pour la direction ˆb. Nous nous intéressons au cas où aˆ et ˆb ont des orientations arbitraires. Nous pouvons utiliser l‟invariance par rotation de |Φ) pour choisir aˆ parallèle à l‟axe Ox, tandis que l‟angle entre Ox et ˆb est égal à θ. L‟état |x, θ) obtenu à partir de |x) par une rotation de θ autour de Oz est :

|x, θ) = cos θ |x) + sin θ |y)

et le produit tensoriel |x) ⊗ |x, θ) vaut :

|xx, θ) = cos θ |xx) + sin θ |xy)

L‟amplitude de probabilité est donnée par le produit scalaire 1

d‟ou la probabilité

Enfin par symétrie, nous pouvons déduire de cette équation:

Quand on calcule les probabilités d‟observer +1 ou −1 on trouve,

49

Quel que soit l‟orientation de a ou de b. Les photons apparaissent donc comme non polarisés.

Mais quand on regarde les probabilités conjointes

Ce qui veut dire que si l‟on met les deux polariseurs parallèles c‟est à dire avec un angle nul, on obtient :

Il y a donc correlation parfaite.

Il est important de noter que ce résultat se généralise à toutes situations de mesure en I et II selon le même axe. Si on prend un axe quelconque α, les mesures sont effectués sur a = b = x. L‟état quantique s‟écrit dans la base propre des observables Sˆaα; Sˆbα en utilisant :

Il y aura toujours corrélation parfaite quelque soit la base choisie.

Essayons d‟imager cette l‟expérience de pensée de l‟argument EPR en supposant que l‟on dispose de deux cartes, l‟une rouge, l‟autre jaune, et qu‟on les place chacune dans une enveloppes. Après avoir mélangé les enveloppe, on en donne une à Alice et une l‟autre à Bob. Quand Alice ouvre son enveloppe, elle découvre la couleur de sa carte : jaune avec une probabilité 1/2 où rouge avec une probabilité 1/2. Il y a évidemment une anti-corrélation parfaite avec le résultat ultérieur de Bob : si la carte d‟Alice est rouge, celle de Bob est jaune et réciproquement. Il n‟apparaît aucun paradoxe dans ces corrélations : la couleur de la carte

50

d‟Alice et celle de la carte de Bob sont tirées au sort au moment du mélange des enveloppes et ce n‟est pas le fait qu‟Alice prenne connaissance de la couleur de sa carte qui détermine la couleur de la carte de Bob. Ce point est au cœur d‟une phrase clé de l‟article EPR : "Lorsque sans perturber en quoi que ce soit un système, nous pouvons prédire avec certitude la valeur d‟une quantité physique, alors il existe un élément de réalité physique correspondant à cette quantité physique"

Selon l‟argument EPR, il y a un élément de réalité physique associé à la composante Sb puisque, sans modifier la particule b, on peut obtenir sa valeur selon la composante Sb. Pour cela, il suffit de demander à Alice de mesurer− son système suivant la composant Sa et de dire à Bob son résultat. Comme il y a anti- correlation, si Alice trouve +1, alors Bob trouvera 1. Nous pouvons étendre notre raisonnement. En effet, s‟il existe un élément de réalité physique

à la composante Sbx on peut également en associer un a à la composante Sby. Bob peut alors, après mesure sur la composante Sbx, déterminer la composante Sby sans toucher à la particule b. Il suffit de demander à Alice de mesurer la composante Say. Or, ce raisonnement est contraire aux principes de la mécanique quantique. Si les particules a et b sont dans un état intriqué, on ne peut pas dire que l‟on ne touche pas à b quand on effectue une mesure de a car notre système est bien a + b. Le raisonnement EPR pourrait s‟appliquer pour des états factorisés, mais il n‟y aurait plus de paradoxe, car il n‟y aurait plus d‟anti-corrélation entre les deux particules.

Deux positions se font faces, la description quantique, avec la non-localité paradoxale : les deux particules a et b, même éloignées l‟une de l‟autre, n‟ont pas de réalité individuelle si leur

état de spin est un état intriqué. Ce n‟est qu‟après qu‟Alice ait mesuré Sa que la quantité Sb a acquit une valeur déterminée. Einstein espère que l‟on trouvera un jour une théorie plus « complète » que la mécanique quantique, dans laquelle la notion de localité auras le même sens qu‟en mécanique classique.

51

2. Inégalité de Bell

John Bell, physicien irlandais, est à l‟origine de la "percée théorique" en 1964, qui amènera le débat de la physique quantique sur les bancs de l‟expérimentation. Nous allons nous intéresser dans cette partie au raisonnement suivi par Bell qui est formulé ainsi : Si la super-théorie d‟Einstein existe, elle fournira, pour chaque paire (a,b) du problème EPR, un paramètre λ qui déterminera entièrement le résultat de la mesure d‟Alice et de celle de Bob. Pour l‟instant, nous ignorons tout du paramètre λ (variable cachée).

Soit λ appartenant à l‟espace Λ, il doit exister une fonction

Pour Bob, donnant le résultat de la mesure sur I et II.

Introduisons l‟espérance E (a, b) une fonction de corrélation qui est égale à la valeur moyenne du produit des résultats d‟Alice et de Bob, pour les directions d‟analyse a et b données.

On remarque que :

|E (a, b)| ≤ 1.

52

53

Cette inégalité peut être violée par les prévisions de la mécanique quantique. Dans le cadre de la prédiction de la mécanique quantique on a : EMQ (a, b) = 1 2 2 cos2 θ − 2 sin2 θ = cos 2θ Faisons maintenant le choix suivant pour l‟axe des deux mesures : aˆ est parallèle à xˆ, ˆb fait un angle de − π 8 avec xˆ, aˆ 0 un angle de π 4 et ˆb un angle de π 8.

Les différentes valeurs moyennes dont données par : E (a, b) = E (a 0 , b) = E (a 0 , b0 ) = 1 √ 2 E (a, b0 ) = − 1 √ 2 La combinaison S de ces valeurs moyennes vaut 2 √ 2 en mécanique quantique S = E (a, b) − E (a, b0 ) + E (a 0 , b) + E (a 0 , b0 ) = 2√ 2 SMQ = 2√ 2 = 2.828... > 2 33– Choix des orientations qui viole le borne S de la mécanique classique On peut montrer que le choix des orientations donne la valeur maximale de S. Cette valeur viole la borne S < 2 prévue en mécanique classique. La mécanique quantique est donc incompatible avec les inégalités de Bell, et donc avec l‟hypothèse de réalisme local.

Cette inégalité peut être violée par les prévisions de la mécanique quantique.

Remarque : C‟est l‟équipe d‟Aspect, Dalibard et Roger qui apportera les preuves expérimentales permet- tant d‟éclaircir ce débat.

3. Les expériences d'Aain aspect (12)

Introduction

Les expériences menées en 1981 et 1982 par l‟équipe du physicien français Alain Aspect ont joué un rôle majeur dans l‟interprétation de la mécanique quantique. En utilisant un montage qui était composé des dernières technologies de l‟époque, l‟équipe de l‟Université Paris-Sud a démontré de façon très convaincante que les inégalités de Bell peuvent être violées, tranchant un débat vieux de 50 ans. Ce texte commence par une brève description du contexte qui a amené Aspect à mettre au point ses célèbres expériences. Nous allons discuter de l‟expérience de la pensée sur laquelle Aspect s‟est inspiré. Viendra ensuite une description complète de deux expériences comprenant les hypothèses à vérifier, les conditions expérimentales et les résultats.

54

Contexte

La mécanique quantique est une théorie qui a permis d‟expliquer un très grand nombre de phénomènes. Il n‟existe aucune situation de conflit majeur entre ses prédictions et l‟expérience. Cependant, son caractère probabiliste a été critiqué pendant plusieurs années. Einstein et d‟autres physiciens après lui en vinrent à supposer que la fonction d‟onde nesoit pas une description complète d‟un état quantique, mais qu‟il existe des variables cachées. C‟est en 1935 qu'Einstein, Podolsky et Rosen publient ce qu‟ils espéraient être l‟argument prouvant que la mécanique quantique est une théorie incomplète: le paradoxe EPR. Pour les physiciens de l‟époque, être d‟accord avec Einstein ou avec Bohr était simplement une question individuelle ou philosophique car aucune expérience ne permettait de trancher entre les deux écoles de pensée. Les théories à variables cachées avaient été construites pour redonner les mêmes résultats expérimentaux que la mécanique quantique. En 1964, John Bell a démontré que le seul fait de supposer qu‟il existe des variables cachées conduit à faire des prévisions (vérifiables expérimentalement) contraires à la mécanique quantique. Ces prévisions, développées avec un minimum d‟hypothèses ont conduit à des équations que l‟on nomme les inégalités de Bell. Les premières expériences mises au point pour vérifier ces inégalités ont été effectuées en 1972 par John F. Clauser et Stuart J. Freedman au laboratoire Lawrence Livermore en Californie. Ces tests ont démontré que certaines formes des inégalités de Bell étaient violées. Cependant, ce groupe de chercheurs a dû faire quelques extrapolations de données car la technologie disponible à cette époque ne leur permettait aucune mesure directe. Ces expériences n‟ont pas convaincu les ardents supporteurs des théories à variables cachées. En 1981-1982, Alain Aspect, Philippe Grangier, Gérard Roger et Jean Dalibard à l‟Institut d‟Optique théorique et Appliquée, Université Paris-Sud à Orsay ont réussi à montrer l‟existence de situations qui violent les inégalités de Bell, réfutant ainsi toutes théories à variables cachées et prouvant que la nature se comporte conformément aux prédictions de la mécanique quantique.

55

Description générale des expériences d’Aspect

Les expériences d‟Aspect consistent à mesurer la polarisation de deux photons émis simultanément. Les photons sont émis à partir de transitions électroniques entre états de même moment orbital et de même spin (nous allons revenir sur les détails des ces transitions plus loin). Par la règle de conservation du moment angulaire total, un système qui est composé des deux photons émis doit nécessairement avoir un moment angulaire total nul.

Les photons ont un spin s=1 et un spin magnétique ms=±1 que l‟on peut associer à un état de polarisation circulaire gauche et droite. On obtient un moment angulaire total nul seulement si la polarisation des deux photons est circulaire et de sens opposé. Voici un premier schéma qui illustre le principe d‟une expérience imaginée par David Bohm en 1951 :

(1)

Figure 19: Un premier montage expérimental imaginé pour tester le paradoxe EPR

Le montage expérimental de la figure est utilisé pour mesurer non pas la polarisation circulaire mais la polarisation verticale et horizontale des photons. La détection du photon A dans un état de polarisation verticale implique que le photon B doit être aussi dans un état de polarisation verticale parce que le moment angulaire total doit être nul. On dit que les deux photons sont en corrélation parfaite. On peut donc prédire avec certitude les polarisations verticales et horizontales de la particule B à partir des mesures prisent sur la particule A. Il a deux façons de voir cette expérience. Selon l‟école de Copenhague, on connaît seulement la probabilité qu‟un photon soit détecté dans un état de polarisation donné. La direction de polarisation du photon n‟est pas prédéterminée par une propriété qu‟il possède avant la mesure. Tandis que selon Einstein, le comportement de la polarisation de chaque photon est bien défini, étant gouverné par une variable cachée.

56

Contraintes expérimentales

Lorsque l‟on procède à de telles expériences en réalité, il y a de nombreuses limites expérimentales. En particulier, l‟incertitude liée à la mesure de la polarisation est toujours présente. Lorsque cette incertitude a comme effet d‟empêcher l‟expérimentateur d‟être capable de mesurer une corrélation en dessous du maximum permis par les inégalités de Bell, l‟expérience n‟est pas conclusive.

Il y a plusieurs raisons qui font que les analyseurs de polarisation ne sont pas parfaits. Premièrement, ce ne sont pas tous les photons incidents sur l‟analyseur qui sont transmis par celui-ci. Il peut arriver à l‟occasion qu‟il ai des photons polarisés verticalement qui passent dans le canal horizontal et vice-versa. Les caractéristiques de transmission d‟un analyseur peuvent dépendre de la polarisation des photons. Une autre raison est que les photomultiplicateurs ne sont pas très efficaces pour produire un signal mesurable à partir d‟un nombre limité de photons. Finalement, les analyseurs doivent être de taille finie, ce qui implique qu‟ils ne peuvent pas attraper tous les photons émis par la source. Ces limitations ont pendant longtemps empêché la tenue d‟expériences conclusives servant à confirmer ou à infirmer le théorème de Bell.

Tous ces problèmes ont été surmontés grâce à une équipe de chercheurs qui a généralisé les inégalités de Bell. En 1969, John F. Clauser, Michael A. Horne, Abner Shimony et Richard A. Holt publient dans le Physical Review Letters une version des inégalités de Bell qui n‟implique pas une parfaite corrélation entre les photons. Cette version est donc beaucoup plus facile à vérifier expérimentalement. Notons E(a,b) la valeur propre de l‟opérateur qui consiste à mesurer l‟état de polarisation du système (deux photons) lorsque les analyseurs 1 et 2 sont orientés selon l‟axe a et b respectivement.

E(a,b) = P++(a,b) - P+-(a,b) - P-+(a,b) + P--(a,b) = cos2(b - a) (1)

Le terme P++(a,b) désigne la probabilité que les deux photons soient polarisés horizontalement lorsque l‟orientation relative entre les deux analyseurs est de (b - a). En utilisant quatre orientations possibles (a,b,c et d) pour les analyseurs de polarisation, la généralisation des inégalités de Bell peut s‟écrire sous la forme :

57

S = E (a,b) - E(a,d)  + E(c,b) - E(c,d)  ≤ 2 (2) Cette inégalité est très intéressante car elle peut s‟appliquer sur une expérience non- idéale. Il est important de noter que les variables cachées sont fixées lorsque les deux photons sont émis mais que cet aspect n‟est pas pris en compte dans la dérivation de S. La seule hypothèse qui est faite est qu‟une mesure sur le photon A n‟affecte pas le résultat d‟une mesure prise sur le photon B (hypothèse de localité). L‟équation sera valide s‟il n‟existe aucune communication entre les deux photons lorsqu‟une mesure est prise sur l‟un d‟eux. Les mesures doivent donc être prises à une distance suffisamment grande pour que la communication entre les deux photons implique une vitesse plus grande que celle de la lumière. Les gens qui ne croyaient pas à la mécanique quantique suspectaient que l‟interprétation de Copenhague conduit nécessairement à une violation des postulats de la relativité restreinte. Pendant plusieurs années, beaucoup de recherches ont été faites sur la perfection d‟appareils afin d‟être capable de prendre des mesures sur des paires de particules corrélées. Plus particulièrement, Carl A. Kocher et Eugene D. Commins en 1966 utilisaient un état excité de calcium pour étudier la corrélation entre la polarisation linéaire des photons émis mais il n‟ont jamais abouti à des résultats significatifs. Les premiers tests directs ont été faits en 1972 par Stuart Freedman et John F. Clauser. Test expérimental des inégalités de Bell Si l‟on utilise de la lumière pour exciter l‟atome de calcium, le photon qui est absorbé amène une unité de moment angulaire à l‟atome. Ce surplus de quantité de mouvement ne peut prendre la forme de spin sur un électron car la cette valeur est fixée à ±1/2 (hbarre). Un 1 11 électron sera donc promu à un niveau avec L=1 (4s 4p S0). On peut aussi penser à un état 1 doublement excité avec les 2 électrons dans le niveau 4p (4p2 S0). Lorsque cet état est produit en laboratoire, il entraîne une émission en cascade en passant par l‟état métastable 1 11 4s 4p P1. Deux photons sont alors émis et puisque que le nombre quantique J passe de 0 à 1 et revient ensuite à 0, le moment angulaire total du système est nul. C‟est cette dernière propriété qui est d‟une importance cruciale pour les expériences d‟Aspect : les photons sont en corrélation ce qui implique qu‟ils sont émis dans un état de polarisation opposé l‟un à l‟autre.

58

(1)

Figure 20: Transitions électroniques dans le calcium.

Pour exciter des atomes de calcium, l‟équipe d‟Aspect a utilisé deux faisceaux laser de haute puissance à une longueur d‟onde de 406nm et 581nm. La forte intensité des faisceaux a permis d‟obtenir des transmissions en cascade qui sont très peu probables autrement. Le calcium utilisé était sous forme d‟un faisceau atomique d‟une densité d‟environ 3 x 1010 atomes/cm3. Cette faible densité assure les expérimentateurs qu‟il n‟y a aucune collision entre les atomes de calcium, ce qui pourrait entraîner une excitation non-voulue. Aussi, cette faible densité empêche que la lumière émise soit réabsorbée par l‟état fondamental de l‟atome.

La figure illustre la première version des expériences d‟Aspect. De la lumière est émis dans deux directions opposées à partir d‟une source composée de deux faisceaux laser ainsi que d‟un faisceau atomique de calcium. Deux filtres sont installés autour de la source afin d‟isoler les photons A (551.3nm) à droite et les photons B (422.7nm) à gauche. Aspect et ses collègues ont utilisé deux analyseurs de polarisation séparés par une distance de 13m. Ces analyseurs étaient ce qu‟on appelle des cubes de polarisation, fabriqués en collant deux prismes (diélectriques) l‟un contre l‟autre. L‟avantage d‟utiliser ces cubes est que ceux-ci transmettent dans le plan d‟incidence, la lumière qui est polarisée verticalement et la lumière polarisée horizontalement est réfléchie. De cette façon, on arrive à séparer les composantes de la lumière provenant de la source avant qu‟elles arrivent aux photomultiplicateurs. Dans le montage, il y a quatre photomultiplicateurs qui envoient une impulsion chaque fois qu‟ils détectent un photon. Ces impulsions sont envoyées dans un circuit qui sert à enregistrer les coïncidences. Puisque la transmission des photons dans les cubes n‟est pas parfaite, l‟équipe

59

d'Orsay l‟a mesuré pour ceux polarisés verticalement ainsi que pour ceux polarisés horizontalement.

(1)

Figure 21: Schéma du montage tel qu’utilisé par Aspect en 1981

Il était important pour les chercheurs d‟être en mesure de faire l‟expérience avec différentes orientations relatives de polarisation. C‟est pourquoi chaque analyseur de polarisation a été monté de façon à ce qu‟une rotation autour d‟un axe soit possible. Le circuit a été conçu pour compter les coïncidences (arrivées d‟un photon A et d‟un photon B) qui ont lieu dans une fenêtre de 20ns. Donc pour être compté comme une coïncidence, le temps qui sépare l‟arrivée des deux photons au détecteur doit être inférieur à 20ns. C‟est ici qu‟arrive un aspect très important de l‟expérience : un signal qui part d‟un photon A vers un photon B doit traverser une distance de 13m. Si ce signal voyage à une vitesse qui est inférieure ou égale à la vitesse de la lumière, il prendra au minimum 40ns pour passer d‟un cube à l‟autre. Puisque le circuit a une fenêtre de 20ns, toute communication entre les deux photons qui ne violent pas la théorie de la relativité restreinte est impossible.

60

Résultats expérimentaux et interprétation

Les résultats obtenus par Aspect sont des mesures du taux de coïncidence. Si le premier analyseur de polarisation (AP1) est orienté selon a et que le deuxième (AP2) est orienté selon b, ces taux sont notés R++(a,b), R-+(a,b), R+-(a,b), R--(a,b) (ici les indices + et – font référence à une polarisation horizontale et verticale). Les résultats montrent une variation du taux allant de 0 à 40 coïncidences par seconde. Ce taux dépend de l‟orientation relative entre les deux analyseurs. Ils ont donc utilisé ces résultats pour obtenir une valeur expérimentale de E (a,b) :

(3)

L‟équipe d'Aspect a fait la mesure de cette valeur propre pour sept orientations relatives entre les analyseurs et voici les résultats qu‟ils ont obtenus :

(3)

Figure 22: Résultats des mesures de E (a,b) pour sept orientations relatives entre les deux analyseurs de polarisation. (Aspect et al. (1982) Physical Review Letters).

La valeur prédite par la mécanique quantique est E (a,b) = cos2(b – a). Pour ajuster cette valeur à la réalité des observations expérimentales, il faut tenir compte de la limite des appareils. Tenant compte de ces limites, la valeur de E (a,b) prédite par la mécanique quantique est :

61

(4)

Les termes T sont les coefficients de transmission des analyseurs de polarisation. Le terme F tient compte du fait que ce n‟est pas tous les photons qui sont détectés. Pour leur montage, ils ont calculé que F = 0.984.

L‟équipe d‟Alain Aspect a fait quatre séries de mesures avec différentes orientations des analyseurs de polarisation. La quantité Sexp a été définie comme suit :

Sexp = { E(a,b) - E(a,d)  + E(c,b) - (5) E(c,d) }exp

Les mesures expérimentales ont donné Sexp= 2.697 ± 0.015, ce qui représente une violation de l‟inégalité de Bell (équation 2). En utilisant la mécanique quantique et en tenant compte des limites du montage (équation 1 et 4) on calcule S = 2.70 ± 0.05.

Ce résultat démontre que l‟expérience d‟Aspect donne un résultat qui est en accord avec la mécanique quantique. Est-ce la fin des théories locales à variables cachées? Non, car il reste un argument de taille aux ardents défenseurs de ces théories. Les analyseurs de polarisation sont mis en place et ajustés avant que les deux photons soient émis. Est-ce que les photons pourraient être influencés d‟une quelconque façon par l‟orientation relative entre les deux analyseurs de polarisation? Si une telle influence existe, il est possible qu‟une variable cachée s‟assure que les photons soient émis avec les bonnes propriétés physiques afin de reproduire les résultats de la mécanique quantique.

Test expérimental des inégalités de Bell avec analyseurs dépendant du temps

Pour vérifier cette dernière interrogation, Aspect et ses collègues ont monté une expérience dans laquelle le chemin que prennent les photons n‟est pas déterminé à l‟avance. La figure montre les principales composantes de ce montage.

62

(3)

Figure 23: Schéma du montage expérimental tel qu’utilisé par Aspect et ses collègues en 1982.

La principale modification qui est apportée par rapport à l‟expérience précédente est qu‟avant d‟arriver dans les cubes de polarisation, la lumière passe dans une composante qui modifie son parcours. Elle va donc se retrouver sur un des deux analyseurs (tous orientés différemment). La composante du montage qui dicte le chemin des photons est un système acousto-optique. Il s‟agit d‟un petit volume rempli d‟eau dans lequel traverse une onde ultrason. Cette onde change l‟indice de réfraction de l‟eau et par conséquent, le chemin que prend le photon est modifié. La fréquence utilisée par Aspect faisait en sorte que les photons passaient d‟un chemin à un autre à tous les 10ns. Ceci a le même effet que changer l‟axe de rotation des analyseurs à tous les 10ns.

Le montage présenté à la figure a été très difficile à opérer. Les physiciens français pouvaient seulement mesurer la polarisation de la lumière transmise par les cubes, lumière qui correspond à la polarisation verticale (+). Heureusement, une version des inégalités de Bell avait déjà été obtenue en 1969 (John F. Clauser, Michael A. Horne, Abner Shimony et Richard A. Holt) pour ce type d‟expérience. la seule quantité mesurable (puisque seulement les photons transmis sont détectés) est P++(a,b). Afin de contourner ce problème, on considère l‟analyseur de polarisation AP2 comme étant retiré du montage. Pour traiter 63

mathématiquement cette situation en remplacent le symbole b par ¥. Le fait d‟enlever AP2 ne doit rien changer pour les photons A et B. On peut écrire les probabilités de la façon suivante:

P++(a, ) = P++(a,b) + P+-(a,b) (6.1) P++( ,b) = P++(a,b) + P-+(a,b) (6.2) P++(, ) = P++(a,b) + P+-(a,b) + P-+(a,b) + P--(a,b) (6.3) En combinant ces expressions on obtient :

E (a,b) = 4 P (a, b) - 2 P (a, ) - 2 P (,b) + P (, ) (7) ++ ++ ++ ++

L‟équation (7) permet de mesurer E (a,b) en utilisant seulement la composante transmise dans les cubes de polarisation.

Les résultats de cette nouvelle expérience sont encore une fois en accord avec la mécanique quantique. En utilisant des angles de a = 0°, b = 22.5°, c = 45° et d = 67.5°, l‟équipe d‟Aspect a obtenu Sexp= 2.404 ± 0.080, ce qui est en accord avec la valeur calculée à l‟aide de la mécanique quantique (SMQ= 2.448) et viole les inégalités de Bell d‟une façon significative (par 5 écarts-type).

Conclusion

Les expériences d‟Aspect ont montré que les inégalités de Bell peuvent être violées. Pour certains, il s‟agit d‟une preuve que la nature n‟est pas déterministe et que l‟interprétation de Copenhague est la bonne. Cependant, certains physiciens ont continué de croire aux théories de variables cachées et d‟autres expériences ont été réalisées. Leur principal argument est la suivante : dans la dernière expérience présentée, le système acousto-optique ne dicte pas le chemin que prennent les photons de façon aléatoire. Ils invoquent que les photons peuvent quand même savoir quel chemin ils prendront après être émis. Plusieurs physiciens, dont John Bell, ont toutefois avoué que les travaux d‟Aspect apportent de grandes difficultés aux théories à variables cachées. Les expériences d‟Aspect ne sont toutefois pas venues clore le grand débat de la théorie quantique.

64

4. Les expériences actuels d'intrication quantique

4.1. L’intrication quantique confirmée par une expérience de Bell sans faille

De nombreuses expériences ont testé la réalité de l‟intrication quantique et du non localité.. Une nouvelle expérience confirme la réalité de l‟intrication quantique (13).

Partie du dispositif expérimental qui héberge l'un des diamants.

Frank Auperle

En 2013, les équipes d‟Anton Zeilinger, de l‟université de Vienne, et de Paul Kwiat, de l‟université de l‟Illinois à Urbana-Champaign, ont montré qu‟il était possible de contrôler l'échappatoire de détection à l'aide de détecteurs supraconducteurs qui limitent les pertes de photons. Mais ce dispositif ne résolvait plus l‟échappatoire de communication.

Ronald Hanson et son équipe ont aujourd'hui mis au point un système qui traite les deux failles en même temps. L‟idée était déjà suggérée par John Bell: il faut ajouter un sous- système qui s‟assure que le dispositif quantique est prêt à être mesuré. L'expérience comprend deux diamants distants de près de 1,3 kilomètre, qui présentent des défauts dans leur réseau cristallin. Ces défauts agissent comme des systèmes quantiques individuels (ou « atomes artificiels ») qui possèdent un spin électronique que les chercheurs peuvent contrôler au moyen de lasers et micro-onde. On peut notamment forcer les diamants à émettre des photons intriqués avec l'état de spin du défaut cristallin. Ces photons sont ensuite guidés vers un dispositif placé entre les deux sites initiaux afin d'être détectés. En vertu de l'intrication, la mesure de la polarisation de ces photons se répercute instantanément sur les spins des défauts du diamant, même si ceux-ci sont distants de plus d'un kilomètre. La détection des photons 65

permet d‟assurer que les spins des défauts sont maintenant intriqués entre eux et que le système quantique est prêt à être mesuré. Ainsi, l‟échappatoire de détection est résolue, car la mesure des spins se fait sur les défauts cristallins et non plus sur les photons, comme dans l'expérience d'Aspect. En outre, la mesure ne sera effectuée que si les spins des défauts sont bien intriqués. Les mesures sont effectuées en moins de 4 microsecondes pour empêcher la communication entre les défauts, ce qui ferme l'échappatoire de communication. Les physiciens ont ainsi étudié 245 paires de spins de défauts au cours de cette expérience et ont confirmé que les inégalités de Bell étaient violées. Notre monde est bien non-local! (13)

4.2. Un nouveau record pour la téléportation quantique.

Récemment, une équipe chinoise vient de battre un nouveau record de distance concernant la téléportation quantique : des états quantiques ont été téléportés à 1400 kilomètres de distance. (14)

En physique quantique, deux particules intriquées forment un système unique indissociable indépendamment de la distance les séparant : c‟est l‟intrication quantique. Les deux particules sont liées l‟une à l‟autre, c‟est-à-dire que leurs états quantiques sont interdépendants. Cet effet est théorisé pour la première fois au début des années 1930 par le physicien Erwin Schrödinger, puis approfondi par les physiciens A. Einstein, B. Podolsky et N. Rosen. Les critiques de ces derniers donneront notamment naissance au paradoxe EPR.

La conséquence directe de cette indissociabilité est que lorsqu‟une mesure est effectuée sur la particule A, cette mesure est instantanément répercutée sur la particule B. En d‟autres termes, la mesure de l‟état de la particule A provoque corrélativement la mesure de l‟état de la particule B. Cependant, l‟intrication quantique ne peut en aucun cas permettre une

66

communication supra-luminique. En effet, l‟incertitude sur la mesure persiste dans l‟intrication. Même si la modification d‟état d‟une particule à l‟autre est instantanée, il est impossible de prévoir ce que donnera la mesure de A et la mesure de B. Ces résultats devront nécessairement être communiqués ultérieurement à la vitesse de la lumière.

Schéma illustrant un dispositif classique d‟intrication : un laser ultraviolet passe au travers d‟un cristal de borate de baryum. Grâce à une propriété optique particulière, lorsque ce cristal absorbe un photon du laser, il réémet au même point une paire de photons intriqués(15).

une équipe de physiciens chinois en choisissant d‟utiliser le vide de l‟espace comme milieu de propagation des photons intriqués dans le cadre de l‟expérience (16) initiée en 2016. Cette décision n‟est pas sans fondement: en 2004, des scientifiques avaient déjà démontré que l‟atmosphère terrestre constituait un milieu bien plus favorable à la propagation des photons que la fibre optique

4.3. Un cas d'intrication quantique entre trois paires de photons(17)

. Des chercheurs ont créé un système unique formé de trois paires de particules au lieu de deux.

La "non-localité", voilà l‟un des piliers fondamentaux de la mécanique quantique qui unit en système unique deux quantums d‟énergie quelle que soit la distance qui les sépare. Ce

67

concept primordial a été mis à l‟épreuve par une équipe de chercheurs de l‟Université de Genève en partenariat avec l‟Institut de Téhéran pour la recherche en sciences fondamentales (IPM). L‟étude a été publiée dans Physical Review Letters le 30 septembre 2019.

4.4. L’intrication quantique en resumé

Les particules quantiques, comme les photons, possèdent la particularité qui leur est propre de pouvoir s‟intriquer. Le principe régissant l‟intrication quantique est simple, en théorie.

deux systèmes quantiques non liés se comportent normalement indépendamment l‟un de l‟autre. Autrement dit, la valeur de l‟un n‟a aucune influence sur la valeur de l‟autre. Ces systèmes peuvent se présenter sous la forme de photons seuls ou de groupes de photons que l‟on appelle par exemple des quantums d‟énergie. Dans le cas où à un moment t ces deux quantums rentreraient en contact pour une durée limitée, il se pourrait qu‟ils deviennent "enchevêtrés", ou intriqués. Dès lors, ces derniers forment un système unique et il devient impossible de décrire les particules individuellement.

Les composants du système dépendent désormais l‟un de l‟autre de telle façon que n‟importe quelle mesure effectuée sur l‟un des quantums affecte instantanément l‟autre qui subit exactement la même modification. Cette mesure peut par exemple se résumer à changer le sens de rotation, le spin, d‟une des particules, modifiant simultanément le spin de l‟autre. Comme dans le cas des particules de couleur, il est impossible de savoir dans quel sens tournent les particules séparément, mais seulement d‟infliger une modification de rotation à une particule qui modifiera la rotation de l‟autre.

Bien que cette relation qui unit les deux éléments du système semble impliquer que ceux-ci sont physiquement liés, ou tout du moins proches, la distance entre les deux quantums d‟énergie peut s‟étendre sur plusieurs milliers de kilomètres. Deux particules quantiques intriquées sont en effet dépendantes l‟une de l‟autre quelle que soit la distance qui les sépare.

68

Physique quantique : discussion des expériences faites et simplification des équations

69

I. La première révolution : la dualité onde-particule

Le caractère ondulatoire de la matière est admis depuis l'expérience de la double fente de Thomas Young en début 19 siècle après la découvert des photons "quanta" par Einstein.

L'Expérience de Young

en 1800, à l'aide d'une célèbre expérience, Thomas Young démontra que la lumière était constitué d'ondes en raison des figures d'interférences qu'un faisceau de lumière introduit lorsqu'il passe à travers un écran percé de deux fentes , grâce à Einstein nous connaissons également la nature corpusculaire du photon c'est la dualité onde particule

l'expérience Debye-Scherrer: ces électrons traversent un poudre cristalline ils forment une figure d'interférences, les électrons se comportent comme des ondes l'expérience de Thomson: le champ magnétique courbe la trajectoire des électrons en absence de champ la trajectoire est rectiligne les électrons se comportent comme des particules.

Dans l'expérience Young : si on occultons l'une des deux fentes ou lorsque nous tenons de l'observer avec un détecteur, il se comporte comme une particule tandis qu'il se comporte comme onde quand il interfère avec lui même en passent par les deux fentes en temps.

La figure d'interférences n'appariait que lorsque le chemin de la particule est inconnue.

70

l'histoire d'électron commence par l'expérience Davison et Germer en 1927 ces derniers balancent des électrons sur une cible en Nickel et obtiennent des interférences comme une onde alors que dans des expériences précédents qu'il s'agit d'une particule.

en 1961 Jonsson réalise une expérience d'interférences des électrons avec des fentes jusqu'à là, il ne s'agit en aucun cas d'une expérience ou les électrons ou les photons étaient envoyer un par un.

à cette époque émettre des photons ou électrons un par un été difficile, par ce que est important d'emmétré un par un.

il faut attendre 1976 une publication italienne pour véritablement visualiser des électrons individuels dans une figure d'interférences.

2013

en suite pour les photons en 1986, Philipe Grangie et Alain aspect , réalisent une source capable de produire des impulsions lumineuses à un seul photon.

dans leur expériences ils ont met un système analogue au dispositif des fentes de Young , l'idée de la façon suivante:

Un seul photon passent par le prisme Fresnel, la particule de faisceau qui pas en haut est dévie vers le bas, et l'inverse, les détecteurs capable de détecté les photons un par un.

On vérifie par le détecteur de coïncidence (Nc) détecte si les photons est reçoient dans N1 en même temps que N2

Les résultats est que les photons sont détecter soit en haut soit en bas mais jamais dans des deux cotés.

71

Dans une seconde expérience le photon après le passage dans le prisme est détecté à l'aide d'une caméra CCD nous voyons la figure d'interférences (donc une onde)

Les expériences de Wheeler

Aspect Alain, Philipe Grangier, ont réussi à faire l'expérience basé sur les travaux de Wheeler, pour démontrer le phénomène de la dualité d'un rayonnement.

L'expérience consiste à envoyer des photons un par un sur une lame réfléchissante ils sont alors soit réfléchit soit transmis, ce qui est détecter par les deux capteurs P1 et P2.

la seconde expérience , on remplace les détecteurs par un système d'interféromètres de Mach Zehnder , le faisceau de lumière cohérent projeté... que la lame semi réfléchissante , ils vont donc pouvoir interférer entre eux, on observe quelque chose qui est passé des deux cotés à la fois donc une dualité onde-particule.

Je vais vous décrire pour cela les expérience qui a été faite par Philip Grangier.

Dans cette expérience ils ont envoyé de la lumière issue d'une source un peu particulière et en cela que cette expérience été intéressante , sur une lame séparatrice ( c'est un morceau de verre qui transmet une partie de la lumière et qui réfléchît une partie ) et dans un premier temps ils ont mis deux détecteurs derrière la lame séparatrice, un faisceau transmit un autre réfléchît ,les détecteurs sont peu particuliers ,ils sont extrêment sensibles et il y 'a des

72

électrons qui sont émis sous l'effet de la lumière et ces électrons compter un par un, on dit ils ont fait une détection en comptage.

Alors on a les impulsions électriques et les détecteurs qui permet de compter les impulsions électriques (ils comptent 1 million par second) et puis si la lame séparatrice à un coefficient de 50% et de réflexion 50%, nous avons le même flux lumineux d'un coté et de l'autre coté.

Jusqu'a là rien de bouleversant, si nous présentons la lumière comme une onde il n'y a pas de problème.

là ou les choses devenu surprenante, c'est qu' on a mis un compteur de coïncidence ( c'est un espèce de horloge capable de nous dire si deux détections ont lieu exactement en même temps ) alors si on a une vision ondulatoire de la lumière, on a un certain flux, on a des impulsions qui sont émise régulièrement, il n'y a pas de raison pour de temps en temps on n'est pas une coïncidence, il peut très bien arriver qu'une détection ici et là soit simultané et on sait calculer quelle est le taux de détections en coïncidences.

ce que nous avons observé avec une source très particulière qu'il n'y avait jamais aucune coïncidence , autrement dit on pouvait pas se présenter la lumière arrivait comme une espèce de flux qui se coupe en deux, et puis les détections en permanences , dans les deux cotés ,de réelle sorte que de temps en temps la détecté des deux cotés , on était obligé de se représenter la lumière comme formé des graines de photons, qui vont soit tout droit soit sont réfléchis mais ils sont pas coupés en deux, donc ils sont bien séparées dans le temps.

Cette expérience nous a montré que la source particulière qui nous avons construit (les photons un par un séparé dans le temps) émet de la lumière dont les propriétés apparaissent manifestement corpusculaire.

Dans un deuxième temps nous avons enlevé les compteurs qui étaient là et nous avons remplacé tout en gardant la même source et la même lame semi réfléchissantes, nous avons modifié l'appareil de la façon suivante : rajouté deux miroirs un première, et un deuxième

Alors combiner les deux faisceaux sur une deuxième lame semi réfléchissante (reconnaissent un interféromètre mach zihendr) si je reprend une représentation ondulatoire, 73

l'onde se coupe en deux, une partie voyage d'un coté et l'autre partie voyage de l'autre coté.

se recombinant semi réfléchissant, une onde qui va passé par le haut , une onde qui passe par le bas , les deux ondes s'ajoutent si on croit à l'image onde on va observer des interférences , on doit observer que le taux de comptage dans les deux cotés dépend de la différence entre les deux chemins , lorsque la différence du deux chemins vas être égal à une longueur d'onde , les deux ondes arrivent en les deux ondes vont arriver en phase et si je vais observer un signal, si la différence du deux chemins égale une demi longueur d'onde, les ondes arrivent en opposition de phase elles se neutralisent, on a une interférences destructive et on n'observe rien , les résultats de l'expérience : lorsque l'interférence est destructive d'un coté elle doit être constructive de l'autre coté cette expérience nous montre que la lumière qui est émis par la source se comporte bien comme une onde.

Une onde qui se propage en deux voies, de recombinent, lorsque la différence des deux chemins ...mais l'expérience précédente nous disait autre chose, il n'y avait quelque chose qui allait soit en haut soit en bas, mais jamais dans les deux cotés à la fois

La dualité onde-corpuscule.

Dans le fait que la même source et la même lame séparatrice on n'arrive pas à réconcilier les deux concepts.

En resume les expériences de Philipe Grangier .

à cette époque là émettre des photons un par un été difficile, aujourd'hui on sait produire des photons unique un par un.

Expérience de Philipe Grangier, Alain Aspect

l'enjeux dans l'expérience ,c'était de prouver qu'il y a un seul photon , l'idée est de la façon suivante:

Si j'ai un photon et un seul, il va détecter en haut on passant par le prisme Fresnel (Fresnel bi prisme interféromètre)

74

La partie de faisceau qui passe en haut est dévié vers le bas, on vérifie par le détecteur de coïncidence, si le photon soit en haut ou en bas, mais jamais des deux cotés à la fois, et on est sure que l'émetteur émis des photons un par un dans le système.

Dans le prisme si des ondes incliné ont attend une interférence, si on vient observer dans les des deux faisceaux c'est ce qu'on va observer des franges d'interférences alors de la source émis un photon.

La réponse : les signaux se détectent dans le circuit CCD (caméra) qui capable détecter les photons un par un, dont les photons arrivent ils se traduire un rouge (codage de couleur) nous voyons la figure d'interférences.

L'expérience va vérifier soit en haut soit en bas, et la deuxième partie va vérifier si ils interférent ?

Résultats: comportement ondulatoire observé par un photon unique.

_ la première : par quelle coté passe-tu ?

_ la deuxième : interfère-tu ?

Expérience à choix retardé de Wheeler:

Wheeler en 1978 " donc on décide que le photon sera arrivé par un chemin ou par les deux chemins à la fois après que le voyage sera terminer"

75

II. La deuxième révolution : l'intrication quantique

1. Le paradoxe EPR

EPR: Einstein , Podolsky et Rosen inventent ce qu'on appelle une expérience de pensée qui va plus tard devenir une réel expérience, cette expérience de pensée ils ont expliqué avec des particules matériels mais c'est un peu compliqué à comprendre dont je vais vous la présenter en la simplifier afin de tous les biologistes puissent la comprendre, je n'utilise que le minimum des mathématiques nécessaires:

la première chose que je dois vous expliquer , c'est ce qu'une mesure de polarisation ,nous avons une source de lumière qui est émis vers la droite un flux lumineux et nous admettons qu'il s'agit de photons de grains de lumière , ces photons sont peut être polarisé ( ça veut dire qu'ils vibrent soit dans le plan vertical soit dans le plan horizontal, soit dans le plan 45° circulaire) alors on mesure la polarisation d'un photon par exemple par un cristal ( capable de discriminer entre une polarisation dans différents sens) on met un dispositif, si la lumière est polarisé verticalement elle va sortir dans le rayon haut, si il est polarisé horizontalement il va sortir dans le rayon du bas, dont l'appareil permet de dire si la lumière est polarisé verticalement ou horizontalement.

Dans l'expérience on a deux photons qui sont émis, la source émis d'un coté des photons Ni1 et de l'autre coté des photons Ni2, une mesure de polarisation avec un premier analyseur de polarisation capable de séparer une polarisation verticale d'une polarisation horizontale.

76

i c'est polarisé vers le haut je trouve +1, vers le bas je trouve_1, dans l'autre coté un autre analyseur de polarisation,il ne suffit pas pour faire une expérience de type EPR de mettre n'importe quelle source de lumière, il faut avoir réussi (c'est tout l'objet du problème) à construire ce qu'on appelle un état intriqué.

Pour ceux qui n'aiment pas les mathématiques, il y'a des équations mais c'est très simple à comprendre avec des commentaires et des explications.

lorsque j'ai deux photons pourrait être polarisé tous les deux verticalement suivant la direction X dans ce cas là on dirait qu'on a fabriqué une paire XX on aurait aussi avoir émis deux photons polarisées suivant Y, on dirait qu'on a une paire YY, la chose stupéfiante qui a été reconnue par EPR, qui est autorisé par le formalisme de la mécanique quantique, c'est qu'on peut fabriquer un état intriqué de ce type qui est la superposition d'un état ou les deux sont polarisés suivant XX ou suivant YY.

on ne peut pas dire que le premier photon est comme ça et le deuxième est comme ça...., mais les deux photons sont liées de façon totalement indissoluble, et seul la polarisation de l'ensemble à un sens, c'est ce que caractérise un état intriqué, je ne peux pas plus parler des propriétés individuelles de chacun d'entre eux , bien qu'il soit entrain de s'éloigner .

EPR ont reconnu que cette état remarquable et bien si on se met à faire des mesures de polarisation on va avoir des résultats très fortement corrélé. Le moyen mathématique de calculer les probabilités d'observer le premier photon dans le canal +1 ou -1 , et le deuxième photon dans +1ou -1 est ;

la probabilité de trouver le photon +1 dans l'orientation (a) est égal à 50% et de 50% polarisé à -1, ceci indépendamment de la valeur de (a) , donc quelque soit l'orientation de polariseur je trouve 50%,50%.

La même chose pour l'autre coté (b).

les choses devient intéressante lorsque je calculera probabilité conjointe (ça veut dire quel est la probabilité de trouver +1 dans (a) et +1 dans (b).

le résultat de calcul est P++ = 1/2cos"(o)= 1/2 o est l'angle entre les deux polariseur.

77

la formule importe le point important suivant : si les deux polariseurs sont parallèle , l'angle entre (a) et (b) est zéro ,les deux polariseurs ont été règles suivant la même direction , alors :

P++ = 1/2cos"0 =1/2

ça veut dire donc que la probabilité conditionnelle de trouver +1 dans (a) lorsque j'ai trouvé +1 dans (b) est égal à 100 %, il y'a corrélation total entre les deux résultats trouvés.

on calculons P+- = 1/2 cos"0 = 0 c'est à dire probabilité de trouver +1 dans (a) et -1 dans (b) est nul..

ça veut dire lorsque le photon émis il y'a 50% de chance de le trouver en haut et 50% en bas, pour de l'autre coté c'est la même chose 50% , 50%. Mais, c'est pas aléatoirement puisque si je trouve +1 en Ni 1 je trouve +1 dans Ni 2.

voilà ce que prédisent EPR , alors maintenant si les deux polariseurs sont pas parallèle , la corrélation apparait sous forme d'une fonction qu'on appelle coefficient de corrélation et dont on peut calculer la valeur , le coefficient est égal à 1 lorsque les polariseurs sont parallèle ( corrélation total à 100% ) entre eux , le coefficient est égal à -1 si lorsque les polariseurs sont croisées ,la valeur -1 veut dire que; j'ai croisé les polariseurs si je trouve le premier photon en haut , avec certitude je trouve l'autre en bas.

Einstein et l'intrication quantique:

Nous imaginons qu'un polariseur est plus près de la source que le deuxième, de telle sorte qu'on va d'abord faire la première mesure et puis la deuxième.

dans ce cas les la mécanique quantique nous disons : il y'a le postulat de réduction du paquets qui nous disons ; une fois que j'ai trouvé +1 dans Ni1 alors le deuxième photon instantanément deviens polarisé +1.Alors évidement c'est que cette image est très dur à avaler et surtout pour Einstein qui croyez que rien ne pouvait aller plus vite que la vitesse de la lumière, car cette image nous dise si je trouve +1 dans le premier photon, instantanément l'autre est +1 . est ça quelle que soit la distance entre les polariseurs : 1 mètre, 1 km ,100kms ..

évidement pour quelqu'un qui pensait que rien ne pouvez aller plus que la lumière,

78

c'était extrêment choquant et c'est pour ça que Einstein voulais argumenter sur le sujet et il est arrivé en disant " on est pas obligé de croire à des calcules aussi invraisemblable, on peut croire au résultats de calcul mais, on est pas obligé de croire aux images qui sont suggéré par ce calcul"

Niels Bohr est le grand contradicteur d'Einstein, par ce qu' il penser avec des fortes raisons que la mécanique quantique donner connaissance ultime des choses qu'il été impossible d'avoir une connaissance qui aller au delà de ce qui été dans le formalisme quantique. Dans le formalisme quantique il y'a une formule qui été la description de cette état quantique ça s'écrivait comme ça :

A = 1/2 [x x)+ [y y)

l'expression veut dire que tous les paires de photons sont décrites par le même état quantique.

Le débat Einstein _ Bohr

L'interprétation d'Einstein nous dit qu'il faut introduisez une caractéristique supplémentaire, pour compléter la formule quantique, Einstein dit que caractériser le paire de photons par cette état c'est pas suffisant. il faut importer une information supplémentaire.

Niels Bohr dit que c'étais fondamentalement impossible, et c'est le fameux débat de savoir si on a le droit ou pas d'introduire des paramètres supplémentaires, que certains on appelé variables cachées.

Einstein ne croyez pas que cette formule A= [x x )+[y y)

constitue la description ultime de ces paires de photons, ils pensait qu'il y avait une réalité physique sous jacente un peu plus fine que ça et qu'il fallait trouver le bon formalisme pour la décrire.

79

2. Théorème de Bell

En 1965 est arrivé sue la scène le très grand physicien John Bell qui a pris au sérieux les idées d'Einstein.

"Lorsque une paire de photon été mise j'admets qu'ils possèdent les caractéristiques supplémentaires qui j'appelle LAMBDA et je ne précise pas quel est l'objet mathématique qui est caractérisé par ce paramètre LAMBDA, il existe une fonction A qui me dit avec certitude si je vais trouver +1 ou -1 lorsque j'ai met le polariseur dans l'orientation ...

et puis il va exister une fonction B qui va me dire avec certitude si l'autre photon va sortir dans +1 ou -1.."il introduise le paramètre LAMBDA (les paramètres cachées) dans les équations.

Par ailleurs , il est clair que pour décrire cette expérience il faut introduire quelque part un caractère aléatoire puisque , on sait que en temps en temp nous trouvons +1 et de temps en temps nous trouvons -1 ,donc , il y a un processus aléatoire au départ dans la source qui détermine le fait que le paire va pas partir avec tel ou tel paramètres à Lambda , Lambda prime, Lambda second. Donc il y a un processus aléatoire qui fait que les paires partent avec tel ou tel paramètre supplémentaire et dont nous pouvons parfaitement caractérisé ce processus dans la source par une densité de probabilité , le point clé est dès l'instant de donner explicitement une valeur pour la fonction A , une valeur pour la fonction B , et une valeur pour la densité de probabilité "ro" , nous pouvons calculer toutes les probabilités qui nous intéresse et en particulier de calculer avec cette théorie à paramètres supplémentaires ,Le "coefficient de corrélation" ,que nous avons sait calculer avec la formule de mécanique quantique. l'espoir d'Einstein c'étais qu'il existais des théories à paramètres supplémentaires qui permettrait de reproduire tous les résultats de la mécanique quantique, car allons honorer réconcilier les prédictions de la mécanique quantique avec une image du monde beaucoup plus raisonnable par ce que si dès le départ les photons savent qu'ils vont sortir en haut ou en bas ( même polarisation des deux photons dès le départ leur polarisation est prédéfini) , on a pas de problème avec des signaux qui vont plus vite que la lumière.

80

Par exemple par un petit modèle les deux photons qui sont tous les deux polarisées on haut ou en bas, on invente une fonction qui si on fait un calcule avec ce modèle, nous trouvons un résultat très intéressant c'est la courbe qui là dessus, la courbe n'est pas plus loin de la prévision de la mécanique quantique. Dans la mécanique quantique c'est un cosinus, c'est un courbe quantique qu'est ici, nous voyons que la corrélation prévu par le modèle simple est dans 100% quand les polariseurs sont parallèle et de -1 quand les polariseurs sont croisées, à 45° ça vers zéro, c'est la même chose que la prédiction de la mécanique quantique, ça coïncide exactement avec les prédictions de la mécanique quantique.

Puis le reste du temps ce n'est pas très loin .si en travaillons on faisons un model un peu raffiné on va surement arriver à un model à pousser la courbe vers l'autre courbe, on fait un model à variables cachées qui reproduit toutes les prédictions de la mécanique quantique, là ou John Bell rentre.

il nous sort le théorème de Bell dans laquelle il n'est pas possible d'inventer un model à variable cachées qui reproduit toutes les propriétés quantiques.

81

il affirme ça avec une démonstration mathématique, il démontre qu'il existe une certaine quantité "S" qui doit nécessairement être entre -2 et +2 ,si nous avons une théorie à paramètres cachées, alors cette quantité "S" c'est une combinaison de quatre coefficient de corrélation construit de la façon suivante:

S = 2 racine 2

on prenons deux directions pour le premier polariseur (a) ou (a').

et on prenons deux directions pour le deuxième polariseur (b) ou (b').

et puis on faisons la mesure on prend (a) et (b) , après on change donc (a) et (b') .

puis la deuxième orientation on fait (a') _ (b') et (a') _ (b).

donc c'est quatre mesures.

John Bell nous démontre que si ces corrélations peuvent être décrites par des paramètres cachées, c'est à dire le fait que les photons lorsqu'ils partent ils savent ou ils vont dès le début. alors cette quantité est nécessairement comprise entre -2 et +2.

En mécanique quantique lorsque les directions(a) , (b) , (a') , (b') sont disposées avec des angles de 22.5 °, nous trouvons que la mécanique quantique prévoit avec ses orientations particulières la quantité S = 2racine 2=2.8.

c'est plus grand que 2, donc la mécanique quantique viole l'inégalité de Bell, c'est à dire que la mécanique quantique est incompatible avec le model à variables cachées.

il n'a pas un paramètre supplémentaire pour décrire l'intrication quantique.

Donc, il faut renoncé à décrire les corrélations EPR (dès le départ les paires de photons posséder la propriété qui détermine ultérieurement le résultat de la mesure.

82

3. Les expériences d'Alain Aspect

il y a une hypothèse absolument essentiel qui est la suivante : dans le raisonnement de John Bell pour arriver à cette inégalité -2 ( S ( 2

Pour démontrer cette inégalité ont doit admettre que le résultat de la mesure dans un coté Ni1 ne peut pas dépendre instantanément de ce qui se passe de l'autre coté Ni2, et réciproquement ce qui se passe dans ni2 ne peut pas dépendre de ni1.

Également la façon dans les paires sont émises dans la source ne peut pas dépendre de ces orientations qu'on choisi pour les deux polariseurs.

Cette hypothèse est-il raisonnable ? est ce qu'il y aune force inconnue qui exerce une interaction inconnue ? est ce que les paires senti dès le début l'orientation des polariseurs par une force inconnue ?

Alors il y a une bon façon d'empêcher ce scénario de se produire, ça serait de laisser partir les deux photons et pendant qu'ils sont parti on tourne d'une façon aléatoire le polariseur.

à cause du principe de causalité qui fait que les conséquences viennent après les causes et que rien ne peut aller plus vite que la lumière, il devient clair que la façon dont les photons émises ne peut pas dépendre des orientations que on a donner dans le futur à ces polariseurs , et de la même façon ce qui a se passe à (a) ne peut pas dépendre de ce qui se passe au même moment de l'autre coté , par ce que de toute façon ça change une quantité aléatoire dans le temps, donc ça serai l'expérience idéale.

Une expérience dans laquelle on tournerait les polariseurs à une vitesse de façon à empêcher toute possibilité de communication.

Au début de 1980 Alain Aspect et son équipe, font des expériences en bénéficiant de tous les progrès des laser, l'optoélectronique...,ils ont réussi à faire une expérience qui ressemble à l'expérience idéal.

83

Nous avons les deux photons qui sen voit , ils sont séparées par des filtres ,et puis nous avons des séparateurs de polarisations ( faites avec des empilement de couche diélectrique ) et puis on détecte la voie +1 et la voie -1 ,

on est capable de faire tourner pour régler le paramètre de la direction (a), et capable de faire tourner pour régler le paramètre de la direction (b).

A cette expérience on peut en un seul coup mesurer toutes les quantités nécessaires pour déterminé le coefficient de corrélation, quand on a fait cette mesure, le "S" trouvé dans l'expérience S exp =2.697

la valeur est au dessus de la limite des inégalités Bell, il y a aucun doute que le résultat nos montre que la nature suit très bien la mécanique quantique.

il reste l'affaire de la localité, de faire tourner les polariseurs rapidement, à l'époque c'était difficile (chacun des détecteurs est un bloc qui fait centaines des kilos ,,des photomultiplicateur blindé , les polariseurs...) car il faut faire tourner un polariseur d'un centaine de kilos à un temps court par rapport au temps de propagation de la lumière.

Alain a trouvé une astuce est qu'au lieu de tourner le polariseur on met un petit aiguillage ( qui envoie la lumière soit vers le haut soit vers le bas ) ,il envoie les photons soit vers b soit vers b' .l'ensemble est équivalent à un seul polariseur qui tourne de b à b'.

84

Les résultats ont été sans ambigüité en faveur de la mécanique quantique, et ont clairement violé les inégalité de Bell, même dans cette situation ou en interdit aux deux bouts de l'expérience de se parler et on interdit à la source de dépendre de ce qui se passera plus tard. il n y a pas de doute qu'il faut croire à la mécanique quantique, Puis une expérience de l'équipe de ATON Zeilinger qui confirme d'une façon admirable que effectivement il faut croire à la mécanique quantique, alors nous voyons que c'est une expérience dans laquelle les photons se propage dans des fibres optiques, chaque fibre fait de ...mètres dont on envoie un photon d'un coté et un photon de l'autre coté. on a tous le temps de tourner aléatoirement les polariseurs en cours de route des photons, Les résultats sont en faveur de la mécanique quantique.

85

La molécule : onde-particule

86

I. Des interférences de molécules filmées en temps réel

Pour la première fois, des physiciens ont enregistré en temps réel des figures d'interférence quantique créées par des molécules organiques contenant jusqu'à 114 atomes !

L'ARTCLE COMPLET(18)

Le comportement ondulatoire de la matière est souvent associé aux particules les plus petites, tels les photons - les particules de la lumière - ou les électrons. Mais la dualité onde- corpuscule découverte par le physicien français Louis de Broglie peut être mise en évidence pour des objets plus importants en utilisant des dispositifs interférentiels. Cela vient d'être démontré de façon claire pour un ensemble de particules complexes : une équipe internationale a créé une figure d'interférence de grosses molécules organiques, qui démontre la dualité quantique entre onde et particule.

La lumière a été tantôt considérée comme particule ou onde en fonction des époques et des expériences. En 1803, le Britannique Thomas Young mit en évidence sa nature ondulatoire avec l'élégante expérience des fentes qui portent son nom. Un siècle plus tard, Albert Einstein expliquait l'effet photoélectrique sur la base d'une nature corpusculaire de la lumière. Les travaux de de Broglie en 1923 ont permis de concilier ces conceptions contradictoires. Ainsi, une longueur d'onde est associée à chaque objet, qui est d'autant plus petite que l'élément est massif. Il est donc difficile de voir les effets ondulatoires sur les objets les plus lourds. Les physiciens explorent cependant la dualité onde-corpuscule de la matière sur des éléments de masse de plus en plus élevée, en utilisant un dispositif proche de celui des fentes de Young pour former des figures d'interférence.

Dans l'expérience de 1803, deux fentes étroites situées côte à côte sont éclairées par un faisceau de lumière ; un écran placé derrière les fentes restitue la figure d'interférence : une série de bandes lumineuses et sombres, ou franges, qui correspondent à des régions où l'intensité varie de zéro au maximum en fonction du déphasage des ondes lumineuses provenant des deux fentes. De façon étonnante, si on reproduit cette expérience photon par photon, l'accumulation des points d'arrivée des particules produit la même figure d'interférence. En 1961, le physicien allemand Claus Jönssen créa des interférences 87

d'électrons en utilisant le principe des fentes de Young. En 1976, la même expérience était réalisée en construisant la figure d'interférence électron par électron.

Jusqu'où peut-on explorer les grandes échelles et mettre en évidence le comportement ondulatoire de particules, d'atomes ou de molécules de plus en plus massives ? Ce type d'expérience a été réalisé avec succès sur des atomes de sodium et même des fullerènes C60 - des molécules organiques en forme de sphère. Une équipe internationale de physiciens de Vienne, Tel-Aviv, Karlsruhe et Bâle a mis au point un nouveau dispositif permettant d'obtenir des interférences pour des molécules massives.

Markus Arndt et ses collègues ont utilisé un réseau ultrafin - un ensemble de fentes parallèles fondé sur le même principe que les fentes de Young - ainsi qu'un dispositif optique pour réaliser l'image de chaque molécule et la localiser sur l'écran avec une précision de dix nanomètres. Ils ont utilisé des molécules organiques, la phtalocyanine et l'un de ses dérivés, dont les masses respectives sont de 514 et 1 298 unités de masse atomique (le fullerène C60 a 720 unités de masse atomique). Les particules sont d'abord évaporées grâce à un laser choisi avec précaution afin de ne pas surchauffer les molécules, qui pourraient alors se décomposer. Les molécules passent ensuite par le réseau, fait en céramique (SiN).

Le pas du réseau est un paramètre crucial, car il détermine la distance entre les franges d'interférences. Il doit être suffisamment petit - 100 nanomètres - pour que les franges soient bien séparées. Un second problème concernant les réseaux est leur épaisseur. Les molécules de phtalocyanine sont électriquement neutres pour éviter des interactions avec la céramique, mais des moments dipolaires au sein des molécules créent des interactions de Van der Waals qui altèrent les interférences. Plus le réseau est épais, plus l'interaction est importante. L'équipe de physiciens est parvenue à réduire l'épaisseur du réseau à dix nanomètres. Après avoir traversé le réseau, les molécules arrivent sur une plaque en verre éclairée par un laser, ce qui permet de former une image enregistrée par une caméra CCD ultrasensible. Les physiciens obtiennent en quelques minutes une figure d'interférence de ces molécules, qui met en évidence leur comportement ondulatoire. Ce dispositif pourrait être utilisé pour des molécules encore plus massives et ainsi explorer la dualité onde-corpuscule à des échelles toujours plus grandes.

88

II. Interférence d'un polypeptide

L'article est publié en 31 octobre 2019 (19)

Resumé de l'article "L'interférence des ondes de matière d'un polypeptide natif"

La nature ondulatoire de la matière de Broglie est un exemple paradigmatique de physique quantique fondamentale et permet des mesures précises des forces, des constantes fondamentales et même des propriétés des matériaux. Cependant, même si l'interférométrie à ondes de matière est aujourd'hui couramment réalisée dans de nombreux laboratoires, cet exploit est resté un défi de taille pour la vaste classe des polypeptides natifs, les éléments constitutifs de la vie, qui sont omniprésents en biologie mais fragiles et difficiles à manipuler. Ici, nous démontrons la nature des ondes quantiques de la gramicidine, un antibiotique naturel composé de 15 acides aminés. Désorption laser femtoseconde d'un film biomoléculaire mince avec des intensités allant jusqu'à 1 TW / cm 2transfère ces molécules dans un jet de gaz noble froid. Même si la longueur d'onde de Broglie du peptide est aussi petite que 350 fm, la cohérence moléculaire est délocalisée sur plus de 20 fois la taille moléculaire dans notre interféromètre Talbot-Lau tout optique du domaine temporel. Nous comparons les franges d'interférence observées pour deux ordres d'interférence différents avec un modèle qui comprend à la fois un traitement rigoureux de la nature des ondes quantiques du peptide ainsi qu'une évaluation chimique quantique de ses propriétés optiques pour distinguer notre résultat des prédictions classiques. La réalisation réussie de l'optique quantique avec ce polypeptide comme biomolécule prototypique ouvre la voie à la métrologie des molécules assistées quantiques et en particulier à la spectroscopie optique d'une large classe de molécules biologiquement pertinentes.

89

Partie 2 : la biologie quantique

90

I. Introduction à la biologie quantique

Le physicien Paul Davies s‟intéresse de près au rôle des lois quantiques dans le vivant. Dans une revue parue en 2009, il confesse que nombre de physiciens considèrent la vie comme une sorte de miracle par lequel des « molécules stupides » parviennent à coordonner leurs réactions pour engendrer ces systèmes extrêmement complexes capables de percevoir, se déplacer et se reproduire (Physics world, juillet 2009, p 24-28). La biologie contemporaine ne peut plus ignorer la physique quantique affirme avec force Davies pour qui l‟hypothèse quantique pourrait expliquer par quel mystère le monde prébiotique est parvenu à engendrer la vie au terme d‟une histoire de trois milliards d‟années. Si cette hypothèse s‟avérait exacte, alors l‟origine de la vie serait moins le fait du hasard et plutôt le résultat d‟un long procès dont le « miracle » tiendrait en fait à l‟intervention de processus quantiques permettant aux molécules de tester des chemins et de trouver celui qui mène au vivant. Pour le dire autrement, le monde prébiotique aurait utilisé des processus similaires à ceux imaginés pour construire un ordinateur quantique. Cette fascinante hypothèse est partagée par quelques physiciens de renom. Mais il faudra théoriser cette affaire avant de bien comprendre un réel dont la connaissance est pour l‟instant lacunaire pour ne pas dire embryonnaire. Ce qui ne nous interdit pas de réfléchir une fois de plus sur le grand tournant qui se dessine en biologie.

En fait, depuis plus d‟un siècle, les sciences du vivant se sont pensées dans le cadre de la chimie. Plus précisément, la biologie contemporaine est une biologie chimique. Solidement ancrée sur deux spécialités largement développées dans les laboratoires, la chimie organique et la biologie moléculaire. Néanmoins, quelques scientifiques qu‟on dira dissidents ont envisagé l‟implication de phénomènes physiques dans le vivant mais cette orientation théorique est restée extrêmement marginale. Quelques savants ont misé sur le magnétisme avant la guerre de 39 mais c‟est à la fin des années 1960 que grâce à l‟impulsion de Frölich, les recherches en « biologie physique » ont pris un essor modeste mais avéré. Une précision importante ; la biologie physique étudie expérimentalement ou théoriquement des processus descriptibles par des formalismes physiques. Qui peuvent être quantiques comme la cohérence et l‟effet tunnel, ou électromagnétique ou autres comme par exemple les vibrations et propagations qu‟on trouve dans les phénomènes désignés comme phonons et solitons. Ces 91

derniers ayant fait l‟objet des travaux précurseurs de Frölich. Il ne faut donc pas confondre la biologie physique et la biophysique. La seconde consiste à étudier par des techniques physiques (rayons X. résonance magnétique nucléaire…) les structures biomoléculaires. La première consiste à étudier des phénomènes physiques se produisant au sein des biomolécules, des cellules et même des organismes. Et peut-être pourrait-on envisager également la conscience.

La biologie quantique a donc définitivement émergé comme spécialité selon les dires de Davies qui mentionne plusieurs études impliquant les solitons mais aussi les effets tunnels. Les solitons pourraient intervenir dans la genèse de comportements coordonnés des biomolécules. Il faut en effet que ces milliards de milliards d‟atomes puissent fonctionner ensemble pour permettre aux cellules d‟assurer leurs fonctions. L‟effet tunnel est une curiosité de la mécanique quantique. On sait que dans le monde classique, un solide ne peut franchir une barrière dont l‟énergie est supérieure à la sienne. Par exemple, une bille dotée d‟une vitesse donnée au centre d‟un bol ne peut sortir du récipient si son énergie cinétique est inférieure à l‟énergie gravitationnelle correspondant à la hauteur du bol. Mais dans un système quantique, ce phénomène est possible. Une particule peut franchir une barrière énergétique dont le seuil est supérieur à sa propre énergie. Tout dépend si fonction d‟onde ne s‟annule pas au niveau du franchissement. Auquel cas, cette fonction indiquant la probabilité de présence, la particule peut sauter la barrière avec plus ou moins de succès. Davies mentionne alors une spéculation sur le rôle de l‟effet tunnel dans la mutation des gènes (censés être à la base de l‟adaptation). Un tel effet pourrait produire un « défaut d‟appariement » entre les bases au moment des processus géniques et engendrer une substitution de base, G au lieu de A par exemple. Un autre processus impliquant l‟effet tunnel pourrait concerner des protéines repliées avec une structure tridimensionnelle quasi- labyrinthique au sein duquel un proton pourrait trouver plus facilement sa route vers le centre actif s‟il se servait de cet effet tunnel. Davies mentionne également des travaux portant sur le rôle de la cohérence dans la photosynthèse avec cependant une interrogation sur la température où se produit le phénomène ; et conclut que si l‟intervention de la mécanique quantique dans le vivant est appuyée par des expériences et des théories, ce n‟est pas pour autant que la biologie quantique fait consensus dans la communauté scientifique. C‟est même 92

l‟inverse, un domaine réservé pour l‟instant à une minorité. L‟avenir dira s‟il s‟agit de curiosités de savants étudiant des « phénomènes exotiques » où si comme le pensent certains, avec l‟auteur de ces lignes, une révolution scientifique se prépare.

II. Révolution quantique en biologie

la cohérence dans la photosynthèse

Les travaux des physiciens sur la cohérence quantique ont été couronnés par le Nobel en 2012. Ce qu‟on sait moins, c‟est que dans le domaine de la biologie, des études sur la cohérence sont en cours et que des premiers résultats ont été obtenus expérimentalement en 2007 dans le laboratoire dirigé par Graham Flemming, soit une dizaine d‟années après premiers succès de la cohérence publiés par Serge Haroche et David Wineland. La cohérence quantique est un phénomène difficile à expérimenter et à comprendre car elle défie les notions de la physique classique. Il se produit une cohérence lorsqu‟un photon interagit avec au moins deux atomes pendant un laps de temps extrêmement réduit ce qui limite les possibilités de l‟observer. Pendant ce court espace de temps, le système quantique est dans deux états et lorsque la décohérence se produit, un transfert « réel » d‟énergie se produit. Un photon est émis et la cohérence est supprimée au profit d‟un phénomène classique. La cohérence peut être observée avec plus de succès lorsque la température est basse. C‟est dans de telles conditions, à 77 degrés Kelvin (environ moins 200 degrés Celsius) que Fleming a observé cette cohérence en utilisant des molécules extraites de bactéries. Ces résultats n‟ont rien d‟inattendus car ils se situent dans le prolongement des études de décohérences menées par les physiciens et ne permettent pas d‟émettre des hypothèses sur un éventuel rôle de la cohérence quantique dans les systèmes biologiques. Mais ce n‟était que partie remise puisque trois ans plus tard, Greg Scholes est parvenu à observer la cohérence quantique dans des molécules particulières extraites d‟algues. Ces expériences ont été menées à température ambiante, ce qui montre que ce processus quantique est envisageable dans n‟importe quel système vivant.

Scholes et ses collaborateurs ont utilisé une protéine particulière, « l‟antenna », extraite de cryptophytes, algues marines utilisant cette protéine qui, bien qu‟étant distincte de

93

l‟universelle chlorophylle, joue un rôle équivalent en permettant de transférer l‟énergie lumineuse vers les dispositifs de carbosynthèse. En l‟espace de quelques fractions de secondes, ces algues peuvent capter une proportion non négligeable de l‟énergie lumineuse pour la diriger vers les centres de synthèse des carbohydrates. Pour réaliser ce phénomène, on imagine aisément que le photon doit trouver le plus rapidement possible son chemin, sinon il repart dans l‟environnement. Et justement, cette possibilité est permise par la cohérence quantique. L‟énergie passe ainsi par plusieurs chemins possibles dans la molécule avant de se décider pour emprunter le chemin accessible le plus direct. C‟est étrange à concevoir mais c‟est ainsi que fonctionne la cohérence quantique.

l‟énergie du photon peut, à l‟échelle quantique, tester les chemins dans la molécule de transfert et choisir le plus rapide pour aller vers les centres moléculaires de la carbosynthèse. Ces processus de cohérence quantique, bien qu‟obtenus dans des conditions expérimentales créées en laboratoire, n‟en sont pas moins tangibles d‟un point de vue biologique.

Les recherches sur les effets quantiques en biologie constituent actuellement l‟un des champs les plus prometteurs car les résultats commencent à tomber tandis que le schéma théorique est très loin d‟être élucidé, comme le conclut Fleming, co-auteur d‟une petite revue sur ce sujet et spécialiste de ce domaine très pointu nécessitant la maîtrise des expériences microphysiques sur des macromolécules biologiques ainsi qu‟une bonne connaissance des formalismes quantiques. Selon Fleming, si le 20ème siècle a vu se développer des questionnements sur le « fonctionnement quantique » des systèmes biologiques, ce n‟est que récemment que les phénomènes quantiques dans les biomolécules ont pu être observés (19). Des molécules essentielles à la communication cellulaire, comme par exemple les canaux ioniques, sont soupçonnés d‟utiliser des processus quantiques. L‟étendue de ces phénomènes est assez large, autant sur le plan des molécules étudiées qu‟au niveau des processus quantiques impliqués et pour la plupart échappant au sens commun. Ce que l‟on peut comprendre aisément car les concepts et formules de la mécanique quantiques ne représentent pas un monde classique. Et pourtant, ce monde classique émerge du monde quantique, telle une tapisserie dont les mailles sont non seulement invisibles mais tissées avec des lois défiant l‟entendement classique. Des travaux récents ont même montré que l‟espace et le temps

94

découlent des lois de la physique quantique. Alors autant miser sur l‟hypothèse d‟un monde vivant dont les éléments moléculaires sont pour une part soumis aux règles du monde quantique. Ce qui supposerait une double description du vivant, mécaniste, chimique et moléculaire lorsqu‟on développe les techniques d‟analyse moléculaire, mais quantique si l‟on utilise des dispositifs ajustés à l‟observation des phénomènes quantiques comme peuvent l‟être la cohérence, la non séparabilité, l‟effet tunnel et les interférences. Avec deux corpus théoriques complémentaires, celui de la chimie organique et celui de la physique. III. L'intrication quantique dans les réactions chimiques

Deux physiciens ont proposé une généralisation des travaux de Bell fournissant un test de la présence de l'intrication quantique, permettant de l'appliquer à ces réactions dans le cadre de la chimie quantique.

deux physiciens de l'université Purdue (West Lafayette, États-Unis), Junxu Li et Sabre Kais pensent que l'on doit pouvoir trouver des effets de l'intrication quantique dans des réactions chimiques. Mais tout comme dans le cas de l'effet EPR initial, cela suppose de faire des mesures avec des opérateurs dont les spectres sont continus. Or, comme on l'a vu, les résultats des travaux de Bell, qui permettent de mettre en évidence des effets d'intrication, sont plus facilement exprimables et testables expérimentalement avec des spectres discrets de valeurs.

Les deux chercheurs ont donc entrepris de découvrir, et avec succès, une généralisation pour l'instant encore théorique des travaux de Bell qui permettraient de faire des tests d'intrication avec les variables continues des atomes et molécules intervenant dans des réactions chimiques (une généralisation des travaux de Bell dans le cas continu avait déjà été obtenue avec des paquets de photons). On peut comprendre basiquement l'idée quand on se représente par exemple l'inverse de la désintégration d'une particule en deux particules précédemment envisagée. On a alors par exemple deux atomes qui entrent en collision pour former une molécule. Plus généralement, on peut envisager des collisions de molécules donnant par redistribution des atomes d'autres molécules.

95

Junxu Li et Sabre Kais viennent de publier (20). Sabre Kais explique donc que : « Personne n'a encore démontré expérimentalement la présence de l'intrication quantique dans des réactions chimiques parce que nous n'avions pas le moyen de la mettre en évidence. Pour la première fois, nous avons un moyen pratique de mesurer cet effet. La question est maintenant de savoir si nous pouvons utiliser l'intrication quantique à notre avantage pour prédire et contrôler le résultat des réactions chimiques. »

Les deux physiciens ont fait passer un test théorique à l'inégalité généralisée de Bell qu'ils ont obtenue dans une simulation numérique de la physique quantique d'une réaction chimique conduisant à la molécule d'hydrure de deutérium (HD), à partir d'une expérience de collision de molécules H2 et D2. Une expérience déjà menée par des chercheurs de l'université de Stanford, visant à étudier les états quantiques des interactions moléculaires.

Ils sont confiants qu'en répétant une expérience similaire, et en analysant les résultats avec leur nouvelle méthode, la présence de l'intrication quantique sera révélée. IV. L’intrication quantique observée sur des objets presque

macroscopiques (2)

L'une des manifestations les plus incroyables de la physique quantique est probablement celle que l'on appelle l'intrication. Et après l'avoir observée sur des électrons et des atomes, des chercheurs affirment aujourd'hui en avoir été témoins sur des objets de taille presque macroscopique.

L'intrication quantique. Un phénomène étrange par lequel deux objets distants se retrouvent comme liés - par des états quantiques dépendants l'un de l'autre - d'une manière qui défie le sens commun et même la physique classique. Et pour la toute première fois, des scientifiques ont pu obtenir et observer ce phénomène sur des objets macroscopiques. Enfin presque. Des objets dont le diamètre est de l'ordre de 15 micromètres. Jusqu'alors, l'intrication quantique n'avait pu être montrée que sur des particules. En 2015, par exemple, des chercheurs du MIT avaient réussi à intriquer, grâce à une impulsion laser, pas moins de 3.000 atomes de rubidium 87. Une broutille face aux milliards de milliards d'atomes que composent les oscillateurs mécaniques du diamètre approximatif

96

d'un cheveu humain, impliqués dans l'expérience qui vient d'être menée par des chercheurs de l'université de Aalto (Finlande)(21). “

Une intrication maintenue pendant 30 minutes

Une équipe a en effet réussi à placer ces sortes de peaux de tambours vibrants en aluminium dans un état quantique intriqué. Un état qui a pu être maintenu pendant pas moins d'une demi-heure. « Les corps vibrants interagissent via un circuit hyperfréquence supraconducteur. Les champs électromagnétiques dans le circuit sont utilisés pour absorber toutes les perturbations thermiques et ne laisser derrière que les vibrations quantiques mécaniques », explique Mika Sillanpää. Et le fait de conduire l'expérience à une température juste au-dessus du zéro absolu, aux environs de -273 °C donc, a permis d'éviter toute autre forme de perturbations et d'interférences

D'un point de vue fondamental, cette expérience démontre donc que les lois de la mécanique quantique peuvent aussi s'appliquer à des objets « massifs ». Restera à déterminer massifs à quel point. D'un point de vue plus pratique, l'expérience pourrait, entre autres, servir à optimiser la détection d'ondes gravitationnelles.

Notez par ailleurs qu'un autre groupe, issu cette fois de l'université de Delft (22) (Pays- Bas), a également annoncé avoir réussi à placer des objets de la taille de bactéries en état d'intrication quantique : deux oscillateurs micromécaniques à base de rayons de silicium nanostructurés sur des puces espacées de 20 centimètres. Une configuration intéressante en vue d'une intégration au sein d'un réseau quantique à fibre optique. Mais l'état d'intrication n'a toutefois pas pu être maintenu plus d'une fraction de seconde. V. La biophysique quantique selon Bruce Lipton

on résume une intervention du biologiste cellulaire Bruce Lipton qui a contribué à la formation « la science des soins énergétiques[23] » proposée par l‟association américaine de la psychologie énergétique globale, l‟ACEP[24]. Il est un des précurseurs de l‟épigénétique, cette nouvelle branche de la génétique apparue dans les années 1990. Il y remet en question l‟ancien dogme de la génétique et nous sort du déterminisme de l‟ADN. Il démontre que l‟environnement auquel les cellules vivantes sont soumises est le facteur déterminant. Les

97

toxines, les pensées négatives, les champs électromagnétiques, sont autant de déclencheurs des hormones de stress mettant à mal notre santé [25].

Dans le monde actuel de la médecine allopathique, la pertinence du concept de l‟énergie pour notre santé est vraiment laissée pour compte. Les origines du paradigme actuel remontent à Descartes et Newton. Descartes eut l‟idée que le système solaire était comme une machine, un dispositif mécanique gigantesque. Gardant cela à l‟esprit, Newton commença à examiner la nature des mécanismes de fonctionnement de l‟univers.

Le fait que Newton ait pu prédire avec précision les mouvements de l‟univers grâce à son calcul infinitésimal laissa entendre, que ces mêmes équations permettraient effectivement de tout comprendre dans l‟univers. Cette science que nous appelons aujourd‟hui la physique classique (ou newtonienne) se fonde sur la conclusion que nous pouvons comprendre l‟univers par sa représentation mécanique, sans avoir à invoquer certaines forces invisibles.En somme, l‟univers physique est autonome de l‟univers de l‟énergie.

Dans cette optique, on considère le corps humain comme une machine. Pour comprendre une machine complexe, il convient de la démonter. On parle alors de réductionnisme. En 1953, le démantèlement des systèmes vivants finit par permettre à la science de découvrir la nature de l‟ADN, l‟acide nucléique, soit la matière dont sont faits les gènes. On pensait alors qu‟il s‟agissait là du fondement physique de la vie. Il était donc logique que la pensée se développe au point d‟affirmer que l‟ADN régit non seulement nos caractéristiques physiques, mais aussi nos émotions et nos comportements. Ce système conceptuel porte le nom de déterminisme génétique. Y adhérer signifie quoi au juste ? Si l‟on ne choisit pas ses gènes et que l‟on ne peut rien y faire, nous sommes amenés à croire que nous sommes victimes, victimes de notre hérédité.

Nous sommes controlé par notre ADN

Mais cette pensée est-elle correcte ? Les gènes contrôlent-il vraiment la vie? Si l‟on supprime le cerveau de tout organisme vivant, il n‟y a qu‟une conséquence nécessaire : l‟organisme meurt. Observons la cellule en gardant cela à l‟esprit. Le processus d‟énucléation permet d‟en supprimer le noyau (le siège de 99% des gènes). Que montre-t-il au juste ? Si

98

l‟on retire le noyau, la cellule ne meurt pas. Une cellule sans noyau peut faire preuve de comportements très complexes lors de ses interactions avec l‟environnement, avec d‟autres cellules, mais aussi avec les parasites et les virus. Le comportement de la cellule n‟est pas tributaire de la présence d‟ADN. Le noyau n‟est donc pas le cerveau de la cellule et les gènes ne contrôlent pas notre biologie.

Si les gènes ne contrôlent pas notre biologie, comment notre activité vitale est-elle contrôlée ? À la fin des années 1960, Bruce Lipton faisait des recherches et clonait des cellules souches (les cellules multi-potentielles trouvées dans notre corps, qui remplacent les centaines de milliards de cellules qui meurent tous les jours).

Il prenait alors une cellule souche et la plaçait seule dans une boîte de Pétri. Cette cellule allait se diviser toutes les 10-12 heures. Après environ une semaine, la boîte de Pétri recensait 50 000 cellules génétiquement identiques. Il divisa alors cette population de cellules et les inocula dans trois boîtes de Pétri différentes présentant chacune un milieu de culture (environnement) différent.

Résultat : dans l‟environnement A, les cellules se sont différenciées et ont formé du muscle ; dans l‟environnement B, elles se sont différenciées et ont formé de l‟os ; dans l‟environnement C, elles se sont différenciées et ont formé de la graisse.

Les cellules étant génétiquement identiques, nous savons que ce ne sont pas les gènes qui favorisent leur différenciation en muscle, en os ou en graisse. C‟est l‟environnement qui influence le comportement et l‟activité génétique des cellules.

Cette nouvelle science a été baptisée épigénétique en 1990. Le préfixe « Épi » signifie au-dessus. La formule « contrôle épigénétique » signifie littéralement « contrôle au-dessus des gènes ». On peut alors abandonner l‟idée de déterminisme génétique. Une fois que l‟on comprend que l‟environnement contrôle la vie, on réalise alors que l‟on a la maîtrise de ses propres gènes. On est seul à pouvoir changer son environnement ou sa propre perception de cet environnement, et donc à pouvoir changer sa vie. Nous ne sommes plus victimes.

Que nous montre donc cette nouvelle science ? Si l‟on ajoute de nouveaux signaux chimiques de l‟environnement au système, une grande partie de ces signaux sont perçus par la

99

membrane de la cellule (l‟équivalent de la peau). Quand un signal de l‟environnement est capté par la membrane, le signal est relayé à l‟intérieur de la cellule et peut alors pénétrer dans le noyau pour activer les gènes. Ce phénomène porte le nom de transduction de signal, et est aujourd‟hui à la fine pointe de la science. L‟épigénétique est l‟équivalent de la transduction de signal qui montre comment les signaux de notre environnement altèrent notre activité génétique. Alors comment le signal de l‟environnement se traduit-il en biologie ? Il s‟avère que la membrane de la cellule n‟est pas que la peau, mais aussi le cerveau. Le cerveau de la cellule est sa membrane. Fait intéressant, dans la biologie de l‟être humain, la peau de l‟embryon devient le système nerveux de l‟organisme humain biologique. Si l‟on dissèque une cellule, on s‟aperçoit qu‟elle se compose d‟environ 100 000 parties protéiques différentes. Les protéines sont donc la base physique de la vie et réagissent aux signaux de l‟environnement. Quand une protéine reçoit un signal de ce type, le signal entraîne un changement de forme de la protéine. On parle alors de changement conformationnel, changement qui entraîne un mouvement. À quoi sert ce mouvement ? Comme les protéines se déplacent, le mouvement qu‟elles effectuent peut servir à effectuer des travaux. La vie provient donc du déplacement de protéines. A toutes fins utiles, on peut envisager la chose en disant que nous avons 100 000 engrenages protéiques différents. À mesure que ces engrenages protéiques interagissent et se déplacent, ils créent les fonctions vitales : la respiration, la digestion, la sécrétion, la fonction nerveuse, etc. Lorsqu‟un signal se lie à une protéine, celui-ci entraîne un changement de forme de la protéine et crée ainsi un comportement. Telle est l‟équation fondamentale de la vie. Quels types de signaux font réagir les protéines ? Tout dépend de votre perspective. Du point de vue de la médecine allopathique (basée sur la physique classique et le matérialisme scientifique), la vie est une machine physique, qui nécessite un dispositif physique pour la modifier. Donc, si vous êtes adepte de l‟allopathie classique, vous allez vous servir de signaux chimiques pour aider les patients à modifier leur comportement, telle est la fonction des médicaments. Du point de vue de la mécanique quantique (où tout ce qui est matière est en réalité énergie et où l‟énergie est appréhendée comme porteuse d‟information), des fréquences vibratoires très spécifiques peuvent activer diverses fonctions cellulaires.

100

Physique newtonienne contre physique quantique :

. Le modèle newtonien : l‟énergie est une force qui fait bouger les choses, à savoir elle fait qu‟une voiture peut se mouvoir dans la rue. Et selon le modèle quantique, l‟énergie est de l‟information : la communication par téléphonie mobile ne va pas faire fonctionner votre voiture, mais elle est porteuse d‟informations. (26) VI. l'ADN quantique

Nous savons depuis la fameuse découverte de l‟acide désoxyribonucléique par le biologiste Jim Watson et le physicien James Crick, en 1953, que la vie se constitue sur base de gènes et que ceux-ci dépendent d‟une molécule très particulière en double hélice à l‟acronyme universellement connu, l‟ADN.

Or, l‟ADN pose un problème de physique pure (parmi d‟autres) qui est que sa balance énergétique n‟est pas équilibrée: il faudrait pour que cette structure particulière tienne comme elle fait, plus d‟énergie qu‟elle ne semble avoir à sa disposition. D‟où l‟idée d‟un groupe de chercheurs de l‟Université de Singapour, de tester l‟effet d‟intrication quantique sur l‟ADN.

L‟intrication quantique, très brièvement, est la superposition de plusieurs états quantiques qui partagent la même fonction d‟onde. Pour reprendre l‟exemple archi-connu du chat de Schrödinger, l‟intrication est le fait que tant que l‟on n‟ouvre pas la boîte du chat, le chat est en même temps vivant et mort – c‟est le fait d‟observer le chat qui “réduit” la fonction d‟onde (phénomène appelé décohérence) vers un seul état, chat mort ou chat vivant.

Donc ils ont construit un modèle théorique de l‟ADN dans lequel chaque nucléotide est formée d‟un nuage d‟électrons, négatif, autour d‟un noyau central, positif. Le nuage se déplace relativement au noyau, créant ainsi un dipôle et une oscillation harmonique ou phonon. Au sein de l‟ADN, quand les nucléotides se lient pour former une base, ces nuages doivent osciller dans des directions opposées l‟un de l‟autre afin de garantir la stabilité de la structure. La question alors posée par Elizabeth Rieper et son équipe est : que se passe-t- il quand ces paires de bases s‟empilent afin de former la double hélice ?

101

La question est cruciale car les phonons étant des objets de nature quantique, ils peuvent exister dans un état intriqué et de ce fait résoudre le problème énergétique mentionné en introduction. Démontrer de manière théorique que les phonons sont intriqués sous conditions de zéro absolu ne pose pas problème, mais l‟équipe est parvenue à en faire la démonstration à température ambiante – celle de la vie.

Elle y parvient en démontrant que le phénomène de “phonon trapping”, déjà connu dans le domaine de la supraconductivité pour limiter la capacité d‟échappement des phonons, existe au sein de l‟ADN: la longueur d‟onde des phonons correspond à la taille de l‟hélice ADN et crée de se fait des ondes engendrant le phénomène de stationnaires phonon trapping.

Dans un modèle ADN au sens de la physique classique, l‟oscillation des ces phonons ferait vibrer la structure et la détruirait. Pour qu‟elle résiste, il faut que le mouvement global de la structure soit nul à tout moment, et ceci ne semble envisageable que si les phonons existent dans des états superposés – ou intriqués: la somme des états de chaque phonon étant alors nulle (le mouvement lié à l‟un des état étant compensé par celui lié à l‟autre état, superposé), la structure est stable.

Donc, selon ce modèle, c‟est l‟intrication quantique qui serait à la base de l‟existence de l‟ADN et, partant, de la vie. Ce qui reste évidemment à prouver de manière expérimentale, mais pourrait révolutionner le lien entre biologie et mécanique quantique ! D‟autant que les auteurs de l‟étude terminent leur conclusion de la manière suivante :

”Nous avons démontré qu‟une base ADN simple contient de l‟information au sujet de son voisin, questionnant ainsi l‟idée habituelle de traiter chaque base individuelle en tant qu‟élément d‟information indépendant.” (27) VII. Le repliement des protéines reposerait sur la nature ondulatoire de la matière

Les protéines, avec les molécules d'ADN et d'ARN qui permettent leurs synthèses, sont les molécules reines du vivant. Elles sont des assemblages en chaînes d'acides aminés mais dès le début des années 1950 les biochimistes Linus Pauling et Robert Corey découvrent les

102

premiers indices de la structure en trois dimensions qu'adoptent les protéines, ouvrant la voie à l'investigation du fameux phénomène de repliement des protéines (protein folding, en anglais).

C'est à partir de 1958 que l'on va se rendre compte de l'importance et de la subtilité de ce phénomène lorsque le Britannique John Kendrew obtint la première image en rayon X de la structure cristallographique de la myoglobine. La protéine globulaire constituée de 150 acides aminés était en fait repliée sur elle-même d'une façon complexe. Les années passant, il devint évident que bien des propriétés des protéines étaient en liaison avec leur structure spatiale et qu'aussi bien pour comprendre l'origine de certaines maladies que pour leur trouver des remèdes, il allait falloir élucider et comprendre dans tous ses détails le repliement des protéines. L'enjeu est de taille parce que l'on sait notamment que des maladies neurodégénératives comme celle d'Alzheimer ou les maladies héréditaires rares nommées polyneuropathies amyloïdiques familiales sont liées à des anomalies de repliement des protéines.

Or, voilà que deux physiciens de l'université du Luxembourg viennent de publier (28) un article qui annonce une découverte étonnante. Les liaisons chimiques sont bien sûr d'origine quantique mais on considère généralement que les grosses molécules du vivant, comme l'ADN et beaucoup de protéines, sont trop grandes et trop massives pour qu'un traitement global quantique soit pertinent et on préfère des modèles issus des lois de la physique classique pour étudier leur propriétés, par exemple leur élasticité.

Mais selon Alexandre Tkatchenko et Martin Stoehr les processus de repliement des protéines plongées dans l'eau des cellules dépendent des interactions entre les molécules d'eau et ces protéines lesquelles font directement intervenir la nature ondulatoire de la matière, comme l'explique Martin Stöhr dans un communiqué lorsqu'il dit : « La persistance d'un comportement quantique ondulatoire dans les systèmes biomoléculaires ouvre un nouveau paradigme pour expliquer certains des processus fondamentaux en biologie » et selon Alexandre Tkatchenko : « Dans le futur, nous prévoyons un rôle majeur des interactions quantiques dans la machinerie biomoléculaire allant de l'assemblage des protéines à la fonction des enzymes ».

103

Voilà de quoi intéresser des chercheurs, comme Paul Davies, qui spéculent depuis des années sur l‟existence et l‟importance d‟une véritable biologie quantique à l‟échelle des cellules. VIII. La mystérieuse expérience de Luc Montagnier

Publié le 23 décembre 2010 (29)

La philosophie qui règne en science aujourd‟hui, connue sous le nom du réductionnisme, présuppose que la vie est le résultat de molécules non vivantes. Composez un mélange adéquat d‟acides aminés et d‟autres ingrédients, placez-le dans des conditions propices, et spontanément des formes de vie primitive jailliront à partir desquelles des formes de vie plus développé pourront évoluer…

Une telle hypothèse ne s‟est jamais démontrée et toutes les expériences visant à la prouver ont échoué. Ce qu‟on présente comme la « création » d‟une forme de vie primitive, ou des préfigurations de la vie tel que l‟ADN ou un virus, nécessite toujours à l‟origine une autre forme de vie. Jusqu‟ici, et peut-être heureusement, personne n‟a pu métamorphoser des molécules mortes en matière vivante.

A l‟opposé de cette vision réductionniste, s‟est affirmé le vitalisme, une théorie qui affirme que les organismes vivants possèdent une force vitale, un principe de vie, séparé de la matière qui les compose. La vie serait une combinaison de molécules organiques dotées de cette force vitale. Cependant, aucune expérience n‟a pu identifier cette force vitale ou démontrer sa présence dans le vivant, ou son absence dans la matière non-vivante. Ainsi, le mystère de la vie demeure presque entier.

Les expériences récentes que nous allons décrire ici, viennent de bousculer quelques certitudes des théories anciennes. Sans nous fournir des réponses définitives, elles élargiront certainement vos horizons. Ces expériences ont été menées par le Professeur Luc Montagnier, le biologiste virologue co-lauréat du Prix Nobel avec Françoise Barré-Sinoussi pour leur découverte en 1983 du virus du HIV responsable du SIDA.

104

Le Professeur Luc Montagnier et ses collaborateurs rapportent qu‟il a été observé que certaines séquences d‟ADN des bactéries et des virus peuvent induire des ondes électromagnétiques de basse fréquence dans les hautes dilutions aqueuses. Ce phénomène semble être provoqué par le fond électromagnétique ambiant de très basse fréquence.

Mieux encore, ces ondes seraient même capables de transformer certains nucléotides servant de base à l‟ADN, en ADN bactérien nouveau, rien que par le biais de structures particulières de l‟eau.

En examinant l‟interaction complexe entre le rayonnement émis par des formes de vie, le rayonnement atmosphérique et le rayonnement cosmique, les travaux de Montagnier ont des implications révolutionnaires pour la biologie et notre façon de concevoir l‟univers.

Tout démarra il y a dix ans quand Luc Montagnier étudia l‟étrange comportement d‟une petite bactérie qu‟on trouve souvent en compagnie du VIH, le Mycoplasma pirum. Comme le HIV, cette bactérie adore et dévore les cellules blanches du sang humain, les lymphocytes.

Initialement, Montagnier tenta, à l‟aide de filtres de différentes tailles, de séparer la bactérie, d‟une taille d‟environ 300 nm, des séquences du virus dont la taille est de 120 nm. En filtrant une culture de lymphocytes infectés par la bactérie, Montagnier arriva à obtenir un liquide stérile. Une vérification rigoureuse démontra qu‟aucune trace ne resta de la bactérie Mycoplasma pirum.

Dans DNA waves and water, (29) Montagnier et son équipe rapportent:

Lorsque le filtrat [stérile] est incubé avec des lymphocytes humains (dont on a constaté auparavant qu‟ils n‟étaient pas infectés par le mycoplasma), la présence du mycoplasma avec toutes ces caractéristiques fut régulièrement constaté!

105

L‟expérience tend à prouver que, d‟une manière ou d‟une autre, les bactéries avaient communiqué au fluide lui-même l‟information nécessaire à leur régénération ultérieure. Arriva alors la question : quel type d‟information a été transmis par le filtrat aqueux ?

C‟était le début d‟une enquête de longue haleine quant aux propriétés physiques de l‟ADN dans l‟eau.

D‟abord, une nouvelle propriété de l‟ADN de M. pirum fut constaté : elle émet des ondes électromagnétiques d‟ultra basse fréquence.

Mais ce n‟était pas tout. A la surprise générale, des dilutions répétées avec de l‟eau pure du filtrat émettait également les mêmes ondes électromagnétiques d‟ultra basse fréquence qu‟on peut mesurer en plaçant les filtrats au cœur d‟un solénoïde (une bobine électrique formé par un fil de cuivre enroulé en hélice) couplé à un amplificateur.

Figure 24: Device for the capture and analysis of ekectromagnetic dignals (EMS):

(1) Coil: a bobbin of copperwer, impedance 300 Ohms; (2) Plastic stoppered tube containig 1 mL of the solution to be analyzed ; (3) Amplifier ; (4) Computer with softwares.

106

L‟émission d‟ondes d‟ultra basse fréquence (ULF), de 500 à 3000 Hertz, qu‟on situe à l‟extrémité du spectre des radiofréquences, fut observée dans les dilutions de filtrats de plusieurs sortes : dans des solutions infectées par des bactéries et des virus ; dans le plasma sanguin d‟humain infecté par ces agents ; ainsi que dans des filtrats dilués de liquides où l‟ADN des ces bactéries et virus fut présent.

Une condition préalable essentielle existait pour l‟émission de telles ondes : la présence d‟une radiation électromagnétique en arrière-plan d‟environ 7 Hz, ce qui correspond à peu près avec la fréquence d‟une résonance naturelle, dite « résonances Schumann », formée par la cavité de la surface de la terre et de l‟ionosphère. Cette fréquence est reproductible en laboratoire.

Montagnier démontra ensuite que chaque filtrat dilué émettait non seulement sa propre fréquence, mais aussi que les différentes dilutions d‟un même filtrat pouvait « se parler » entre elles. En marge d‟une conférence, Montagnier ironisait que le téléphone portable fut inventé bien avant les hommes!

Pour vérifier ce processus, on plaça un échantillon d‟une dilution non-émettante à coté d‟une dilution émettante du même type. La première réduit alors au silence la deuxième, indiquant que certaines émissions sont peut-être tellement faibles que nous manquons de moyens pour en mesurer l‟existence dans le dispositif du solénoïde.

Etrangement, lorsque l‟échantillon qui fut réduit au silence fut dilué de nouveau, le signal électromagnétique revenait ! Nous avons déjà indiqué que les signaux électromagnétiques, propres à chaque espèce et émanant du liquide aqueux des filtrats dilués, semblent être liés à une « signature » spécifique à chaque espèce imprimé dans la structure de l‟eau.

La dernière expérimentation a démontré cet aspect d‟une façon éclatante. Dans ce cas, c‟est une séquence d‟ADN du virus HIV qui a fourni le matériel de départ. Une solution avec cette séquence fut filtrée et diluée jusqu‟au moment où on a obtenu un signal électromagnétique, comme ce fut le cas lors des expériences précédentes.

107

Ensuite, on a filtré et dilué cet échantillon en même temps qu‟un échantillon d‟eau pure. Les deux échantillons furent ensuite posé à l‟intérieur d‟un solénoïde et le tout placé dans une boîte en mu-métal (un alliage de nickel et de fer permettant un isolement électromagnétique). Un courant électrique de 7 Hz a permis au solénoïde de générer le rayonnement stimulant. Après dix-huit heures, le récipient contenant de l‟eau pure fut enlevé. Il émettait désormais son propre signal.

C‟est la démarche suivante qui a donné le résultat le plus étonnant. On a ajouté au même récipient contenant de l‟eau pure, tous les ingrédients organiques (nucléotides, amorces, etc.) employés pour synthétiser l‟ADN par amplification en chaîne par polymérase (PCR), une méthode d‟amplification génique permettant de copier en grand nombre une séquence ADN ou ARN. Normalement, sans la présence d‟un brin « matrice » de la séquence ADN ou ARN, la reproduction en est impossible. Dans ce cas-ci, aucune« matrice » fut ajoutée, et l‟échantillon contenant l‟eau pure avec les ingrédients fut exposé aux températures habituelles pour synthétiser l‟ADN.

Le résultat de l‟expérience fut étonnant. Non seulement la séquence d‟ADN du virus HIV s‟est reproduite dans l‟échantillon, mais la elle était à 98 % identique à la séquence d‟origine. Comment expliquer cette régénération à partir de l‟eau ?

Tout comme pour l‟échantillon d‟eau pure, toutes ces expériences avec les bactéries, les virus et leur ADN, les filtrats sont tellement diluées qu‟il n‟y a aucune chance qu‟ils possèdent du matériel génétique d‟origine. Pour expliquer les phénomènes constatés, Montagnier avance l‟hypothèse esquissée par un certain nombre de scientifiques concernant les propriétés étonnantes de l‟eau, notamment le fait que l‟état liquide de l‟eau n‟est pas une simple agglomération de molécules. Il s‟agirait plutôt de chaînes de molécules d‟eau capable de former de nanostructures cohérentes, qui pourraient être aussi bien le produit que les sources des phénomènes de résonance électromagnétique.

Bien que les expériences de Montagnier ne permettent pas de conclure, on peut dire qu‟elles s‟avèrent parfaitement consistantes avec l‟approche expérimentale développée par Alexander Gurvitch. Ce dernier avait démontré le rôle du rayonnement électromagnétique ultraviolet dans la mitose, le processus de division cellulaire. Les travaux plus récents de Fritz 108

Popp et ses collègues ont confirmé que c‟est bien l‟ADN du noyau des cellules qui est à l‟origine des émissions de lumière ultraviolette. L‟émission de ces « biophotons » s‟accorde notamment avec la périodicité des cycles et rythmes diurnes, nocturnes et lunaires.

Le phénomène rapporté par Montagnier pourrait permettre de développer rapidement des systèmes de détection très sensible des infections chroniques bactériennes et virales. Au- delà de cette utilité immédiate, ces découvertes soulèvent des questions extraordinaires et nous avons bon espoir que d‟autres expériences permettront d‟affiner les instruments et apporteront d‟autres découvertes.

Cependant, le travail de Montagnier touche à la question fondamentale de la nature de la vie. Le principe développé par Francesco Redi au XVIIe siècle, repris par Louis Pasteur et Vernadski, disant que toute forme de vie vient de la vie, n‟a jamais été contredit par une expérience quelconque jusqu‟ici. Cependant, on a tenté à réduire ce principe à la simple action matérielle d‟un germe, d‟une spore ou de la division cellulaire.

Ce qu‟indiquent les expériences évoquées ici, c‟est que la vie semble être transmise, au moins partiellement, non pas par la présence d‟une matière physique, mais par l‟intermédiation et en lien avec un signal identifiable comme électromagnétique par origine et apparemment relié aux caractéristiques plus larges de l‟environnement.

Pour le chimiste Jeff Reimers de l‟Université de Sydney :

Si ces résultats sont corrects, cette expérience serait la plus significative depuis 90 ans, imposant une réévaluation complète du cadre conceptuel de la chimie moderne.

Un autre poids lourd de la « biologie quantique », Greg Scholes de l‟Université de Toronto au Canada et crédité de la démonstration d‟effets quantiques au sein des plantes, dit que

Ces expériences biologiques sont intrigantes, et je ne les balaierais pas si vite.

Le consensus actuel semble être qu‟il faut investiguer plus avant cette recherche, et l‟un des membres de l‟équipe de Montagnier, le physicien Guiseppe Vitello de l‟Université de Salerme en Italie, y croit et encourage d‟autres équipes à essayer de reproduire ces résultats.

109

Les principes exacts des processus à l‟œuvre, que ce soit la formation de nanostructures dans l‟eau comme cela fut suggéré, ou d‟autres mécanismes, restent à découvrir. Ce qui s‟impose, c‟est une vision plus large que la conception habituelle de la vie.

Comme le souligne le collaborateur de Lyndon LaRouche Larry Hecht , le principe que « toute vie vient du vivant » demeure, mais sous condition qu‟on adopte une conception "non corpusculaire" de la vie. IX. La biologie quantique dans la photosynthèse

La biologie actuelle en est-elle au stade où était la physique classique avant la découverte de la physique quantique ? Certains le soupçonnent depuis quelques années, et une publication récente (30) vient d'apporter de l'eau à leur moulin. Il y aurait bien des processus quantiques derrière l'efficacité de la photosynthèse

C'est un fait bien établi que l'existence des atomes, des molécules et des liaisons chimiques ne sont pas compréhensibles en dehors des lois de la mécanique quantique. En ce sens, la physique et la chimie d'un bloc de métal ou d'une cellule sont quantiques. Mais on sait bien que le comportement de ces objets ne manifeste pas directement la nature quantique de la matière, ils font partie du monde de la physique classique. Cependant, certains phénomènes comme la supraconductivité ou la superfluidité débordent du domaine quantique d'ordinaire réservé à la microphysique pour entrer dans le monde à notre échelle.

Lorsque la nécessité de la physique quantique s'est révélée aux physiciens explorant la matière et la lumière, ce fut essentiellement avec deux phénomènes qui semblaient au départ être de simples anomalies bien localisées dans l'univers de la physique classique : le rayonnement du corps noir et l'effet photoélectrique. Nous savons aujourd'hui qu'ils étaient la pointe émergée du monde quantique et que, fondamentalement, le réel est fort différent de la vision du monde bâtie par les fondateurs de la science classique comme Galilée, Descartes et Newton.

110

La biologie quantique pour expliquer la photosynthèse

De nos jours, les biologistes qui réfléchissent sur le fonctionnement des cellules, de l'ADN ou des neurones considèrent que ces objets sont majoritairement décrits par les lois de la physique classique. Pourtant, ces dernières années, quelques résultats expérimentaux en biologie, notamment sur la photosynthèse, semblaient défier les lois de la physique classique.

Il était et il est encore bien trop tôt pour savoir si la photosynthèse finira par être, pour une éventuelle biologie quantique, ce que le rayonnement du corps noir a été pour la physique quantique. Toutefois, Alexandra Olaya-Castro et Edward O'Reilly, des chercheurs du célèbre University College de Londres, viennent de publier (31), dans lequel ils affirment que des macromolécules biologiques utilisent bel et bien des processus quantiques pour effectuer de la photosynthèse. Jusqu'à présent, le doute planait sur l'inadéquation des processus classiques pour décrire le comportement de chromophores attachés à des protéines qu'utilisent les cellules végétales pour capter et transporter l'énergie lumineuse.

Selon les deux physiciens, certains des états de vibrations moléculaires des chromophores facilitent le transfert d'énergie lors du processus de photosynthèse et contribuent à son efficacité. Ainsi, lorsque deux chromophores vibrent, il arrive que certaines énergies associées à ces vibrations collectives des deux molécules soient telles qu'elles correspondent à des transitions entre deux niveaux d'énergie électronique des molécules. Un phénomène de résonance se produit et un transfert d'énergie en découle entre les deux chromophores.

Distributions de probabilités quantiques négatives

Or, si le processus était purement classique, les mouvements et les positions des atomes dans les chromophores seraient toujours décrits par des distributions de probabilités positives. Alexandra Olaya-Castro et Edward O'Reilly ont découvert qu'il fallait employer des distributions négatives. C'est une signature indiscutable de l'occurrence de processus quantiques. Mieux, il s'agit dans le cas présent de la manifestation d'une superposition d'états quantiques à température ambiante assistant un transfert cohérent d'énergie.

111

On retrouve ces vibrations collectives de macromolécules dans d'autres processus biologiques comme le transfert d'électrons dans les centres de réaction des systèmes photosynthétiques, le changement de structure d'un chromophore lors de l'absorption de photons (comme dans les phénomènes associés à la vision). Selon les chercheurs, il est donc plausible que des phénomènes quantiques assistant des processus biologiques que l'on croyait classiques soient assez répandus. Si tel est le cas, on peut s'attendre à découvrir d'autres manifestations hautement non triviales de la mécanique quantique en biologie.

Cela n'aurait certainement pas surpris Werner Heisenberg, et encore moins Niels Bohr qui, il y a déjà plus de 60 ans, prédisaient que l'on pourrait bien rencontrer des limites de la physique classique avec les systèmes vivants.

112

La bacterie quantique

113

I. La première bactérie quantique

des chercheurs sont parvenus à faire entrer une bactérie dans un état quantique, alors que cette physique est a priori réservée à la matière inerte et microscopique. Autant dire que le chat de Schrödinger devient possible !

Des physiciens ont créé une particule vivante ! Une lumière biologique ! Un nouvel état hybride, mi-organique, mi-ondulatoire, à la fois structuré et évaporé… vivant et quantique ! Autant dire qu'il s'agit d'un exploit. Lequel a été réalisé dans un laboratoire de l'université de Sheffield, en Angleterre. C'est là qu'une équipe de chercheurs est parvenue à forcer une bactérie à adopter un état physique qui n'était jusqu'ici réservé qu'à la matière inerte microscopique.

La preuve de l'intrication du vivant

article (32)

Enfermées dans une cavité, des bactéries Chlorobaculum tepidum ont interrompu la transmission d'un faisceau de lumière. Ce faisceau aurait dû s'échapper linéairement (carrés gris)… Or il s'est éteint pile à 750 nm, soit la longueur d'onde caractéristique d'une intrication quantique entre les antennes des bactéries et les particules de lumière (ronds rouges). Preuve que durant un instant, les bactéries sont devenues quantiques

Chlorobaculum tepidum - c'est le nom de cette bactérie - fait d'ordinaire peu parler d'elle tant elle affectionne les profondeurs de la mer Noire. Mais David Coles, le maître d'œuvre de cette expérience singulière, en a fait une star de la physique. "Nous avons eul'idée de placer quelques centaines de bactéries dans une microcavité optique", raconte le chercheur. Ce dispositif consiste en une paire de minuscules miroirs sans tain qui se font face et réfléchissent continûment la lumière, tels d'infatigables joueurs de ping-pong.

Nos chercheurs ont donc piégé des particules de lumière dans leur cavité. Les photons se sont alors figés sous la forme d'ondes stationnaires - à l'image d'une vague immobile à la surface d'un liquide piégé entre deux parois d'un récipient qui oscille légèrement. Et - c'est là l'extraordinaire - les bactéries se sont mises à pulser au rythme de l'onde lumineuse ! Durant

114

une fraction de seconde, le vivant a fait corps avec la lumière pour devenir quantique : impossible, tout à coup, de distinguer la bactérie de la lumière ! "Nous avons obtenu la preuve expérimentale et théorique que plusieurs bactéries se sont intriquées avec la lumière et se sont comportées comme des objets quantiques", s'enthousiasme la physicienne Chiara Marletto, de l'université d'Oxford, qui a participé à l'interprétation de l'expérience.

Ainsi l'intrépide bactérie est-elle devenue l'exemple bien vivant que les lois de la physique quantique peuvent non seulement excéder l'échelle de l'infiniment petit, puisqu'on atteint ici la taille du micromètre, mais aussi s'inviter au cœur de la biologie. Au panthéon des êtres vivants emblématiques de la frontière "classique-quantique", voilà que Chlorobaculum tepidum est sur le point de détrôner Felis silvestris catus - autrement dit, le chat.

Car depuis le fondement de la physique quantique, dans les années 1920, les physiciens s'interrogent. Pourquoi les lois qui régissent le comportement des particules - photons, électrons, atomes - sont-elles si différentes de celles qui apparaissent à notre échelle? Pourquoi les grains élémentaires de toute matière et de toute lumière sont-ils capables de se trouver, en même temps, dans plusieurs positions ou plusieurs vitesses, chose impossible pour nous-mêmes comme pour les objets macroscopiques qui nous entourent? Un paradoxe incarné par l'emblématique histoire du chat dans une boîte racontée en 1935 par l'un des pères de la mécanique quantique, Erwin Schrödinger. II. Mon hypothèse 1 : la mutation des génes bactérienne

La mécanique quantique est un des piliers de la science contemporaine et qui ne manqueras pas de révolutionner d‟autres domaines, notamment la biologie. On ne pourra plus parler de médecine sans évoquer les effets de l‟intrication quantique sur les particules ainsi que l‟effet tunnel. Ce dernier étant la propriété que possède un objet quantique de franchir une barrière de potentiel ême si son énergie est inférieure à l‟énergie minimale requise. L‟intrication quantique est, par ailleurs, un phénomène qui lie intimement les propriétés de deux particules, quelque soit la distance qui les sépare, induisant des effets jugés inexplicables par Albert Einstein. Le débat fut tranché en 1982 par les expériences d'Alain Aspect à l‟institut d‟optique, prouvant la réalité physique de l‟intrication quantique sur des

115

photons. http://feynman.phy.ulaval.ca/marleau/pp/03epr/epr_3/epr_3.html Ayant fait des études en biologie médicale, j‟ai la conviction que l‟accroissement de la résistance bactérienne aux antibiotiques n‟est pas un fruit du hasard mais une conséquence fort probablement due aux mutations par un mécanisme quantique. Avec le soutien du Pr. Ibrahim Azzedine et au sein de son laboratoire de biotechnologie à Rabat, j‟envisage de mener une série d‟expériences dans le but de démontrer que la mutation génétique des bactéries n‟est autre qu‟une sorte de communication entre elles par un effet quantique dit intrication quantique. Pour terminer, si mon expérience s‟avère concluante, ce sera un pas de plus pour la biologie médicale et pour le traitement de plusieurs maladies bactériennes. L'application de l'hypothèse

"Vers une nouvelle génération des antibiotiques qui mettrais terme à la résistance?" La physique quantique est la révolution de la science contemporaine, cette branche de la physique décrivant le comportement des objets microscopiques finirait surement par expliquer des phénomènes biologiques inexplicables auparavant. Je vous expose alors quelques-uns La dualité onde-particule Tout a débuté avec la découverte de la nature onde-particule des photons, des expériences l'ont affirmé. Aussi, c'est le sas pour les électrons, mais quand 2013, Markus Arndt démontre que la nature de la molécule est aussi onde-particule. Ils nous était obligatoire de revoir notre conception de la matière.

L'intrication quantique

L‟enchevêtrement quantique des particules dites intriquées lorsque leurs états sont liés, qu‟elles soient éloignées dans l'espace, elles forment un système indépendant de la distance qui les séparent.

La médecine du futur?

en me basant sur les recherches effectuées par plusieurs chercheurs, notamment celle

116

publié en 2019 par l'université Sheffield en Angleterre "la première bactérie quantique" , et la mystérieuse expérience du biologiste Luc Montagnier au sujet de la téléportation D‟ADN , je me suis consacré à faire des expériences dans le domaine de la biologie quantique. Avec le soutien du Dr Ibrahimi Azzedine, je mène des expériences afin de prouver mon hypothèse, à savoir: Le mécanisme de mutation bactérienne et son pouvoir à développer une résistance aux antibiotiques est due à une communication des bactéries entre elle d'une manière quantique.

Les expériences Objectif: des expériences sur la découverte de la communicatio bactérienne d'une manière quantique. L'expérience : Deux milieux de culture des bactéries Dans le milieu 1 : à chaque jour une dose d'antibiotique de plus en plus forte, aprés 10jours, les bactéries devient résistant. Les bactérie dans le milieu 2 restent cultivé normallement. La première étape: Tester si les bactéries de milieu 2 sous un contact indirect (mettre les deux milieux de cultures dans une distance trés proche pendant 15 jours) developpent elles une résistance ? La deuxième étape : Le meme protocole d'expérience précedant, on ajoutans un facteur qui favorise la transmission des ondes électromagnétique, de milieu 1 vers le milieu 2. L'expérience dans l'obscurité total. La troisième étape ; La filtration de milieu 1 afin de ne rester que de l'eau. On ajoute l'eau dans le milieu 2. Etudier le pouvoir de résistance des bactéries de milieu2.

117

Le champ magnetique et la biologie

118

I. La membrane cellulaire : le cerveau de la cellule

En 1977, alors qu‟il était chercheur en génétique, Bruce Lipton a publié un document intitulé « La conscience des cellules ». Dans cet article, il décrit en détail le comportement des cellules dans leur environnement. Au cours d‟expériences menées en laboratoire, Bruce Lipton découvrait que l‟idée largement répandue selon laquelle les fonctions biologiques sont régies par les gènes était non seulement erronée mais complètement fausse. Ses expériences lui ont permis de comprendre les mécanismes gouvernant les cellules et leurs réactions aux stimuli extérieurs.

Croyances généralement admises et fausses hypothèses

Depuis qu‟on a réussi à déchiffrer le code génétique, au début des années 1950, les biologistes ont privilégié le concept de « déterminisme génétique », l‟une des fausses hypothèses les mieux ancrées et selon laquelle les gènes gouverneraient les fonctions biologiques. Dans les faits, quasiment tous les gènes sont contenus dans le plus grand organelle qu‟est le noyau (ou nucléus). On considère généralement le noyau comme le « centre de commande » d‟une cellule. Le noyau serait donc l‟équivalent du « cerveau » cellulaire. Ainsi, le déterminisme génétique laisse entendre que la vie et le destin de tout organisme sont inscrits dans son code génétique, et sont donc « prédéterminés ».

La notion de prédisposition génétique d‟un organisme fait consensus en biologie classique et sert de référence dans toute question de santé et de maladie. Selon cette logique, la sensibilité à certaines maladies ou l‟expression de certains comportements irrationnels sont généralement liées à l‟hérédité et sont même parfois associées à des mutations spontanées. Dans le même ordre d‟idées, la conscience et l‟esprit humains sont perçus par la majorité des scientifiques comme étant « encodés » dans les molécules du système nerveux.

119

Fausse interprétation du rôle des gènes et de l’ADN

La primauté de l‟ADN comme élément gouvernant l‟évolution et le comportement biologiques repose sur une hypothèse sans fondement. Dans un article(34). Nijhout décrit comment les concepts de « contrôle » et de « programme » génétiques ont été initialement imaginés comme des métaphores visant à définir des pistes de recherche en génétique. Cette hypothèse convaincante s‟est largement répandue au cours des 50 dernières années, si bien que la « métaphore du modèle » a abouti en « mécanisme avéré » et ce, malgré l‟absence d‟éléments de preuve. Puisque cette hypothèse accorde au programme génétique un rôle de premier plan dans la hiérarchie biologique, les gènes ont ainsi acquis le statut d‟agent causal, gouvernant les manifestations et le comportement biologiques (les gènes seraient responsables du cancer, de l‟alcoolisme, voire des comportements criminels).

La réalité et les expériences en laboratoire

L‟hypothèse selon laquelle le noyau et les gènes d‟une cellule constituent son « cerveau » ne tient pas la route. Chez un animal dont on retirerait le cerveau, la perturbation de l‟intégration physiologique entraînerait immédiatement la mort. De même, si le noyau constituait le véritable cerveau cellulaire, son excision provoquerait l‟arrêt des fonctions de la cellule et sa mort instantanée. Or les cellules énuclées en laboratoire peuvent survivre sans leurs gènes pendant deux mois ou plus et sont même capables de réagir correctement aux stimuli de leurs milieux interne et externe (35). Ici donc, en toute logique, le noyau ne peut être considéré comme le cerveau de la cellule ! En menant des études sur des cellules humaines clonées, Bruce Lipton a pu constater que c‟est l‟enveloppe de la cellule (ou plasmalemme), plus communément appelée membrane cellulaire, qui lui servait en fait de « cerveau ».

La membrane cellulaire, premier organelle biologique apparu dans l‟évolution, est en réalité le seul organelle biologique commun à tous les organismes vivants. La membrane cellulaire compartimente le cytoplasme, l‟isolant de l‟influence du milieu externe. Par son effet de barrière, la membrane peut maintenir un « contrôle » rigoureux sur l‟environnement cytoplasmique et permet à la cellule de vaquer à ses réactions biologiques. Or, la membrane cellulaire est si mince qu‟on ne peut l‟observer qu‟à l‟aide d‟un microscope 120

électronique. C‟est pourquoi son existence et la compréhension de sa structure ne furent clairement établies qu‟aux environs de 1950.

La membrane cellulaire (plasmalemme) et les signaux de nature "vibrations"

Pendant la plupart des 50 années précédentes, on avait perçu la membrane comme une simple peau semi-perméable et « passive », une sorte de pellicule moulante poreuse qui ne servait qu‟à contenir le cytoplasme. Sous le microscope électronique, la membrane cellulaire ressemble à une « peau » (<10 nanomètres) constituée de trois couches (noir, blanc, noir) enveloppant la cellule. La simplicité fondamentale de la structure de cette membrane, qui d‟ailleurs est identique chez tous les organismes biologiques, a longtemps trompé les biologistes.

L‟apparence multicouche de la membrane reflète l‟organisation des phospholipides qui la composent. Ces molécules en forme de sucettes sont constituées de deux parties, une partie phosphate, globulaire et polaire, soit la tête et deux parties lipides, allongées et non polaires, soit les jambes . Lorsqu‟ils sont agités dans une solution, les phospholipides se stabilisent en une double couche cristalline.

Les bâtons lipides qui constituent le corps de la membrane forment en fait une barrière hydrophobe séparant le cytoplasme de son milieu externe instable. Si le cytoplasme maintient son intégrité grâce à la barrière passive que forment les lipides, les processus biologiques requièrent pour leur part un continuel échange de métabolites et d‟information entre le cytoplasme et son milieu environnant. C‟est pourquoi les activités physiologiques du plasmalemme sont coordonnées par lesprotéines de la membrane.

Chacune des quelque 100 000 protéines différentes du corps humain est constituée d‟une chaîne linéaire d‟acides aminés. Cette « chaîne » est assemblée à partir d‟une combinaison de vingt différents acides aminés Chaque protéine possède une structure et une fonction qui lui sont propres et qui sont définies par la séquence des acides aminés composant sa chaîne. La chaîne d‟acides aminés ressemble à un collier de perles qui se replie sur lui- même en globe tridimensionnel de forme unique. La morphologie finale de cette protéine reflète l‟équilibre des charges électriques réparties parmi ses acides aminés.

121

La morphologie tridimensionnelle d‟une protéine donne à sa surface une texture de sillons et de crêtes de formes particulières. Les molécules et les ions de formes et de charges électriques complémentaires à la surface s‟y accrocheront et y seront parfaitement verrouillés. Cette liaison modifiera la distribution des charges électriques de la protéine. En réponse à ce changement, la chaîne d‟acides aminés de la protéine se dépliera spontanément pour rééquilibrer la distribution de ses charges électriques,ce qui fera changer la forme de la protéine. Le passage d‟une forme à l‟autre insuffle à la protéine un mouvement qui lui permet d‟accomplir ses fonctions physiologiques.Le travail ainsi généré par le mouvement de la protéine est donc nécessaire à la « vie ».

Des vingt acides aminés constituant la chaîne de la protéine, certains sont non polarisés (hydrophobes, huileux) et d‟autres sont polarisés (hydrophiles, aqueux). La partie hydrophobe des protéines recherche la stabilité en s‟insérant dans le centre lipide de la membrane. La partie polarisée, pour sa part, s‟étend sur les surfaces aqueuses de la membrane. Les protéines enchâssées dans la membrane sont appelées protéines membranaires intrinsèques (PMI).

Les PMI peuvent se subdiviser en deux classes selon leur fonction : les protéines réceptrices et les protéines effectrices. Les PMI réceptrices sont des dispositifs d‟entréequi répondent aux signaux du milieu environnant. Les PMI effectrices sont des dispositifs de sortie qui activent les procédés internes de la cellule. De plus, il y a dans le cytoplasme, sous la membrane, une famille de protéines processeurs qui servent de médiateurs entre le travail des protéines réceptrices et celui des protéines effectrices.

Les protéines réceptrices agissent comme des « antennes » syntonisées pour lire les signaux de l‟environnement. Certains d‟entre elles sont tournées vers l‟intérieur de la membrane pour surveiller et transmettre les conditions du cytoplasme. D‟autres s‟étendent vers l‟extérieur de la surface pour surveiller et transmettre les conditions du milieu externe.

Selon la science biomédicale classique, « l‟information » peut uniquement être transportée par la substance des molécules (36). Ainsi, les protéines réceptrices ne reconnaîtraient que les « signaux » qui sont physiquement complémentaires à leur surface. Cette croyance matérialiste persiste, même s‟il a été amplement démontré que les protéines réceptrices peuvent capter les vibrations de différentes fréquences. En effet, par un 122

procédé de couplage électro-adaptatif (electro-conformational coupling), la vibration d‟un champ énergétique en résonance avec une protéine peut en changer l‟équilibre des charges électriques (37). En fonction des harmoniques émises par un champ énergétique, les protéines réceptrices changeront de conformation. Ainsi, les protéines réceptrices de la membrane répondent à la fois aux signaux électriques et mécaniques du milieu environnant.

Lorsqu‟une protéine réceptrice reçoit un signal, elle adopte une conformation active qui informe la cellule de la présence d‟un signal. Ce changement de conformation correspond à une « prise de conscience » au niveau cellulaire. Dans sa conformation « active », une protéine réceptrice qui reçoit un signal peut se lier à une protéine effectrice douée d‟une fonction spécifique ou à une protéine processeur. Lorsque le signal cesse, la protéine réceptrice revient à sa conformation « inactive » initiale et se détache des autres protéines.

La famille des protéines effectrices, qui agissent comme des dispositifs « de sortie », se divise en trois catégories : la protéine transporteur, l‟enzyme et la protéine du cytosquelette.

Les protéines transporteurs, qui comprennent une grande famille de protéines canaux, servent à transporter les molécules et l‟information de part et d‟autre de la barrière membranaire. Les enzymes sont responsables de synthétiser et de briser les molécules. Les protéines du cytosquelette règlent la forme et la motilité ces cellules.

La protéine effectrice adopte en général deux conformations : une forme active, dans laquelle elle exécute une fonction spécifique; et une forme inactive, dans laquelle elle est au repos. Par exemple, lorsqu‟une protéine canal adopte une forme active, le canal s‟ouvre et laisse des ions et des molécules spécifiques traverser la barrière membranaire. En revenant à sa forme inactive, la protéine se replie, ce qui referme le canal et interrompt le courant d‟ions et de molécules.

En rassemblant tous ces éléments, il est possible de comprendre la façon dont le « cerveau » de la cellule traite l‟information et génère un comportement. Les innombrables signaux moléculaires et radiants qui peuplent le milieu environnant d‟une cellule constituent une véritable cacophonie d‟information. Un peu à la manière de la « transformée de Fourier », chaque récepteur de surface détecte l‟apparente cacophonie extérieure, en filtre certaines

123

fréquences et les convertit en langage comportemental. La détection d‟un signal syntonisé provoque chez la protéine réceptrice un changement de conformation du cytoplasme. Ce changement de conformation lui permet de se lier à une protéine effectrice particulière. La liaison avec la protéine réceptrice provoque à son tour un changement de forme dans la protéine effectrice. Une fois activée, cette protéine peut ouvrir la voie des enzymes, provoquer la réorganisation structurelle et la motilité, ou activer le transport d‟ions et de signaux électriques pulsés de manière distinctive au travers de la membrane.

Les protéines processeurs servent de « multiplexeurs », dans ce sens qu‟elles peuvent augmenter la polyvalence du système de signalisation. Elles servent d‟interface entre les protéines réceptrices et effectrices .Le couplage « programmé » des protéines processeurs peut lier certaines entrées à certaines sorties.Les protéines processeurs permettent un grand répertoire de comportements à partir d‟un nombre limité de PMI. Les PMI effectrices convertissent en comportements les signaux externes captés par les PMI réceptrices. Les fonctions de sortie de certaines protéines effectrices peuvent susciter l‟éventail complet d‟un comportement donné. Or dans la plupart des cas, la fonction de sortie des PMI effectrices ne sert que de signal secondaire, qui pénètre dans la cellule pour activer le comportement d‟autres voies cytoplasmiques. Les protéines effectrices activées agissent également comme des facteurs de transcription, des signaux qui influencent l‟expression des gènes. Le comportement d‟une cellule est régi par la combinaison des actions résultant du couplage de ses PMI réceptrices et effectrices. Les protéines réceptrices fournissent la « conscience du milieu environnant » et les protéines effectrices convertissent cette connaissance en « sensation physique ». Plus strictement défini, le complexe récepteur- effecteur constitue l‟unité fondamentale de la perception. Les protéines formant les unités de perception sont à la base de la conscience biologique. On peut donc en déduire que les perceptions « régissent » le comportement des cellules, mais dans les faits, la cellule est « gouvernée » par ses croyances, puisque ses perceptions ne sont pas nécessairement exactes. La membrane cellulaire est donc un processeur d‟information biologique. Elle sonde son milieu environnant et convertit cette connaissance en « information » qui influence l‟activité des voies protéiques et l‟expression des gènes. 124

Sa structure et son fonctionnement peuvent être décrits de la manière suivante : L‟organisation des molécules phospholipides dans la membrane en fait un cristal liquide; le transport d‟information au travers de la barrière hydrophobe par les PMI effectrices en fait un semi-conducteur; la membrane est dotée de PMI lui servant de barrières (récepteurs) et de canaux. En tant que cristal liquide semi-conducteur doté de barrières et de canaux, la membrane est un transistor processeur d‟information, ou l‟équivalent biologique de la puce électronique. Chaque complexe récepteur-effecteur représente un bit biologique, ou une unité de perception. Cette hypothèse fut présentée pour la première fois en 1986 (38) et depuis, le concept a été vérifié et s‟est avéré techniquement possible. Cornell et d‟autres chercheurs (39) ont réussi à lier une membrane à une feuille d‟or utilisée comme substrat. En contrôlant les électrolytes entre la membrane et la feuille, ils sont parvenus à contrôler numériquement l‟ouverture et la fermeture du canal activé par le récepteur. La cellule et la puce ont donc des structures analogues.

La cellule peut être assimilée à une « puce » de carbone qui analyse le milieu environnant. Son « clavier » est composé de récepteurs. L‟information sur le milieu est saisie par l‟intermédiaire des protéines, les « touches ». Les données sont converties en comportements biologiques par les protéines effectrices. Les « bits » des PMI servent d‟interrupteurs et règlent les fonctions cellulaires et l‟expression des gènes. Le noyau de la cellule représente le « disque dur » avec un logiciel d‟encodage de l‟ADN. De récents progrès en biologie moléculaire ont également fait ressortir l‟aspect lecture/écriture de ce disque dur.

Il est intéressant de noter que l‟épaisseur de la membrane (7,5 nanomètres) est déterminée par sa double couche phospholipide. Si les PMI d‟une membrane font de 6 à 8 nanomètres de diamètre, la membrane ne peut en contenir qu‟une seule couche d‟épaisseur. Comme les PMI ne peuvent s‟empiler les unes sur les autres, la seule façon d‟augmenter le nombre de ces unités de perception est d‟augmenter la superficie de la membrane. À la lumière de ce qui précède, on pourrait en fait modéliser l‟évolution ou l‟expansion de la perception (à savoir, l‟ajout de PMI) en utilisant la géométrie fractale. On peut d‟ailleurs observer la nature fractale de la biologie dans les répétitions structurelles et

125

fonctionnelles inhérentes à l‟organisation d‟une cellule, d‟un organisme multicellulaire (l‟humain) et d‟une communauté d‟organismes multicellulaires (la société humaine).

Cette nouvelle compréhension des mécanismes de contrôle cellulaire nous libère des contraintes du déterminisme génétique. Plutôt que d‟être génétiquement programmé, le comportement biologique est en fait dynamiquement lié à l‟environnement.

Au niveau du nanomètre, le mode de fonctionnement des protéines de perception, avec leur mécanisme de traitement d‟information, met clairement en évidence la nature holistique des organismes biologiques. Le comportement d‟une cellule reflète sa perception de tous les stimuli environnementaux, tant physiques qu‟énergétiques.En conséquence, la magie de la membrane cellulaire pourrait réellement nous amener au « cœur de la médecine énergétique. (40) II. L'epigénétique : Comment l’environnement influence nos gènes

Notre environnement a une influence sur notre génome par des modifications dites épigénétiques. Par exemple, avec des patrimoines génétiques identiques, deux jumeaux peuvent évoluer différemment en fonction de leurs environnements respectifs. Les individus, et par voie de conséquence leurs gènes, sont en effet soumis à de nombreux facteurs environnementaux : alimentation, maladies, médicaments et toxiques, stress, lieu & hygiène de vie, qui peuvent modifier autant leurs cellules que leur ADN. Ainsi dans les paires de jumeaux monozygotes, de grandes différences en ce qui concerne la trajectoire de vie ont été constatées. L’un pouvait développer une obésité et l’autre rester mince; l’un pouvait être sain d’esprit et l’autre développer une pathologie mentale. Quelques exemples pris chez l’animal et l’homme mettent en évidence le rôle de l’épigénétique dans la transmission de caractères acquis.

La méthylation : clé de voûte de l’épigénétique

On sait aujourd‟hui que les gènes peuvent être « allumés » ou « éteints » par plusieurs types de modifications chimiques qui ne changent pas la séquence de l‟ADN comme des méthylations de l‟ADN et des modifications des histones, ces protéines sur lesquelles

126

s‟enroule l‟ADN pour former la chromatine . Toutes ces modifications constituent autant de « marques épigénétiques » regroupées sous le terme d‟épigénome (Figures 1 & 2). Les modifications épigénétiques sont induites par l‟environnement au sens large : la cellule reçoit en permanence toutes sortes de signaux l‟informant sur son environnement, de manière à ce qu‟elle se spécialise au cours du développement, ou ajuste son activité à la situation. Ces signaux, y compris ceux liés à nos comportements (alimentation, tabagisme, stress…), peuvent conduire à des modifications dans l‟expression de nos gènes, sans affecter leur séquence. Le phénomène peut être transitoire, mais il existe des modifications épigénétiques pérennes, qui persistent lorsque le signal qui les a induites disparaît. Contrairement aux mutations génétiques qui sont irréversibles, le « marquage » épigénétique peut changer. Un simple changement d‟environnement peut modifier le fonctionnement des gènes dont nous héritons à la naissance, et donc de notre « phénotype »(41)

Figure 25: Les modifications sont matérialisées par des marques biochimiques, apposées par des enzymes spécialisées (Dnmt ou DNA méthyltransférases) sur l’ADN ou sur des protéines qui le structurent, les histones (cf. plus loin).

Les marques les mieux caractérisées sont les groupements méthyle (CH3 : un atome de carbone et trois d‟hydrogène) apposés sur l‟ADN, ainsi que diverses modifications chimiques des histones (méthylation, acétylation…). Ces petits groupements « méthyl » suffisent à modifier l‟organisation spatiale de l‟ADN et empêche ainsi l‟expression de certains gènes. L‟effet est réversible (action de déméthylases)

Par ailleurs, il existe une autre échelle dans les processus épigénétiques puisqu‟il existe un ensemble d‟éléments régulateurs des processus épigénétiques eux-mêmes.Ce sont soit des 127

structures régulatrices insérées dans la séquence d‟ADN parfois à grande distance des gènes, soit des petites molécules mobiles appelées micro ARN (miRNA) ou les petits ARN interférents qui sont impliqués dans de nombreux processus chez les eucaryotes (exemple élimination de la méthylation, assemblage de la chromatine, et répression de la formation des protéines qui sont activés dans les réponses immédiates au stress). Beaucoup plus petits que les ARN messagers, ces miRNA empêchent ces derniers de véhiculer leur message, en les neutralisant ou les détruisant.

Figure 26: Modification biochimique des histones avec changement de la structure de la chromatine sous l’effet de la méthylation.

En d‟autres termes, si le chromosome est la bande magnétique d‟une cassette et que chaque gène correspond à une piste enregistrée sur la bande, les modifications épigénétiques sont des morceaux de ruban adhésif repositionnables qui vont masquer ou démasquer certaines pistes, les rendant illisibles ou lisibles. Au sujet des modifications qui masquent, on parle d‟agents méthylants, responsables de la méthylation de l‟ADN et des histones (cf plus haut). A l‟inverse, d‟autres molécules ont pour effet de stimuler l‟expression des gènes. Il s‟agit des « groupes acétyles» et l‟on parle dans ce cas d‟agents acétylants et d‟acétylation des histones.

128

Quelles conséquences dans le règne animal ?

Généralités

Certaines marques épigénétiques sont susceptibles de passer à la descendance. La transmission intergénérationnelle de marques matérialisées par la méthylation de l‟ADN est très documentée chez les plantes. Chez les mammifères, l‟étude du phénomène est beaucoup plus complexe et fait encore l‟objet de controverses. Dans ce paragraphe et par le biais de quelques exemples pris chez l‟animal (souris Agouti, yeux rouges de la drosophile et les expériences d‟adoption croisée chez le rat), nous observons l‟épigénétique en tant que domaine étudiant l‟influence de l‟environnement et de l‟histoire individuelle sur l‟expression des gènes.

Modèle de la souris Agouti

Figure 27: La couleur du pelage dépend de l’état de méthylation d’une petite séquence dans le gène Avy présente à proximité du gène responsable de la couleur : à l’état méthylé, le gène agouti est réprimé, la couleur sera brune, mais à l’état déméthylé, le gène sera actif et la couleur, jaune. Plusieurs versions de ce gène Agouti existent, ce qui conduit à des couleurs de pelage différentes, en modifiant le niveau et le type de pigment de la fourrure.

129

Il a fallu attendre la fin du XXe siècle pour découvrir un type de souris qui permet aux scientifiques à mettre en évidence les connexions complexes qui lient l‟alimentation à l‟épigénétique. Parmi les nombreux gènes qui contribuent à la couleur du pelage chez la souris, l‟un d‟entre eux se nomme « Agouti ». La version la plus intéressante du gène Agouti est connue sous le nom de « Agouti viable yellow » ou Avy (figure 3). Si le gène Avy présente peu ou pas de méthylation, il est alors actif dans toutes les cellules, et les souris sont jaunes. Ces souris jaunes présentent une susceptibilité à l‟apparition de pathologies comme l‟obésité, le diabète ou certains cancers. Mais si Avy est hyperméthylé, son expression « s‟éteint », ce qui implique que la souris présente une couleur brune, et n‟a aucun problème de santé, même si elle possède exactement le même gène Agouti que les souris jaunes. Entre ces deux extrêmes, Avy peut être méthylé à différents degrés, ce qui affecte le niveau d‟activité du gène (42). Il en résulte un beau dégradé de souris tachetées, chez lesquelles l‟activité du gène Avy diffère même d‟une cellule à une autre. Une même portée génétiquement identique varie en couleur selon ce spectre, en raison de variations épigénétiques établies dans l‟utérus. De plus, indépendamment de la couleur du pelage, cela met en évidence les effets du régime alimentaire sur la méthylation.

Randy Jirtle, un chercheur américain a réussi une expérience remarquable avec ces souris porteuses du gène Agouti. En les nourrissant avec des vitamines B, il n‟a pas « soigné » ces souris génétiquement malades, mais l‟effet bénéfique s‟est manifesté sur la descendance (43) En d‟autres termes, les descendants de souris porteuses du gène Agouti nourries avec des vitamines B ne sont plus malades ni même beiges (le gène Agouti est toujours là, mais il n‟est plus exprimé), alors que les descendants de celles qui n‟ont pas reçu de vitamines B restent malades de génération en génération !

Les drosophiles et les yeux rouges

130

Figure 28: Portrait de JB Lamarck (1744 –1829)

Les drosophiles sont des insectes communément utilisés au laboratoire. Leur génome est relativement simple à comprendre et du coup, elles sont les « stars » de la recherche génétique…En avril 2009, le Dr Renato Paro, de l‟Université de Bâle, a annoncé une nouvelle découverte formidable les concernant : si un œuf de drosophile est chauffé à 37° degrés avant éclosion, la mouche a les yeux rouges. Sinon, elle a les yeux blancs…. Mieux ! Le caractère « yeux rouges » est passé de génération en génération. Il s‟agit donc d‟une caractéristique acquise par l‟influence d‟un facteur externe (la température) qui devient héréditaire (44).

Ces études chez l‟animal, comme les études suivantes, semblent soutenir la théorie scientifique que représente le Lamarckisme. Selon sa célèbre publication – l‟« Influence des circonstances » – publiée en 1809-1810 (45), Lamarck soutient l‟idée que des changements physiques acquis au cours de la vie d‟un individu pourraient être transmis à sa descendance (46). Cependant chez l‟homme nous n‟avons pas de preuve de la persistance de ces effets épigénétiques au-delà de quelques générations. Ces résultats ne remettent donc pas réellement en cause la conception Darwinienne de l‟évolution à long terme des espèces par l‟action de la sélection naturelle sur les variations héréditaires fortuites. (lire Théorie de l‟évolution : incompréhensions et résistances & Adaptation : répondre aux défis de l‟environnement).

131

Le maternage chez la souris : au-delà de l’utérus

De simples caresses auraient-elles aussi le pouvoir d‟influencer les gènes ? Chez le rat, le léchage remplit la même fonction que la caresse chez l‟humain. Or des études montrent que les bébés rats souvent léchés par leur mère sont plus calmes. Mais à l‟Université Mc Gill de Montréal, l‟équipe du Pr Michael Meaney (Canada) est allée beaucoup plus loin en révélant des empreintes de ces soins maternels jusque dans cerveau des jeunes rats, au niveau de l‟hippocampe (47).

En fait c‟est bien le « léchage » qui influence l‟activité d‟un gène prémunissant les rats contre le stress. Ce gène, appelé NRC31, produit une protéine (récepteur aux glucocorticoïdes GC) qui contribue à diminuer la concentration d‟hormones de stress (cortisol) dans l‟organisme (48) . Il faut cependant activer une portion bien précise de ce gène, grâce à l‟interrupteur épigénétique que représente la méthylation de l‟ADN. L‟analyse des cerveaux de rats qui n‟ont pas reçu assez d‟affection par léchage l‟a démontré : l‟interrupteur lié au gène NRC31 (gène codant pour le récepteur aux glucocorticoïdes) était défectueux (gène ayant subi la méthylation, donc inactif) dans les neurones de l‟hippocampe des rats (zone au niveau cérébral qui intègre les stress ambiants). En conséquence, la quantité d‟hormones du stress (cortisol) augmente au niveau du sang et donc, même en l‟absence d‟éléments perturbateurs, ils vivent dans un état de stress constant.

132

Figure 29: Expérience de Weaver et al. Démontrant la programmation comportementale du statut épigénétique en fonction du comportement maternel.

Figure 30: Le comportement maternel de léchage, toilettage et allaitement chez la ratte va moduler en fonction de son intensité la régulation épigénétique du locus du récepteur aux glucocorticoïdes chez les petits.

Des différences stables du comportement maternel durant la première semaine de vie qui est une période critique pour le développement du système nerveux, vont induire des phénotypes différents chez les petits au niveau de la réponse au stress.

133

Impact de l’alimentation sur nos gènes

Figure 31: Durant la famine hollandaise, les habitants mangeaient en moyenne 500 calories par jour (soit environ un quart du minimum nécessaire à un être humain).

Afin de montrer le lien entre épigénétique et régime alimentaire, notamment chez l‟homme, il faut remonter à l‟histoire de la « famine hollandaise de 1944 » (dutch hunger famine). Elle offre en effet aux scientifiques une sorte de laboratoire grandeur nature pour tester ces hypothèses. Pendant l‟hiver 1944-1945, l‟ouest des Pays-Bas a été affamé suite à un blocus décrété par l‟Allemagne nazie(49).

Les études ont montré que les enfants de femmes enceintes exposées à cette famine étaient atteints de pathologies telles que le diabète, l‟obésité, des maladies cardiovasculaires, la microalbuminurie (albumine dans les urines), etc. Par ailleurs, ils étaient plus petits que la normale. Devenus adultes, ils on ensuite eu eux aussi des enfants plus petits que la moyenne ! (50).

Ces données suggèrent que la famine vécue par les mères avait provoqué des modifications épigénétiques transmise aux générations suivantes. Leur patrimoine génétique avait gardé la trace de cet événement; de quoi accréditer la théorie selon laquelle la santé d‟un individu est en partie programmée par l‟environnement auquel le fœtus est exposé 134

dans l‟utérus. Nous savons aujourd‟hui que ces effets sur la taille proviennent de changements au niveau de marqueurs épigénétiques présents sur leur ADN, liés aux carences en certaines molécules cruciales dans l‟alimentation des grand-mères hollandaises de cette période. En effet, afin de maintenir fidèlement un bon niveau de méthylation au cours des divisions cellulaires, de nouveaux groupements méthyl doivent être ajoutés sur l‟ADN nouvellement copié. Or cet apport constant en groupements méthyl provient directement de notre nourriture à partir d’acides aminés et de vitamines (ex méthionine, bétaïne ou choline). Par ailleurs, nous pouvons aussi fabriquer des groupements « méthyl » à partir de précurseurs chimiques comme l‟acide folique.

Mais en 2008, des chercheurs ont encore plus clairement élucidé ces modifications épigénétiques (51): les individus ayant vécu connu la famine in utero ont moins de groupes méthyles attachés au gène qui commande la fabrication d‟un facteur de croissance, l‟IGF-2 (insulin-likegrowth factor-2). D‟autres éléments chimiques provenant de notre nourriture sont également nécessaires pour transporter des groupements méthyles à travers le corps et pour les attacher soigneusement à l‟ADN : zinc, vitamine B12…

Quelles leçons en tirer ?

Alors que le génome est très figé, l‟épigénome est bien plus dynamique. Les modifications épigénétiques permettraient aux individus d‟explorer rapidement une adaptation à une modification de l‟environnement, sans pour autant « graver » ce changement adaptatif dans le génome. Les enjeux de l‟épigénétique concernent non seulement la médecine et la santé publique (Lire L‟épigénétique, le génome et son environnement) mais aussi les théories sur l‟évolution (lire Théorie de l‟évolution : incompréhensions et résistances). En effet, elle jette le soupçon sur l‟environnement qui pourrait moduler l‟activité de certains de nos gènes pour modifier nos caractères, voire induire certaines maladies potentiellement transmissibles à la descendance. A l‟évidence la famine hollandaise de l‟hiver 1944-1945 démontre que des changements permanents se sont produits dans le patrimoine génétique des femmes alors enceintes, ensuite transmis de génération en génération. Cela signifierait que les traumatismes touchent également les cellules germinales (spermatozoïdes et ovules), seul lien biologique entre les générations.

135

Il est désormais largement admis que des anomalies épigénétiques contribuent au développement et à la progression de maladies humaines, en particulier de cancers. Les processus épigénétiques interviennent en effet dans la régulation de nombreux évènements tels que la division cellulaire, la différenciation (spécialisation des cellules dans un rôle particulier), la survie, la mobilité… L‟altération de ces mécanismes favorisant la transformation des cellules saines en cellules cancéreuses, toute aberration épigénétique peut être impliquée dans la cancérogenèse. Des anomalies épigénétiques activant des oncogènes (gènes dont la surexpression favorise la cancérogenèse) ou inhibant des gènes suppresseurs de tumeurs ont pu être mises en évidence. De même, des mutations affectant des gènes codant pour les enzymes responsables des marquages épigénétiques ont été identifiées dans des cellules tumorales. Reste à savoir si ces phénomènes sont la cause ou la conséquence du développement de cancer. Il semble néanmoins qu‟ils participent à la progression tumorale (évolution du cancer).

Par ailleurs, le rôle de l‟épigénétique est soupçonné et très étudié dans le développement et la progression de maladies complexes et multifactorielles, comme les maladies neurodégénératives (Alzheimer, Parkinson, sclérose latérale amyotrophique, Huntington…) ou métaboliques (obésité, diabète de type 2…). De la même manière que l‟on sait aujourd‟hui obtenir la séquence d‟un génome complet, il est aussi possible de connaître l‟ensemble des modifications épigénétiques qui le caractérise: on parle d‟épigénome. C‟est ce type d‟approche globale et non biaisée qui permettra de mieux appréhender l‟implication de l‟épigénétique dans les maladies humaines…

Et les télomérases?

En marge des processus épigénétiques abordés il y a plus de 50 ans par le biologiste britannique Conrad Waddington (1905-1975) (52) et mentionnés plus haut, il faut citer un phénomène d‟une importance cruciale, et sensible à notre environnement. Il s‟agit d‟une découverte majeure en biologie moléculaire qui a valu le prix Nobel de médecine à Elizabeth Blackburn et Carol Greider : l‟identification par ces chercheurs d‟une enzyme appelée la télomérase. Cette enzyme régule la longueur des télomères, qui sont des segments répétés d‟ADN non codant, situés à l‟extrémité de chaque chromosome (cf focus). On peut figurer ces

136

télomères comme les petits bouts de plastique qui protègent les embouts de vos lacets et qu‟on appelle « aglets ». Ces télomères forment des petits capuchons aux extrémités des chromosomes, empêchant le matériel génétique de « s‟effilocher ». Ce sont, entre autres, les aglets du vieillissement et ils ont tendance à raccourcir avec le temps. Ainsi sous l‟influence de la télomérase, les télomères peuvent cesser de se raccourcir, et même s‟allonger. Le vieillissement est donc un processus dynamique qui peut être accéléré ou ralenti. Les travaux d‟Elizabeth Blackburn et du médecin nutritionniste Dean Ornish ont clairement montré les effets des changements des modes vie sur l‟allongement de ces télomères (voir Ralentir le vieillissement : la piste de la télomérase ?(53)

En conclusion

l’importance du rôle de l’environnement dans l’hérédité épigénétique est loin d’être résolue, malgré les effets d‟annonce qui ont conduit à un regain d‟intérêt pour la thèse de Lamarck de » l‟héritabilité des caractères acquis » (voir Lamarck et Darwin : deux visions divergentes du monde vivant). L‟interrogation ultime est celle de l‟importance des processus épigénétiques dans l‟Évolution. La communauté scientifique reste très partagée et une question centrale demeure: les états épigénétiques sont-ils transmis sur un nombre suffisant de générations pour donner prise à la sélection naturelle ? « . Les médecins et les sociologues en posent une autre, qui nous intéresse à court et moyen terme: « Notre mode de vie compte t-il plus que notre hérédité? » III. Les courants induits dans le corps humain

D'après les lois fondamentales de l'électromagnétisme, lorsqu'un matériau conducteur (ex: fil de cuivre) est amené à proximité d'une source de champ magnétique, il y a apparition d'un courant électrique à l'intérieur de ce matériau conducteur.

De même, lorsqu'un courant électrique est appliqué dans un matériau conducteur, il y a apparition d'un champ magnétique autour de celui-ci.

Les différents systèmes conducteurs du corps humain

Le corps humain est constitué de cellules, qui regroupées ensembles forment des

137

organes, le système sanguin et lymphatique, le système musculaire, le système nerveux, le système glandulaire et le système osseux.

Ces différents systèmes utilisent ou produisent de l'énergie électrique (ex. les nerfs et le cerveau, les muscles et le coeur, le sang, la peau).

Les nerfs peuvent être assimilés à des fils conducteurs, de même que le sang qui contient des sels dissous.

Les sels dissous dans un liquide le rendent conducteur (ex. l'électrolyse). Il en va de même pour le sang, qui peut être assimilé à un conducteur électrique. Les os eux-mêmes produisent, et donc sont sensibles, à l'électricité (ex. effet piézo- électrique). Nous pouvons donc considérer les systèmes biologiques (humains, animaux et végétaux) comme des producteurs, et des consommateurs d'électricité.

Par conséquences, les cellules ont la capacité d'être influencées (et donc d'interpréter) les signaux issus des rayonnements électromagnétiques.

Sachant qu'un conducteur placé dans un environnement électromagnétiques va voir apparaître à l'intérieur de lui-même un courant électrique. On est en droit de penser qu'il va en être de même pour un système biologique.

Partant de ce postulat, on peut tirer les deux conclusions suivantes :

- Tout corps biologique vivant situé dans un environnement électromagnétiques va voir apparaître à l'intérieur de lui-même des courants induits correspondants aux fréquences de cet environnement.

- De même, tout corps biologique se déplaçant dans cet environnement selon une vitesse variable, va voir ces courants induits varier en intensité en fonction de sa vitesse de déplacement.

L'apparition depuis plusieurs années, de pathologies nouvelles liées à l'environnement comme les maladies neurologiques et/ou dégénératives (ex. cancer, alzheimer, etc.), nous amène à penser que notre environnement, dans lequel se trouvent de plus en plus de

138

rayonnements électromagnétiques artificiels (et de molécules chimiques nouvelles), peut créer des phénomènes de "réactions" et de "rejet" quand les seuils tolérés par les systèmes biologiques vivants sont dépassés.

La médecine officielle actuelle est malheureusement encore très loin de faire le lien entre ces pathologies dites modernes ou de civilisation et l'environnement, car ignorant ou feignant(54) IV. Le champ magnétique cardiaque: le coeur un puissant générateur d'ondes éléctromagnétique

Dans le domaine de la neurocardiologie, par exemple, les scientifiques ont découvert que le cœur possède son propre système nerveux intrinsèque, un réseau de nerfs fonctionnellement sophistiqué décrits comme le « cerveau du cœur » contenant plus de 40 000 neurones, ce petit « cerveau » donne au cœur la capacité d‟évoluer de façon indépendante, traiter l‟information, prendre des décisions, et démontre même un type d‟apprentissage et de mémoire. En substance, il semble que le cœur soit vraiment un système intelligent.

La recherche a également révélé que le cœur est une glande hormonale qui affecte profondément le cerveau et le fonctionnement du corps. Le cœur produit l‟ocytocine bien connue comme l‟hormone d‟attachement. La science a à peine commencé à comprendre les effets des champs électromagnétiques produits par le cœur, mais il est évident que l‟information contenue peut jouer un rôle vital de synchronisation dans le corps humain et que cela peut affecter les autres personnes de notre entourage.

La recherche a également montré que le cœur est une composante clé du système émotionnel. Les scientifiques savent maintenant que le cœur ne répond pas seulement à l‟émotion, mais que les signaux générés par le cœur jouent effectivement un rôle majeur dans la détermination de la qualité de nos expériences émotionnelles en temps réel.

Ces signaux du cœur impactent profondément la perception de notre environnement et les fonctions cognitives en vertu d‟un réseau de communication étendue avec le cerveau. Enfin, de rigoureuses études électrophysiologiques menées à l‟Institut HeartMath ont même

139

indiqué que le cœur semble jouer un rôle clé dans l‟intuition. Bien qu‟il y ait encore beaucoup de choses à comprendre, il semble que les associations séculaires du cœur et de la pensée, du sentiment, représentent un aperçu de tout ce qui nous reste à découvrir.

« Le cœur est le plus puissant générateur d’énergie électromagnétique dans le corps humain.

Cela signifie que le cœur a une grande influence sur les autres organes.

Le champ électrique du cœur est environ 60 fois plus important en amplitude que l’activité électrique générée par le cerveau. Pourtant le nombre de neurones dans le cœur est nettement inférieur à celui du cerveau (40.000 neurones dans le cœur contre environ 100 milliards de neurones dans le cerveau).

Le cœur a un champ d’énergie électromagnétique 5.000 fois supérieur à celui du cerveau et ce champ peut être mesuré avec un magnétomètre jusqu’à 10 pieds au-delà du corps.

Certains chercheurs supposent que le champ du cœur est un porteur important d’informations.

Les signaux électromagnétiques générés par le cœur transmettent une information qui peut être reçue par les autres personnes autour de nous. Elles peuvent les ressentir.

Lorsque les gens sont touchés ou sont à proximité, le signal des battements du cœur est enregistré dans les ondes du cerveau de l’autre personne.

L’influence d’une personne sur une autre serait donc expliquée par un phénomène physique. Le cœur exerce sur son environnement une influence que l’on ne peut négliger. »:(55)

140

V. Mon hypothèse 2 : La différenciation cellulaire

La différenciation cellulaire est un concept de biologie du développement décrivant le processus par lequel les cellule se spécialisent en un "type" cellulaire. la morphologie d'une cellule peut changer radicalement durant la différenciation ,mais le matériel génétique reste le même.

Dans des organismes multicellulaires, les cellules se spécialisent en différents types cellulaire adaptés chacun à des fonctions physiologiques particulières: c'est la spécialisation cellulaire.

Et si le cœur avait un rôle crucial dans la différenciation cellulaire? Mon hypothèse est la suivante:

Le champ magnétique généré par le cœur a un rôle bien précis dans les conformations des molécules d'ADN et des protéines, donc dans la sélection des gènes actifs ou non et dans la spécialisation des cellules par la suite.

En parlant précisément de molécules d'ADN et des protéines, cela contrôlera leur conformation.

Nous savons que dans le cœur, un courant électrique nait en un point précis du cœur appelé nœud sinusal, au sommet de l'oreillette droite, cette source est constituée d'un amas de cellules capables de fabriquer un courant électrique de quelques millivolts, le courant se propage.

Nous savons qu' "un champ électrique génère un champ magnétique", donc le courant électrique cardiaque génère un champ électromagnétique qui s'étend de deux à quatre mètres autour du corps, ce qui implique que toutes nos cellules y sont soumises mais différemment, en fonction de leur distance du centre de ce champ électromagnétique.

"En physique les champs électrique génèrent un champs magnétique, ce qu'on appelle un champ électromagnétique.

Ce champ électrique dans le cœur généra certainement un champ magnétique cardiaque (qui au niveau des cellules génère un champ électrique) qui déplacera les électrons et les 141

liaison au niveau des molécules de la cellule , et on parle précisément des molécules d'ADN et des protéines , cela contrôlera leur conformation . Cette dernière, comme nous le savons, a un rôle principal dans leur activité et dans l'activation ou non de la transcription d'un gène , donc dans la spécialisation cellulaire.

La question reste : pourquoi Si on inocule in vitro une cellule souche dans un organisme contenant des cellules spécialisées, la cellule souche se spécialisera en fonction du milieu ?

les cellules communiquent-elles entre elles ? et comment ? En physique quantique, on a démontré que les molécules d'eau mémorisent l'information, c'et à dire, les ondes électromagnétique ("mémoire de l'eau" LUC MONTAGNIER ) Les recherches d'Alexander Trachenko et Martin Stoehr prouvent que le processus de repliement de protéines plongés dans l'eau protéines plongés dans l'eau dépend des interactions entre les molécules d'eau et ces protéines qui font directement intervenir la nature ondulatoire de la matière. (28)(29) On peut dire, ainsi, que les interactions eau-protéines et eau-ADN peuvent générer une mémoire dans l'eau étant donné que les molécules sont des ondes-particules. Sachant que les cellules échangent entres elles les molécules d'eau , on peut supposer que par ce mécanisme, les cellules adjacents s'échangent l'information .ainsi, une cellule souche inoculée dans un milieu contenant des cellules spécialisées, se spécialisera en fonction de celles-ci. Les expériences prévues pour tester mon hypothèse sont simples mais nécessitent un laboratoire bien équipé, Il existe plusieurs méthodes pour observer l'effet des ondes électromagnétiques sur les cellules tout et les cellules souches ; en les mettant à des distances variables. Si cette hypothèse est prouvé, un vaste champ de recherches s'ouvrira a nous surtout en ce qui concerne la communication et les signaux ondulatoires, ainsi que de comprendre les mutations cancéreuses.

142

La moindre résultat cependant serait de trouver la nature de l'impact des ondes électromagnétiques générées par le cœur sur l'ADN et les protéines.

Exemple ; considérons le cas auquel sont confrontées des hématies qui se développent dans la moelle osseuse de l'homme. Parmi les centaines de différents type de cellules dans le corps humain, seules celle de la lignée conduisent les hématies à synthétiser de l'hémoglobine, En outre, l'hémoglobine représente plus de 95% de ses protéines , alors que les gènes qui codent polypeptides de l'hémoglobine représente moins d'un millionième de son ADN total.

Les hématies n'ont donc pas besoin que de l'activité d'une minuscule partie de leur ADN pour fonctionner et remplir leur rôle majeur.

Cependant la nature de l'os à interpréter l'effet des ondes électromagnétiques garanti sa spécialisation dans la moelle osseuse.

Sachant que chaque cellule a ses propres caractéristiques en fonction des protéines contenus, ce qui détermine sa différenciation, comment saurait-on , pourquoi les gènes "responsable" de ces protéines sont actifs (transcrit) alors que les autres ne le sont pas ? La réponse à cette question est que le contrôle de la transcription est orchestré par des facteurs spécifiques, ces facteurs de transcription de nature protéique sont certainement soumis à un régime responsable de l'activation des gènes d'ADN remontant aux premières cellules de l'embryon.

Plusieurs expériences ont démontré la capacité des facteurs de transcription à diriger les transformations phénotypiques.

Exemple : L'expérience par Shinya Yamanka et Kazutoshi Takashi en 2006.

Et nous savons que le cœur apparaît tôt au cours du développement embryonnaire : ses premières ébauches se forment dès le 20e jour de développement et ses battements seront fonctionnels au 23e jour, c'est le premier organe formé .

143

Conclusion

144

Vers une révolution da la biologie, médecine et pharmacologie?

Effet quantique, effet minuscule ? Dans les manuels de physique, la théorie quantique décrit les particules, les atomes, les molécules, bref, le monde microscopique, mais céderait le pas à la physique classique à l'échelle des poires, des gens ou des planètes. Il y aurait ainsi, quelque part entre la poire et la molécule, une frontière où prend fin l'étrangeté quantique et où commence le caractère familier des comportements décrits par la physique classique. L'idée que la théorie quantique se limite au monde microscopique est d'ailleurs très répandue dans le grand public. Elle est très souvent annoncée comme étant le cadre théorique né- cessaire pour comprendre l'Univers aux plus petites échelles, la relativité s'occupant à l'autre bout du spectre de l'Univers aux plus grandes échelles. Ce cloisonnement du monde physique est un mythe.

Peu de physiciens attribuent aujourd'hui à la physique classique le même statut qu'à la physique quantique. À leurs yeux, la physique classique n'est qu'une approximation utile dans un monde qui est quantique à toutes les échelles. La discrétion des phénomènes quantiques à notre échelle ne tient pas à la taille en soi des systèmes, mais à la façon dont ils interagissent. Depuis quinze ans, les physiciens multiplient les expériences où se manifestent à l'échelle macroscopique des effets quantiques, dont on s'aperçoit qu'ils sont bien plus présents qu'on ne le soupçonnait. Ils pourraient même jouer un rôle dans nos cellules, dans l'ADN, les récepteurs, les protéines, l'orientation des oiseaux migrateurs, la photosynthèse des plantes , la bactérie quantique...

Même les spécialistes qui consacrent leur carrière à la physique quantique doivent encore assimiler ce qu'elle dit vraiment sur la nature. Les comportements quantiques échappent au sens commun: ils nous forcent à repenser notre vision de la biologie et à en accepter une nouvelle révolution de la biologie, médecine et pharmacologie.

145

RESUMES

146

RESUME

Titre: La biologie quantique Auteur: Yassine Drider Directeur de la thèse: Professeur azeddine Ibrahimi Mots clés: physique quantique, biologie quantique, bactérie quantique, hypothèse différenciation cellulaire, magnétique cardiaque.

La physique quantique est la révolution de la science contemporaine, cette branche de la physique décrivant le comportement des objets microscopiques finirait surement par expliquer des phénomènes biologiques inexplicables auparavant. La dualité onde-particule, Tout a débuté avec la découverte de la nature onde-particule des photons, une série des expériences l'ont affirmé. Aussi, c'est le cas pour les électrons, quand Markus Arndt à 2013 a démontré que la nature de la molécule est aussi onde-particule. Ils nous était obligatoire de revoir notre conception de la matière. L'intrication quantique où L‟enchevêtrement quantique des particules dites intriquées lorsque leurs états physiques sont liés, qu‟elles soient éloignées dans l'espace, elles forment un système indépendant de la distance qui les séparent. Dans ma thèse j'ai simplifier la physique quantique, en me basant sur tous les expériences faites dés le début de la révolution, afin de faciliter la compréhension de cette révolution quantique pour les non spécialiste de la physique. En me basant sur les recherches effectuées par plusieurs chercheurs, notamment celle publié en 2019 par l'université Sheffield en Angleterre, et la mystérieuse expérience du biologiste Luc Montagnier au sujet de la téléportation D‟ADN, je me suis consacré à faire des hypothèses dans le domaine de la biologie quantique. Mon première hypothèse, à savoir: Le mécanisme de mutation bactérienne et son pouvoir à développer une résistance aux antibiotiques est du à une communication des bactéries entre elle d'une manière quantique. Mon deuxième hypothèse est la suivante: Le champ magnétique généré par le cœur a un rôle bien précis dans les conformations des molécules d'ADN et des protéines , donc dans la sélection des gènes actifs ou non et dans la spécialisation des cellules par la suite.

147

ABSTRACT

Title: Quantum biology Author: Yassine Drider Thesis supervisor: Professor azeddine Ibrahimi Keywords: quantum physics, quantum biology, quantum hyoothesis bacteria, cell differentiation, cardiac magnetic.

Quantum physics is, as we know, a revolution in modern science, this branch of physics describing the behavior of microscopic objects would surely help explaining some biological phenomena inexplicable before. I will expose some of them: The wave-particle duality, It all started with the discovery of the wave-particle nature of photons, that a series of experiments have confirmed. then, this is the case for electrons, when Markus Arndt in 2013 demonstrated that molecule's nature is also wave-particle. sow, we were forced to review our conception of matter. The quantum entanglement of so-called entangled particles when their physical states are linked, and they are distant in space, so they form a system independent of the distance between them. In my thesis, I simplified quantum physics, based on all the experiences made from the start of this revolution, in order to facilitate understanding of this quantum revolution for non- specialists in physics. Based on the researchs carried out by several researchers, and in particular the one that was published in 2019 by Sheffield University in England, and ther mysterious experience done by the biologist Luc Montagnier on the subject of DNA teleportation, I devoted my research to make hypotheses in the field of quantum biology. My first hypothesis, namely: The mechanism of bacterial mutation and its power to develop resistance to antibiotics is due to a sort of communication between bacteria them in quantum way. My second hypothesis is as follows: The magnetic field generated by the heart would have a very precise role in the conformations of DNA molecules and proteins, therefore in the selection of active and inactive genes and in the specialization of cells thereafter.

148

امللخص العنوان :بيىلىجيا النم املؤلف: ًاسين دزٍدز مدير الاطروحة : الاسخاذ عزالدًً ابساهيمي الكلمات املفتاحية: فيزًاء النم، بيىلىجيا النم، بنخيرًا النم، فسضيت جخصص الخالًا، القلب املغىاطيس ي.

فيزًاء النم هي زىزة العلىم املعاصسة ، وهرا الفسع مً الفيزًاء الري ًصف سلىك ألاشياء املجهسٍت سييخهي بالخأليد إلى شسح الظىاهس البيىلىجيت التي لم ًنً مً املمنً جفسيرها ساب ًقا. سأقدم لنم بعض أهم ظىاهس الفيزًاء النميت: زىائيت مىجت -جسيم بدأ مل ش يء بالدشاف طبيعت الفىجىهاث لجسيم مىجت ، وقد ألدث الخجازب ذلو. في عام 3102 ألدث ججازب "مازلس أهد" أن الالنتروهاث أًضا ذاث طبيعت جسيم ـــ مىجت ، ما جعلىا مضطسًٍ ملساجعت مفهىمىا للمادة. إن الدشابو النمي للجسيماث املدشابنت ٌعني عىدما جسجبط حالتهم الفيزًاء ، زغم بعدهم في الفضاء ، ً ٌشهلىن هظا ًما مسخقال زغم املسافت التي جفصلهم. في أطسوحتي قمذ بخبسيط فيزًاء النم ، بىا ًء على جميع الخجازب التي جمذ مىر بداًت هره الثىزة الفيزًائيت، مً أجل حسهيل فهم هره الثىزة النمىٍت لغي ر املخخصين في الفيزًاء. بىا ًء على ألابحار التي أجساها العدًد مً الباحثين ، ال سيما البحث الري وشسجه جامعت شيفيلد في إهجلترا عام 3102 ، والخجسبت الغامضت لعالم ألاحياء "لىك مىهخاهييه" في مىضىع الىقل عً ُبعد للحمض الىىوي ، فقد لسسذ هفس ي ألخر فسضياث في مجاى بيىلىجيا النمىميت. فسضيتي ألاولى هي : آليت الطفسة الجسزىميت وقدزتها على جطىٍس مقاومت للمضاداث الحيىٍت جسجع إلى اجصاى البنخيرًا بينهما بطسٍقت لميت. فسضيتي الثاهيت هي لما ًلي: إن املجاى املغىاطيس ي الري ًىلده القلب له دوز دقيق للغاًت في الخأزير النيميائي على جزٍئاث الحمض الىىوي والبروجيىاث ، وبالخالي في اخخياز الجيىاث اليشطت وغير اليشطت إذن في جخصص الخالًا.

149

références

150

[1]. sciences.brussels

[2]. extrait du 1er chapitre de livre"ENTAGLEMENT" de Massimo Teodoranimacroeditions.com

[3]. extrait de "MOLECULAR EXPRESSIONS "http://micro.magnetotsu.edu/primer/java/interference/doubleslist/

[4]. "ORIGIN OF QUANTUM MECHANICAL " compte mentarity probed by "WHICH- WAY" experiment in atome interfereometer source: le blog de David louapre 13 avril 2018

[5]. Jonsson, Electron diffraction at multiple

[6]. Merli, P. G., Missiroli, G. F., & Pozzi, G. (1976). On the statistical aspect of electron interference phenomena. Am. J. Phys, 44(3), 306-307.

[7]. Tonomura, A., Endo, J., Matsuda, T., Kawasaki, T., & Ezawa, H. (1989). Demonstration of single-electron buildup of an interference pattern. Am. J. Phys, 57(2), 117-120.

[8]. Bach, R., Pope, D., Liou, S. H., & Batelaan, H. (2013). Controlled double-slit electron diffraction. New Journal of Physics, 15(3), 033018.

[9]. Dürr, S., Nonn, T., & Rempe, G. (1998). Origin of quantum-mechanical complementarity probed by a „which-way‟experiment in an atom interferometer. Nature, 395(6697), 33.

[10]. The Feynman Lectures on Physics , vol III, par Richard P Feyman, Robert B Leighton et Matthew Sands. Disponible chez Basic Books, une empreinte de The Perseus Books Group. Copyright © 2011

[11]. "FONDEMENTS DE LA MECHANIQUE QUANTIQUE" Nicolas Weber

151

[12]. Alain Aspect,P.Grangier,G.Roger,phys.Rev.Lett,47,460(1981)J.Baggot,the meaning of quantum theory, oxford science publication Newyork,1991feynman.phy.ulaval

[13]. https://www.pourlascience.fr/sd/physique/lintrication-quantique-confirmee-par- une-experience-de-bell-sans-faille-12185.php

[14]. satellite based entanglement distribution over 1200 kilometrs "Physical Review"sciencemag.org/content/356/6343/1140

[15]. https://www.pourlascience.fr/sd/physique/

[16]. QUESS (Quantum Experiments at Space Scale),

[17]. giroscience.org

[18]. Quantum Nanophysics Real-time single-molecule imaging of quantum interference Quantum Interference Experiments with Large Molecules

[19]. 19 A. Shayeghi, P. Rieser, G. Richter, U. Sezer, JH Rodewald, P. Geyer, TJ Martinez, M. Arndt Interférence des ondes de matière d'un polypeptide natif interference d'un polypeptide (arvix.org)arXiv: 1910.14538 [quant- ph]Armin.S,D.R,G.R, Matter-wave interference of a native polypeptide 31 oct 2019

19 G.R. Fleming et al., New Journal of Physics, 13, 2011)

[20]. Entanglement Classifier in Chemical Reactions Junxu Li, Sabre Kais https://arxiv.org/abs/1904.01141

[21]. Published: 25 April 2018 Stabilized entanglement of massive mechanical oscillators C. F. Ockeloen-Korppi, E. Damskägg, J.-M. Pirkkalainen, M. Asjad, A. A. Clerk, F. Massel, M. J. Woolley & M. A. Sillanpää https://www.nature.com/articles/s41586- 018-0038-x

152

[22]. Remote quantum entanglement between two micromechanical oscillators Ralf Riedinger, Andreas Wallucks, Igor Marinković, Clemens Löschnauer, Markus Aspelmeyer, Sungkun Hong & Simon Gröblacher Nature volume 556, pages473– 477(2018) https://www.nature.com/articles/s41586-018-0036-z

[23]. Disponible sur : www.quantum-way.com

[24]. ACEP : www.energypsy.org

[25]. Voir aussi le film de Jean-Yves Bilien : la nouvelle biologie cellulaire

[26]. la revue Santé, Science et Conscience qui sortira le 10 décembre 2016.: http://www.trouverlapresse.com).

[27]. sources http://arxiv.org/abs/1006.4053

http://www.technologyreview.com/blog/arxiv/25375/

[28]. Martin Stöhr, Alexandre Tkatchenko Quantum Mechanics of Proteins in Explicit Water: The Role ofPlasmon-Like Solute-Solvent Interactions https://arxiv.org/abs/1908.02181

[29]. « DNA waves and water » (http://arxiv.org/PS_cache/arxiv/pdf/1012/1012.5166v1.pdf)

[30]. Quantum mechanics explains efficiency of photosynthesis 9 January 2014 https://www.ucl.ac.uk/news/2014/jan/quantum-mechanics-explains-efficiency- photosynthesis

[31]. Article Open Access Published: 09 January 2014 Non-classicality of the molecular vibrations assisting exciton energy transfer at room temperature Edward J. O‟Reilly & Alexandra Olaya-Castro Nature Communications , Article number: 3012 (2014) https://www.nature.com/articles/ncomms4012

153

[32]. THE FOLLOWING ARTICLE IS OPEN ACCESS Entanglement between living bacteria and quantized light witnessed by Rabi splitting C Marletto, D M Coles, T Farrow and V Vedra

https://iopscience.iop.org/article/10.1088/2399-6528/aae224/meta

[33]. Bruce lipton a publie un document intitule « la conscience des cellules »

[34]. ARTICLE PUBLIE EN 1990 DANS LA REVUE BIOESSAYS F.F

[35]. LIPTON ET AL, DIFFERENCIATION.1991;46:117-133

[36]. SCIENCE 1999,284 : 79-109

[37]. TSONG,TRENDS IN BIOCHEMICAL SCIENCES,1989, 14: 89-92

[38]. LIPTON1986, PLANETARY ASSOCIATION FOR CLEAN ENERGY NEWSLETTER, 5 : 4

[39]. NATURE 1997, 387:580-584

[40]. H.F.NIJHOUT, BIOESSAYS, (JOHN WILEYAND SONS, NEW YORK, NW 1990) P.441-446

[41]. Jablonka E & Lamb M (2005) Evolution in four dimensions. Cambridge MA. MIT press

[42]. Morgan HD et al. (1999) Epigenetic Inheritance at the agouti locus in the mouse. Nature genetics 23: 314-318

[43]. Jirtle, RL & Tyson, FL, eds. (2013) Environmental Epigenomics in Health and Disease: Epigenetics and Complex Diseases Origins, Heidelberg: Springer

[44]. Merdes G & R Paro (2009) About Combs, Notches, and Tumors: Epigenetics Meets Signaling. Developmental Cell 17: 440-442

154

[45]. Lamarck JB (1809-1810) Influence des circonstances sur les actions des animaux (5e leçon), Muséum National d‟Histoire Naturelle de Paris

[46]. L‟évolution selon Charles Darwin (1809-1882) : Les espèces évoluent à la suite de « variations » (changements de caractères) qui se produisent de façon aléatoire, et qui sont transmises aux descendants. Seules les variations avantageuses (« adaptatives ») sont sélectionnées par l’environnement : c‟est la « sélection naturelle ». L‟évolution selon Jean-Baptiste de Lamarck (1744-1829) : L’environnement dicterait un changement bénéfique pour l‟individu, qui serait transmis à sa descendance. Cette « hérédité des caractères acquis » gouvernerait l‟évolution des espèces.

[47]. Francis D et al. (1999) Nongenomic transmission across generations of Maternal behavior and stress in the rat. Science 1155-1158

[48]. Weaver IC et al. (2004) Epigenetic programming by maternal behavior. Nature Neuroscience 7: 847-854

[49]. Lumey LH et al. (2007) Cohort profile: The dutch Hunger Winter Families Study. Int J Epidemiol. 36: 1196-1204

[50]. Stein AD et al. (2004) Intrauterine famine exposure and body proportions at birth: the Dutch Hunger Winter. Int J Epidemiol 33: 831-836

[51]. Heijmans BT et al. (2008) Persistent epigenetic differences associated with prenatal exposure to famine in humans. PNAS 17046-17049

[52]. Baedke J (2013) The epigenetic landscape in the course of time: Conrad Hal Waddington’s methodological impact on the life sciences. Studies in History and Philosophy of Science Part C: Studies in History and Philosophy of Biological and Biomedical Sciences 44 : 4 Part B 756-773

155

[53]. Ornish D et al. (2008) Increased telomerase activity and comprehensive lifestyle changes: a pilot study. Lancet Oncol. 2008 9(11):1048-57

[54]. http://www.champs-electro-magnetiques.com/ondes/les-courants-induits-dans-le- corps-56.html

[55]. http://www.heartmath.org/

156