L'IA et le sanctuaire : l'appel d'un juriste à tracer les "lignes rouges" contre le totalitarisme numérique.

Un prê­tre catho­li­que peut-il con­fier ses homé­lies à ChatGPT ? L’intelligence arti­fi­ciel­le a‑t-elle voca­tion à évan­gé­li­ser, à célé­brer la mes­se ou à ren­dre la justi­ce à la pla­ce de l’homme ? Faut-il crain­dre un tota­li­ta­ri­sme numé­ri­que qui rédui­rait les citoyens à de sim­ples spec­ta­teurs d’un mon­de diri­gé par des algo­ri­th­mes ?

Luigi Trisolino, juri­ste à la Présidence du Conseil ita­lien, avo­cat, titu­lai­re d’un doc­to­rat en droit, jour­na­li­ste et poè­te catho­li­que enga­gé, nous répond sans lan­gue de bois. Face aux risques du tran­shu­ma­ni­sme, de déshu­ma­ni­sa­tion et de la per­te de liber­té, il appel­le l’Église et les États à tra­cer des lignes rou ges éthi­ques clai­res. Une inter­view choc qui ose poser la que­stion : jusqu’où laisserons-nous la machi­ne voler ce qui fait notre âme ?

En exclu­si­vi­té pour le site Diakonos​.be, nous nous avons inter­ro­gé Luigi Trisolino, jour­na­li­ste, juri­ste et poè­te ita­lien, qui tra­vail­le com­me expert juri­di­que à la Présidence du gou­ver­ne­ment ita­lien et auteur de nom­breux arti­cles dans les quo­ti­diens ita­liens. Il est avo­cat, titu­lai­re d’un doc­to­rat en histoi­re du droit et phi­lo­so­phie juri­di­que et se décrit volon­tiers com­me « catho­li­que et ama­teur de bon­nes tra­di­tions ».

Monsieur Trisolino, der­niè­re­ment, en tant que catho­li­que, vous avez décla­ré que « ce qu’on appel­le l’IA géné­ra­ti­ve ne pour­ra et ne devra jamais rem­pla­cer la célé­bra­tion des offi­ces reli­gieux », pas plus que l’« ensei­gne­ment de notre caté­chi­sme ». Si le chri­stia­ni­sme en géné­ral est fon­dé sur des véri­tés révé­lées et tran­smi­ses, pour­quoi ces mêmes véri­tés ne pourraient-elles pas être tran­smi­ses de maniè­re plus rigou­reu­se enco­re par un systè­me d'intelligence arti­fi­ciel­le ?

Jésus-Christ a don­né man­dat à Pierre de diri­ger l'Église, et il a deman­dé à des gens fai­ts de chair, d’os et d'esprit de le sui­vre pour évan­gé­li­ser la Terre en tant que témoins du Ressuscité. On me répon­dra qu'à l'époque de Jésus, il n'y avait pas d'intelligence arti­fi­ciel­le, mais seu­le­ment l'intelligence humai­ne. Mais cela n’y chan­ge rien. Ce n'est qu’à tra­vers une expé­rien­ce réel­le, dans la ren­con­tre et l'échange entre un être humain et un autre être humain, que l’on peut témoi­gner de la foi, et avec elle de tou­tes ces valeurs de la loi natu­rel­le qui nous inci­tent à prier, à nous enga­ger poli­ti­que­ment et, lor­sque c’est néces­sai­re, à sacri­fier une par­tie de notre vie.

On peut bien sûr recou­rir aux moyens que nous don­nent la lit­té­ra­tu­re, les arts figu­ra­tifs et même numé­ri­ques, com­me c’est d’ailleurs déjà le cas, mais l'unique auteur de cha­que mes­sa­ge et de cha­que expres­sion créa­ti­ve doit rester l'être humain, sur­tout en ce qui con­cer­ne l'évangélisation, la célé­bra­tion de la litur­gie et l’enseignement du Catéchisme de l'Église catho­li­que.

Cela vaut aus­si pour tou­tes les autres con­fes­sions chré­tien­nes, notam­ment les ortho­do­xes. Nous ne devons pas per­met­tre que l’on puis­se con­fier l'évangélisation des peu­ples à des prê­tres ou des pasteurs numé­ri­ques de natu­re arti­fi­ciel­le. Le mon­de numé­ri­que doit rester un canal média­ti­que par­mi d’autres, afin de pou­voir exer­cer le libre arbi­tre, pré­ro­ga­ti­ve exclu­si­ve­ment humai­ne, qui est éga­le­ment un don divin, pour nous les croyan­ts.

Nous savons que cer­tains prê­tres deman­dent à ChatGPT de géné­rer des homé­lies selon la pen­sée et le sty­le d'un saint ou d'un pape par­ti­cu­lier, avec des résul­ta­ts appa­rem­ment effi­ca­ces. Qu’en pensez-vous ?

Dans l'Église catho­li­que, voulons-nous jouer à expé­ri­men­ter avec les der­niè­res tech­no­lo­gies, voulons-nous être des ombres tran­si­toi­res issues de méca­ni­smes cher­chant à tran­sfor­mer l'humanité en quel­que cho­se de ridi­cu­le ou de mon­strueux, ou bien est-ce que nous vou­lons deve­nir des disci­ples du Christ, à l'image et à la res­sem­blan­ce de Dieu le Père ?

Si nous choi­sis­sons la secon­de voie, c'est-à-dire cel­le pro­po­sée par Jésus-Christ, nous ne pou­vons pas uti­li­ser ChatGPT pour les homé­lies. La beau­té de l'humanité rési­de dans le fait que, pour con­ce­voir une homé­lie inspi­rée par un saint ou un Pontife par­ti­cu­lier, il est néces­sai­re de lire, d'intérioriser hum­ble­ment et de s'approprier le témoi­gna­ge de ceux qui nous ont pré­cé­dés. Les méca­ni­smes de l'IA sem­blent imi­ter la dia­lec­ti­que de la con­scien­ce et de l'esprit indi­vi­duels, bien qu’ils aient une natu­re et un fonc­tion­ne­ment très dif­fé­ren­ts en réa­li­té.

Quand nous posons la bon­ne que­stion, nous obte­nons une répon­se plus ou moins appro­priée, mais jamais une répon­se authen­ti­que suscep­ti­ble de fai­re ger­mer la grai­ne. Utiliser l'IA pour géné­rer des homé­lies signi­fie fai­re tom­ber la semen­ce de la Parole de Dieu dans les ron­ces.

J'invite les diri­gean­ts insti­tu­tion­nels de l'Église romai­ne à veil­ler à ce que cha­que prê­tre, dans tous les recoins de la Terre, pose ses que­stions mis­sion­nai­res à sa pro­pre con­scien­ce plu­tôt qu’à ChatGPT, afin de ne rece­voir des répon­ses que du Depositum fidei intem­po­rel.

Cette vision n’est-elle pas un peu dure ? L’intelligence arti­fi­ciel­le ne pourrait-elle pas aus­si être un outil pré­cieux pour tra­dui­re les tex­tes patri­sti­ques, pour inde­xer les archi­ves, ou pour aider les mis­sion­nai­res avec les lan­gues rares ? Selon vous, un prê­tre qui, par exem­ple, uti­li­se­rait l’intelligence arti­fi­ciel­le com­me point de départ, puis qui prie­rait, réé­cri­rait et s’approprierait la Parole, commettrait-il un péché gra­ve ?

Traduire les tex­tes patri­sti­ques est un tra­vail qui peut assu­ré­ment être gran­de­ment faci­li­té par l’intelligence arti­fi­ciel­le. Personnellement, je défends un déve­lop­pe­ment de l’IA réso­lu­ment cen­tré sur l’homme : elle doit rester une aide aux acti­vi­tés humai­nes sans jamais rem­pla­cer ni l’intelligence ni la sen­si­bi­li­té humai­ne. Dans les tra­duc­tions de haut niveau, et plus enco­re lorsqu’il s’agit de sai­sir le sens pro­fond sens lit­té­rai­re d’un tex­te, c’est tou­jours l’humain qui doit avoir le der­nier mot. Il ne s’agit pas d’être réac­tion­nai­re ou d’avoir peur du pro­grès – je me con­si­dè­re au con­trai­re très ouvert aux inno­va­tions qui ser­vent véri­ta­ble­ment l’homme et qui l’humanisent. Il s’agit sim­ple­ment de fai­re en sor­te que nous restions capa­bles de cet­te huma­ni­té qui fait par­tie du des­sein de Dieu, cet­te voix inté­rieu­re où Il nous par­le, loin de tout auto­ma­ti­sme qui nous dépos­sé­de­rait de nous-mêmes.

Les tâches pure­ment méca­ni­ques, com­me l’indexation d’archives, peu­vent par con­tre être accom­plies sans pro­blè­me avec l’aide de systè­mes auto­ma­ti­sés, tout en con­ser­vant bien sûr une super­vi­sion humai­ne.

Et les mis­sion­nai­res ? Ah, si seu­le­ment ils dispo­sa­ient d’outils per­for­man­ts pour com­pren­dre et se fai­re com­pren­dre dans ces lan­gues rares, par­fois mena­cées de dispa­ri­tion !

Pour en reve­nir au prê­tre qui uti­li­se l’IA… Ce n’est pas à moi de juger s’il com­met un péché, et de quel­le gra­vi­té. À mon sens, lorsqu’un prê­tre se sert de l’IA uni­que­ment pour iden­ti­fier rapi­de­ment des réfé­ren­ces pré­ci­ses dans l’Écriture, et qu’il va ensui­te lui-même, de façon plei­ne­ment humai­ne et auto­no­me, repren­dre ces pas­sa­ges, pour les médi­ter et les retra­vail­ler sans se lais­ser enchaî­ner par la machi­ne, il n’effectue alors qu’une sim­ple démar­che pré­pa­ra­toi­re.
L’important, dans le domai­ne de la foi, c’est de ne jamais fai­re l’économie de ces éta­pes indi­spen­sa­bles : l’introspection, l’intériorisation pro­fon­de de la Parole de Dieu et la réé­la­bo­ra­tion per­son­nel­le, pour le bien de celui qui éla­bo­rent les homé­lies et les caté­chè­ses ain­si que pour celui de ceux qui les écou­tent.

Les gens ne com­pren­nent pas tou­jours pour­quoi l'intelligence arti­fi­ciel­le est suscep­ti­ble de repré­sen­ter non seu­le­ment un dan­ger éco­no­mi­que, mais éga­le­ment un dan­ger anth­ro­po­lo­gi­que et humain. Pensez-vous que l'IA nous ren­dra plus libres ou au con­trai­re plus dépen­dan­ts ?

L'IA est un outil tech­no­lo­gi­que et, en tant que tel, elle per­met d’éviter de nom­breu­ses tâches fasti­dieu­ses ou répé­ti­ti­ves. Mais l’IA qu’on appel­le géné­ra­ti­ve risque de rem­pla­cer ou à tout le moins de dimi­nuer les capa­ci­tés créa­ti­ves humai­nes, qui con­sti­tuent l'essence de tou­te véri­ta­ble évo­lu­tion socia­le.

Avec l'IA, nous som­mes face à une gran­de oppor­tu­ni­té mais éga­le­ment à un dan­ger anth­ro­po­lo­gi­que. En effet, nous risquons un glis­se­ment de l'anthropocentrisme vers le tech­no­cen­tri­sme, qui instal­le­rait, au cen­tre de la vie pra­ti­que, un mon­de numé­ri­que géné­rant des pro­dui­ts intel­li­gi­bles dont les indi­vi­dus immer­gés dans les mas­ses popu­lai­res ne sera­ient plus que de sim­ples spec­ta­teurs, ber­cés par l'illusion d’être des orche­stra­teurs habi­les.

Par ail­leurs, dans le sec­teur de l’enseignement, il exi­ste un risque de voir émer­ger de futu­res géné­ra­tions d’étudiants qui ont fait leurs devoirs à la mai­son grâ­ce à l’IA, en lais­sant pas­ser l'opportunité de déve­lop­per leurs pro­pres com­pé­ten­ces de base. De ce point de vue, si un cadre clair d’encadrement éthi­que de l'IA n'est pas mis en pla­ce, on risque de se retrou­ver bien­tôt dans un tota­li­ta­ri­sme numé­ri­que mon­dial diri­gé par des grou­pes puis­san­ts en mesu­re de se per­met­tre éco­no­mi­que­ment de cana­li­ser les algo­ri­th­mes.

Nous risquons de deve­nir moins libres et moins indé­pen­dan­ts, et donc moins com­pé­ten­ts, post-humains ou trans-humains, com­me le sou­hai­te­ra­ient cer­tains cou­ran­ts cul­tu­rels maté­ria­li­stes pro­ches de Soros.

Mais les tran­shu­ma­ni­smes liber­ta­riens pro­ches de Soros ne sont pas les seuls à igno­rer le risque de miser la vie futu­re sur l'IA et sur le dépas­se­ment qui s’en suit de l'ordre natu­rel de la con­nais­san­ce. Il y a aus­si le maté­ria­li­sme com­mu­ni­ste et post-communiste, qui aspi­re à l'hégémonie géo­po­li­ti­que. En Chine, l'IA a récem­ment été inté­grée com­me matiè­re sco­lai­re à part entiè­re dans les pro­gram­mes péda­go­gi­ques desti­nés aux enfan­ts fré­quen­tant l’équivalent de nos éco­les pri­mai­res. Il est donc légi­ti­me de se deman­der si ces enfan­ts, à un âge fra­gi­le, dispo­se­ront des outils cul­tu­rels et en éthi­que des algo­ri­th­mes pour enco­re fai­re la part des cho­ses entre les méca­ni­smes de leur pro­pre psy­ché, du « je », de leur con­scien­ce et de leur esprit d’une part et les méca­ni­smes du mon­de vir­tuel de l'IA d’autre part.

C’est l’écart entre la matu­ri­té de notre civi­li­sa­tion et l'aliénation humai­ne qui est en jeu sur ces que­stions, et par con­sé­quent, l'avenir des clas­ses diri­gean­tes.

En Belgique, le sujet est d'actualité. Le prin­ci­pal par­ti poli­ti­que a déci­dé de rédui­re le coût des ser­vi­ces publics en décla­rant qu'« une part impor­tan­te de ses tâches peut être accom­plie par l'intelligence arti­fi­ciel­le ». Qu'en pensez-vous ?

Si l’on recru­te de nou­veau ingé­nieurs en Belgique, et si tous les tra­vail­leurs de la fonc­tion publi­que rem­pla­cés par l'IA sont immé­dia­te­ment reclas­sés dans d'autres emplois con­ve­na­bles, cet­te idée n’est pas si dom­ma­gea­ble.

Dans l'histoire des révo­lu­tions indu­striel­les, on a déjà assi­sté à plu­sieurs chan­ge­men­ts radi­caux dans le mon­de du tra­vail. L'essentiel est de ne lais­ser per­son­ne sur le côté et de créer de nou­vel­les oppor­tu­ni­tés d'emploi pour les tech­ni­ciens et les experts en éthi­que du numé­ri­que, tant dans le sec­teur public que pri­vé.

Mais ce qui est le plus impor­tant, c’est que l'IA soit uti­li­sée pour épar­gner aux tra­vail­leurs humains les acti­vi­tés les plus fati­gan­tes, alié­nan­tes et répé­ti­ti­ves, et pas pour les rem­pla­cer dans les acti­vi­tés géné­ra­ti­ves ou créa­ti­ves.

Passons main­te­nant à la que­stion épi­neu­se de la respon­sa­bi­li­té. Si l'intelligence arti­fi­ciel­le est uti­li­sée dans un con­tex­te mili­tai­re ou pour pren­dre des déci­sions admi­ni­stra­ti­ves, qui sera respon­sa­ble de tel­les déci­sions ? Sera-t-il pos­si­ble de les expli­quer clai­re­ment ?

En ce qui con­cer­ne les déci­sions mili­tai­res ou admi­ni­stra­ti­ve, on peut uti­li­ser l’IA pour iden­ti­fier des don­nées. Mais les déci­sions qui sont pri­ses ensui­te sur base de ces don­nées, qui néces­si­tent une véri­fi­ca­tion humai­ne préa­la­ble pour s’assurer de leur véra­ci­té, doi­vent être le fruit de la sen­si­bi­li­té humai­ne. Aucune déci­sion mili­tai­re, admi­ni­stra­ti­ve ou judi­ciai­re ne devrait être pri­se par des systè­mes d'intelligence arti­fi­ciel­le.

Quant au ser­vi­ce public, on espè­re que le fonc­tion­nai­re digi­tal et l’assistant admi­ni­stra­tif digi­tal ne seront uti­li­sés que dans le but d’éviter aux fonc­tion­nai­res et assi­stan­ts admi­ni­stra­tifs humains ces tâches méca­ni­ques, répé­ti­ti­ves ou de sim­ple recher­che alpha­nu­mé­ri­que.
La clé pour atté­nuer l'impact de cha­que révo­lu­tion tech­no­lo­gi­que sur la vie humai­ne rési­de dans l'équilibre des choix, et dans les valeurs civi­ques non négo­cia­bles. Dans cha­que choix poli­ti­que, judi­ciai­re, cul­tu­rel et apo­sto­li­que, la prio­ri­té abso­lue doit être don­née au droit natu­rel à la vie, à la liber­té et à l’amélioration du bien-être, afin de ne pas som­brer dans le sadi­sme, le nihi­li­sme ou l'aliénation qui nui­sent à notre digni­té.

En matiè­re de respon­sa­bi­li­té, l'utilisation de l'IA géné­ra­ti­ve ne doit jamais dispen­ser les per­son­nes qui l'utilisent des con­sé­quen­ces dom­ma­gea­bles de leurs actions ou de leurs omis­sions négli­gen­tes ou mal­veil­lan­tes. L'IA n'est pas un sujet : elle reste uni­que­ment un objet, le seul sujet ayant des droi­ts et des devoirs en matiè­re de pro­tec­tion, ain­si que des respon­sa­bi­li­tés, demeu­re l'être humain.

Cela reste vrai dans tous les domai­nes, que ce soit dans le sec­teur mili­tai­re, dans l'administration publi­que, dans le mon­de de la pres­se et de l'édition, ou dans n’importe quel­le entre­pri­se pri­vée. Si l’on veut pou­voir expli­quer clai­re­ment les déci­sions pri­ses sur base d'informations recueil­lies entre autres par des systè­mes d'intelligence arti­fi­ciel­le, la trans­pa­ren­ce algo­ri­th­mi­que et la cita­tion de la sour­ce de cha­que infor­ma­tion sont essen­tiel­les, quand ces infor­ma­tions peu­vent être léga­le­ment publiées.

Dans le domai­ne mili­tai­re et anti­ter­ro­ri­ste, cer­tai­nes déci­sions doi­vent bien enten­du rester cou­ver­tes par le secret d'État, pour assu­rer le bon dérou­le­ment des opé­ra­tions qui pro­tè­gent notre sécu­ri­té en tant que citoyens.

M. Trisolino, en plus d'être un chré­tien fidè­le et mili­tant, vous êtes un jour­na­li­ste actif en poli­ti­que, et éga­le­ment un juri­ste qui tra­vail­le à la pré­si­den­ce du gou­ver­ne­ment ita­lien. Vous avez publié plu­sieurs livres et essais sur la cul­tu­re juri­di­que qui trai­tent de l'histoire de la justi­ce et, en tant qu’avocat, vous avez tra­vail­lé com­me cher­cheur en histoi­re du droit. Pensez-vous que l'intelligence arti­fi­ciel­le pour­rait évi­ter les erreurs judi­ciai­res grâ­ce à un juge numé­ri­que pré­cis et rigou­reux dans l'application de la loi ?

La cer­ti­tu­de juri­di­que est un bien fon­da­men­tal, sur­tout depuis qu’à tra­vers le par­cours long et ardu des orga­ni­sa­tions socia­les, la loi est deve­nue la même pour tous, à tout le moins sur le plan for­mel. Pour ne pas rédui­re les cours et tri­bu­naux à des espa­ces livrés au pou­voir discré­tion­nai­re du juge, il est néces­sai­re que le droit éta­blis­se d'une maniè­re cer­tai­ne et sans équi­vo­que les prin­ci­pes du droit natu­rel, sur lesquels diver­ses règles spé­ci­fi­ques vien­nent ensui­te se gref­fer pour spé­ci­fier et actua­li­ser les disci­pli­nes juri­di­ques, en pha­se avec les évo­lu­tions socia­les, éco­no­mi­ques et tech­no­lo­gi­ques.

Si ma voix pou­vait attein­dre tous les con­ti­nen­ts, je plai­de­rais pour un modè­le de justi­ce admi­ni­stré par l'esprit humain, par­tout. Même dans le mon­de judi­ciai­re, on peut retrou­ver et orga­ni­ser cer­tai­nes don­nées grâ­ce à l'intelligence arti­fi­ciel­le. Mais on ne pour­ra jamais se pas­ser de la for­ce men­ta­le de l’être humain pour inter­pré­ter les don­nées juri­di­ques en adé­qua­tion avec la réa­li­té, avec l'âme humai­ne et avec le bon sens, en regar­dant les pré­ve­nus droit dans les yeux pen­dant la pro­cé­du­re péna­le ou en écou­tant avec la sen­si­bi­li­té qui con­vient les famil­les pro­prié­tai­res qui sou­hai­tent récu­pé­rer leurs mai­sons occu­pées illé­ga­le­ment.

L'intelligence arti­fi­ciel­le ne pour­ra jamais rem­pla­cer ces cri­tè­res d'évaluation et de juge­ment inhé­ren­ts à l'expérience humai­ne. Le modè­le de régle­men­ta­tion de l'intelligence arti­fi­ciel­le, adop­té en Italie par la loi natio­na­le n°132/2025, entrée en vigueur le 10 octo­bre, réser­ve aux seuls magi­stra­ts humains les acti­vi­tés pro­pre­ment juri­dic­tion­nel­les de déci­sion rela­ti­ves aux mesu­res, les acti­vi­tés d'interprétation et d'application de la loi, ain­si que cel­les por­tant sur l’appréciation des élé­men­ts de fait et de pre­u­ve.

Je vou­drais que tous les États réser­vent à l'humanité, à l’exclusion des enti­tés vir­tuel­les, tou­te acti­vi­té de discer­ne­ment juri­di­que et admi­ni­stra­tif. Que ce soit dans les pays civil law com­me la France et l'Italie, ou dans les pays de com­mon law com­me l'Angleterre et les États-Unis d'Amérique, l'avenir de la justi­ce ne sau­rait se pas­ser de l’expérience à la fois bles­san­te et nour­ris­san­te de l’amour, que le pape Benoît XVI a défi­nie com­me Caritas dans son ency­cli­que de 2009 « Caritas in Veritate ».

L'intelligence arti­fi­ciel­le pourra-t-elle un jour s'inspirer de la rigueur de l'amour de la justi­ce dans une affai­re con­crè­te ? Non, elle ne le pour­ra jamais. Seul un juge humain pour­ra éprou­ver un amour authen­ti­que et neu­tre pour l'État de droit, pour la pro­tec­tion des vic­ti­mes, tout en garan­tis­sant les droi­ts des suspec­ts et des pré­ve­nus sans le pro­fi­la­ge pré­ju­di­cia­ble du cybe­re­spa­ce et sans l'hypertrophie cogni­ti­ve des algo­ri­th­mes.

Je remar­que que vous vous inspi­rez de Benoît XVI, en citant l'encyclique « Caritas in Veritate », pour quel­le rai­son ?

Comment pourrais-je ne pas m’inspirer de Ratzinger, le théo­lo­gien le plus vision­nai­re du XXe siè­cle ? On lui doit la réfle­xion la plus pro­fon­de et la plus sti­mu­lan­te sur les véri­ta­bles raci­nes chré­tien­nes de l'Europe. L’analyse éclai­ran­te du pape Benoît XVI sur les cau­ses de la cri­se que tra­ver­se la cul­tu­re euro­péen­ne doit nous inspi­rer et ouvrir la voie à une véri­ta­ble crois­san­ce com­mu­ne.

J'aime à me rap­pe­ler les œuvres de Ratzinger inti­tu­lées « Europe. Ses fon­da­tions aujourd'hui et demain », et « La vra­ie Europe. Identité et mis­sion » [qui sor­ti­ra en fra­nçais en jan­vier 2026, ndlr]. S’empresser de dres­ser des inven­tai­res euro­péens des droi­ts ne con­tri­bue­ra en réa­li­té pas à défen­dre l'existence des indi­vi­dus et des peu­ples de la meil­leu­re façon pos­si­ble, si ces indi­vi­dus et peu­ples accor­dent peu d’importance au quo­ti­dien à leurs raci­nes judéo-chrétiennes. Dans un pre­mier temps, il est néces­sai­re que les uni­ver­si­tés euro­péen­nes, qui for­ment cha­que année des mil­liers de jeu­nes et donc les clas­ses diri­gean­tes du futur, redé­cou­vrent la base mora­le distinc­ti­ve de l'Europe sur la scè­ne inter­na­tio­na­le.

Par con­sé­quent, même milieux aca­dé­mi­ques des États-Unis fon­dés, en bien ou en mal, sur la con­tri­bu­tion des chré­tiens euro­péens que nous som­mes, devra­ient recon­naî­tre l'importance des raci­nes judéo-chrétiennes sans crain­dre d'être atta­qués par le woki­sme ou l'islamisme géo­po­li­ti­que. La peur de mani­fe­ster ses raci­nes d'identité réel­les risque de livrer un Occident pas­sif et amné­si­que à la bar­ba­rie des anti-occidentalistes.

Interview réa­li­sée et tra­dui­te de l'italien par Olivier Collard

Retour en haut