Nota critica a Francesco Berto, Lorenzo Bottai, Che cos’è una contraddizione

Francesco Berto, Lorenzo Bottai, Che cos’è una contraddizione, Roma, Carocci, 2015

Che cosa succede quando il principio di non contraddizione, cardine essenziale della razionalità fin dai tempi di Aristotele, viene messo in discussione? La domanda è al centro del volume Che cos’è una contraddizione di Francesco Berto e Lorenzo Bottai (Roma, Carocci, 2015, p. 123), che si propone quale agile, ma per nulla superficiale, accesso al mondo delle logiche paraconsistenti, ovvero quelle logiche che nascono per cercare di trattare in maniera proficua una contraddizione. Il volume è uno strumento di lavoro di eccezionale importanza per i lettori, che, privi di una formazione logico-matematica, sono affascinati dall’argomento e intendono affrontarlo con rigore. Si tratta della prima introduzione chiara, scritta in un linguaggio agile e non tecnico, in lingua italiana, su questo tema.

La tradizione ci ha sempre insegnato che ragionare correttamente vuol dire evitare di cadere in contraddizione. È quanto prescrive il principio di non contraddizione (Pnc), per Aristotele legge logica e ontologica, “il principio più saldo di tutti”. I filosofi non hanno mai smesso di interrogarsi su Pnc e di cercare di metterlo in discussione. Tuttavia pochi si sono confrontati col problema, ben diverso, di definire che cos’è una contraddizione. Berto e Bottai sostengono che una contraddizione si dà quando si prende in blocco un enunciato e la sua controparte negativa. Dunque sintatticamente la contraddizione si presenta come un gruppo di due enunciati dichiarativi, di cui uno è la negazione dell’altro. Diversa la prospettiva semantica, che include il riferimento ai concetti di verità e falsità. In questo caso la contraddizione sarà un enunciato dichiarativo al contempo vero e falso, una proposizione con valori di verità opposti oppure – secondo un’altra formulazione – la congiunzione di due enunciati veri, uno la negazione dell’altro. Ma non è tutto. La contraddizione ha anche una dimensione metafisica e una psicologico-pragmatica. Nel primo caso, è descritta in termini di una proprietà goduta e insieme non goduta da un oggetto. Nel secondo caso, è un enunciato che è al contempo accettato e negato, creduto e non creduto.

Sono tutte sfumature, certo, ma importanti. Da esse emerge una sola struttura essenziale e che, nella vulgata, costituisce un corto-circuito del pensiero. Così come esistono quattro gruppi di contraddizioni, possiamo avere anche quattro distinte formulazioni del Pnc: sintattica, semantica, metafisica e psicologico-pragmatica, tra le quali possiamo osservare rapporti di equivalenza.

A questo punto, un interrogativo appare inevitabile, lo stesso formulato dal filosofo Graham Priest: che cosa c’è di male in una contraddizione? Abbiamo sempre creduto che razionalità fosse un sinonimo di coerenza, e invece si può dimostrare – come fa Priest in un celebre articolo – che si può essere razionali senza essere coerenti, e quindi credendo che alcune contraddizioni siano vere. Le contraddizioni non solo possono essere oggetto di credenza, ma possono anche rientrare in un sistema di credenze che siamo pronti a dire razionali. Anzi, a volte è necessario credervi per rendere razionali le nostre teorie. Questa posizione è il dialeteismo.

L’esame della provocazione implicherà innanzitutto il confronto con i paradossi, vale a dire quegli argomenti che muovono da premesse intuitivamente vere e, attraverso deduzioni formalmente corrette, arrivano a un enunciato assurdo, contraddittorio, un’antinomia. Perché il paradosso è così scandaloso ai nostri occhi? Di fronte al paradosso una teoria va in stallo, la contraddizione è inammissibile. La prima cosa che possiamo fare è cercare di capire la struttura comune dei paradossi. Come suggerisce ancora Priest, il maggiore teorico del dialeteismo e autentico nume tutelare del nostro percorso, in un paradosso dobbiamo distinguere tre aspetti:

  1. una totalità (tutto quel che la ragione può dire, esprimere, pensare, ecc.);
  2. un’operazione che genera un oggetto che è sia all’interno che all’esterno della totalità (le due situazioni sono dette da Priest apertura e chiusura);
  3. l’autoreferenzialità degli argomenti usati per la chiusura e l’apertura.

La principale strategia usata dalla filosofia per trattare i paradossi semantici, come quello tipico del mentitore (“questo enunciato è falso”: se è vero è falso, se è falso è vero), è quella di trovare una spiegazione del paradosso che elimini il corto-circuito salvando il Pnc. Berto e Bottai si soffermano soprattutto su due tentativi divenuti paradigmatici, quelli di Tarski e di Kripke. Il logico polacco crede che la presenza di paradossi sia dovuta a certe caratteristiche logico-semantiche del linguaggio e precisamente alle “condizioni di chiusura semantica”. Un linguaggio semanticamente chiuso è un linguaggio capace di parlare della propria semantica, del significato delle proprie espressioni. Ora, per evitare che si produca il mentitore dobbiamo neutralizzare questa condizione e separare linguaggio oggetto e metalinguaggio. Ogni linguaggio oggetto possiede la propria nozione di verità, ma il funzionamento di quest’ultimo è stabilito da regole sintattiche formulate nel rispettivo metalinguaggio. Si produce così una gerarchia di livelli linguistici in cui ogni livello superiore stabilisce la nozione di verità di quello inferiore. Il mentitore è soltanto un enunciato che dimentica la distinzione e confonde i due livelli. Diverso l’approccio kripkeano che invece ammette l’esistenza di enunciati né veri né falsi, ossia una semantica non bivalente. Kripke formula una teoria della verità basata sulla nozione di fondatezza: un enunciato è fondato perché “tocca terra” nel senso che abbiamo un buon motivo per assegnargli un certo valore di verità. Il mentitore non “tocca terra”, non c’è alcun fatto non semantico che permetta di assegnargli un determinato valore di verità, e quindi risulta né vero né falso. La proprietà di essere ungrounded non coincide con quella di essere autoreferenziale: un enunciato può essere autoreferenziale e fondato. Inoltre, gli enunciati infondati non coincidono con gli enunciati paradossali: l’esempio di Kripke “questo enunciato è vero” è un enunciato non paradossale (se è vero, è vero; se è falso, è falso), ma infondato (non abbiamo motivi empirici per decidere se esso sia vero o falso).

Entrambe le soluzioni al mentitore non sono soddisfacenti. Quella tarskiana tradisce la natura del linguaggio ordinario, mentre quella kripkeana tradisce la natura del mentitore stesso e sembra essere costruita ad hoc. Infatti, il mentitore non è semplicemente un enunciato né vero né falso (come l’esempio: “questo enunciato è vero”) bensì vero e falso insieme, e “sembra che l’unica motivazione per non considerarlo come tale sia precisamente quella di salvaguardare il Pnc” (p. 36). Ma c’è di più: le soluzioni non riescono a rispondere a un altro fenomeno, ben più complesso e temibile, quello del “mentitore rafforzato”. È infatti possibile costruire una nuova versione del paradosso con gli stessi strumenti teorici di cui si servono (la nozione di ordine gerarchico e quella di gap semantico) le pretese soluzioni: il mentitore rinasce dalle proprie ceneri e come un boomerang rimette in discussione tutto. Nell’approccio kripkeano, ad esempio, possiamo ripensare il mentitore così: “Questo enunciato è falso o né vero né falso”. Aumentare i valori di verità non serve a nulla. L’unica via per salvare le soluzioni sarebbe quella di far sì che gli strumenti teorici utilizzati non siano esprimibili nel linguaggio per il quale la soluzione viene fornita. Ma questo è in palese contrasto coi fatti: noi possiamo esprimere nel linguaggio ordinario, in qualunque linguaggio naturale, quelle nozioni. Ciò suggerisce che il problema dei paradossi semantici non solo non è stato finora risolto, ma anche che esso non sia neppure risolvibile in linea di principio. Ci troviamo di fronte a un’inadeguatezza di fondo del nostro apparato concettuale.

Qualcosa di molto simile si può dire per quanto concerne i paradossi insiemistici come quello di Russell e il famigerato insieme di tutti gli insiemi che non contengono se stessi, che non pochi problemi causò al progetto della logicizzazione della matematica. In sostanza, la strategia seguita da Russell, con la teoria dei tipi (e la gerarchia di ordini e tipi), è quella di restringere la condizione di esistenza, ovvero affermare che questi insiemi paradossali non esistono. Russell compie questo passo guardando agli elementi degli insiemi, che devono essere omogenei e ordinati in modo tale che a ogni livello dell’ordine appartengano solo certi elementi e non altri, il che esclude per principio la possibilità di super-insiemi. È la stessa parametrizzazione usata da Tarski. A implementare questo approccio ci pensa Zermelo, che restringe la condizione di esistenza ma guardando agli insiemi stessi, non ai loro membri. Per Zermelo è possibile formulare una serie di assiomi che consentano di costruire insiemi abbastanza grandi da giustificare una parte dell’originale teoria cantoriana e preservare il Pnc. Senza presupporre l’ordine strettamente gerarchico di Russell, Zermelo dimostra che è impossibile formare l’insieme di tutti gli insiemi che non sono membri di se stessi. Le conseguenze, in entrambi i casi, sono disastrose: alcuni concetti chiave della matematica non possono essere illustrati se non al prezzo di spiegazioni ad hoc. “Come la soluzione tarskiana al problema del mentitore rende sistematicamente ambiguo il predicato di verità, così la teoria dei tipi rende sistematicamente ambigue tutte le parole che possano originare totalità illegittime” (p. 43). La soluzione adopera sempre nozioni di cui poi esclude l’esprimibilità, bandisce qualcosa che presuppone e di cui si serve.

I principali tentativi di risolvere i paradossi (semantici e insiemistici) salvando il Pnc falliscono. Proprio da questa consapevolezza nasce l’approccio paraconsistente. Possiamo porci di fronte all’assurdo senza doverlo rifiutare ed escludere dalla logica? Le logiche paraconsistenti cercano di fare esattamente questo: un sistema formale può benissimo tollerare delle contraddizioni senza per questo divenire triviale, banale o assurdo. In effetti, si dice che – i logici lo chiamano “principio dello pseudo Scoto” – accettare una contraddizione equivalga ad accettare potenzialmente qualsiasi cosa: dire tutto e il contrario di tutto. In un sistema (insieme qualsiasi di formule, proposizioni o in senso più ampio credenze) qualsiasi contraddizione ha un effetto esplosivo: distrugge tutto il resto. Il logico paraconsistente cerca di attuare una strategia antidenotante: possiamo ammettere contraddizioni senza dover gettare via l’intero sistema.

Entriamo qui nel vivo del volume di Berto e Bottai. Nel secondo capitolo gli autori chiariscono i requisiti metodologici minimi che deve soddisfare una logica paraconsistente. Il punto è delicato. Bisogna distinguere innanzitutto tra due fenomeni: l’inconsistenza, cioè la proprietà dei sistemi formali di essere contraddittori, e la trivialità, ossia la proprietà di dimostrare tutte le formule del linguaggio usato da un sistema per cui, se tale linguaggio prevede la negazione, tale sistema è ritenuto banale – si può dimostrare tutto e il contrario di tutto. Una logica paraconsistente è invece “una logica che tollera le contraddizioni senza essere esplosiva, ossia è quella che, rifiutando la validità della legge dello pseudo Scoto, riesce a essere inconsistente ma non triviale” (p. 53).

Vediamo ora come fare a ideare una logica di questo tipo. In base alla legge dello pseudo Scoto, un sistema inconsistente è ipso facto anche triviale e banale. Questa legge dice che da una contraddizione si può dedurre qualsiasi cosa a piacere. Dalla proposizione: “Tutti i cani sono a quattro zampe e non sono quattro zampe” segue che “Mio zio vince all’enalotto”. E quindi posso benissimo dire: se “tutti i cani sono a quattro zampe e non sono quattro zampe” allora “Mio zio vince all’enalotto”. Un tale rapporto di conseguenza logica può essere dimostrato servendosi di quattro regole della logica classica (la deduzione naturale di Gentzen) che sono: “Eliminazione della congiunzione”, “Introduzione della disgiunzione”, “Sillogismo disgiuntivo” e “Introduzione del condizionale”. Queste regole “sono i fili antidetonanti che un sostenitore della paraconsistenza deve tagliare affinché possa evitare l’esplosione teorica delle contraddizioni” (p. 55). E il principale filo che andrà tagliato – suggeriscono gli autori – sarà il “Sillogismo disgiuntivo” o modus tollendo ponens perché è questa la regola che “a differenza delle altre regole deduttive, non è in grado di preservare la verità in presenza di ‘situazioni inconsistenti’” (p. 56). Il problema è che il “Sillogismo disgiuntivo” è una regola logicamente equivalente a un’altra regola importante, l’“Eliminazione del condizionale” o modus ponendo ponens, che esprime la definizione del condizionale materiale. Il logico paraconsistente dovrà abbandonare il “Sillogismo disgiuntivo” ma salvare il condizionale materiale che è una regola basilare, irrinunciabile. Dovrà perciò trasformare la sua interpretazione del condizionale materiale, separandola da ogni riferimento alla negazione e alla disgiunzione. Insomma, il logico paraconsistente deve modificare l’apparato tecnico della logica classica in modo tale da:

  1. ammettere contraddizioni (escludere Scoto);
  2. non tradire del tutto la stessa logica classica;
  3. recuperare i teoremi fondamentali della logica classica (classical recapture).

È la “condizione del danno minimo”. Perciò le logiche paraconsistenti sono tecnicamente delle sub-logiche della logica classica, nel senso che alcune leggi e regole della seconda non sono valide nelle prime.

Ben diverso è il caso del dialeteismo che è invece la prospettiva metafisica secondo cui esistono contraddizioni vere, cioè stati di cose contraddittori. Paraconsistenza e dialeteismo non sono la stessa cosa. La prima può sussistere benissimo senza la seconda, ma non vice-versa. Il dialeteismo afferma che alcune contraddizioni sono vere, inevitabili e necessarie perché implicate nei fatti stessi dell’esperienza, e si serve di una logica paraconsistente per spiegarle. Si badi: il logico dialeteista accetta alcune contraddizioni come vere, ma non tutte. Ci sono perfino contraddizioni osservabili – si pensi ai disegni di Escher. La razionalità non è mai pura coerenza: questa convinzione profonda, il dialeteismo la condivide con molte altre posizioni filosofiche contemporanee, tra cui in particolare la decostruzione derridiana – il concetto di différance può essere interpretato in una maniera dialetetica, essendo né presenza né assenza, né identico né differente.

Tra i maggiori approcci paraconsistenti, ci sono innanzitutto quelli non aggiuntivi, che escludono il ricorso alla regola dell’aggiunzione – l’introduzione della congiunzione. Il primo caso di questo tipo è la logica discussiva o discorsiva di Jaskowski che nasce dalla situazione intuitiva del prodursi di contraddizioni in un qualsiasi dialogo: possiamo facilmente immaginare una situazione nella quale due o più persone esprimono opinioni contrastanti, due tesi che non possono realizzarsi contemporaneamente. Per spiegarlo Jaskowski elabora un sistema logico con 26 assiomi e un calcolo. Egli rilegge la congiunzione da un punto di vista modale: “a ˄ b” è formulata come “a ˄ ◊ b” parafrasabile come “a ed è possibile che b”. E la stessa strategia modale è usata per ridefinire l’implicazione. Jaskowski riesce a dimostrare che il principio di esplosione non rientra negli assiomi del suo sistema discussivo. La stessa filosofia di fondo è usata nella teoria dei mondi impossibili di Rescher e Brandom, che si profila come un’ontologia non aggiuntiva. I problemi di tali approcci, tuttavia, non mancano: gli approcci aggiuntivi non sono vere logiche paraconsistenti. E questo perché “se è vero che in ogni logica o teoria paraconsistente qualcosa deve funzionare in modo non classico, tuttavia si potrebbe dubitare che la congiunzione non aggiuntiva si comporti realmente come una congiunzione” (p. 74). Ci troviamo al cospetto di una palese violazione della condizione del danno minimo. Un’altra critica è che in questi approcci non abbiamo contraddizioni propriamente tali.

Diverso il caso della strategia a frammentazione proposta da David Lewis ed esaminata dagli autori alle pp. 75-76. Lewis considera infatti versioni epistemiche del Pnc a partire dal concetto di verità-secondo-il-corpus, per cui “un enunciato α è vero non perché riproduce esattamente come stanno le cose nel mondo, piuttosto è vero secondo-il-corpus”, l’insieme delle credenze in cui è inserito (p. 75). Non si pretende quindi che vi siano violazioni ontologiche del Pnc. “Una sottoparte di un corpus di credenze o informazioni può contenere α, mentre un’altra contiene ¬ α. Da questo però non segue che il corpus nella sua interezza contenga la loro congiunzione α ˄ ¬ α” (p. 75-76), ossia l’ammissione di contraddizioni vere ed esplosive. Frammenti del corpus possono entrare in contrasto in certe situazioni, ma questo non distrugge il corpus nella sua interezza. Dalla contraddizione distributiva non segue la contraddizione collettiva.

Per completare il quadro, gli autori citano altri due approcci. Il primo è quello positive-plus, che agisce sulla negazione. Le logiche positive-plus distinguono contesti consistenti e contesti inconsistenti e mantengono che nei primi debba valere la regola dell’esplosione. Il matematico e logico Newton da Costa ha costruito una logica elementare composta da una serie di regole che definiscono consistenza e inconsistenza. Da questa base poi ha elaborato un insieme di gerarchie di calcolo che fissano i diversi modi in cui consistenza e inconsistenza si propagano dai componenti ai composti.

Il secondo approccio è quello della logica del paradosso di Priest (LP). Si tratta di una logica trivalente, dove sono quindi contemplati tre valori di verità: vero, falso, vero e falso. “Un enunciato, dunque, può essere vero, oppure può essere falso, oppure può essere vero e falso. Quest’ultimo valore, naturalmente, è quello peculiare dell’approccio paraconsistente di LP: si esprime il distacco dalla prospettiva classica assumendo che ci siano enunciati sia veri che falsi, contro una delle formulazioni logico-semantiche del principio di non-contraddizione” (p. 87). Un enunciato sia vero che falso “viene etichettato come paradossale. E un esempio paradigmatico di questo tipo di enunciato è quello del mentitore” (p. 87). Uno degli aspetti più importanti di LP sta nell’uso della negazione, che appare piuttosto naturale: è l’operatore che rovescia il valore di verità. In LP la tavola di verità per la negazione è del tutto simile a quella della negazione classica, solo che “qui [in LP] si contempla il caso che una formula possa essere sia vera che falsa, perciò la negazione di un enunciato paradossale (vero e falso) è a sua volta un enunciato paradossale” (p. 88). Posto che α è un enunciato paradossale, anche ¬ α è paradossale. Stessa filosofia viene seguita nell’approccio agli altri connettivi classici: tutto resta uguale, ma si introduce il caso degli enunciati paradossali. È rispettata la condizione del danno minimo e di anti-trivialità. In generale “le matrici di LP riprendono quelle di altre logiche trivalenti, ma è chiaramente la loro interpretazione a cambiare” (p. 90). La relazione di conseguenza logica cambia drasticamente: un argomento è valido in LP se e solo se non è possibile che la conclusione sia falsa e la premessa “designata” (ossia: o vera o vera e falsa). In tal modo falliscono sia lo pseudo Scoto sia il sillogismo disgiuntivo. Ma i problemi non sono eliminati: lo pseudo Scoto, in altre sue versioni, ritorna anche in LP.

Come detto, il volume di Berto e Bottai si contraddistingue per la chiarezza espositiva e l’analisi mai superficiale di tutti i punti chiave del mondo della paraconsistenza. Il volume raggiunge quindi in pieno il suo scopo principale: quello di essere un’introduzione generale, anche per lettori non specialistici, a un settore delle logiche non classiche ancora poco accessibile ai non addetti ai lavori. Ci sono però altre due importanti aspetti che vanno sottolineati. Il primo è l’attenzione per l’opera di Graham Priest, ancora quasi sconosciuta in Italia – mancano traduzioni dei suoi testi più significativi e introduzioni critiche. Il secondo è l’originalità. Nell’ultima sezione del testo viene formulata una convincente soluzione a un problema centrale del dialeteismo: quello della negazione. Abbiamo detto: il dialeteista accetta alcune contraddizioni come vere, ma non tutte. Per spiegare come fare a escludere alcune contraddizioni e non altre, Berto propone l’idea dell’incompatibilità materiale: una forma di negazione che non è definita facendo riferimento alla coppia vero-falso, ma al concetto di esclusione, “concetto implicato dalla nostra esperienza del mondo come agenti, che fronteggiano scelte fra compiere una certa azione o un’altra (qualcosa che riteniamo facciano anche animali non dotati di linguaggi articolati)” (p. 119). Berto chiama questa forma di negazione incompatibilità materiale: è il semplice gesto di escludere qualcosa e non altro. Ciò permette al dialetheist di indicare certe contraddizioni come false, e quindi di non ricadere ancora nel trivialismo.