3.2 L'asino di buridano.
Il termine frame problem, evidenzia Dennett nel suo saggio  Cognitive wheels the frame problem of AI (in Dennett 1998), è stato utilizzato per la prima volta nel 1969 da John McCarthy, il matematico che coniò il termine artificial intelligence, e il ricercatore Patrick Hayes (del quale abbiamo parlato nella seconda parte).
Il termine fa riferimento ad una tecnica, detta framing, utilizzata nei films d'animazione: le parti in movimento del filmato vengono sovrapposte a un background statico.
E' solitamente tradotto in italiano con il problema del contorno/della cornice e con contorno si allude all'impossibilità determinare (computare, programmare) tutte le implicazioni, immediate e non, che una determinata realtà (azione, oggetto) determina in una data situazione.
The frame problem, secondo Dennett, non è un semplice problema concernente l'elettronica o la computabilità ma costituisce anzitutto un problema filosofico ed epistemologico.

Riguardo the frame problem, afferma ancora in tale saggio, esiste anzitutto un problema di significato.
Esso è utilizzato, all'interno della comunità scientifica, in due accezioni differenti.
McCarthy e Hayes sono soliti riferirsi all'aspetto particolare del problema, ovvero la problematica che insorge nello sviluppo di determinate strategie per affrontare un problema di più vasta scala, in real time, da parte di un sistema.
Altri invece si riferiscono proprio al problema di vasta scala, all'intera pentola, come evidenzia Dennett citando Hayes.

McCarthy and Hayes, who coined the term, use it to refer to a particular, narrowly conceived problem about representation that arises only for certain strategies for dealing with a broader problem about real-time planning systems. Others call this broader problem the frame problem—"the whole pudding," as Hayes has called it — (Dennett 1998, pag 183)

Per chiarire cosa determini the frame problem seguiamo Dennett nel suo esempio, immaginario ma eloquentissimo.

C'era una volta il robot R1.
Un giorno i suoi progettisti fecero in modo che egli imparasse che la sua batteria di riserva, la sua preziosa fonte di energia, fosse nascosta in una stanza nella quale era stata posta, nel contempo, anche una bomba.
All'interno della stanza esisteva un carrello e la batteria era stata posta proprio su esso.
R1 ipotizzò che una determinata azione, da lui chiamata PULLOUT (WAGON, ROOM) avrebbe cavato fuori dalla stanza l'ambita batteria.
Disgraziatamente però la bomba si trovava sul carrello, e sebbene R1 lo sapesse, non aveva valutato tutte le implicazioni e gli esiti della sua azione.
Era infatti ben vero che il suo pullout avrebbe tirato fuori la batteria dalla stanza, ma era altrettanto vero che avrebbe tirato fuori anche la bomba.

I progettisti conclusero che il robot successivo avrebbe dovuto avere la capacità di valutare non solo le implicazioni dei suoi atti ma anche le implicazioni dei loro effetti.
Chiamarono questo secondo modello il robot deducer (R1D1) e lo introdussero nella stessa identica situazione che portò al fallimento il suo predecessore.
R1D1 cominciò a lavorare e, giunto al momento del su citato pullout, cominciò, secondo quanto era stato progettato a fare, a considerare le implicazioni di tale azione.
Considerò che portare fuori il carrello non avrebbe cambiato il colore della stanza, che affinché il carrello potesse uscire dalla stanza stessa le sue ruote avrebbero dovuto "ruotare"...e via discorrendo: la bomba, ovviamente, esplose.

I progettisti non si arresero.
Il robot successivo avrebbe dovuto avere la capacità di formulare deduzioni e considerare implicazioni ma avrebbe dovuto avere anche quella di distinguere tra quelle rilevanti e quelle irrilevanti.
R2D1, il modello successivo, fu quindi dotato di algoritmi capaci di effettuare questo tipo di cernita.
Giunto al momento cruciale, appunto il momento del pullout, R2D1 si fossilizzò in una sorta di amletica esitazione ( per dirla con un immagine oggi comune: si "piantò").
Quando i progettisti gli intimarono di fare qualcosa il robot rispose: la sto facendo, sto valutando migliaia di implicazioni che ho determinato come irrilevanti.Non appena ne trovo una la includo nella lista delle implicazioni irrilevanti affinché io possa sapere quali implicazioni irrilevanti non devo considerare...la bomba esplose e il robot fece l'identica fine del proverbiale asino di buridano.

Questa storiella, dice Dennett, chiarisce cosa the frame problem sia, sebbene egli non abbia idea alcuna su come the frame problem possa essere superato.

I have no solution to offer, or even any original suggestions for where a solution might lie.(Dennett 1998, pag 183)

Che il problema sia inteso in  senso generale o particolare, sostiene, esso è attualmente irrisolto e probabilmente irrisolvibile.

§



Dennett ha ragione, il problema in questione è altamente complesso.
A nostro modo di vedere questa insolubilità è da ricercare nell'approccio essenzialmente computazionalista tramite il quale si è fino ad ora tentato di affrontarlo.

In ultima istanza tale insolubilità affonda le sue radici in un mito radicato e profondo della cultura occidentale, e che nel computazionalismo trova un'ulteriore espressione: l'identificazione linguaggio-pensiero.
Il pensiero non è un processo esclusivamente linguistico e/o simbolico, pensare non significa, come appunto pretendono i computazionalisti "manipolare segni".

Lo stesso Dennett (come già la sua metafora editoriale espressa nel Multiple Drafts Model ci farebbe intuire) è da includere in questo ambito.

The emergence of the (verbal) expression is precisely what creates or fixes the content of higher-order thought expressed [...] (Dennett 1991, 315).

Il linguaggio non si identifica con il pensiero, evoca bensì il pensiero, come il pensiero non si identifica con l'Essere, la realtà: evoca bensì l'Essere.
Un pensiero, una concettualizzazione, può essere quindi espressa in infiniti modi ed in infiniti linguaggi, nel contempo una concettualizzazione è uno degli infiniti modi attraverso i quali  uno "stato di cose" può essere concettualizzato.
Pretendere di ridurre qualcosa che si pone oltre due livelli di infinità  attraverso il mero brute force computazionale è qualcosa di ben arduo ed improbabile (anche se la capacità di calcolo è sterminata e il tempo a disposizione notevolmente vasto).

Lo stesso Patrick Hayes, come evidenzia Dennett nel saggio Producing future by telling stories (in Dennett 1998), sostiene quanto the frame problem non possa essere ricondotto ad un problema di tempo e di carenza di esso.
Anche eventuali esseri angelici, dotati di tutto il tempo del mondo, sostiene, si troverebbero in seria difficoltà ad affrontare le banali situazioni nel quale the frame problem si manifesta.

[...] as Patrick Hayes has claimed (in his remarks in Pensacola), that the frame problem really has nothing directly to do with time pressure. He insists that angels with all the time in the world to get things right would still bebeset by the frame problem. (Dennett 1998, pag 207)

La strategia dovrà essere quindi differente.
Quale strategia?
Sappiamo che una buona via è quella che ci costituisce e ci permette di pensare ed essere coscienti, ma abbiamo soltanto una vaga idea di come tale strategia lavori.

Siamo quindi convinti che the frame problem sarà risolto quando riusciremo a rispondere alla domanda che ci siampo posti precedentemente: quando un segnale diventa segno?
Ovvero: quando e come emerge una coscienza (per la quale il mero segnale è segno, dotato, in quanto tale di significato) capace di effettuare previsioni reali attraverso modalità altamente efficienti? (E, da un punto di vista computazionale, non eccessivamente dispendiose)