Food for thought
Algoethics and Algocracy: an existentive problem [part 1]

As for  Flexible Design and Scripting: a Computational Tale in the Digital Era, I will try to share some observations regarding the diffusion of AI in our society with those who will have the pleasure of reading these pages. I’d also like to hear different or conflicting opinions if it is possible. In any case, since this is a particularly delicate topic, I will divide these free and loose thoughts into parts. Happy reading to whoever wants. Finally, I apologize to the reader for taking this translation license 😉 I couldn’t find a precise Anglo-Saxon term to translate “esistentivo” from the Italian meaning, so I used “existentive”.

Per la versione 🇮🇹 clicca qui

Invitation to abstraction
Abstraction is a conceptual process frequently used in computational approaches, in which rules and general concepts become a method through the use and classification of specific topics, helping the designers systemise his work. In the continuation of this short article, I reflect with the reader trying to temporarily abstract myself from some cultural superstructures, but in practice I wish the reader to try to do the same (for himself), analyzing his techno-social condition and projecting himself into possible future scenarios, maybe why not sharing them. By eluding dystopian or utopian scenarios,

abstraction, albeit temporary, is to be understood as a preliminary heuristic exercise that trains one to search in the broadest possible meaning, not necessarily greedy for answers, but rather as a predisposition to find them.

An existentive problem
We are at the dawn of the fifth industrial revolution and the unstoppable progress in the field of AI worries academics, researchers but also men of faith, much fewer enthusiasts – but this type of concern has always been part of human history, nothing new. However, there is something new in the air this time is certain, the leap of thought that transforms the certainty of a moment before into a doubt of the moment after. It is like Socrates’ concept of time, we are in the present, at the moment in which a new paradigm shift is manifesting itself, but the evidence is still evanescent, we can focus on the past, therefore its origin, but as the past is no longer, we can formulate hypotheses about the probable future, we can imagine it as a projection, but it is not being yet. However in this precise present, and it is this personal consideration of mine that constantly urges me to distance myself from false prophets, we do not have the ability to focus on this projection or at least to strip it of our innermost fears and desires. Only recently has man begun to wonder how the present, which is perceptible, tangible, and therefore palpable, can separate two things that do not exist, and how is it possible to predict or shape what will be.

Algoethics & Algocracy 01 – LA

This thought arises punctually in the history of technological progress, let’s call it the “point of uncertainty”, nothing to do with the Kurzweilian singularity, if anything it precedes it, or that point at which some of the capabilities are eloquently questioned human beings deemed specifically the domain of homo sapiens. In particular, and with increasing clarity from April 2022, through art, design and artistic illustrations, we have reached the hearts of the masses. If to the few I talk about LTGMs technology that has turned into a mainstream phenomenon, to the most I mention DALL-E, Stable Diffusion and Midjourney so we can quickly understand what I’m referring to. In historical terms, one of the most blatant points of uncertainty was that of 1779, well known to the British worker Ned Ludd (probably a fictional character), who externalized with his actions the concretization of man’s innate fear, i.e. that of being replaced, an episode that had a tragic repercussion on that present working class. In our 2023 this time the same uncertainty that I would more cautiously identify as cyber-permutation, or simply man’s replacement in some of his work tasks (functions) through the unimagined computational capacity achieved by machines – this is how doubt takes shape, or perhaps I should say the word takes shape, captivated by technology Generative Pre-trained Transformer (GPT). 

Without being pointed out as fanatics or fans of Asimov, the Wachowski brothers or Alvin Toffler etc., or being accused of techno sophism or anything else, none of this, the point of uncertainty simply demarcates itself from the natural tendency, indeed the human tendency, to simplify and reduce the efforts and sufferings that grip his daily life as entropic opposition or simple hedonistic need towards the bio-socio-economic system in which he lives. Exactly as happened for manufacturing looms, the locomotive, 3D printing, anthropomorphic robotic arms etc. silent we witnessed a process of permutation. Far be it from me to resort to cinematic substitutions of race set between the world of machines and the fight for the survival of the city of Zion, I think it is more appropriate to speak of permutations given that the existentive problem of man arises from the algorithm. Permutation in the mathematics of sets represents the one-to-one relationship that exists between all the elements of a set with the set itself. The action of being permuted means changing an initial condition, transferring an asset from one owner to another, or a person from one place to another. Simplifying, permutation can mean a re-evaluation of one’s cultural boundaries, of one’s function in a broader context. The technological progress sublimated in AI represents a new element of our whole, a tool as a product and usable by man to whom he is linked. If memory serves me correctly, this is a concept already exhaustively addressed by Aristotle in his Nicomachean Ethics. In practice, Aristotle believed that what is produced is linked to the producer through the concept of causality. In his philosophy, there are four types of causality: material, formal, efficient and scope. I believe that the last two are more appropriate in this context, namely the efficient one and the final one. Efficient causality refers to the agent or force that causes a thing to exist or change. Scope causation refers to the ultimate purpose or goal of a thing. In both cases we find the active presence of man, in both cases, it is the man who shapes (trivially I would say he reduces the world into databases/datasets), but above all, it is the man who gives AI a purpose or in more appropriately I would say a function. I believe that the conversion of a function into purpose is mainly dictated by the foresight of human faculties but that it is equally difficult to evaluate it in time intervals based on the duration of a man’s life. So regarding the question are in the presence of sentient AI (AGI) my opinion is negative, however, I cannot exclude that the foundations are already being laid, right now for its outsourcing, it is as if we were witnessing the birth of the cocoon but of which we still know if it will become a butterfly or not.

In this present it is important to define in a forward-looking way the efficiency and purpose of this great human work called AI

The fears related to human substitution by AI, however legitimate in emotional terms, are here in my reflection removed because speaking of permutation the axis of intrinsically hermeneutical reasoning has shifted, to quote Heidegger, not on issues relating to existentialism but rather to existentive questions. While the former have individual and collective human existence as a cornerstone of contemplation, leaving room for more or less intense religious, humanistic drifts or in any case at times with pessimistic or optimistic demarcations, for example, a few weeks ago the news of a sect, Theta Noir1Source, . who worships AI just to name one, but I find it more of a publicity stunt; the latter focus on man’s ability to interact with the concrete possibilities presented to him in the world. It is as if in that hypothetical graph of technological progress in correspondence with the point of uncertainty it was still the man who established the direction of continuation of the same, in short, the directional derivative. Realizing awareness and perception of opportunities and above all understanding how and to whom to extend these opportunities should be the first step towards a Post-Digital Era or, if you prefer, completely just in time.

What are algorithmic and algocracy?
Let’s start by clarifying the meaning, both terms are reported by the Accademia dell Crusca as neologisms.

With the term algoethics the study of the problems and ethical implications associated with the application of algorithms is described2Source Accademia della Crusca, ..


With the term algocracy, a digital network environment is described in which power is exercised in an increasingly profound way by algorithms, i.e. the computer programs that are the basis of media platforms, which make possible some forms of interaction and organization and hinder others3Source Accademia della Crusca, ..

The first term began circulating in 2018 through the scholar’s writings Paolo Benanti4Paolo Benanti, Oracles. Between algoethics and algocracy, Rome, Luca Sossella publisher, 2018. Roman theologian, Franciscan of the Third Order Regular – TOR – and deals with ethics, bioethics and ethics of technologies. In particular, his studies focus on the management of innovation: the internet and the impact of the Digital Age, biotechnologies for human improvement and biosafety, neurosciences and neurotechnologies. I will later call him into question in this regard. The second term is used for the first time by the scholar Alexander Delfanti5Alessandro Delfanti, Adam Arvidsson, Introduzione ai media digitali, Bologna, Il Mulino, 2013, p. 23. and it established itself between 2018 and 2020.

The aforementioned uncertainty can be considered the daughter of algocracy, in the sense that in the last decade, man has already relied on algorithms, computer solvers, for the performance of certain tasks even in the legal and welfare fields, delegating the ability to provide or manage the possibilities of people to them. The act of unconditionally delegating historically named Systems Sapiens before the term artificial intelligence took hold in the collective imagination as an advertising slogan, finally raised a crisis of limits affecting the identity of the homo sapiens. Uncertainty has been structured around the thin thread of human conscience that links ethical aspects to the values ​​of equality, unfortunately passing through the utilitarian economic ones (because we are all part of the same market). The criticality is that if the spectre of profit, of the pioneering conquest of this or that other market segment, moves the threads of uncertainty, this race to arm ourselves with AI will turn into a problem, into a crisis of opportunity and soon or late in an ethical-social emergency (it is already happening). Compared to the past, the problem is not one of access to resources, which is always a problem of an oligarchic nature tending towards monopolism, but one of access to knowledge and the identification and recognition of common values. Common to whom? But above all who decides what is knowledge and what is not? the rhetorical question is not trivial simply because neural networks are not trained with infinite databases and, even if large, they represent a reduction of the world itself, so who decides which reduction is the best? This reminds me of the legend of St. Augustine of Hippo, and of the child who wanted to fill the hole in the sand with all the water from the sea using a simple bucket – is this perhaps what we are unknowingly trying to do? With the advent of AI, it has been ascertained, or at least it is my impression, that knowledge as well as being reducible to a database, has also been downgraded to a utilitarian fact, that is, expandable and disseminatable only if it coincides with the main purpose for which it is been made available according to logic build fast and ask questions later – in this way the pioneering AI organizations have fulfilled the purpose in a utilitarian and profitable way. In the second half of the 18th century, it was Jeremy Bentham, this is the name of the radical theorist and politician in the Anglo-American philosophy of law, who formalized the utilitarian theory. Just for clarity, according to this theory what is useful is what results in the greatest happiness of the greatest number of people. The philosopher argued that a typical need of all utilitarians can be traced back, such as that of making ethics an exact science like mathematics: a rigorous hedonism based on the calculation of the quantitative difference between pleasures (recites Treccani, authoritative dictionary of the Italian language). Now, if access to knowledge in the broadest sense is delegated to restricted circles of men, or as would happen to hi-tech groups, it goes without saying that the next step will be to try to make ethics computable because it is assumable to an exact science and with a quick abstraction we would find ourselves the “producer” judged by the “thing produced”.

I believe that the trigger of the point of uncertainty derives precisely from this concept subtly lavished by algocracy, i.e., the excessive trust placed in the presumed infallibility of the synthetic and synthesized judgment in calculation and in the possibility of considering human activity completely computable .

The more this concept spreads in the mainstream, the more attempts are made to physically remove it from the human orbit and the more the foundations for AGI solidify because it can be collectable in an entity that is no longer abstract.

In one of his articles6P. Benanti, The frontiers of humanity: the dilemmas of algorithmics. Interview with Paolo Benanti, . on the subject, the researcher and friar Paolo Benanti affirms a concept as simple as it is the bearer of beauty, a universally recognized moral value:

Life is an existence, it is not a functioning. With this joke we can enclose a problem that starts from Chomsky and from the idea of ​​the mind as a machine that works, and reaches up to the present day. It is evident that here there is another threshold problem between the machine and us, between the idea of ​​a mechanism that describes everything on the one hand and, on the other, the concept of person, a concept that has been possibility itself of existence of the West. Today this concept seems, to some extent, to dissolve behind an idea of ​​a human being that works.

Benanti thus inaugurates a new human chapter on the subject of bioethics and technology: algoethics. In practice, you have to imagine it as a sort of guardrail which helps to keep the machine (A/N the progress of AI) within certain margins, but I could say of moral values. Of course, it could happen that during the journey a lane jump, or a bad accident, could occur but basically, it is as if it were taken into due account (a bit like the concept of percentile), the researcher defines it as the threshold of ethical attention. If the West is not yet willing to scrap its cultural history of the Greek foundation to the religion of animism (this may be why robotics in Japan is at a higher level in terms of acceptance in everyday life) then AI, the machine is what is most remotely comparable to the concept of person and the management of the ethical threshold cannot be an object of interest of the technician, of the ethical engineer alone. In some passages of my doctoral thesis, mainly addressed to computational thinking, I turned to the attention that must be returned to the proxemics and which in this disquisition I feel like proposing again since technological choices have always had a driving force for social development – Benanti recalls in the article the historic episode of Jones Beach and the bridges of the white middle class as a guiding parable.

Algoethics & Algocracy 02 – LA

In short, to use Benanti’s words once again, the fundamental question is not technological but rather of an ethical-philosophical type, as he reports in the article in L’Osservatore Romano7In response to Pope Francis’ video message on the occasion of the IV World Meeting of Popular Movements, 16 October 2021 – P. Benanti, “The need for an algorithm”, .:

to the extent that we want to entrust human skills, understanding, judgment and autonomy of action to AI software systems we must understand the value, in terms of knowledge and ability to act, of these systems that claim to be intelligent and cognitive

A bit as it happens for pharmaceutical products, the need to introduce a sort of leaflet could in some way facilitate this investigation and approach the understanding of the costs and benefits that can derive from the use of Machine Sapiens. In practice, in part, an algoethics approach is already in place in my opinion, the most attentive AI reader and user will have noticed the introduction, from a certain moment on, of some output control devices in ChatGPT and subsequently of Bing (after the partnership between Microsoft and OpenAI), of human feedback to correct a series of answers for which the AI ​​has shown a sort of uncertainty. In practice, it is an extra type of training human-centred.
The Churches of the main Abrahamic religions also want to access knowledge, or rather the writing of algorithms whose root is guided by ethical principles. It all happened on January 10, 2023, in the Rome Call: Artificial intelligence ethics8Source, . as reported by the Microsoft press release in which the monotheistic Churches team up with Microsoft and IBM in writing algorithms and collectively establishing what is good for the people. Chief Rabbi Eliezer Simha Weisz, a former member of the Council of the Chief Rabbinate of Israel, offers a disturbing comparison, or transitive property if you prefer:

Judaism exalts the wisdom of humanity, created in the image and likeness of God, which manifests itself in human innovation in general and in artificial intelligence

in particular, Benanti’s position is particularly shared at the Rome Call for AI Ethics and more generally by RenAIssance Foundation9More info, . of which he is a co-founder:

“We need to establish a language that can translate moral values ​​into something computable for the machine”

A statement that makes researchers turn up their noses, for example, such as Francesco Vannini, an anthropologist with a degree in political science and former director of the MIT Sloan Management Review Italia magazine since 2022, the Italian edition of the Journal of the Massachusetts Institute of Technology (MIT) business school. Vannini is very clear in his analysis which he articulates in three passages10F. Vannini, . that warn us against errors that could prove to be irreversible. First, trying to make ethics something computable is made the domain of the expert to make it digestible to the machine; Second, we open up to the moral autonomy of the machine (read the management of human values); Third, since the machine can compute more cleverly than man, then it will be more moral than man.

In this last statement, Vannini is clear, there are important data scientists, including Judea Pearl of Jewish culture winner of the prestigious Touring Award in 2011, who considers it possible to reduce human thought according to a causal approach, Ladder of Causation, consisting of three levels such as:

  • Association, regularity in observations, and predictions based on passive observations. Correlation or regression;
  • Intervention, Pay attention to what cannot be present in the data (which concerns the past);
  • Counterfactuals, Compare the factual world with a fictional world;

Vannini, however, recognizes in Pearl a STEM forcing that tends towards the reductionism of human thought he states:

In short, if multidisciplinarity and complexity are accepted, the attempt to reduce human thought, human intelligence, and human wisdom to the three rungs of the Ladder of Causation ends up appearing to us as a trivial exercise in reductionism. A way to cage thought, more than a way to grasp its meaning.

Algoethics & Algocracy 03 – LA

This is because in Pearl’s book titled The Book of Why, he knowingly wants to structure an inference process of the machine such as to be deliberately superior to the man himself. Pearl hopes for the possibility of learning from what man should and could create. SapiensMachines capable of distinguishing good from evil better than man, in any case, his opinion on the question of whether we are already in the presence of sentient systems his answer is negative, but he underlines that his approach (A/N that of moral intelligence) instead of that of Touring of 1950, or Asimov’s 3 science fiction rules, then yes, of course, we would get to AGI without a doubt.
Vanni delves into various logical steps, but I’d like to close this part with a question of his that I extend to the reader: Why prefer machines to ourselves?


PART 2 Coming soon…



🇮🇹 version



Algoretica e Algocrazia: un problema esistentivo [part 1]

Invito all’astrazione
L’astrazione, è un processo concettuale frequentemente adoperato negli approcci computazionali, in cui regole e concetti generali assurgono a metodo attraverso l’uso e la classificazione di esempi specifici, aiutando il designer a sistematizzare il proprio lavoro. Nel prosieguo di questo breve articolo rifletto con il lettore provando ad astrarmi temporaneamente da alcune sovrastrutture culturali, ma in pratica vorrei che anche il lettore provasse a fare lo stesso (per se stesso), analizzando la propria personale condizione tecno-sociale e a proiettarsi in possibili scenari futuribili, magari perchè no condividendoli. Eludendo scenari distopici o utopici,

l’astrazione, seppur temporanea, è da intendersi come esercizio euristico preliminare che allena alla ricerca nel più ampio significato possibile non necessariamente avido di risposte, ma piuttosto come predisposizione a trovarne.

Un problema esistentivo
Siamo agli albori della quinta rivoluzione industriale e il progresso inarrestabile nel campo dell’AI preoccupa accademici, ricercatori ma anche uomini di fede, molto meno gli entusiasti – ma questo tipo di preoccupazione ha sempre fatto parte della storia dell’uomo, nulla di nuovo. Tuttavia, qualcosa di nuovo nell’aria sta volta c’è è concreto, il salto di pensiero che tramuta la certezza di un’attimo prima a dubbio dell’attimo dopo. É come il  concetto del tempo di Socrate, noi siamo nel presente, nel momento in cui sta palesandosi un nuovo cambio di paradigma, ma l’evidenza è ancora evanescente, riusciamo a mettere ben a fuoco il passato dunque la sua origine, ma in quanto passato non è più, riusciamo a formulare ipotesi sul probabile futuro, possiamo immaginarlo in quanto proiezione, ma esso ancora non è. Tuttavia in questo preciso presente, ed è questa mia personale considerazione che mi esorta costantemente a prendere le distanze dai falsi profeti, non abbiamo la capacità di mettere a fuoco tale proiezione o quanto meno a spogliarla dalle nostre paure e desideri più reconditi. Solo negli ultimi tempi l’uomo sta iniziando a chiedersi come il presente, che è da noi percepibile, tangibile, dunque palpabile possa separare due cose che non esistono, e come è possibile prevedere o plasmare ciò che sarà.

Questo pensiero sorge nella storia del progresso tecnologico puntualmente, chiamiamolo punto d’incertezza, nulla a che vedere con la singolarità kurzweiliana, semmai la precede,  ovvero quel punto in corrispondenza del quale si mettono in discussione, in modo eloquente, alcune delle capacità umane ritenute specificamente dominio dell’homo sapiens. In modo particolare, e con sempre più chiarezza a partire da aprile 2022, attraverso l’arte, il design e le illustrazioni artistiche si è giunti al cuore delle masse. Se ai pochi parlo della tecnologia LTGMs che si è tramutata in fenomeno mainstream, ai più mensiono DALL-E, Stable Diffusion e Midjourney così ci intendendiamo rapidamente a cosa io mi stia riferendo. In termini storici uno dei più plateali punti di incertezza fu quello del 1779 ben noto all’operaio britannico Ned Ludd (probabilmente personaggio di fantasia), che esternò con le sue azioni la concretizzazione dell’innata paura dell’uomo ossia quella dell’esser rimpiazzato, episodio che ebbe una tragica ricaduta sul presente lavorativo della allora categoria operaia. Nel nostro 2023 questa volta sembra davvero a portata di mano la medesima incertezza che identificherei in modo più cauto come cyber-permutazione, o semplicemente sostituzione dell’uomo in alcune delle sue mansioni lavorative (funzioni) attraverso l’inimmagginata capacità computazionale raggiunta dalle macchine – il dubbio così prende forma, o forse dovrei dire parola accativati proprio dalla tecnologia Generative Pre-trained Transformer (GPT). 

Senza essere additati come fanatici o fan di Asimov, dei fratelli Wachowski o di Alvin Toffler etc., o essere tacciati di tecnosofismo o altro, nulla di tutto ciò, semplicemente il punto di incertezza si demarca dalla naturale tendenza, anzi l’umana tendenza, a semplificare e a ridurre gli sforzi e le sofferenze che attanagliano il suo quotidiano come opposizione entropica o semplice bisogno edonistico verso il sistema bio-socio-economico in cui dimora. Esattamente come accaduto per i telai manifatturieri, la locomotiva, la stampa 3D, i bracci robotici antropomorfi etc. silenti abbiamo assistito ad un processo di permutazione. Lungi da me il ricorrere a cinematografiche sostituzioni di razza ambientate tra il mondo delle macchine e la lotta alla sopravvivenza della città di Zion, credo che sia più opportuno parlare di permutazioni visto che il problema esistentivo dell’uomo nasce dall’algoritmo. Permutazione nella matematica degli insiemi rappresenta il rapporto biunivoco che susstiste tra tutti gli elementi di un insieme con l’insieme stesso. L’azione dell’esser permutato significa mutare una condizione iniziale, trasferimento di un bene da un possessore ad un altro, di una persona da un luogo ad un altro. Semplificando la permutazione può significare una rivalutazione dei propri confini culturali, della propria funzione in un contesto allargato. Il progresso tecnologico sublimato nell’AI rappresenta un nuovo elemento del nostro insieme, uno strumento in quanto prodotto e usabile  dall’uomo al quale egli stesso ne risulta legato. Se la memoria non mi inganna questo è un concetto già esaustivamente affrontato da Aristotele nella sua Etica Nicomachea. In pratica Aristotele riteneva che ciò che è prodotto fosse legato al produttore attraverso il concetto di causalità. Nella sua filosofia, ci sono quattro tipi di causalità: materiale, formale, efficiente e finale. Personalmente credo che le ultime due siano più appropriate in questo contesto, ovvero quella efficiente e quella finale. La causalità efficiente si riferisce all’agente o alla forza che fa esistere una cosa o la fa cambiare. La causalità finale si riferisce allo scopo o all’obiettivo finale di una cosa. In entrambe i casi ritroviamo la presenza agente dell’uomo, in entrambe i casi è l’uomo a plasmare (banalmente direi a ridurre in database/datasets il mondo), ma soprattutto è l’uomo a conferire all’AI uno scopo o in modo più appropriato direi una funzione. Credo che la conversione di una funzione in scopo sia dettata principalmente dalla lungimiranza delle facoltà umane ma che sia altrettanto difficile valutarla in intervalli di tempo basati sulla durata della vita di un uomo. Dunque alla domanda siamo in presenza di AI senziente (AGI) la mia opinione è negativa, tuttavia non posso escludere che si stiano già gettando le basi, proprio ora per una sua esternalizzazione, è come se stessimo assistendo alla nascita del bozzolo ma del quale non sappiamo ancora se diventerà farfalla o meno.

In questo presente è importante definire in modo lungimirante efficienza e scopo di questa grande opera umana chiamata AI. 

I timori legati alla sostituzione umana dall’AI per quanto leciti in termini emotivi sono qui in questa mia personale riflessione allontanati, perchè parlando di permutazione si è spostato l’asse del ragionamento intrinsecamente ermeneutico, per dirla con Heidegger, non su questioni attinenti all’esistenzialismo ma piuttostosto a questioni esistentive. Mentre le prime hanno come cardine di riflessione l’esistenza umana individuale e collettiva lasciando spazio a derive più o meno intense religiose, umanistiche o comunque a tratti con demarcazioni pessimistiche oppure ottimistiche ad esempio, è di qualche settimana fa la notizia di una setta, Theta Noir [1] che venera l’AI giusto per dirne una, ma personalmente la trovo più una trovata pubblicitaria; le seconde  si focalizzano sulla capacità dell’’uomo di interagire con le possibilità concrete che gli si presentano nel mondo. É come se in quell’ipotetico grafico del progresso tecnologico in corrispondenza del punto d’incertezza fosse ancora l’uomo a stabilirne la direzione di proseguimento dello stesso, insomma, la derivata direzionale. Prendere reale coscienza e percezione delle opportunità e soprattutto comprendere bene come e a chi estendere tali chances dovrebbe essere il primo passo verso un’Era Post-Digital o se preferite del tutto just in time.

Cosa sono l’algoretica e l’algocrazia?
Iniziamo col fare chiarezza di significato, entrambe i termini sono riportati dall’Accadamia dell Crusca come neologismi.

Con il termine algoretica viene descritto lo studio dei problemi e dei risvolti etici connessi all’applicazione degli algoritmi. [2]


Con il termine algocrazia viene descritto un ambiente digitale di rete in cui il potere viene esercitato in modo sempre più profondo dagli algoritmi, cioè i programmi informatici che sono alla base delle piattaforme mediatiche, i quali rendono possibili alcune forme di interazione e di organizzazione e ne ostacolano altre. [3]

Il primo termine è iniziato a circolare nel 2018 attraverso gli scritti dello studioso Paolo Benanti  [4] teologo Romano, francescano del Terzo Ordine Regolare – TOR – e si occupa di etica, bioetica ed etica delle tecnologie. In particolare i suoi studi si focalizzano sulla gestione dell’innovazione: internet e l’impatto del Digital Age, le biotecnologie per il miglioramento umano e la biosicurezza, le neuroscienze e le neurotecnologie. Nel prosieguo lo chiamerò in causa a tal riguardo. Il secondo termine è adoperato per la prima volta dallo studioso Alessandro Delfanti [5] e si è affermato tra il 2018 ed il 2020. 

L’incertezza di cui sopra puo’ ritenersi figlia dell’algocrazia, nel senso che nell’ultimo decennio l’uomo si è già affidato agli algoritmi, ai risolutori informatici, per lo svolgimento di determinate mansioni persino in ambito legale e assistenziale delegando la capacità di fornire o gestire le possibilità delle persone ad essi. L’atto di delegare incondizionatamente sistemi storicamente denominati Sapiens prima che il termine intelligenza artificiale facesse presa nell’immaginario collettivo come uno slogan pubblicitario, ha sollevato infine una crisi di limiti interessando l’identità dell’Homo Sapiens. L’incertezza si è strutturata attorno al sottile filo della coscienza umana che lega aspetti etici ai valori dell’uguaglianza, passando purtroppo per quelli utilitaristici economici (perchè tutti noi facciamo parte dello stesso mercato). La criticità è che se a muovere i fili dell’incertezza è lo spettro del profitto, della conquista pionieristica di questo oppure di quell’altro segmento di mercato, questa “corsa ad armarsi di AI” si tramuterà in problema, in crisi di opportunità e presto o tardi in emergenza di natura etico-sociale (sta già accadendo). Rispetto al passato il problema non è di accesso alle risorse, che è sempre un problema di natura oligarchico tendente al monopolistico, ma di accesso alla conoscenza ed alla identificazione e riconoscimento di valori comuni. Comuni a chi? Ma soprattutto chi decide cosa è conoscenza e cosa no? la domanda, retorica, non è banale semplicemente perchè le reti neurali non sono allenate con database infiniti e seppur capienti essi rappresentano una riduzione del mondo stesso, dunque chi sentenzia quale riduzione sia la migliore? Questo mi ricorda quella leggenda di Sant’Agostino d’Ippona, e del bimbo che voleva riempire la buca nella sabbia con tutta l’acqua del mare utilizzando un semplice secchiello – è forse ciò che si sta inconsapevolmente tentando di fare? Con l’avvento dell’AI si è constatato, o almeno è mia impressione, che la conoscenza oltre ad essere riducibile a database, sia stata anche declassata a fatto utilitaristico, ossia, espandibile e diffondibile solo se coincidente con lo scopo principale per cui è stata messa a disposizione secondo la logica build fast and ask questions later – in questo modo le pionieristiche organizzazioni del settore hanno assolto allo scopo in modo utilitaristico e profittevole. Nella seconda metà del ‘700 fu Jeremy Bentham, questo il nome del teorico e politico radicale nella filosofia del diritto anglo-americana, a formalizzare la teoria utilitaristica. Giusto per chiarezza, secondo tale teoria è utile ciò che ha come conseguenza la più grande felicità del maggior numero di persone. Il filosofo sosteneva che si può far risalire un’esigenza tipica di tutti gli utilitaristi, quale quella di fare dell’etica una scienza esatta come la matematica: un rigoroso edonismo basato sul calcolo della differenza quantitativa tra i piaceri (recita la Treccani). Ora, se l’accesso alla conoscenza in senso più ampio è delegata a cerchie ristrette di uomini, o come più realmente accadrebbe a gruppi dell’hi-tech, va da sé che il passo successivo sarà quello di provare a rendere l’etica computabile perchè assurgibile a scienza esatta e con una rapida astrazione ci ritroveremmo il “produttore” giudicato dalla “cosa prodotta”.

Credo personalmente chè l’innesco del punto di incertezza derivi proprio da questo concetto sommessamente profuso dall’algocrazia, ovvero, l’eccessiva fiducia riposta in una presunta infallibilità del giudizio sintetico e sintetizzato in calcolo e nella possibilità di ritenere completamente computabile l’attività umana.

Più questo concetto si propaga nel mainstream, più si tenta di allontanarlo fisicamente dall’orbita umana e più le basi per l’AGI si solidificano perchè collcabile in una entità non più astratta.

In un suo articolo [6] sul tema, lo studioso e frate Paolo Benanti afferma un concetto tanto semplice quanto portatore di bellezza, un valore morale universalmente riconosciuto:

La vita è un’esistenza, non è un funzionamento. Con questa battuta si può racchiudere un problema che parte da Chomsky e dall’idea della mente come una macchina che funziona, e arriva fino ai giorni nostri. È evidente che qui c’è un altro problema di soglia tra la macchina e noi, tra l’idea di un meccanicismo che descrive tutto da un lato e, dall’altro, il concetto di persona, un concetto che è stato la possibilità stessa di esistenza dell’Occidente. Oggi questo concetto sembra, in qualche misura, dissolversi dietro un’idea di essere umano che funziona.

Benanti, inagura così un nuovo capitolo umano sul tema della bio-etica e la tecnologia: l’algoretica. In pratica bisogna immaginarla come una sorta di guardrail che aiuta a tenere la macchina (nda il progresso dell’AI) all’interno di certi margini, ma potrei dire di valori morali. Certo potrà accadere che durante il tragitto un salto di corsia, un brutto incidente, possa verificarsi ma tendenzialmente è come se fosse tenuto in debito conto (un pò come il concetto di percentile), lo studioso la definisce soglia di attenzione etica. Se l’occidente non è ancora intenzionato a rottamare la propria storia culturale di fondazione greca alla religione dell’animismo (sarà per questo che la robotica in Giappone è ad un livello superiore in termini di accettazione nel vivere quotidiano) allora l’AI, la macchina è ciò che più lontanamente è assimilabile al concetto di persona e la gestione della soglia etica non puo’ essere oggetto d’interesse del tecnico, del solo ingegnere etico. In alcuni passaggi della mia tesi di dottorato, principalmente rivolta al computational thinking, mi sono rivolto all’attenzione che bisogna restituire alla prossemica e che nella presente disquisizione mi sento di riproporre in quanto le scelte tecnologiche hanno da sempre avuto funzione trainante per lo sviluppo socialeBenanti rievoca nell’articolo lo storico episodio di Jones Beach e dei ponti della white middle class come parabola guida. Insomma, per utilizzare ancora una volta le parole di Benanti, la domanda fondamentale non è di natura tecnologica ma piuttosto, di tipo etico-filosofico, così egli riporta nell’articolo de L’Osservatore Romano [7]:

nella misura in cui vogliamo affidare competenze umane, di comprensione, di giudizio e di autonomia di azione a dei sistemi software di AI dobbiamo capire il valore, in termini di conoscenza e capacità di azione, di questi sistemi che pretendono di essere intelligenti e cognitivi

Un pò come accade per i prodotti farmaceutici, la necessità di introdurre una sorta di bugiardino potrebbe in qualche modo facilitare questa istruttoria ed avvicinamento alla comprensione dei costi e dei benefici che possono derivare dall’impiego delle Macchine Sapiens. Nella pratica, in parte, un approccio algoretico è già in atto a mio avviso, il lettore ed utilizzatore di AI più attento, avrà notato l’introduzione, da un certo momento in poi, di alcuni dispositivi di controllo dell’aoutput in ChatGPT e successivamente di Bing (dopo la partnershiip tra Microsoft ed OpenAI), ovvero di feedback umani per rettificare una serie di risposte per cui l’AI ha mostrato una sorta di incertezza. In pratica è a tutti gli effetti un extra addestramento di tipo human-centered.

A voler accedere alla conoscenza, o meglio alla scrittura di algoritmi la cui radice sia guidata da principi etici, sono anche le Chiese delle principali religioni abramitiche. Il tutto accadeva il 10 Gennaio 2023 nella Rome Call: Etica dell’intelligenza artificial [8] come riportato dal comunicato stampa di Microsoft in cui le Chiese monoteiste si alleano con Microsoft ed IBM nello scrivere algoritmi e stabilire coralmente cosa è buono per il popolo. Il rabbino capo Eliezer Simha Weisz, già membro del Consiglio del Gran Rabbinato di Israele, avanza un inquietante paragone, o se preferite proprietà transitiva:

L’ebraismo esalta la saggezza dell’umanità, creata a immagine e somiglianza di Dio, che si manifesta in generale nell’innovazione umana e in particolare nell’intelligenza artificiale

La posizione di Benanti è particolarmente condivisa presso la Rome call for AI Ethics e più in generale dalla RenAIssance Foundation [9] di cui ne è co-fondatore:

“Dobbiamo stabilire un linguaggio che possa tradurre i valori morali in qualcosa di computabile per la macchina”

Affermazione che fa storcere il naso a studiosi, ad esempio, come Francesco Vannini, antropologo laureato in scienze politiche e dal 2022 già direttore della rivista MIT Sloan Mangement Review Italia, l’edizione italiana della rivista della business school del Massachusetts Institute of Technology (MIT). Vannini è molto chiaro nella sua analisi che articola in tre passaggi [10] che ci mettono in guardia da errori che potrebbero rivelarsi irreversibili. Primo, tentare di rendere l’etica un qualcosa di computabile la si rende dominio dell’esperto per renderla digeribile alla macchina; Secondo, ci si apre all’autonomia morale della macchina (leggasi gestione dei valori umani); Terzo, essendo la macchina in grado di computare più abilmente dell’uomo, allora essa sarà più morale dell’essere umano. Su quest’ultima affermazione Vannini è chiaro, ci sono importanti data scientist, tra cui Judea Pearl di cultura ebraica vincitore del prestigioso Touring Award nel 2011, che ritiene possibile ridurre il pensiero umano secondo un approccio di causalità, Ladder of Causation, costituita da tre livelli quali:

  • Association, regolarità nelle osservazioni, previsioni basate su osservazioni passive. Correlazione o regression;
  • Intervention, Attenzione a ciò che non può essere presente nei dati (che riguardano il passato);
  • Counterfactuals, Confrontare il mondo fattuale con un mondo fittizio;

Vannini, tuttavia riconosce in Pearl una forzatura STEM che tende al riduzionismo del pensiero umano infatti egli afferma:

Se si accettano multidisciplinarietà e complessità, insomma, il tentativo di ridurre l’umano pensiero, l’umana intelligenza, l’umana saggezza ai tre scalini della Ladder of Causation, finisce per apparirci come un banale esercizio di riduzionismo. Un modo di ingabbiare il pensiero, più che un modo di coglierne il senso.

Questo perché nel libro di Pearl intitolato The Book of Why, egli vuole scientemente strutturare un processo di inferenza della macchina tale da essere volutamente superiore all’uomo stesso. Pearl auspica la possibilità di imparare da ciò che l’uomo dovrebbe e potrebbe creare. Macchine Sapiens in grado di distinguere il bene dal male meglio dell’uomo. Ad ognimodo il suo parere in merito alla questione se siamo già in presenza di sistemi senzienti è negativo, ma sottolinea che se si applicasse il suo approccio (nda quello dell’intelligenza morale) anzichè quello di Touring del 1950, o delle 3 regole fantascientifiche di Asimov, allora sì, certo che si arriverebbe all’AGI senza dubbio.
Vanni approfondisce diversi passaggi logici, ma mi piacerebbe chiudere questa parte con un suo quesito che io estendo al lettore: Perchè preferire la macchina a noi stessi?


PARTE 2 Prossimamente…


  • 1
    Source, .
  • 2
    Source Accademia della Crusca, .
  • 3
    Source Accademia della Crusca, .
  • 4
    Paolo Benanti, Oracles. Between algoethics and algocracy, Rome, Luca Sossella publisher, 2018.
  • 5
    Alessandro Delfanti, Adam Arvidsson, Introduzione ai media digitali, Bologna, Il Mulino, 2013, p. 23.
  • 6
    P. Benanti, The frontiers of humanity: the dilemmas of algorithmics. Interview with Paolo Benanti, .
  • 7
    In response to Pope Francis’ video message on the occasion of the IV World Meeting of Popular Movements, 16 October 2021 – P. Benanti, “The need for an algorithm”, .
  • 8
    Source, .
  • 9
    More info, .
  • 10
    F. Vannini, .