Food for thought
Algoethics and Algocracy: accessibility to Knowledge to be aware and not delegate an antronomist [part 2]

Per la versione 🇮🇹 clicca qui

As I write, in Italy, the Privacy Guarantor has frozen ChatGPT ordering to regulate the acquisition of data on Italian territory within 20 days (and OpenAI is proving to be supportive of collaboration), but the point is another, I don’t know how many readers have asked the question relating to the paywalled effects relating to MidJourney, DALL-E, ChatGPT, or what if Knowledge was only accessible to some categories rather than others? I am sure, trivially, that not all AI enthusiasts have had the opportunity to experience the real power and applicability of AI after the trial period. The smartest ones had a very pleasant extension of the trial, but what about the rest?

Whoever had the right not only paid but at this moment has probably been voted by the network as an “expert” by omitting a second word below, namely, “user”

This emphasis of mine is to be understood as a natural consequence of the meaning attributed to the word technology. Not wanting to be overly didactic, I invite the reader to observe this reasoning. Let’s start with the second part of the word logos which even before meaning reason, thought, or language takes on the meaning of “collect”, put together and is in relation to the first part of the word the tech, that is, knowing how to do possessing the concept of something, but not directly linked to its production or the poiesis, in that case, we have already entered the definition of Aristotelian art as productive behaviour. In most cases, those who are experimenting with AI have become the main diffuser of partial knowledge of the medium, as they are not directly involved in the IT structuring and therefore of the datasets with respect to which the neural network has been trained (it stands as production aspects). There are no experts in the strict sense, only skilled users and this is what has always happened since the software made its appearance in the working and then private lives of each of us. It was with the integration of programming languages ​​into production processes that the will of the designer, his cultural domain, began to emerge in the practice and to restore, perhaps, dignity to some downgraded to monkey roles – the AEC sector is totally afflicted by this condition because it is linked, so to speak, to a productivist logic. Therefore, since technology is a high value of production-oriented knowledge, the “image-producing AI experts” to which I am referring are in practice attributable to user technicians who will most likely earn new positions in design studios/firms with a curriculum enriched by the voice prompt engineer.

This has exposed Society to moral and then ethical nature issues
First of all because through the conveyance of these tools an uncommon moral has been highlighted or a set of cultural values ​​not totally shared unanimously, these days are the fake images of

Algoethics & Algocracy 04 – LA

heads of state and even of the Pope in clothes not exactly suited to them, but it is also true that DeepFakes have been circulating on the net for years, and consequently the ethics that should supervise morality are unable to keep up through rules or norms capable of giving the system behavioural framework. The point starts from the moral, so much so that, for example, the project was started at MITMoral Machine1Source, a platform to gather a human perspective on moral decisions made by artificial intelligence built into self-driving cars, so-called moral dilemmas. However, being a technical user is not a guarantee of ethical-moral compliance with one’s own processing (we are not talking about NSFW filters), first of all, because in most cases one is not directly incorporated in the discretization processes of the training datasets, but above all because, except for StabilityAI, other companies of which OpenAI in primis have not disclosed the knowledge datasets with which they trained DALL-E and above all ChatGPT as this information is covered by trade secret. On the other hand, the question is delicate because we are no longer faced with software that requires particular skills, and in any case no longer confined to specific sectors of human action, but rather with products that I like to define metatools, i.e. infrastructures capable of generating new tools without limits of fields of application.

Therefore, in my humble opinion, the professional calibre of AI-based AEC productions will have the two Aristotelian causalities as a discriminating factor, i.e. efficiency and purpose/function, expression of technological knowledge (not merely technical) capable of expanding sectoral opportunities, but still dealing with software products/material. I’m referring to the ability to train neural networks and create datasets ad-hoc

Apart from my opinion on the future production of the AI-powered AEC industry, the moral dilemmas and the ethical question, as mentioned at the beginning, many religions are particularly involved in this global discussion, as it should be, however, the hypothesis of Don Luca Peyron2After graduating in Law from the University of Turin, he subsequently obtained the qualification as an industrial property consultant and carries out his professional activity as an Italian and European attorney at the Office for the Harmonization of the Internal Market of the European Union. He has collaborated with the International Association for the Protection of Intellectual Property (AIPPI) and is the chair of Industrial Law at the University of Turin, being one of the first in Italy to deal with issues relating to the relationship between industrial law and the Internet. In 2014 he obtained a licentiate in Pastoral Theology at the Salesian Pontifical University (source Wikipedia). of the Salesian Pontifical University, coins a new term, or rather the professional role that of antronomo (antronomist). Below is the specification as reported on the Apostolato Digitale website3Source, :

The antronomist is the one who in a process of creating a product or service linked to digital transformation and emerging technologies places the human as the norm. This figure is placed, within a process of co-generation of thought and planning, upstream of these processes, supporting those who have precise technical skills related to this product or service – physicist, computer scientist, mathematician, engineer – bringing their own skills related to other areas, mostly of a humanistic nature such as psychology, anthropology or health sciences and engaging in dialogue.

If on the one hand, some concepts can be shared, on the other hand transforming ethics, which should be in the public domain and the basis of every production, in the prerogative of a few followers of one corporation rather than another, I personally believe it can further strengthen that process of substitution and not of permutation which I mentioned in Part 1, accelerating the disruptive dynamics of the digital age and contributing to the diffusion of disabling professions. Again nothing new, or rather the 1977 text by the Austrian writer, historian, pedagogue and philosopher Ivan Illich, titled precisely Disabling Professions. Here is a passage that I personally believe makes Illich an almost postmodern prophet:

[…] let us not confuse the public use of factual expert knowledge with the corporate exercise of normative judgment by a profession. When a craftsman, such as a gunmaker, was called to court as an expert to reveal the secrets of his trade to the jury[…] He visibly demonstrated his limited and circumscribed competence and allowed the jury to decide for themselves from which barrel could have come from the bullet. Today, most experts play a different role. The dominant practitioner provides the jury or legislator with his own global opinion and that of fellow initiates, rather than self-limiting factual evidence and specific abilities. Armed with an aura of divine authority, he calls for a suspension of the hearsay rule and inevitably undermines the rule of law. Thus we see how democratic power is subverted by an undisputed assumption of totalizing professionalism

Such dynamics have touched us very closely during the Covid-19 period with virologists all over the place (many in Italy have been transferred to national politics); the ascendancy of the BIM-ers is still strong, who if on the one hand have systematized some building management issues, on the other hand, have monopolized the engineering-architectural job-market, levelling it, I would say flattening it in the direction of monkey-roles I want to be clearer and not misunderstood. BIM-ers have strong hard knowledge, but if you think carefully, the sparks of innovations have been born in recent years from a transversal and above all computational approaches

Could the advancement of the Digital Twin concept be attributed in part to the highly effective BIM philosophy, which can be shared? And does the concept of a Digital Twin, in turn, sow the seed of equivalence between physical and digital existence, as seen in the Metaverse?

Maybe I’m wrong, or maybe not, but

this is probably why the computational approach in the AEC field remains a strong expression of the cultural domain of the human mind which constantly tends to detach itself (does it likely due to the constant exercise of abstraction?) from passive automatisms which imprison thought in the cultural spaces defined by all-encompassing professionalism

In other words, what can be derived from the thought of the Austrian philosopher?
First, certain professions or experts could not become dominant or have a disabling impact on society unless people already feel a sense of lack or need for what these professionals offer. Drying the concept further, people are more likely to rely on experts or professionals when they feel they need their services or expertise, and this reliance on experts can become disabling if people become overly dependent on them – kind of the real fear. of the spread of AI. Overall, it is important in this historical moment to understand the needs and motivations of people who underlie the search for professional skills precisely to avoid the potential negative impacts of technocratic professional dominance.

Go to PART 1
PART 3 Coming…



🇮🇹 version



Algoretica e Algocrazia: accessibilità alla Conoscenza per essere consapevoli e non delegare un antronomo [part 2]

Mentre sto scrivendo, in Italia, il Garante della Privacy ha congelato ChatGPT intimando di regolamentare l’acquisizione di dati su territorio italiano entro 20 giorni (e OpenAI si sta dimostrando favorevole alla collaborazione), ma il punto è un altro, non so quanti lettori si sono posti il quesito relativo agli effetti paywalled relativi a MidJourney, DALL-E, ChatGPT, ovvero e se la Conoscenza fosse accessibile solo ad alcune categorie piuttosto che ad altre? Sono sicuro, banalmente, che non tutti gli entusiasti dell’AI abbiano avuto la possibilità di sperimentare dopo il periodo di prova la reale potenza e applicabilità dell’AI. I più scaltri hanno avuto una estensione della trial molto gradevole, ma la parte restante?

Chi aveva facoltà non solo ha pagato, ma in questo momento è probabilmente stato votato dalla rete come “esperto” omettendo una seconda parola al seguito, ossia, “utilizzatore”

Questa mia sottolineatura è da intendersi come naturale conseguenza del significato che si attribuisce alla parola tecnologia. Non volendo essere eccessivamente didascalico, invito il lettore ad osservare questo ragionamento. Partiamo dalla seconda parte della parola logos la quale ancor prima di significare ragione, pensiero, linguaggio assume il significato di “raccogliere”, mettere assieme ed è in rapporto alla prima parte della parola la téchne, ovvero, il saper fare il possedere il concetto di qualcosa, ma non direttamente legato alla sua produzione ovvero la poiesis, in quel caso siamo entrati già nella definizione di Arte aristotelica in quanto comporatmento produttivo. Nella maggior parte dei casi chi sta sperimentando l’AI, è diventato il principale diffusore di una parziale conoscenza del mezzo, in quanto non direttamente coinvolto nella strutturazione informatica e, dunque, dei datasets rispetto ai quali la rete neurale è stata addestrata. Non esistono esperti in senso stretto, ma solo abili utilizzatori ed è ciò che è sempre accaduto da quando il software ha fatto la sua comparsa nelle vite lavorative, e poi private, di ognuno di noi. É con l’integrazione dei linguaggi di programmazione nei processi produttivi che il volere del designer, il suo dominio culturale, ha iniziato ad emergere nella praxis quotidiana e a restituire, forse, dignità ad alcuni ruoli declassati a monkey-roles – il settore AEC è totalmente afflitto da questa condizione perchè legato, il che se ne dica, ad una logica produttivista. Quindi essendo la tecnologia un valore elavato della conoscenza orientato alla produzione, gli “esperti AI produttori di immagini” a cui mi riferisco sono nella pratica riconducibili a tecnici utilizzatori che si guadagneranno con molta probabilità nuove posizioni negli studi di progettazione con curriculum arricchito dalla voce “prompt engineer”.

Questo ha esposto la Società ad una questione di natura morale prima e di natura etica dopo
Innanzitutto perchè attraverso la veicolazione di tali strumenti si è evidenziata una morale non comune ovvero un insieme di valori culturali non totalmente condivisi in modo unanime, sono di

Algoethics & Algocracy 05 – LA

questi giorni le immagine fake di capi di Stato e persino del Papa in vesti non propriamente a loro consone, ma è pur vero che sono anni da quando i DeepFake circolano in rete, e di conseguenza l’etica che dovrebbe vigilare sulla morale non è in grado di tenere il passo attraverso regole o norme in grado di dare la quadra comportamentale al sistema.  Il punto parte dalla morale tanto è che, ad esempio, presso l’MIT si è avviato il  progetto Moral Machine [1] una piattaforma per raccogliere una prospettiva umana sulle decisioni morali prese dall’intelligenza artificiale integrate nelle auto a guida autonoma, i cosiddetti moral dilemmas.

Tuttavia essere tecnico utilizzatore non è garanzia di adempimento etico-morale alle proprie elaborazioni (non si parla di filtri NSFW), innanzitutto perchè non si è nella maggior parte dei casi direttamente incorporati nei processi di discretizzazione dei datasets addestranti, ma soprattutto perché tranne StabilityAI altre società di cui OpenAI in primis non hanno reso noti i datasets di conoscenza con cui hanno addestrato DALL-E e soprattutto ChatGPT in quanto questa informazione è coperta da segreto commerciale. D’altrocanto la questione è delicata perchè non si è più davanti a software che richiedono particolari abilità, e comunque non più confinabili in settori specifici dell’agire umano, ma piuttosto a prodotti che mi piace definire metatools, ovvero infrastrutture in grado di generare nuovi strumenti senza limiti di campi di applicazione. Dunque, secondo un mio modesto parere,

la caratura professionale delle produzioni AEC basate su AI avrà come discriminante le due causalità aristoteliche, vale a dire efficienza e scopo/funzione espressione di un sapere tecnologico (non meramente tecnico) in grado di ampliare le opportunità settoriali, ma trattando pur sempre di prodotti/materiale software. Mi riferisco alla capacità di addestrare reti neurali e a creare datasets ad hoc.

A parte la mia riflessione sulle future produzione del settore AEC AI-powered, i moral dilemmas e la questione etica, come accennato in apertura molti religiosi sono particolarmente coinvolti in questa discussione globale come è giusto che sia tuttavia, con l’ipotesi di don Luca Peyron [2] dell’Università Pontificia Salesiana, si conia un nuovo termine ad arricchimento della discussione, o per meglio dire ruolo professionale, ovvero, quello dell’antronomo.  Qui di seguito la specifica come riportato sul sito Apostolato Digitale [3]:

L’antronomo è colui o colei che in un processo di creazione di un prodotto o servizio legato alla trasformazione digitale e le tecnologie emergenti pone l’umano come norma. Questa figura si colloca, all’interno di un processo di co generazione di pensiero e progettazione, a monte di tali processi affiancando chi ha competenze tecniche precise legate a tale prodotto o servizio – fisico, informatico, matematico, ingegnere – portando proprie competenze legate ad altri ambiti, perlopiù di carattere umanistico come la psicologia, l’antropologia o le scienze sanitarie e ponendosi in dialogo.

Se da un lato alcuni concetti possono essere condivisibili, dall’altro canto trasformare l’etica, che dovrebbe essere di dominio pubblico e alla base di ogni produzione, in prerogativa di pochi adepti ad una corporazione piuttosto che ad un altra, credo personalmente possa ulteriormente rafforzare quel processo di sostituzione e non di permutazione come accennato nella Parte 1 accelerando la dinamica disruptiva dell’era digitale e contribuendo all diffusione delle disabling professions. Anche qui nulla di nuovo, o meglio, ha fatto scuola il testo del 1977 dello scrittore, storico, pedagogista e filosofo austriaco Ivan Illich, intitolato per l’appunto Disabling Professions. Riporto di seguito un passo che, personalmente credo faccia di Illich un profeta quasi postmoderno:

[…] non confondiamo l’uso pubblico della conoscenza fattuale degli esperti con l’esercizio corporativo del giudizio normativo da parte di una professione. Quando un artigiano, come un fabbricante di armi, veniva chiamato in tribunale come esperto per rivelare alla giuria i segreti del suo mestiere[…] Ha dimostrato visibilmente la sua competenza limitata e circoscritta e ha permesso alla giuria di decidere autonomamente da quale canna potesse provenire il proiettile. Oggi, la maggior parte degli esperti svolge un ruolo diverso. Il professionista dominante fornisce alla giuria o al legislatore la propria opinione globale e quella dei compagni iniziati, piuttosto che prove fattuali autolimitanti e abilità specifiche. Armato di un’aura di autorità divina, chiede una sospensione della regola del sentito dire e mina inevitabilmente lo stato di diritto. Si vede così come il potere democratico sia sovvertito da un presupposto indiscusso di una professionalità totalizzante

Dinamiche del genere ci hanno toccato da molto vicino durante il periiodo del Covid-19 con i virologi a tutto campo (molti in Italia sono stati travasati nella politica nazionale); ancora forte è l’ascendente dei BIM-misti, che se da un lato hanno sistematizzato alcune questioni di building management, dall’altro hanno monopolizzato il mercato del lavoro ingegneristico-architettonico livellandolo, direi appiattendolo nella direzione dei monkey-roles voglio essere più chiaro possibile e non foriero di fraintendimenti, I BIM-misti hanno una elevata conoscenza di tipo “hard”, ma se si osserva con attenzione questa Era Digitale, ci si accorge che le scintille delle innovazioni sono nate negli ultimi anni da approcci trasversali e soprattutto computazionali.

Non è forse la filosofia BIM efficacissima, in parte condivisibile certamente, ad avanzare il concetto di Digital Twin? E non è forse proprio il concetto di gemello digitale a portare in se il germe della equipollenza tra “Essere” ed “essere digitale” (quello che insiste nel Metaverso)? 

Magari sono in errore, o forse no, ma

sarà per questo che l’approccio computazionale nell’ambito AEC resta una forte espressione del dominio culturale della mente umana che costantemente tende a distaccarsi (sarà per il costante esercizio di astrazione?) da automatismi passivi che imprigionano il pensiero negli spazi culturali definiti dalle professionalità totalizzanti

In altre parole cosa è possibile derivare dal pensiero del filosofo austriaco?
Innanzitutto che determinate professioni o esperti non potrebbero diventare dominanti o avere un impatto disabilitante sulla società a meno che le persone non avvertissero già un senso di mancanza o bisogno verso ciò che questi professionisti offrono. Asciugando ulteriormente il concetto, è più probabile che le persone facciano affidamento su esperti o professionisti quando sentono di aver bisogno dei loro servizi o competenze, e questa dipendenza dagli esperti può diventare invalidante se le persone diventano eccessivamente dipendenti da loro – un pò il vero timore della diffusione dell’AI. Nel complesso, è importante in questo momento storico comprendere i bisogni e le motivazioni delle persone che sottendono alla ricerca di competenze professionali proprio per scongiurare i potenziali impatti negativi del predominio professionale tecnocratico.

vai alla PARTE 1
PARTE 3 Prossimamente…


  • 1
  • 2
    After graduating in Law from the University of Turin, he subsequently obtained the qualification as an industrial property consultant and carries out his professional activity as an Italian and European attorney at the Office for the Harmonization of the Internal Market of the European Union. He has collaborated with the International Association for the Protection of Intellectual Property (AIPPI) and is the chair of Industrial Law at the University of Turin, being one of the first in Italy to deal with issues relating to the relationship between industrial law and the Internet. In 2014 he obtained a licentiate in Pastoral Theology at the Salesian Pontifical University (source Wikipedia).
  • 3