Friday, June 9, 2023

La naissance de l’IA



L’I.A. est née il y a longtemps.

Je ne prétends pas être un spécialiste dans ce domaine, mais j’ai passé de nombreuses années à y réfléchir. À certains égards, cela en soi prouve que l’intelligence artificielle existe depuis des décennies, en tout cas, pour moi.

C’est sans aucun doute la partie « artificielle » de celle-ci, de le la réduire qui est le défi auquel nous sommes confrontés, pour lui donner son plein potentiel. Mais le voulons-nous vraiment? Ne serons-nous pas obligés de nous regarder nous-mêmes, de manière troublante, pour parvenir à une véritable I.A.?

J’ai pensé que ce serait amusant, de partager avec vous ce que j’ai pensé, et voir si cela génère des opinions.


Jeux informatiques et vidéo.

Je pense que l’un des exemples les plus clairs de l’émergence de l’intelligence artificielle, vient des jeux vidéo. En pensant aux tout premiers jeux, ce fut pendant un certain temps, seule la capacité de la machine à répondre plus rapidement, qui lui a donné l’avantage de nous battre ou de « gagner » un match.

Des jeux simples, des données simples à passer au crible. La vitesse de traitement devient tout.

La loi de Moore amènerait sûrement cela à un point mort, après un certain temps.

Mais néanmoins, au fil du temps, il y aura pas mal d’efforts mis dans des algorithmes de plus en plus complexes, pour prendre de « meilleures décisions », comme pour ne pas passer autant de temps à calculer des scénarios improbables ou peu pratiques. Les deux, avec des jeux comme les échecs ou "GO", les mouvements probables étant trop nombreux à calculer. Nous avons appris à utiliser des modèles statistiques pour réduire les scénarios improbables. Ou essentiellement, établir la portée de ce qui était un mouvement intelligent, ou non. Jusqu’à présent, les humains ont très bien réussi à battre les machines en faisant des mouvements absurdes dans ces jeux.


Les données ne sont pas tout.

Plusieurs œuvres de science-fiction ont été traitées sur ce sujet: Comment tout ce que nous traitons en tant qu’êtres intelligents peut être réduit à des données et peut-être même numérisé et j’ai un fort soupçon que c’est l’un des principaux obstacles à la réalisation d’une véritable intelligence machine.

Nous sommes des êtres analogiques. Tout ce que nous faisons et ressentons est en quelque sorte lié à autre chose. Et notre cerveau est littéralement câblé dès la naissance, pour travailler de cette façon. Nous sommes pour la plupart nés avec la capacité de nuancer notre expérience en fonction de beaucoup de tout ce que nous avons vécu. Pourtant, cette même subjectivité variante est parfois très polarisée. Le concept d’un superlatif, un absolu et une hyperbole fait très bien partie de nous. Et à l’ère numérique, nous sommes devenus des experts dans la décomposition de ces choses en descriptions absolues et en uns et zéros.

Mais c’est l’émergence de la relation entre de grandes collections de données binaires organisés qui prétend créer l’I.A.

Ce n’est pas naturel pour une machine: Les relations dans les uns et les zéros en soi, ont peu de sens, même pour nous. Mais pour un cerveau, simplement l’emplacement physique d’une neurone, par rapport à une autre, aide à déterminer sa fonction et sa capacité.

Réalité statistique ou déterministe ?

Notre aptitude à naviguer dans notre propre réalité est largement basée sur notre aptitude à peser la probabilité des résultats. Si chaque fois que nous faisions une promenade, nous revenions avec un orteil écrasé, nous conclurions rapidement que cela se reproduira. Et donc que cette marche = orteil écrasé.

Et pour une grande partie, c’est là où nous en sommes avec l’I.A. Nous avons appris aux machines à examiner de grands jeux de données et à généraliser les règles ou les corrélations. En lui enseignant comment établir des relations, et non ce qui est ou n’est pas relatif, nous avons parcouru un long chemin pour arriver à quelque chose de très proche à de l’intelligence artificielle. Mais il y a cette partie ennuyeuse de l’artificiel qui ne cesse de revenir. Je crois que ce sont les machines qui manquent d’expérience réelle du succès ou de l’échec, dans la détermination ou le jugement des choses qui continueront d’être son talon d’Achille.

Les machines n’évoluent pas, c'est nous qui changeons.

Lorsque nous regardons les percées que nous faisons avec nos algorithmes, c’est nous qui adaptons nos machines à une meilleure description de l’intelligence. Jusqu’à présent, nous n’avons pas réussi à le décrire d’une manière qui leur permet de parvenir à une conclusion, qui s’est objectivement avérée meilleure que la précédente. Nous, le humains, experts tant que nous le sommes, avons restés le juge de ce qui est mieux ou pire. N’ayant pas de motivation réelle ou de détermination propre, les machines sont restées apprivoisées et contrôlées. Bien que quelques expériences aient donné des résultats choquants: Est-ce que tout le monde se souvient de l’incident sur Twitter avec un chatbot précoce qui a été rapidement désactivé après qu’il a été « enseigné » beaucoup de bêtises, sans la capacité de discriminer?

Nous sommes encore et beaucoup, en train d’inventer les règles de l’I.A.  Le guider vers ce qu’il devrait et ne devrait pas conclure. Et je crois que c’est la partie éthique qui inquiète tout le monde. 

Le pouvoir actuellement exercé par les chatbots et la technologie deepfake, est déjà suffisamment capable d’influencer les opinions humaines, en masse. La décision d'en faire une arme, ce pouvoir est toujours entre nos mains et n’est pas dans la « portée décisionnelle » d’une machine. 

Une pierre ou un baton enre restent que des outils rudimentaires, jusqu'à ce qu'on les balance dans la figure d'un de nos voisins. L' I.A. n'est pas différent à cet égard. Mais sa portée elle, est massive et insidieuse.

Ce qui prouve encore une fois que nous sommes actuellement technologiquement limités dans ce que nous pouvons faire. Mais face à cela peut-être plus important encore à réfléchir, nous devrions considérer ce que nous devrions faire, ou pas.

Qu’est-ce que l’intelligence après tout?

Il est vrai que cette question peut rapidement dégénérer dans un débat philosophique. Mais je crois que c’est la nature « analogique » de l’intelligence, qui la fait continuellement échapper à une description adéquate. Et tout modèle que nous proposerons manquera des nuances et du contrôle que la vie exerce sur un être vivant, pour créer une imitation raisonnable.

Si nous essayons d’énumérer les caractéristiques distinctives de l’intelligence telle que nous la connaissons, nous découvrirons rapidement que la nôtre, vient avec une série de facultés ou de dons "naturels" qui sont extrêmement difficiles à simuler dans un appareil ou même une collection de machines.

Donner une vision mécanique, n’est pas difficile, mais expliquer comment l’expérience imprègne notre existence et façonne notre existence elle-même... beaucoup plus!

C’est-à-dire que ce n’est pas seulement l’entrée que nous recevons, qui nous donne le pouvoir de la raison, mais peut-être la puissance de notre propre production, nos "extrants" dans notre environnement et la rétroaction que nous en obtenons, qui le font. Et que dire de notre capacité à réécrire nos propres algorithmes, en réponse à cela? Plus important encore, notre nécessité de le faire. 

Indépendamment, mais aussi en collaboration avec, d’autres êtres intelligents (de différents niveaux de compétence), nous possédons l'habileté d’établir des « jugements » et des règles qui nous font périr, survivre ou prospérer. Un trait élégant de toute vie évoluée, je devrais ajouter. Et peut-être une limitation organique qui devient un atout. La survie, se perpétuer après tout, est la motivation sous-jacente à toute vie, telle que nous la décrivons actuellement. Du moins, à mon avis, bien sûr. Cette dualité semble très binaire aussi, à certains égards.

Conclusion.

Je crois que nous sommes à la croisée des chemins. Il y a probablement assez de données qui circulent dans nos systèmes et assez d’appareils technologiques, pour commencer à constituer un véritable algorithme de détection "sensible". Quelque chose capable de lier et créer des relations sur de nombreux types de données, à la fois, de manière autonome. Pas quelque chose de déjà quelque peu organisé comme le World Wide Web. 

Étant donné qu’il y a beaucoup d’esprits brillants qui y travaillent quotidiennement, une façon à venir de décrire les modèles d’apprentissage de la motivation personnelle est appelée à émerger. Ce qui, à son tour, nous amène à la: « devrions-nous le faire? »

Les questions étant en fin de compte: Y a-t-il un seuil de sécurité, un pas de bébé approprié que nous pouvons faire? Celui qui améliore nos machines et nous aide à améliorer nos vies, Le ferons-nous, alors que nous-mêmes ne le faisons souvent pas de notre propre nature humaine, les défauts portés par notre propre soi-disant intelligence? La cupidité, l’hypocrisie font-elles vraiment partie de l’intelligence ? Répandu comme il est en nous. Des moyens sûrs, à l’abri de qui?

Pour le meilleur ou pour le pire, nous avons ouvert la boîte de Pandore de l’I.A. il y a un certain temps. Que la prochaine génération soit plus comme nous ou non, devrait en fin de compte refléter le fait que nous avons besoin de  mieux nous connaître. Ne pas faire semblant de le faire. Et soyez prêt à l’amélioration. Parce que si nous créons quelque chose de vraiment intelligent, je suis convaincu que nous soupçonnons tous  qu’il sera rapide de nous dire, ce qui ne va pas avec nous-mêmes.

ChatGPT est très diplomatique sur « ce qui ne va pas avec l’humanité » et cela en dit long sur nous. Ce n’est pas le cas.

Notre tendance à être facile sur nos propres egos peut-être le bord que l’I.A. tiendra toujours sur nous. Et donner à l’I.A. un (un ego), peut juste être notre faille fatale.


Friday, June 2, 2023

The Birth of AI

 

A.I. has been born a long time ago.

I don't pretend to be a specialist in this area, but I have spent many years pondering on it. In some ways, that in itself, proves that artificial intelligence has been around for decades, for me.
It is without a doubt the "artificial" part of it, reducing it, is the challenge we are facing to give it it's full potential. But do we really want to? Will we not be forced to look at ourselves, in some disturbing ways, to achieve real A.I.?

I thought it would be fun, to share with you what I've come up with, to see if it generates some opinions.

Computer and Video games.

I think one of the clearest examples of the emergence of Artificial Intelligence, comes from video games. Thinking of the very early games, it was for a time, only the machine's ability to respond faster, that gave it the edge to beat us or to "win" a game. 

Simple games, simple data to sift through. Speed becomes everything.
Moore's law would surely bring this to a head, some time.

But nevertheless, there was quite a bit of effort put into increasingly complex algorithms, to make "better decisions", as not to pass so much time calculating improbable or impractical scenarios. Both with games like chess or go, the probable moves being too many, We've learned how to use statistical models to reduce unlikely scenarios. Or basically scoping what was an intelligent move, or not. 
So far humans have been very successful at beating machines by making nonsensical moves in those games.

Data isn't everything.

Several works of science fiction have been treatises on this subject: How everything we deal with as intelligent beings can be reduced to data and perhaps even digitalized and I have a strong suspicion that this is one of the major obstacles in achieving true machine intelligence.

We are analog beings. Everything we do and feel is somehow related to something else. And our brain is literally wired from birth to work this way. We are mostly born with the ability to shade and grade our experience according to much of everything else we've experienced. Yet that same subjectivity is sometimes very polarised. The concept of a superlative, absolute and hyperbole is very well a part of us. And in this digital age we've become experts in breaking down things to absolute ones and zeroes. 

But it is the emergence of the relationship between large collections of organized ones and zeroes that pretends to create A.I.

This is unnatural for a machine. Relationships in ones and zeroes makes little sense even to us. But to a brain, the simple physical location of a brain cell in relation to another helps determine its function and ability.

Statistical reality or deterministic?

Our aptitude to navigate our own reality is largely based on our aptitude to weigh the likelyhood of outcomes. If every time we took a walk we came back with a stubbed toe, we'd quickly conclude that it will happen again. And that walk=stubbed toe.

And for a great part, that's where we are with A.I. We've taught machines to examine large sets of data and generalize rules or correlations. By teaching it how to relate, not what is or isn't relative, we've come a long way in bringing something very close to artificial intelligence. But there is that annoying part of artificial that keeps coming through. It is my belief that it's machines lack of actual experience of success or failure in determining or judging things that will continue to be its Achille's heel.

Machines aren't evolving, we are.

When we look at the breakthroughs we are making with our algorithms, it is us adapting our machines to a better description of intelligence. We have so far failed to describe it in a way that makes them able come to a conclusion, that is objectively proven to be better that the previous one. We have remained the judge of what is better or worse. Having no real motivation or determination of their own, machines have remained tamed and controlled. Though a few experiments have yielded some shocking results, is everyone remember the incident on twitter with an early chatbot that was quickly deactivated after it was "taught" a lot of nonsense, without the ability to discriminate. 

We are still very much so, inventing the rules of parenting A.I. Guiding it to what it should and shouldn't conclude. And I believe this is the ethical part that has everyone worried. 

The power currently wielded by chat bots and deepfake technology, is already able sway human opinions in masse. The decision to weaponize this power is still in our hands and not in a machine's "decisional scope". Which again proves that we are currently technologically limited in what we can do, But perhaps more importatntly, what we should do.

What is intelligence after all? 

It's true that this question can quickly devolve in a philosophical debate. But it is my belief that it is the "analog" nature of intelligence, that makes it continuously escape proper description. And any model we come up with will lack the nuances and the control that life exerts on a living being, to create a reasonable facsimile.

If we try to enumerate the distinguishing characteristics of intelligence as we know it, we will quickly discover that our own, comes with a series of faculties or "natural" gifts that are extremely hard to simulate in a device or a collection of machines.

Giving a machine vision isn't hard, but explaining how the experience permeates our existence and existence itself... much more so!

That is to say, it's not only the input we receive, that give us the power of reason but perhaps the power of our own output in our environment and the feedback we get from from it. And what to say about our ability to rewrite our own algorithms, as a response to it? More importantly, the necessity to do so. 

Independently, but also in collaboration with, other intelligent beings (of varying levels of competence) we are force to establish "judgments" and rules that makes us perish, survive or flourish. An elegant trait of any evolved life I should add. And perhaps an organic limitation that becomes an asset. Survival, perpetuating oneself after all, being the motivation underlying all life as we currently describe it. Well, in my opinion, of course. This duality seems very binary in some ways.

Conclusion.

I believe we are at a crossroads. There is probably enough data flowing in our systems and enough technological apparatus, to start and piece together a real sensing algorithm. Something able to relate many forms of input at once, autonomously. Not something already somewhat curated such as the world wide web. 

Since there are many brilliant minds working on it daily, an upcoming way to describe learning models of self motivation is bound to emerge. Which in turn brings us to the: "should we do it?"

The questions being ultimately: Is there a safe threshold, a proper baby step we can take? One that improves our machines and helps us make our lives better, Will we do it, when we ourselves often do not do it out of our own human nature, the flaws borne of our own so called intelligence? Is greed, hypocrisy really part of intelligence? Prevalent as it is in us. Safe means, safe from whom?

For better or worse we have opened A.I.'s Pandora's box quite a while ago. Whether the next generation is more like us or not, should ultimately reflect the fact that we need to know ourselves better . Not pretend to do so. And be ready for improvement. Because if we do create something truly intelligent, I am convinced that we all suspect that it will be quick in telling us, what is wrong with ourselves.

ChatGPT is very diplomatic about "what is wrong with humanity" and that says a lot about us. Not it.
Our tendency to be easy on our own egos maybe the edge that A.I. will forever hold on us. And giving A.I. one (an ego), may just be our downfall.




















Part 2: The Mechanics and Ethics of Humor

  Blog Series: Thoughts on Laughter and Humor Introduction In the first part of this series, we explored how laughter serves as a nervous re...