La réponse est que l’univers est gouverné par un petit ensemble de toutes les fonctions possibles. En d’autres termes, quand les lois de la physique sont écrites avec les mathématiques, alors on peut les décrire en intégralité avec un ensemble de propriétés très simples. De ce fait, les réseaux de Deep Learning n’ont pas besoin d’analyser toutes les images, mais seulement une fraction.
Pour le mettre en perspective, on peut considérer la grandeur d’une fonction polynomiale qui est la taille de son plus grand exposant. Donc, une équation quadratique telle que y=x2 possède une grandeur de 2, l’équation y=x24 possède une grandeur de 24 et ainsi de suite. Évidemment, le nombre de grandeurs est infini, mais seul un petit sous-ensemble de polynomial apparaît dans les lois de la physique. Pour des raisons qu’on ne comprend pas encore totalement, notre univers peut être décrit précisément par des polynomiaux Hamiltoniens d’une faible grandeur selon Lin et Tegmark. En moyenne, les polynomiaux qui décrivent les lois de la physique possèdent des grandeurs allant de 2 à 4.
Les lois de la physique possèdent d’autres propriétés importantes. Par exemple, elles sont habituellement symétriques pour la rotation et la conversion. Faites pivoter un chat ou un chien en 360 degrés et l’apparence sera la même. Une conversion de l’image en 10 mètres, en 100 mètres et même en 1000 mètres et elle restera la même malgré quelques différences. Ces 2 processus simplifient l’identification du chat et du chien.
L’univers possède une autre propriété qui est exploitée par les réseaux de Deep Learning. C’est la hiérarchie de sa structure. Les particules élémentaires forment des atomes qui forment des molécules qui forment des cellules qui forment des organismes jusqu’aux planètes et aux galaxies.
Et les structures les plus complexes commencent toujours avec des étapes très simples.
Aucun commentaire:
Enregistrer un commentaire