En effet, jusqu'à maintenant, en cas de présence de "trou" dans une image, la plupart des algorithmes le remplaçaient par des couleurs ou textures basées sur les parties visibles de l'image. Dans le cas d'une zone détruite seulement partiellement, par exemple un mur avec une partie de sa surface manquante, ces méthodes assez "mécaniques" donnaient un résultat correct. Mais dès lors qu'une zone complète est supprimée, mettons la Tamise dans une photo prise depuis un pont, aucun algorithme ne sera capable de deviner qu'il fallait reconstituer un fleuve. Nos deux chercheurs ont pourtant publié un article[1], démonstration à l'appui, proposant une solution

Le principe est simple, mais fait appel à de nombreuses techniques pour être mis en place efficacement. Tout d'abord on collecte une base de données de plusieurs millions de photos sur des sites comme Flickr [2]. Ensuite, à partir d'une image ayant une zone manquante (cf. deuxième image de l'illustration ci-dessus), leur algorithme va chercher parmi les quelques millions d'images celles qui ont la sémantique la plus proche de notre image, c'est-à-dire dont l'aspect visuel est proche. Après cela, leur programme détermine quel morceau d'image - parmi celles sélectionnées - collerait le mieux à la place de la zone manquante. Enfin, le bout d'image est collé au bon endroit et les couleurs sont ajustées pour bien s'intégrer à l'image.

Le résultat est généralement saisissant et la méthode m'a assez amusé dans la mesure où la démarche se rapproche de celle qu'on aurait tendance à suivre.

[1] Publication illustrée
[2] Non, pas le dauphin