Eh oui, Google est un robot !
Pour être plus précis, un fichier robots.txt comme ceci
(note le retour à la ligne dans la syntaxe correcte) demande aux robots de ne pas télécharger les pages du site de manière automatisée, quel que soit leur UserAgent.
Il se trouve que pour être indexé par google, un robot doit télécharger les pages. Évidemment c'est automatisé : il n'y a pas de petit lutin chez google qui définit manuellement quelle page télécharger

Donc en effet, ce fichier empêche l'indexation.
Et pas que par Google : tu observeras la même chose sur
ixquick, il n'est pas indexé sur Yahoo... idem sur tous les moteurs de recherche respectant le robots.txt (c'est à dire tous)
Le plus simple est de supprimer ce fichier, ou de remplacer par un Allow /. À moins que le site n'ait un gros problème de conception (ou qu'il soit très très limite niveau charge et bande passante) ça ne posera pas de problème
PS : ça n'a rien de génial, c'est un problème très courant chez les débutants que de croire que les robots sont mauvais et qu'il faut les désactiver, mais c'est inutile, les "mauvais" robots ne respecteront pas le fichier tandis que les bons
respectent de toutes façons les trois lois 