Die meisten PCs sind nur zu wenigen Prozent ausgelastet. Das Projekt Grub.org möchte die brach liegende Rechenzeit nutzen, um auf den Rechnern Clients laufen zu lassen, die fremde Webseiten besuchen und indizieren. Damit würde eine verteilte Suchmaschine realisiert, die – so die Hoffnung der Betreiber – Änderungen an einer Seite im Web nahezu in Echtzeit feststellen könnte.
Doch hat die Sache einen Haken, auf den das Projekt nicht hinweist. Während bei anderen verteilten Anwendungen wie SETI@home lediglich die nicht genutzte Rechenzeit okkupiert wird, benötigt Grub.org eine dauernde Internetverbindung und erzeugt Traffic, dessen Kosten eventuell vom PC-Besitzer zu tragen sind.
Zudem ist das Hauptproblem der derzeitigen Suchmaschinen das Ranking, also die Bestimmung der Reihenfolge der gefundenen Seiten. Wenn Grub.org es tatsächlich schaffen sollte, viele Milliarden Seiten zu indizieren, so stellt sich dieses Problem in noch weitaus größerem Maße.