Този път, става дума за Израел, държава която Google счита за "терористична страна", зла и дори нелегална. Инструментът за предложения на търсачката показва тези предложения всеки път когато напишете "Израел е" ('Israel is') в полето за търсене. От търсачката писаха за това и цитираха малък откъс от често задаваните въпроси на Google, за да докажат че това е автоматизирана система и не е по вина на някой.
"Нашите алгоритми използват широк набор от информация за предсказването на заявките, за които е възможно потребителите най-много да искат да видят. Например, Google Suggest използва информация за цялостната популярност на някои заявки с цел да помогне на ранкването и изтънчеността."
Това не е единствената функция, която създава проблеми на компанията, тъй като "Did you mean" ("Да не би да имахте предвид?") функцията също показваше някои странни предложения. Например, търсенето в Google с терминът "she invented" ("тя изобрети") връщаше "Did you mean he invented" ("Да не би да имахте предвид той изобрети"), което доведе до обвинението от някои интернет потребители, че Google e търсачка "женомразец".
Все пак компанията окуражава потребителите да докладват подобни странни предложения в резултатите.