Parser, keep-alive и mod_gzip

August 27th, 2009 Begemot Posted in Рабочее

Говорили мне люди нефик пользовать “малоизвестные” технологии, когда есть годами проверенный php, но с другой стороны php мне не нравится, а вот парсер очень даже по вкусу. Хотя кто знает, где бы я отгреб больше проблем:) Вот сегодня нарвался на новую.

Решил попробовать Google Website Optimizer, пытаюсь создать тест, ввожу урлы страниц на сайте – гугл говорит, что не может их найти. И так для всех страниц на основном хостинге, сайты на других хостингах – работают. Грешил на хостинг, на днс, месяц назад переезжал на новый хостинг, на гугл….

Потом набрел на сервис просмотра заголовков, опытным путем нашел закономерность – для всех проблемных сайтов в режиме http 1.0 \ connection Keep-Alive – выдает timeout… 🙁 Опять подумал на хостера, провел сайты знакомых на нем же – все ок. Потом озарило – скормил сервису урл форума – работает. Значит дело в парсере.

После поисков в гугле вышел на этот пост, прочел до конца увидел внизу урл и офигел – сообщение писал я четыре года назад 🙂 Почитал ответы, там нашлось решение – прописать в .htaccess

mod_gzip_on No

Теперь все работает. Какими однако извилистыми путями иногда находится правильный ответ, и если бы не цепь удачных случайностей и не нашел бы.:)

Кстати все чаще, после каждой проблемы с установкой\настройкой\багами, задумываюсь не перейти ли на схему когда движок сайта локально собирает статический html…

p.s.  Парсер все равно не брошу, потому что он хороший:)

UPDATE: про http 1.0 и connection Keep-Alive погорячился, проблема наблюдается при любом запросе, в частности при использовании http 1.0

Related:

Posted in Рабочее | Tags:

2 Responses to “Parser, keep-alive и mod_gzip”

  1. Если я правильно помню, в http *1.0* – НЕ БЫВАЕТ persistent connections?

  2. После поисков в гугле вышел на этот пост, прочел до конца увидел внизу урл и офигел – сообщение писал я четыре года назад 🙂

    Мда, прикольно. У меня такое тоже бывало но искал не в гугле, а на программистском форуме.