Залетел Апорт и повесил всё к чертям!
Совсем времени нет на форуме пообщаться, только по необходимости...
Повесил, громко сказано, но тормознул сервер конкретно, пока он там шарился страницы еле-еле открывались, а то, и не до конца.
Сайт динамический, скрипт выдает контент за 3-10 секунд страница, смотрел по логам, когда Апорт шарился.
Вот и встает вопрос, что делать?
Пока, ладно, пускай тормозит, индексация быстрее пройдет, но потом, хотелось бы иметь сайт с нормальным открыванием страниц. Наверное можно сделать какие то настройки Апача или пхп для равномерной выдачи страниц. Паузы ввести или ещё чего.... Короче, как правильно выдавать контент, чтобы всем было хорошо? Чтобы ресурсы делились между запросами равномерно, чтобы робот ждал своей очередности, что-ли...
Мои попытки открыть страницы, когда были тормоза, прерываются постоянными вклиниваниями Апорта, и Гугл там ещё фигурирует:D
Можно ли поставить низкий приоритет роботам?
Ну и кеширование + индексы в БД, хотя это ты и сам знаешь ;)
На выделенку пока только зарабатываю... пока только шарим :) У меня нет больших претензий к времени выдачи страниц, когда нет ботов. Базы довольно большие, таблицы по 50000-70000 строк, индексы есть, а вот про кэширование не знаю... Я пхп не руллез:mad:
Раскручу буду переходить на выделенный сервер, пока рано, 99,9% посетителей - боты:)
Эта штука ставится, я так понимаю, на Апач, т.е., нужен абсолютный доступ к серверу? Я могу только .htaccess редактировать.....
Кэширования запросов к базе нет, придется делать, попытаюсь вот этот класс прикрутить. Надеюсь разобраться....:)
Посему, придумал такой вариант, и хочу спросить, есть ли в нем разумность...:confused:
Хочу выкачать весь контент из базы Телепортом, без шаблонов разумеется, и потом, выложить в статике html, а шаблоны приинклудить.
На сервере два с половиной гига диска, контент займет не больше полутора гигов. Такие меры помогут снять нагрузку?
Это будет полностью статический сайт, вся динамика будет на другом домене. Что скажете?
1. Я не вор
2. Я не менеджер, я программист и моё дело создавать сайты, а не заботится о их наполнении.
Меня интересовало что есть на сайте (в плане динамики) и как часто оно обновляется. Просто представь себя, хостер в среднем даёт тебе метров 10 - 15 памяти (если щёдрый) и немного проца. Т.е. в среднем динамику может забирать одновременно (для тебя одновременно это по плохому 10 секунд, т.е. время максимальной отработки интепретатора для выдачи). Фактчески мы получаем, что по хорошему (в лучшем для тебя случае) ты сможешь отдаваить и запрос в 3 - 5 секунд. 2 одновременных зароса скорее всего погонят сайт в даун (это всего лишь предположения в расчёте на то, что таблицы не маленькие). Вот отсюда и пляши, на сколько тебе хватит шаред хостинга. Вооще по хорошему тебе нужно 3 машины поставить (с запасом):
1. прокси
2. за ней сервер
3. БД
У меня есть несколько доменов, преимущественно, тогрующие по заказу китайской продукцией, дилерство. Дело довольно пагубное, собираюсь всё закрыть. Ради интереса, решил попробовать каталоги, сдул dmoz, выложил только часть, получил представление по кликовому выхлопу, подсчитал прирост с увеличением количества индексированных страниц, получилось не плохо. Сейчас имею несколько хороших тематических баз, котрые начинаю потихоньку выкладывать. Базы сделал сам, выдрав контент из нескольких виндовских программ.
Ну, это я так, чтобы было понятно чего я пытаюсь сделать.
Все эти каталоги будут, как придатки к работающим порталам, чисто для индекса. Вот... Пока немогу вложить в это дело ни копейки, большие долги по поставкам товара, пропало несколько дорогостоящих посылок из Китая, короче в полной заднице...
При проиндексированных 10 000 страниц я сейчас имею около 200-300 открываемых страниц в сутки. Это чисый индекс, ни одной ссылки на этот домен с других сайтов. Сейчас начал раскручивать домены с помощью IBP и addsite. Уже сделал около 500 ссылок на этот домен(буквально вчера). Плюс к этому добавил страниц, сейчас примерно 100 000. Роботы шуршат вовсю... Через пару месяцев, должны прошарить всё, и ссылок я надеюсь пару тысяч навтыкать... Плюс, буду генерить новые статические страницы по результатам популярных поисковых запросов...
Надеюсь получить 5000-10000 отрываний страниц в сутки.
Вот, думаю теперь всё ясно.
После Нового года буду ставить сервак. А пока хочу обойтись дешевым хостингом. Средний вес страниц с шаблоном около 13-17кБ Шаблоны отдельно - 8-10кб. Динамика на страницах минимальная, и только у клиента (JavaScript).
Исходя из этого, что думаете, хотя бы со скрипом будет работать статика? php на этом домене будет только отдавать готовый html и всё. Даже поиск будет делать CGI/перл, довольно шустрый - "ksearch".
Да, CGI/перл будет какие ресурсы жрать?
Учитывая твои замеры о 3-10 секундах на открытие рядом с Апортом - все нормально. Я бы вообще ничего не менял.
10000 открываний / (24 часа * 60 минут) = 7 хитов в минуту
Учитывая твои замеры о 3-10 секундах на открытие рядом с Апортом - все нормально. Я бы вообще ничего не менял.
Нет, немного не так. Когда Апорт шарил, я вообще не мог дождаться открытия страницы, или открывалась с ошибкой. Я указал время между запросами Апорта, он, видимо, долго обрабатывает страницы. Яндекс же и Гугл открывают по 3-6 страниц в секунду. И не понятно, почему когда Апорт шарит страницы, я не могу открыть? Такое ощущение, что он имеет приоритет. В логах видны мои запросы на один и тот же адрес (когда не открывалось, браузер посылал запрос несколько раз) и в перемешку запросы Апорта, но на разные адреса, ни одного повторного запроса Апорта. Значит у него всё нормально открывалось.
Ну это ладно, буду всё же делать статику, долше на шареде проработает... Тем более уже начал.
Всем спасибо за помощь.
Начну свой сервер ставить сюда приду с вопросами.
shaelf, понравилось ваше предложение.
2. за ней сервер
3. БД
А как нужно распределять ресурсы при такой схеме? Т.е., сколько памяти на какой машине, какие процы, и т.п.... ?
2shine В "сутках" примерно 16 часов)) Но и это не показатель.