Оптимизауия сайта на php для поисковика
Уважаемые господа, я тут на досуге задумался, по поводу поиска в инете... Как оптимизировать сайт для поисковика? Ведь просто написать meta NAME=keywords CONTENT="японские автозапчасти Toyota Nissan Mazda Honda etc......> этого не достаточно. И вото еще вопрос, допустим с html понятно посмотрел файл запомнил его содержимое, при запросе ссылаешся на ентот файл, а если информация для поиска у меня хранится в базе данный или это нормально(скажим модель машины)??? При появлении новых добавление новых машин я же не буду постоянно дописывать мету(или придется)...
Хоть и оптимизация здесь на форуме не в моде, НО если ты думаешь что прооптимизируешь страницы добавив кейвордс - желаю удачи.... эт первое... второе... у себя на сайте я зделал для тайтлов и дескрипшн отдельные поля в БД... это дает мне возможность менять эти параметры при необходимости... соответственно при добавлениии новой машини у тебя есть выход дублировать запись с названием машины или вручную писать тайтл и дескритпшн для этой машины(предпочтительней)...
А вообще, поднимая вопрос оптимизации и серверных языков... очень часто видел скрипты, хорошо написанные, но для оптимизации в них нет места - приходилось переделывать....
у себя на сайте я зделал для тайтлов и дескрипшн отдельные поля в БД... это дает мне возможность менять эти параметры при необходимости... соответственно при добавлениии новой машини у тебя есть выход дублировать запись с названием машины или вручную писать тайтл и дескритпшн для этой машины(предпочтительней)...
Правильное решение. Автоматика - автоматикой. но возможность вручную сделать это - всегда нужна.
Я делал даже как-то генератор кейвордов. Он разбирал текст на слова, откидывал сразу все ненужные (все "рекомендуемые" и "нерекомендуемые" слова я хранил в одной таблице), сортировал их по соотношению количество найденных слов/количество запросов за месяц (по данным Яндекса). Потом оставалось только руками отметить нужные и сразу генерировалась запись для meta-keywords. Штука полезная, избавляет от мучительной рутины.
К сожалению, Яндекс перекрыл такую радость, как парсинг их страниц с i-серверов. Да и мне что-то потом стало не интересно, откуда всё это брать.
А вообще, пора к этой теме вернуться.
Хочу написать на Delphi анализатор сайта. Т.е., чтобы бегал по всем внутренним ссылкам и собирал полезную информацию для статистике по словам.
Как сделаю - сообщу.
Правильное решение. Автоматика - автоматикой. но возможность вручную сделать это - всегда нужна.
Я делал даже как-то генератор кейвордов. Он разбирал текст на слова, откидывал сразу все ненужные (все "рекомендуемые" и "нерекомендуемые" слова я хранил в одной таблице), сортировал их по соотношению количество найденных слов/количество запросов за месяц (по данным Яндекса). Потом оставалось только руками отметить нужные и сразу генерировалась запись для meta-keywords. Штука полезная, избавляет от мучительной рутины.
К сожалению, Яндекс перекрыл такую радость, как парсинг их страниц с i-серверов. Да и мне что-то потом стало не интересно, откуда всё это брать.
А вообще, пора к этой теме вернуться.
Хочу написать на Delphi анализатор сайта. Т.е., чтобы бегал по всем внутренним ссылкам и собирал полезную информацию для статистике по словам.
Как сделаю - сообщу.
Не серьезно... парсить страницы для оптимизации также полезно как и создавать хтмл файл в ворде :) ключевики в любом случае нужно выбирать вручную... :) проверено!
Не серьезно... парсить страницы для оптимизации также полезно как и создавать хтмл файл в ворде :) ключевики в любом случае нужно выбирать вручную... :) проверено!
Дык, я ж и говорю: выбирать из предложенных слов вручную. Плюс - перед глазами список слов, которые "весят" много, но не встречаются в данном конкретном документе.
Дык, я ж и говорю: выбирать из предложенных слов вручную. Плюс - перед глазами список слов, которые "весят" много, но не встречаются в данном конкретном документе.
опять таки я выбирал в кейворды слова которых вообще не было на странице, только потом их доставлял в текст :)
опять таки я выбирал в кейворды слова которых вообще не было на странице, только потом их доставлял в текст :)
Интересная технология :D
Надо будет попробовать, например в страницу про повышение надоев коров вставить слово тредмиллмониторирование :D :D :D
Интересная технология :D
Надо будет попробовать, например в страницу про повышение надоев коров вставить слово тредмиллмониторирование :D :D :D
Ты думаешь это шутка? :) Без проблем выведу статью про надой коров по запросу тредмиллмониторирование :D за недели две :) максимум :)
Ты думаешь это шутка? :) Без проблем выведу статью про надой коров по запросу тредмиллмониторирование :D за недели две :) максимум :)
Не спорю. Но поисковики не очень приветствуют это. Периодически проводят ревизию и иногда банят нарушителей. Особенно товарищ Рамблер лютует.
Не спорю. Но поисковики не очень приветствуют это. Периодически проводят ревизию и иногда банят нарушителей. Особенно товарищ Рамблер лютует.
Чесн сказать не слышал такой информации и не особо в это верю.... Ведь страницу с удоем коров можно вывести в топ по запросу тредмиллмониторирование и без того чтобы данное слово причутствовало на странице, а это значит что так можно было бы валить конкурентов...
поисковики не очень приветствуют это. Периодически проводят ревизию и иногда банят нарушителей
Насчет Рамблера точно не скажу, а в Яндексе это делается вручную. За внутренне факторы - скрытый текст, дорвеи, куча ключевых слов в h1-h4 (b, strong, i, em), размещение ссылочных помоек или участие в автоматических системах обмена ссылками (как вариант могут просто тИЦ обулить). См. лицензию на использование поисковой системы Яндекса http://www.yandex.ru/info/termsofuse.html#spamer.
Ведь страницу с удоем коров можно вывести в топ по запросу тредмиллмониторирование и без того чтобы данное слово причутствовало на странице
Оно, конечно, можно - запрос неконкурентный. Поставить пару-тройку внешних ссылок со словом "тредмиллмониторирование" на эту страницу и всех делов.
По конкурентным запросам сайт без контента (или с несоответствующим запросу контентом) только внешинми ссылками трудновато будет в топ вывести. Да и зачем - пользы то от этого никакой.
См. лицензию на использование поисковой системы Яндекса http://www.yandex.ru/info/termsofuse.html#spamer.
Ооооо, сколько раз я ее смотрел :) Но там ничего не сказано про то что статью про удой коров нельзя озаглавить тредмиллмониторирование
:D
По конкурентным запросам сайт без контента (или с несоответствующим запросу контентом) только внешинми ссылками трудновато будет в топ вывести. Да и зачем - пользы то от этого никакой.
Не могу спорить :) но по конкурентным запросам и скрипты автоматического выявления кейвордов не спасут :D на то они и конкурентные....
по конкурентным запросам и скрипты автоматического выявления кейвордов не спасут :D на то они и конкурентные....
Они могут быть полезны в случае большого количества страниц, которые нет времени (или просто лень :-) оптимизировать вручную.
Они могут быть полезны в случае большого количества страниц, которые нет времени (или просто лень :-) оптимизировать вручную.
Проверено ничего не дает, т.к от того на каком месте стоит кейворд зависит его значимость, а автоматическим генерилкам это пофик, а если нет то в итоге все равно сводиться к ручному способу...
В любом случае, это будет лучше, чем никаких кейвордов вообще. А потом, глядишь, и до ручного подбора руки дойдут.