Как закрыть отдельные старницы от сканов?
Подскажите как можно защитить некоторые старницы сайта от сканирования роботами?
Создай не сервере файл robots.txt и положи его в корневую папку. В файле укажи файлы и директории, которые ты хочешь закрыть.
это спасет от роботов-поисковиков, а от спамовиков тоже спасет?
Базовая авторизация
Нет, не спасат. Если это Апач, то можно директории закрыть для всех, кроме скрипта, или как советуют прикрутить базовую авторизацию.
В любом случае использовать способы предусмотренные для разделения прав доступа средствами веб-сервера.