Отсеять ботов при клике по ссылке

Статус
В этой теме нельзя размещать новые ответы.
Буду рад услышать другие возможные параметры отличия бота от реального посетителя и пример как эти параметры проверить на PHP

На php можно провести анализ частоты открытия страниц - человек вряд ли открывать будет по 30 страниц в минуту...
На php можно определить User-agent / IP (или точнее регион/провайдера которому выдан блок IP) / подсчитать количество полей в заголовке (как правило ботоводы чего-то да забудут).
+ то что тебе уже написали про JS

По всем этим опциям можно ранжировать принадлежность к ботам.
 
видел, если не ошибаюсь, у tbn сис-му с передачей координаты, куда конкретно был осуществлен клик. это все тоже, конечно, обходится, но это еще один дополнительный инструмент.
 
а как тогда фильтруют траффик многочисленные PPC, тизерные сети и подобные сервисы?
И надо сказать эффективно фильтруют
 
Можно при клике на ссылку сделать js код, который перед переходом по ссылке проверяет userAgent. По нему можно отсеять 90% ботов.
 
Можно при клике на ссылку сделать js код, который перед переходом по ссылке проверяет userAgent. По нему можно отсеять 90% ботов.
Очень сомнительно, даже боты поисковиков часто маскируются под браузеры. А всяки парсеры-эмуляторы, там мозилла будет наверняка.
 
Очень сомнительно, даже боты поисковиков часто маскируются под браузеры. А всяки парсеры-эмуляторы, там мозилла будет наверняка.

Только если присмотришься, версии этих браузеров являются в 90% случае несуществующими.
 
Ну смотрите, как я писал ботов, когда мне не хотелось возится с отловом пост запросов.
Кидаем на форму WebBrowser(ИЕ в общем) ищем ссылку и кликаем по ней, либо заполняем формы и жмем кнопки, так вот. Можно сделать простецкую функцию, типа

Скрытое содержимое доступно для зарегистрированных пользователей!


Но я не знаю, как будет вести себя такая функция при серфинге сайта с мобилочек...Так что одно лечим, другое калечим.
По поводу того, что писали проверять юзер агенты - бред, тот же WebBrowser этот тот же ИЕ и смысл проверять юзер агент ИЕ? Он так и покажет его. Ни каких проблем, только ресурсы будет жрать. Что то я не вижу у того же ВК таких систем безопасности, а у них с ботами всё очень плохо. Быть может нужно искать что то другое? Если юзаешь движок, то смени имя поля к примеру авторизации, и пока автор софта не поправит, их софт не будет робить у тебя на сайте.

и еще, прочие статистики, типа сколько то действий в минуту. Чем мешает прикрутить таймер задержки?! Так что тут 100% варианта нет. Можно только придумать алгоритм изменения названия форм и инпутов. Тогда боты не будут долго существовать.
 
Последнее редактирование:
Объективно никак - если надо будет то тебе все передадут и будет полный успех. В том числе тому кто пишет бота нет никаких проблем открыть твой жаваскрипт, и написать такой же алгоритм для бота. Сам делал так не раз.
Если надо защититься от типовых поделок - то во все ссылки добавляешь salt которую в сессии у себя хранишь на сервере, типа <a href="/some-url" data-salt="1239rj1o3ir">some link</a>
Делаешь что-то вроде $('a').on('click', function(){$(this).attr('href', $(this).attr('href')+'?'+$(this).data('salt')});
На сервере проверяешь чтобы в гете соль была нужная.

Плохо тем что индексация будет кривая - надо будет проверять что это НЕ бот гугла или яндекса ( что по юзер агенту легко сечется )
 
На сервере проверяешь чтобы в гете соль была нужная.
Я так понимаю твой код делает вид /some-url?salt=1239rj1o3ir ? Так же регулярками парсится. Да и JS у ботов ни кто не отменял, что мешает найти кнопку по href и получить её соль.
Скрытое содержимое доступно для зарегистрированных пользователей!

Опять таки, нет 100% защиты от переходов, да и к чему переходы? Можно же знать прямую ссылку и открыть её? Если я другу дам ссылку на сайт и он её откроет, а у него не передалась соль там и прочее, то его не пустит? Так что это только усугубит. Советую поставить запрет на использование IE. Сразу много школьниковых ботов обрубит. Так же подгрузка контента по ajax - не дает получить контент сайта при простом получении исходного кода. Чтобы при открытии сайта срабатывала функция подгрузки контента этой страницы.
 
Конечно нет 100% защиты - я об этом и писал, в том числе и о том что JS никто у ботов не отменял. Ничто не мешает естественно, кроме защиты от типовых поделок - опять же я об этом писал =)

Другу сайт отдать с солью нужно будет его естественно - его как бота обрубит. Да никак от бота не спастись профессионально написанного. А новичковые по хэдерам бить - остальное изврат, я только к этому.
 
Статус
В этой теме нельзя размещать новые ответы.
Назад
Сверху