Методы SEO оптимизации и продвижения Prestashop 1.6

Почему-то никто не упоминает возможность создавать страницы под конкретные ключевые слова в модуле advanced search.
А это крайне важно. Не просто категория "телевизоры" с сотней моделей.
Но отдельные страницы "телевизоры филипс", телевизоры лж, телевизоры андроид, телевизоры 32 дюйма.
Со своими статьями, ключевиками и отборами товаров.
 
Интересный модуль, но что-то не вяжется с jquery старой. Вы какой используете и на какой престе?
Почему-то никто не упоминает возможность создавать страницы под конкретные ключевые слова в модуле advanced search.
А это крайне важно. Не просто категория "телевизоры" с сотней моделей.
Но отдельные страницы "телевизоры филипс", телевизоры лж, телевизоры андроид, телевизоры 32 дюйма.
Со своими статьями, ключевиками и отборами товаров.
 
advanced search 4.10.13 , prestashop 1.6.1.2
 
Добрый вечер! Вот такая штука, advanced search, не хочет работать на моем сайте, из-за шаблона. Я хотел бы с главной страницы ссылаться на результаты фильтрации: например <a href="ссылка">"бюджетный ламинат"</a>,<a href="ссылка">"дорогой ламинат"</a>, но стандартном фильтре не добавишь описание к результатам, может можно зная url страницы сделать описание, может в базе, может где в шаблоне?
 
И еще вопрос. Смотрю в Яндексе мой сайт по одному запросу на второй странице, а в снипетте, текст которого нет на странице сайта, стал искать где Яндекс взял этот снипетт и нашел, что это описание субкатегорий, скрытое в css dysplay:none, и вопрос может удалять все, что не нужно, прямо в шаблоне или как?
 
Стандартными методами можно оптимизировать?
 
Стандартными методами можно оптимизировать?
Нет никаких супер-мега сео-методов. Уникальный текст, пара ссылок из текста на связанные страницы, удобный интересный сайт (чтобы снизить показатель отказов), скорость сайта.

Отдельно надо отметить (все почему-то на это забивают), что обязательно надо в robots.txt разрешить индексацию всех CSS и Javascript файлов, которые есть на фронтэнде сайта. Иначе поисковики не поймут, какой текст виден, какой нет, есть ли мобильная версия или адаптивный дизайн и вообще плохо отнесутся к вам и вашим сайтам. Без этого обычная выдача будет хромать, а мобильная вообще не будет выдавать ваши сайты.
 
Нет никаких супер-мега сео-методов. Уникальный текст, пара ссылок из текста на связанные страницы, удобный интересный сайт (чтобы снизить показатель отказов), скорость сайта.

Отдельно надо отметить (все почему-то на это забивают), что обязательно надо в robots.txt разрешить индексацию всех CSS и Javascript файлов, которые есть на фронтэнде сайта. Иначе поисковики не поймут, какой текст виден, какой нет, есть ли мобильная версия или адаптивный дизайн и вообще плохо отнесутся к вам и вашим сайтам. Без этого обычная выдача будет хромать, а мобильная вообще не будет выдавать ваши сайты.

А как можно в robots.txt разрешить индексацию всех CSS и Javascript файлов?
 
Как=то так
Код:
# Allow Directives
Allow: */modules/*.css
Allow: */modules/*.js
Allow: */modules/*.png
Так нельзя, ибо у модулей есть:
а) скрипты и стили для админки.
б) скрипты для разных версий престы, для разных вариантов использования ...etc.
Как сделать правльно:
Смотрим в гугл вебмастере, какие файлы недоступны для индексирования. Заходим на свой сайт Firefox-ом. Нажимаем Ctrl+Shift+I, перезагружаем страницу по Ctrl+F5. Находим пути к файлам и прописываем полный путь к каждому отдельному файлу:
Allow: /путь_к_файлу_без_домена.css
Allow: /путь_к_файлу_без_домена.js
 
Назад
Сверху