Обсуждение SEO-оптимизация Joomla

а может кто посоветовать плагин, который бы показывал внешние ссылки?
 
hvob, плагин SeoQuake для Chrome/Firefox/Opera
 
Использовал когда-то давно joomsef, sh404, nodoubles. Потом вырос и отказался от всяких расширений и правил код для корректного вывода урлов, перенаправлений и ликвидации дублей + запрет в роботс + правила обработки урл в google webmaster (яндекс не так много мусора засасывает сам по себе). А потом устал...и отказался от Джумлы (считаю прекрасной cms для порталов до 100 страниц, но не для сайтов 500+ страниц). Всем любителям Битрикса могу сказать, что эта cms также генерирует фееерические дубли, но на раз-два поправить код или найти/применить расширение для их ликвидации/перенаправления как в Джумле не получится точно!
 
Битрикс - доильный аппарат (ИМХО). Лучше уж джумла, пусть и кривенькая местами, но с простором для творчества ) А то теме, ручной труд всегда показывает лучшие результаты.
 
А потом устал...и отказался от Джумлы (считаю прекрасной cms для порталов до 100 страниц, но не для сайтов 500+ страниц).

Дык и к какому же движку для больших сайтов в итоге пришли? Не поделитесь?
 
sh404sef лучше использовать только на не особо посещаемых сайтах, нагрузку большую создает на сервер, увеличивает кол-во запросов... Я использую стандартный SEF + карта сайта JSitemap PRO + махинации с .htaccess и robots.txt

Полностью поддерживаю, чем меньше плагинов-тем лучше, через .htaccess спокойно убирается index.php с урлов, я использую К2, там есть внутренняя оптимизация SEO, при прямых руках у вас будут просто шикарные урлы, без лишних плагинов. sh404sef и подобные создают множество лишних запросов на и без того не легком движке, относитесь к такому софту с осторожностью.

У меня смежный вопрос: насколько большую нагрузку может выдержать Joomla?
Вы хоть понимаете, насколько трудно дать ответ на данный вопрос? Сколько нужно учесть факторов!? Производительность системы зависит не только от правильной настройки и количества установленных компонентов, но и от того, на каком сервере стоит система. Логично что на правильно настроеном VDS сервере с SSD жумла будет держать удары более крепко. Если вам так сильно охота узнать, как много ваша система выдержит одновременных пользователей, используйте сервисы вроде loadimpact.

а может кто посоветовать плагин, который бы показывал внешние ссылки?

Есть множество сервисов, которые анализируют исходящие ссылки, повторюсь, что не стоит забивать жумлу лишними плагинами, воспользуйтесь сайтом вроде pr-cy и будет вам счастье

По поводу дублей и прочей ерунды в индексации Google . Научитесь работать с вашим robots.txt. Поймите, что искать готовые варианты в интернене абсолютно не вариант. Каждый сайт имеет свой набор компонентов, и каждый robots.txt должен быть уникальный. Лично я использую К2, для борьбы с дублями достаточно прописать
Disallow: /component/k2/item/*
Disallow: /component/k2/itemlist/*
Используя внутреннюю SEF оптимизацию плагина, я получаю красивые урлы и отсутствие дублей в поиске.
Используйте Search Console от Google, где вы сможете посмотреть страницы как Google-бот. Таким образом, если на странице что-то не отображается, в этом же сервисе вы смотрите каие файлы блокируются и открываете им доступ через директиву Allow, таким образом, я открыл индексацию изображений:
Allow: /images/
По умолчанию плагины заблокированы в файле robots, через Search Console смотрите, какие вам нужно разблокировать, для корректного отображения страницы.

-Не ленитесь заполнять МЕТА-тэги к материалам и пунктам меню
-Используйте Open Graph, это существенно улучшит выдачу
 
Последнее редактирование модератором:
Плагины порой не так эффективны, как небольшие "улучшения" добавленные прямо в шаблон Джумлы.
Например, так можно добавить уникальные title для страниц пагинации и многое другое.
Только после обновления работать перестанет )))
 
Назад
Сверху