http://domen/?rest_route=/wp/v2/posts
Дополнительно читать здесь https://v2.wp-api.org/
Настройка Linux сервера
http://domen/?rest_route=/wp/v2/posts
Дополнительно читать здесь https://v2.wp-api.org/
Первой строкой всегда должна быть надпись
#!/bin/bash
Для вывода строки информации использовать команду echo «тут строка»
Для передачи аргументов применять $1. Например:
./script test
А внутри вызывать так
echo $1
Ниже указан пример перенаправления с одного IP на другой
iptables -t nat -A PREROUTING -i eth0 -p tcp --dport 8080 -j DNAT --to 192.168.74.129:80 iptables -t nat -A POSTROUTING -j MASQUERADE // нужен чтобы маскировать IP адрес
Обязательно нужно включить эту настройку
sysctl -w net.ipv4.ip_forward=1
Чтобы изменения в файле sysctl.conf вступили в силу, выполните следующую команду:
sysctl -p /etc/sysctl.conf
СОХРАНИТЬ ПРАВИЛА IPTABLES
Все настройки iptables, которые вы указали с помощью этих команд сохранятся только до перезагрузки. После перезагрузки компьютера все изменения будут стерты. Поэтому чтобы сохранить правила iptables, нужно выполнить специальную команду. Только в разных дистрибутивах она отличается. В Ubuntu выполните:
sudo /sbin/iptables-save
А в Red Hat или CentOS:
sudo /sbin/service iptables save
zip может одновременно и архивировать, и сжимать файлы; то есть вы можете сжать различные файлы, поместив их при этом в архив. Он известен еще с 1998 года и метод его работы был реализован на многих платформах, следовательно, это один из самых мобильных вариантов (особенно — если вам необходим доступ к вашему архиву из системы Windows).
zip -r archive folder
Создает архив archive.zip с содержимым каталога folder.
unzip archive.zip
Извлекает содержимое архива archive.zip в текущую директорию, создавая вложенные директории (используйте -j чтоб не создавать вложенных директорий).
mysqlhotcopy -u=user -p=password [database] [/path/to/some/dir]
Если резервной копии базы данных было сделано с mysqlhotcopy, восстановление происходит, после остановки сервера, копирование содержимого файла резервной копии в каталог данных MySQL:
# cp -R /backup-db/miodatabase /var/lib/mysql
В данной статье мы рассмотрим 12 причин, по которым у вашего сайта могут быть проблемы с индексацией в поисковых системах Google и Яндекс.
Переходим к причинам:
Такое случается в том случае, если вы только что выложили свой сайт и ничего не делали для того, чтобы поисковые системы его заметили.
В таком случае не стоит ожидать быстрой индексации. Но это легко можно поправить.
Для этого нужно сделать:
Статьи в тему:
— Как добавить сайт в поисковые системы
— Добавляем сайт в Яндекс Вебмастер
После чего, нужно немного подождать и ваш сайт должен проиндесироваться. Обычно это занимает от пару часов, до пару дней и более.
Это часто бывает причиной, которую не учитывают разработчики и выкатывают сайт закрытым от индексации в файле robots.txt. Но такое легко можно поправить.
Для начала читаем статью: Robots.txt – инструкция для SEO
Если у вас не много технических разделов, то можно обойтись и таким robots.txt:
Но если на сайте нужно много чего закрывать, то:
Тогда все с вашим сайтом должно быть нормально.
Если вы используете систему управления сайта WordPress, то по умолчанию могут стоять приватные настройки. Это действительно может быть причиной того, что сайт до сих пор не проиндексирован.
Для этого нужно зайти в:
Многие забывают убрать эту галочку и потом не могут понять, в чем же причина не индексации сайта.
Индексацию контента или страницы так же можно закрыть с помощью мета тега. Выглядит он так:
<meta name=»robots» content=»no index, nofollow»>
Все что нужно:
Пример:
Из нашей практики встречались и такие сайты, на которых это было причиной индексации.
Если возникает много ошибок при сканировании, то поисковый бот просто может не дойти до нужных страниц.
Чтобы это проверить:
Если есть какие-то критические ошибки. Просто нужно их исправить и все будет хорошо.
В этом файле обычно прописывается 301 редирект. Но в нем, так же можно закрыть от индексации поисковыми системами.
Для того, чтобы это проверить:
Это может быть причиной, но многие даже не думаю в этом направлении. А как вариант не стоит исключать.
Если в момент, когда поисковый бот пришел на сайт индексировать страницы, сайт не доступен, то это может быть причиной не индексации.
Как минимум стоит позаботиться о том, чтобы up time у вашего сервера был хорошим и хостинг стабильным.
Сервисов, которые позволяет это проконтролировать множество. Если нужно бесплатно, то Яндекс Метрика оповещает о том, когда сайт не доступен.
Как я сказал, сервисов множество, вводим в поиск uptime checker и получаем множество результатов сервисов. А дальше выбираем на вкус и цвет.
Не секрет, что Google индексирует AJAX и JavaScript. Вот ссылка для разработчиков с инструкцией: https://support.google.com/webmasters/answer/174992
Но на данный момент поисковая система индексирует эти языки не так легко и просто как HTML.
В случае, если вы не правильно настроили все для поиска в AJAX и JavaScript, то Google не проиндексирует ваш сайт и страницы.
Вот полезная информация из справки Гугла на этот счет: https://support.google.com/webmasters/answer/174993
Если на сайте много дублированного контента, как:
То во первых можно получить санкции от Google Панды. Во вторых это может быть причиной того, что сайт не индексируется.
Статьи в тему:
— Как найти дубликаты страниц на сайте
— Как убрать или закрыть дубли от индексации
На эту причину стоит обращать внимание. Так как сейчас это № 1 причина, за которые можно получить санкции и сложности в дальнейшей раскрутке сайта.
Скорость загрузки сайта влияет на позиции и это один из факторов ранжирования. Поэтому если ваш сайт грузиться очень долго, то вполне вероятно, что он не будет нормально индексироваться.
Для начала читаем статью: Как время загрузки влияет на позиции в Google
После чего, нужно учесть все моменты со скоростью загрузки и сделать ее очень быстрой.
Такое часто случается. Когда:
В таком случае дела не очень хороши. Но все равно это можно поправить. А именно:
Статья в тему: Как проверить сайт на бан поисковых систем?
Но по опыту скажу. Если домен не лезет в течении 3-4 месяцев нормально. То лучше развивать проект на другом домене. Как минимум это будет быстрее и на порядок проще.
Это очень редко может быть причиной. Но все же может быть. Поэтому нужно сделать карту сайта и добавить ее как Google вебмастер, так и в Яндекс вебмастер.
Статья в тему: Создаем sitemap для Google и Яндекс
Индексация сайта важнейший момент для поискового продвижения сайта. Поэтому сначала нужно найти причину, понимать следствия. В итоге не допускать того, чтобы с индексацией сайта были проблемы.
Хорошие статьи по индексации сайта в помощь:
— Как быстро проверить индексацию страниц всего сайта?
— Как быстро проиндексировать сайт или страницу?
— Почему Яндекс медленно индексирует молодые сайты?
А что вы думаете про причины не индексации или плохой индексации сайта?
PS: если вы перепробовали все причины и сайт не индексируется, то однозначно стоит писать в поддержку поисковых систем и узнавать причину у них.
Понравилась статья? Получай свежие статьи первым по e-mail
Суть состоит в том, чтобы создать дополнительный раздел на жестком диске, и затем его смонтировать на папку
sudo dd if=/dev/zero of=/var/fs/teacher.fs bs=1024 count=20971520 mkfs.ext4 /var/fs/teacher.fs mount -t ext4 -o loop /var/fs/teacher.fs /var/www/teacher
чтобы сделать автоматическое монтирование
/var/fs/teacher.fs /var/www/teacher auto auto,loop 0 0