Odpowiednio przygotowana strona internetowa jest wizytówką każdego przedsiębiorstwa w Internecie. Pierwsze wrażenie po odpowiedzeniu serwisu jest kluczowe i jeśli jest on odpowiednio skonstruowany i w czytelny sposób przedstawia ofertę, jest on wartościowy dla użytkowników i potencjalnych klientów.
Są jednak czynniki, które mogą wskazywać, że firmowa strona internetowa wymaga odświeżenie lub konieczne jest stworzenie zupełnie nowej wersji. Przykładowo:
Przygotowanie nowej strony internetowej wymaga zaangażowania i czasu. Jeśli strona ma być również odpowiednio dostosowana dla robotów wyszukiwarki, prace wymagają skupienia się na takich elementach jak:
To jedynie przykładowe elementy, które wymagają optymalizacji. Podczas tworzenia strony należy również pamiętać o ważnym aspekcie jakim jest zabezpieczeniu wersji roboczej przed niepowołanym dostępem.
Profesjonalne podejście jest ważne nie tylko w bezpośrednim kontakcie z klientem, ale również jeśli chodzi o wizerunek firmy. Strona internetowa nie może zostać przedstawiona użytkownikom, jeśli nie jest skończona, treści nie są dopracowane lub na stronie pojawiają się błędy techniczne. Zaindeksowanie wersji roboczej przez roboty wyszukiwarki Google wpłynie również negatywnie na pozycjonowanie docelowej domeny.
W związku z tym proces tworzenie nowej wersji serwisu należy przeprowadzać pod innym adresem URL (np. nowa.firma.pl). Dzięki temu obecna strona internetowa jest cały czas dostępna dla potencjalnych klientów.
Komunikat o tym, że strona jest w trakcie prac nie jest dobrą praktyką, ponieważ nie tylko zniechęci to klientów, ale również spowoduje, że pozycje naszej strony w wynikach wyszukiwania mogą ulec znacznemu spadkowi.
Należy również unikać sytuacji, gdzie nowa i stara wersja jest dostępna jednoczenie. Nowo utworzona witryna może zostać odebrana jako tzw. serwis bliźniaczy, co może przynieść spadek pozycji. Kluczowe jest odpowiednia ochrona wersji testowej serwisu.
Jednym ze sposobów na odpowiednią ochronę serwisu, będącego w budowie jest plik robots.txt. Utworzenie takiego pliku w głównym katalogu i umieszczenie w nim odpowiedniej instrukcji, która zablokuje możliwość zaindeksowania przez roboty wyszukiwarki, będzie optymalnym rozwiązaniem chroniącym wersję roboczą.
Instrukcje, które należy dodać w pliku robots.txt:
User-agent: *
Disallow: /
Innym rozwiązaniem, dzięki któremu wersja robocza strony internetowej będzie chroniona jest wprowadzenie systemu logowania. W momencie, gdy użytkownik będzie chciał wejść na stronę, będzie musiał wpisać odpowiedni login oraz hasło. Takie sposób zabezpieczenia sprawi, że niepowołane osoby nie zobaczą dopiero co tworzonej strony. Serwis nie zostanie również zaindeksowany przez wyszukiwarkę.
Podczas wdrażania nowej wersji serwisu należy mieć cały czas kontakt z osobą odpowiedzialną za pozycjonowanie w wyszukiwarkach. Na etapie prac będzie ona mogła sugerować odpowiednie rozwiązania, zweryfikuje również, czy kwestie, które mogą wpłynąć na wyniki, zostały uwzględnione.
Zatrudnij nas, a zadbamy o to, aby proces zmiany strony internetowej przebiegł poprawnie i bez utraty osiągniętych pozycji.