Tối ưu hóa file Robots.txt trên wordpress chuẩn nhất

Tệp Robots.txt cho các công cụ tìm kiếm như Google, coccoc, bing, yahoo biết cách thu thập dữ liệu trang web của bạn, điều này khiến nó trở thành một công cụ SEO cực kỳ mạnh mẽ.

Trong bài viết này, chúng tôi sẽ hướng dẫn bạn cách tạo một tệp robots.txt hoàn hảo cho SEO.

File robots.txt là gì?

Robots.txt là một tệp văn bản mà chủ sở hữu trang web có thể tạo để cho các bot của công cụ tìm kiếm biết cách thu thập thông tin và lập chỉ mục các trang trên trang web của họ.

bạn có thể có nhiều dòng hướng dẫn để cho phép hoặc không cho phép các URL cụ thể và thêm nhiều sơ đồ trang web. Nếu bạn không cho phép một URL, thì các bot của công cụ tìm kiếm sẽ cho rằng chúng được phép thu thập dữ liệu đó.

Nếu bạn không có tệp robots.txt, thì các công cụ tìm kiếm sẽ vẫn thu thập thông tin và lập chỉ mục trang web của bạn. Tuy nhiên, bạn sẽ không thể cho các công cụ tìm kiếm biết trang hoặc thư mục nào mà chúng không nên thu thập thông tin.

File Robot.txt chuẩn cho WordPress

Đối với các trang web WordPress, đây là mẫu chuẩn file robots.txt và nhớ thay bằng tên miền của bạn

User-Agent: *
Allow: /wp-content/uploads/
Disallow: /wp-content/plugins/
Disallow: /wp-admin/
Disallow: /readme.html
Disallow: /refer/

Sitemap: http://www.example.com/post-sitemap.xml
Sitemap: http://www.example.com/page-sitemap.xml

Điều này yêu cầu các bot tìm kiếm lập chỉ mục tất cả các hình ảnh và tệp WordPress. Nó không cho phép các bot tìm kiếm lập chỉ mục các tệp plugin WordPress, khu vực quản trị WordPress, tệp readme WordPress và các liên kết liên kết.

Bằng cách thêm các sơ đồ trang web vào tệp robots.txt, bạn giúp seo tốt hơn trên google. Nếu bạn chưa có web thì hãy liên hệ Greenweb nhé, chúng tôi có dịch vụ thiết kế web giá rẻ chuyên nghiệp

Related Post

Trả lời

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *