Tệp robots.txt là một tệp văn bản đơn giản được sử dụng để hướng dẫn các công cụ tìm kiếm như Google về cách thu thập và index nội dung trên website của bạn. Nếu bạn đang sở hữu một blog trên nền tảng Blogspot, việc tạo và tối ưu tệp này là một bước quan trọng để cải thiện hiệu suất SEO của blog.
Trong bài viết này, mình sẽ hướng dẫn bạn cách tạo tệp robots.txt chi tiết và đầy đủ.
Bước 1: Mở Chức Năng Robots Tùy Chỉnh Trên Blogspot
- Đăng nhập vào trang quản trị Blogspot của bạn.
- Truy cập vào Cài đặt → Tùy chọn tìm kiếm.
- Cuộn xuống dưới và tìm đến mục Tệp Robots tùy chỉnh.
- Nhấp vào mục này và kích hoạt chức năng Bật.
Cấu Trúc Cơ Bản Của Tệp Robots.txt
Dưới đây là cấu trúc cơ bản của một tệp robots.txt chuẩn:
plaintextUser-agent: * Allow: / Disallow: /search
- User-agent: Xác định bot của công cụ tìm kiếm mà bạn muốn cấp quyền truy cập. Ký hiệu
*
nghĩa là áp dụng cho tất cả các bot. - Allow: Cho phép các công cụ tìm kiếm index toàn bộ nội dung của trang.
- Disallow: Chỉ định các đường dẫn hoặc khu vực mà bạn không muốn công cụ tìm kiếm truy cập.
Tệp Robots.txt Cho Blogspot Dưới 500 Bài Viết
Nếu blog của bạn có dưới 500 bài viết, hãy sử dụng đoạn mã dưới đây:
plaintextUser-agent: Mediapartners-Google Disallow: User-agent: * Allow: / Allow: /search/label/ Disallow: *max-results=* Disallow: *archive.html Disallow: *?m=0 Disallow: /search?* Disallow: *?showComment=* Disallow: *?spref=fb Disallow: *?spref=tw Disallow: *?spref=gp Disallow: *?utm_source=* Sitemap: website-cua-ban/feeds/posts/default?orderby=UPDATED Sitemap: website-cua-ban/atom.xml?redirect=false&start-index=1&max-results=500
Tệp Robots.txt Cho Blogspot Trên 500 Bài Viết
Với blog lớn hơn 500 bài viết, bạn cần chia nhỏ sitemap để công cụ tìm kiếm dễ dàng index. Dưới đây là tệp robots.txt dành cho blog nhiều bài viết:
plaintextUser-agent: Mediapartners-Google Disallow: User-agent: * Allow: / Allow: /search/label/ Disallow: *max-results=* Disallow: *archive.html Disallow: *?m=0 Disallow: /search?* Disallow: *?showComment=* Disallow: *?spref=fb Disallow: *?spref=tw Disallow: *?spref=gp Disallow: *?utm_source=* Sitemap: website-cua-ban/feeds/posts/default?orderby=UPDATED Sitemap: website-cua-ban/atom.xml?redirect=false&start-index=1&max-results=500 Sitemap: website-cua-ban/atom.xml?redirect=false&start-index=501&max-results=500 Sitemap: website-cua-ban/atom.xml?redirect=false&start-index=1001&max-results=500 Sitemap: website-cua-ban/atom.xml?redirect=false&start-index=1501&max-results=500
Bước 2: Chèn Mã Robots.txt Vào Blogspot
- Sau khi tạo xong mã robots.txt, quay lại mục Cài đặt → Tùy chọn tìm kiếm trong trang quản trị Blogspot.
- Dán đoạn mã vừa tạo vào hộp thoại Tệp Robots tùy chỉnh.
- Nhấn Lưu để hoàn tất.
Kết Luận
Việc tạo tệp robots.txt không chỉ giúp bạn kiểm soát cách công cụ tìm kiếm thu thập dữ liệu, mà còn cải thiện hiệu quả SEO tổng thể cho blog của bạn. Hãy đảm bảo rằng bạn sử dụng đúng cấu trúc và thường xuyên kiểm tra hoạt động của tệp để đạt được kết quả tốt nhất.
Chúc bạn thành công trong việc tối ưu blog của mình! Nếu có thắc mắc, đừng ngần ngại để lại câu hỏi nhé. 😊
0 Nhận xét