CÁCH DÙNG FILE ROBOTS.TXT
File Robots.txt là gì
Robots.txt là một file đặt trên hosting. Nó được dùng để cấp quyền lập chỉ mục cho bọ của công cụ tìm kiếm.
Khi dùng file robots.txt, bạn cần cẩn trọng. Vì nếu điều chỉnh sai, mọi thành quả SEO sẽ đổ sông đổ bể.
Nếu dự án của bạn nhỏ, và bạn không biết chắc chắn mình đang làm gì, tốt nhất, bạn không nên dùng file robots.txt. Cứ để mọi thứ tự nhiên như thế. Blog của Quang cũng không dùng file robots.txt.
Tuy nhiên, với những dự án lớn, đặc biệt là e - comerce, việc sử dụng file robots.txt gần như là bắt buộc. File robots.txt giúp bọ Google index trang web của bạn hiệu quả hơn, chống đối thủ dò quét backlink, cũng như hạn chế nội dung trùng lặp rất thường gặp khi SEO cho lĩnh vực e-comerce.
Bài viết này, Quang sẽ giới thiệu tới bạn một số cách sử dụng file robots.txt phổ biến nhất hiện nay.
1. CHẶN BỌ TRONG QUÁ TRÌNH SETUP HỆ THỐNG
Trong quá trình thiết kế website (thiết kế giao diện, cài đặt plugin, xây dựng cấu trúc trang web), mọi thứ còn rất bừa bộn. Bạn nên chặn bọ Google, để nó không index những nội dung chưa hoàn thiện mà bạn không mong muốn.
Để chặn bọ Google, bạn khai báo file robots.txt như sau:
“User-agent: *
Disallow: / “
Disallow: / “
Nếu dùng WordPress, có một cách chặn dễ làm hơn. Bạn vào phần Settings / Reading / Search Engine Visibility, chọn ô Discourage search engines from indexing this site là xong.
Lưu ý quan trọng: Cách cấu hình file robots.txt như trên, bạn chỉ được dùng trong khi setup hệ thống. Nếu trang web đang ổn định, bạn nghịch ngu chèn mã trên vào file robots.txt là xong phim. Vì khi đó, bạn đã chặn bọ Google index trang web.
2. CHÈN SITEMAP
Sitemap giống như một tấm bản đồ để bọ Google khám phá trang web của bạn. Nếu số lượng index của trang web quá lớn mà trang web không có sitemap, bọ Google có thể sẽ không đủ tài nguyên (crawl budget) để quét hết trang web của bạn. Từ đó, Google có thể sẽ không index được một số nội dung quan trọng.
Một trang web có thể có nhiều hơn một sitemap (ví dụ như sitemap bài viết, sitemap hình ảnh, sitemap tin tức…). Bạn nên dùng một phần mềm để tạo sitemap cho trang web, rồi sau đó khai báo các đường dẫn sitemap đó vào trong file robots.txt.
Nếu dùng WordPress, Yoast SEO đã tự động tạo sitemap cho bạn. Với mã nguồn non-WordPress, bạn có thể dùng Screaming Frog / Website Auditor để quét, và tạo sitemap thay thế cho Yoast SEO.
Ví dụ: Hãy xem anh Hoàng, Team Ba Phải chèn file sitemap vào file robots.txt như thế nào:
“User-agent: *
Sitemap: https://teambaphai.com/sitemap.xml”
Sitemap: https://teambaphai.com/sitemap.xml”
Bạn có thể xem chi tiết tại đây: https://teambaphai.com/robots.txt
3. CHẶN BỌ CHECK BACKLINK
Hiện tại ở Việt Nam, ba công cụ check backlink phổ biến nhất là Ahrefs, Majestic và Moz. Bọ của chúng có tên tương ứng là AhrefsBot (Ahrefs), mj12bot (Majestic) và rogerbot(Moz).
Để không cho đối thủ dùng công cụ để phân tích backlink của bạn, bạn có thể chặn bọ của chúng trong file robots.txt.
Ví dụ, bạn muốn chặn bọ của Ahrefs, cú pháp như sau:
“User-agent: AhrefsBot
Disallow: / “
Disallow: / “
Hãy xem cách phòng thủ của Sen Đỏ. Họ chặn bọ của Ahrefs, Majestic, Moz và thêm 4 con bọ khác. Bạn xem tại đây: https://www.sendo.vn/robots.txt
Ngoài ra, trên thế giới còn có nhiều công cụ check backlink khác. Bạn có thể xem các con bọ đó, do bạn Cao Tú tổng hợp tại đây: https://tinyurl.com/yaru2yyg
4. CHẶN BỌ ĐỘC HẠI
Ngoài bọ check backlink, còn một số loại bọ độc hại khác.
Ví dụ như, Amazon, gã khổng lồ của ngành e-commerce thế giới, phải chặn một con bọ có tên là EtaoSpider.
Trích đoạn file robots.txt của Amazon:
“User-agent: EtaoSpider
Disallow: /”
Disallow: /”
EtaoSpider, chính là bọ của Alibaba. Nó được thiết kế, để quét và sao chép nội dung tự động từ Amazon (xem chi tiết tại https://www.amazon.com/robots.txt).
Cuộc chiến của Amazon và Alibaba, diễn ra ngay trên cách cấu hình file robots.txt của họ.
Ngoài EtaoSpider, còn có những con bọ được thiết kế chuyên dụng chỉ dùng để đi copy nội dung người khác (như Zealbot, MSIECrawler, SiteSnagger, WebStripper, WebCopier…), hoặc gửi quá nhiều / quá nhanh request tới máy chủ ( như fast, wget, NPBot, grub-client…), từ đó làm hao phí băng thông và tài nguyên hệ thống.
Bạn có thể tham khảo danh sách những con bọ đó, và lí do chặn chúng tại đây: https://en.wikipedia.org/robots.txt
5. CHẶN THƯ MỤC NHẠY CẢM
Mã nguồn trang web, thông thường có thư mục nhạy cảm, chẳng hạn như wp-admin, wp-includes, phpinfo.php, cgi-bin, memcache….
Bạn không nên cho bọ tìm kiếm index những nội dung này, vì khi đó, nội dung của chúng sẽ bị public trên internet. Hacker có thể moi được thông tin từ chúng, để tấn công hệ thống của bạn.
Nếu dùng WordPress, bạn có thể dùng cú pháp sau:
"User-agent: *
Disallow: /wp-admin/
Disallow: /wp-includes/"
Disallow: /wp-admin/
Disallow: /wp-includes/"
Tuy nhiên, nhược điểm của file robots.txt là nó chặn được bọ robot, nhưng lại để lộ đường dẫn URL chứa thông tin quan trọng. Do đó, bạn cần chỉnh lại file .htaccess / nginx để chặn truy cập bất thường của con người tới những file này.
Nếu là người dùng phổ thông, tốt nhất, bạn nên nói bên hosting backup dữ liệu tự động cho bạn định kỳ hàng tuần. Lỡ có biến thì còn đường mà đỡ.
6. CHẶN BỌ TRONG THƯƠNG MẠI ĐIỆN TỬ
Trong thương mại điện tử, có một số tính năng đặc thù cho người dùng như:
- Đăng ký tài khoản
- Đăng nhập tài khoản
- Giỏ hàng
- Lịch sử giao dịch
- Sở thích người dùng (wishlist)
- Thanh tìm kiếm nội bộ
- So sánh giá (price)
- Sắp xếp thuộc tính (giá từ cao tới thấp, hàng bán chạy, kí tự A&B….)
- Lọc thuộc tính (nhà sản xuất, màu sắc, giá tiền, dung lượng…)
- Các sản phẩm không còn bán nữa (đi kèm với 301 redirect)
- Đăng nhập tài khoản
- Giỏ hàng
- Lịch sử giao dịch
- Sở thích người dùng (wishlist)
- Thanh tìm kiếm nội bộ
- So sánh giá (price)
- Sắp xếp thuộc tính (giá từ cao tới thấp, hàng bán chạy, kí tự A&B….)
- Lọc thuộc tính (nhà sản xuất, màu sắc, giá tiền, dung lượng…)
- Các sản phẩm không còn bán nữa (đi kèm với 301 redirect)
Những chức năng đó không thể thiếu với người dùng, nhưng thường tạo ra nội dung trùng lặp trong SEO, và không có bất kỳ nội dung liên quan gì để hỗ trợ cho việc SEO từ khóa. Do đó, bạn có thể chặn index các đường dẫn này file robots.txt.
Trong file robots.txt, bạn dùng thêm dấu * (thay thế một chuỗi ký tự bất kỳ) và $ (định dạng file, ví dụ như .doc, .pdt, .ppt, .swf…, dùng ở cuối câu) để chặn các file tương ứng.
Ví dụ, đây là đường dẫn điện thoại Iphone, sort theo giá từ cao tới thấp của Cell Phones như sau:
https://cellphones.com.vn/mobile/apple/iphone-2017.html?dir=asc&order=position&price=15000000-20000000
https://cellphones.com.vn/mobile/apple/iphone-2017.html?dir=asc&order=position&price=15000000-20000000
Bạn thấy trong đường dẫn có đoạn ký tự ?dir=asc, dùng để sort theo giá. Đường dẫn này sẽ tạo ra nội dung trùng lặp cho trang web. Do đó, Cell Phones đã chặn chức năng sort theo giá đó trong file robots.txt như sau:
"User-agent: *
Disallow: /*?dir=asc"
Disallow: /*?dir=asc"
File robots.txt của Cell Phones, bạn xem tại đây: https://cellphones.com.vn/robots.txt
Khi cấu hình file robots.txt cho trang thương mại điện tử, bạn cần nhờ sự hỗ trợ của bên lập trình web. Họ hiểu được ý nghĩa của từng chức năng, và sẽ giúp bạn tìm đúng cú pháp để bạn chặn trong file robots.txt.
Chúc bạn thành công!
Tác giả: Quang Silic
0 nhận xét:
Đăng nhận xét