8 kỹ năng SEO On-page nâng cao

0
68

Sau hơn một thập kỷ cho ra mắt những thuật toán hình phạt nghiêm khắc, Google đã khiến cho các phương pháp SEO mũ đen trở nên tàn lụi dần sau thời gian dài hoàng kim của nó. Rất nhiều các chuyên gia hay SEOer gần như đã quên mất những phương pháp thủ công tự tạo ngày trước đối với On-page SEO; và đang tiến tới áp dụng những kỹ thuật căn bản nhất, có lẽ đó là kết quả của sự thận trọng hoặc do thói quen của mỗi người.

Tuy nhiên, trong bài viết ngày hôm nay, chúng tôi sẽ không quá chú trọng vào việc chia sẻ cách tối ưu hóa thẻ tiêu đề, từ khóa hay nói về tầm quan trọng của các Tags. Mà ngay dưới đây, các bạn sẽ được tìm hiểu về những vấn đề còn tồn tại cũng như các hướng giải pháp giúp bạn cải thiện được thứ hạng tìm kiếm bằng việc sử dụng các yếu tố on-page mà ít người nhắc tới nhưng cực kỳ quan trọng.

Bạn có thể hình dung site của bạn giống như một cửa hàng. Off-SEO của bạn sẽ phần bạn chịu trách nhiệm quản lý danh tiếng và truyền thông, PR; trong khi On-page sẽ là những gì mà bạn cần tân trang cho cửa hàng của mình giống như: kệ tủ, máy tính tiền, bàn ghế, sản phẩm…Mỗi yếu tố đó sẽ khác nhau về tầm quan trọng nhưng tất cả đều có chung một điểm là cực kỳ thiết yếu đóng góp cho sự thành công của nhà hàng.
Thông thường thì các chủ sở hữu kinh doanh chỉ quan trọng vào việc nhận báo giá từ các hoạt động On-page mà quên đi những thay đổi đang xảy ra ở Off-page. Họ có thể cảm thấy vô cùng tự tin vào những gì mình đã làm được nhưng trên thực tế thì lại trái ngược. Chỉ với một sai lầm liên quan đến những đoạn mã code không tương thích chèn vào website có thể khiến thứ hạng bị chao đảo và thay đổi ngay tức thì. Việc thực hiện nâng cao các kỹ thuật SEO on-page sẽ tăng cường khả năng hiển thị của website và mang lại hiệu quả gia tăng thứ hạng ngay lập tức.
Trong bài viết ngày hôm nay, chúng ta sẽ cùng nhau đi vào tìm hiểu những bí quyết để tối ưu hóa On-page cho website, đồng thời cũng đưa ra một số đánh giá, trao đổi và mong bạn đọc sẽ đóng góp bên dưới.

1. Cơ cấu liên kết nội bộ không nói lên tất cả

Giải thích chung:

Có bao giờ bạn tự hỏi tại sao những phụ trang như “About Us” (Giới thiệu) và Contact Us (Liên hệ) có điểm PR và DA cao như vậy? Trong rất nhiều trường hợp, chúng còn không hề có liên kết ngoài (backlink). Lý giải điều này đó chính là vì đây là những trang liên kết nội bộ: những phụ trang này thường xuất hiện trong thanh menu dọc website. Bằng cách liên kết đến các trang nội bộ ở một tần số cao hơn, chúng ta thường coi đó là những trang cực kỳ quan trọng. Nhưng sự thật thì chúng không “VIP” như chúng ta nghĩ.

Các robot dò tìm không có suy nghĩ, vì vậy chúng không có sở thích hay mong muốn gì trong quá trình thực thi nhiệm vụ. Tất cả những gì nó làm rất đơn giản và theo kiểu tính toán nhiều hơn. Với lý do này, nếu chúng ta biết được mục tiêu tiếp theo của công cuộc dò tìm thì bạn sẽ có cơ hội tối ưu hóa được website. Khi một website được thu thập thông tin, quá trình dò tìm từ trang này sang trang khác được thực hiện bằng cách truy cập vào những liên kết nội bộ này. Thông tin sẽ được thu thập cho tới khi quá trình dò tìm kết thúc hoặc nếu nó hiện ra một thông báo “Time Out”. Trong hầu hết các trường hợp, các site đều bỏ lỡ rất nhiều cơ hội này.

Việc cải thiện cơ cấu tổ chức của các liên kết nội bộ là một trong những cách tốt nhất để tối ưu hóa các yếu tố on-page trong website của bạn. Hầu hết trong tất cả các trường hợp, một khi quá trình này xong xuôi thì thứ hạng của website sẽ thay đổi trong lần crawl kế tiếp. Cách làm này thường được sử dụng rất phổ biến đó là Anchor Text. Nếu chúng lấy tất cả các anchor text trong một website và viết đó thành một nội dung hoàn chỉnh thì chúng ta có thể biết được chủ đề của website đó là gì.
Vấn đề ở đây: Nếu không có một mạng lưới liên kết nội bộ rõ ràng, thuật toán của Google sẽ tự động gán các từ khóa không liên quan cho các trang đích quan trọng nhất của trang web. Điều này khiến cho các từ khóa không được tối ưu hóa triệt để, dẫn đến không thể xếp hạng cao.

Giải pháp:

Nếu website lớn của bạn có Blog thì hãy bắt đầu bằng cách liên kết khoảng 20 đến 30 bài (không quá nhiều) đến các trang landing pages quan trọng và liên quan. Viết khoảng 15-20 bài mới thêm hàng tháng và đi sâu hơn vào những chủ đề chính ở trong landing page, và rồi liên kết đến các trang bài viết cũ hơn, và ngược lại. Hệ thống liên kết nội bộ này sẽ làm nổi bật sự liên quan và tính kết nối trong website của bạn, nên sử dụng cả các trang mới, cũ và đã index tham gia vào hệ thống này.

shutterstock_206115160-760x506

Tuy nhiên, hãy đảm bảo nội dung của bạn thú vị và có chất lượng cao nếu không các liên kết nội bộ sẽ không phù hợp. Lưu ý chúng tôi không đề cập đến anchor nào nên được sử dụng vì hiện tại thì nó cũng ít quan trọng do Google đang thắt chặt rất nhiều, miễn là nó liên quan chặt chẽ đến trang mà được liên kết đến, khuyến khích sử dụng anchor text để mô tả các trang mục tiêu. Ví dụ “Click here” là một ví dụ phổ biến và được khuyến khích sử dụng ngày nay, khi thích hợp.

Giờ là lúc chúng ta tìm ra những trang mạnh nhất trong website của bạn và lien kết chúng từ những trang đó đến các trang langding pages quan trọng nhất (nếu có thể). Trong quá trình làm điều này, bạn sẽ cần vận dụng tối đa những công cụ, phần mềm hiện có để tiến hành. Để thực hiện điều này, chúng tôi sử dụng “ScrapeBox” (bạn có thể sử dụng phần mềm tương tự), gõ URL của trang và bấm vào “Start Harvesting” như trong ví dụ dưới đây:

scrap1

Kết quả sẽ hiển thị tất cả các trang trên website. Giờ chúng ta sẽ check độ mạnh và tình phổ biến với 2 bước đơn giản.
1.1. Nhấp chuột vào “Check PageRank”: và xuất dữ liệu ở mục Import/Export URL’s & PR:

scrap2

Mặc dù PR hiện giờ không phải là một chỉ số chính xác và đáng tin cậy để đo đạc sức mạnh, nhưng nó vẫn là một chỉ số tốt. Theo lẽ tự nhiên thì kiểm tra PA (Page Authority) sẽ chính xác hơn, nhưng nó yêu cầu cài đặt, thiết lập một tài khoản với Moz và đăng ký mã API.

Note: Nếu bạn đã từng sử dụng mã Moz trước đó thì bạn cũng biết là đôi lúc nó không chính xác và không output được. Chính vì vậy, hãy chú ý và check các kết quả đáng nghi bằng tay mà bạn cho rằng nó không chính xác. Và thực tế thì chỉ số này không thực sự gắn chặt và đúng với các thứ hạng tìm kiếm, nhưng chúng cũng rất hữu dụng và là chỉ số chung cho nhiều website.

1.2. Kiểm tra phổ biến trên các mạng xã hội bằng cách click vào “ScrapeBox xã hội Checker”, xuất dữ liệu, và thống nhất với kết quả từ bước một:

scrap3

Giờ bạn có thể thống nhất hai bảng và sắp xếp dữ liệu nào mà bạn muốn để xác định những trang nào là mạnh nhất trong website, và sau đó liên kết chúng đến những trang đích quan trọng. Bạn có thể tham khảo mẫu sau:

temp

Nếu bạn có một site WordPress thì tốt nhất bạn nên làm quen với các plugin sau để có thể giúp xây dựng và duy trì các cấu trúc liên kết nội bộ:

No Sweat WP Internal Links Lite
SEO Smart Links

2. Các thư mục gốc gây hiểu lầm

Giải thích chung: Đây là một trong những yếu tố mà bạn hay bỏ qua nhất trong quá trình kiểm tra website. Vấn đề ở đây là trong khi xem xét rằng Google thu thập dữ liệu chỉ trong vài giây thì vài giây đó cũng rất đáng lưu ý.

Các nhà xây dựng trang web, tối ưu hóa, và chủ sở hữu trang web có xu hướng chỉ loại bỏ các tập tin vào thư mục gốc và thư mục con, không xóa hẳn đi. Miễn là nó không hiển thị thì họ sẽ không coi nó nguy hại gì – nhưng mỗi tập tin đều có ảnh hưởng riêng của nó.

Vấn đề chính ở đây là nó làm loãng các thông tin chính có liên quan, đó là những tập tin chẳng hạn như:

  • Các phiên bản tập tin khác nhau
  • Các file dùng thử (trial files)
  • Các file DOC/PDF không sử dụng
  • Thư mục sao lưu
  • Tranh ảnh/ video/ ca nhạc (các tập tin media nên được đặt trong thư mục chỉ định)
  • Các file tạm thời

Mặc dù các file này không còn được sử dụng nhưng chúng sẽ ngăn các Robot dò tim khi họ thu thập thông tin và làm loãng các thông tin quan trọng khác trong website.

Giải pháp: Hãy dọn sạch chúng! Mở một thư mục và đặt tên cho nó là “old-file”, sau đó đặt tất cả các file không sử dụng trong đó. Ngoài ra, sắp xếp các tập tin media và các thư mục con, và đừng quên cập nhật tất cả các địa chỉ trong các mã theo một bản cập nhật mới nhất bất cứ khi nào chúng được sử dụng. Đừng quá bận tâm đến việc tìm từng liên kết trỏ đến chúng – chỉ cần thực hiện những thay đổi và sau đó chạy một phần mềm hoặc công cụ check broken link để tìm những liên kết cần thay thế.

Và cuối cùng, update robot.txt file theo lệnh sau:

Disallow: /old-files/

3. Nội dung trùng lặp

Giải thích chung: Có thể nói, nếu website có nội dung lặp ở mức độ thường cho đến thấp thì khả năng bị các thuật toán tấn công là hiếm khi xảy ra (nếu bạn không cố tình sao chép nội dung từ người khác). Thường thì các website có nội dung lặp cực kỳ lớn (cố ý vi phạm) thì khi đó họ mới trở thành nạn nhân của các thuật toán hình phạt. Nhìn chung, đôi khi việc trùng lặp nội dung ở mức thấp không đủ căn cứ để xử phạt, trừ trường hợp Google nhận ra ý định lừa đảo đằng sau nội dung trùng lặp đó nhằm ‘đánh lừa’ các công cụ tìm kiếm.

Tuy nhiên, một khi có sự xuất hiện của nội dung trùng lặp trong website, thì cho dù là vô tình, nó vẫn sẽ dẫn đến hệ lụy là làm mất đi giá trị của website và cả nội dung trong website đó, và trong hầu hết tất cả trường hợp, chúng ta đều không nhận ra những nội dung đó bị lặp nên không kịp thời đưa ra hướng giải quyết vấn đề.

Trên trang kết quả tìm kiếm của Google có đến 10 trang và hầu như mọi người chỉ tìm kiếm thông tin ở trang đầu vì họ nghĩ đây là những kết quả đáng tin và xuất sắc nhất. Vậy nên Google sẽ làm tất cả nhừng gì trong khả năng để không phụ sự tin tưởng đó của người dùng. Và họ đã bắt đầu đưa ra hàng loạt các thuật toán (bộ lọc) để tiến hành điều tra tất cả các trường hợp vi phạm có liên quan đến lặp nội dung tuyệt đối hoặc lặp nội dung tương tự.

Vậy vấn đề ở đây là gì?

Việc lặp nội dung hoặc nội dung tương tự khiến cho website của bạn gia tăng số lượng nội dung không đáng có, và làm cho nó phải làm việc vất vả hơn để duy trì lượng thông tin mà đáng nhẽ ra sẽ chỉ có phân nửa. Trên thực tế, thì một trang lặp hoàn toàn có thể leo lên đầu bảng xếp hạng dựa vào những nỗ lực tối ưu hóa các yếu tố xếp hạng khác; tuy nhiên những nỗ lực này sẽ là quá lớn về mặt thời gian và tiền bạc trong khi chúng ta hoàn toàn có thể giải quyết được nó theo cách nhẹ nhàng hơn.

Hướng giải quyết
: Chúng tôi sẽ đi vào từng trường hợp cụ thể và đưa ra giải pháp sau đó

Lỗi 1: URL của website chính được đặt theo nhiều cách.

Ví dụ như hình bên dưới: có hoặc không có www. , không hoặc không có hậu tố index.php, …Tất cả những phiên bản tưởng chừng khác nhau này lại đều dẫn đến trang chủ của bạn và chúng đều được index bởi Google.

dupliacte

Giải pháp: Đầu tiên, chèn các dòng sau đây vào file .htaccess (Thay thế “doamin” bằng tên website của bạn; thay thể “html” bằng “php” nếu nó liên quan):

Mã:


Sau đó, xác định ưu tiên cho một loại địa chỉ trên Google Webmaster Tools (có hoặc không có www)

16-12-2014-16-58-37

Lỗi 2: Phiên bản thường và phiên bản bảo mật: http/ https

Giải pháp: Khi chuyển từ chế độ hiển thị trang bình thường (http) sang bảo mật dạng https thì chèn dòng code dưới đây cho file .htaccess (thay thế “domain” bằng tên địa chỉ website của bạn):

Mã:

Lỗi 3: Lặp tiêu đề và mô tả trang

Google đánh giá yếu tố này rất quan trọng thế nên bạn cần phải chú trọng nhiều về tiêu đề và mô tả trang cho website của mình.

Giải quyết: Nhìn vào hình ảnh bên dưới bạn sẽ làm như sau: Truy cập vào GWT, loại bỏ hiện tượng lặp thẻ mô tả (Duplicate Meta Descriptions) và lặp thẻ tiêu đề (Duplicate Title Tags) và khi đã hoàn thành, đừng quên kiểm tra một số các tùy chọn thêm khác bên dưới.

wmt1

Lỗi 4: Các trang liên kết nội bộ với các thông số

Rất nhiều site sử dụng các phiên bản URL khác nhau để theo dõi và phân tích số liệu. Thêm vào đó, có những lý do khác nhau dẫn đến việc các trang có thể xuất hiện các URL khác nhau, trong khi tất cả đều dẫn đến cùng một trang. Trong những trường hợp này, Google đã nhanh chóng đi trước và cho chúng ta một công cụ hữu ích và tiện dụng trong GWT.

wmt2

Việc sử dụng công cụ này sẽ giúp bạn điều chỉnh lại dữ liệu báo cáo mà Google sẽ dùng nó để đánh giá website của bạn được tốt hơn và tránh được tình trang lặp về số liệu. Chúng ta cũng nên làm điều này sớm vì sau khi index này Google sẽ mất khoảng thời gian lâu mới có thể loại bỏ được các số liệu bị lặp.

Ngoài ra còn một số cách khác cho bạn:

  • Sử dụng các công cụ kiểm tra nội dung lặp thường xuyên như CopyScape hoặc check bằng tay.
  • Giảm số lượng các trang tương tự nhau về mặt nội dung bằng cách thống nhất nó lại thành một bài hoàn chỉnh. Và khi đã loại trang cũ thì cũng đừng quên redirect nó về trang cuối cùng mà bạn đã sửa.
  • Sử dụng thẻ rel=”canonical” khi bạn cần xác định một trang nội bộ giống y hệt một trang khác. Xem mẫu code dưới đây:
Mã:

4. Tốc độ tải trang

Giải thích chung: Trong mắt Google việc gia tăng trải nghiệm cho người dùng cũng đồng nghĩa với việc gia tăng khả năng tiếp cận thông tin – giúp người dùng tìm thấy chính xác những gì họ muốn càng nhanh càng tốt. Thời gian chuyển giao giữa các lượt tìm kiếm càng ít thì càng tốt.

Vấn đề ở đây là: Có nhiều cách khác nhau để các công cụ tìm kiếm có thể đánh giá chính xác trải nghiệm của người dùng trên website đó là dựa vào tốc độ tải trang trên PC và Mobile. Một trang web có tốc độ tải trang chậm một mặt khiến cho tỷ lệ Bounce Rate tăng cao, mặt khác sẽ là đối tượng bị xử phạt của Google. Chúng ta đều biết tốc độ tải trang cũng được xếp vào là một trong những yếu tố xếp hạng được Matt Cutts thông báo hồi đầu năm 2011, và trải qua vài năm thì chúng tôi có thể khẳng định chắc chắn rằng tầm quan trọng của tốc độ tải trang sẽ ngày càng tăng lên. Giờ đây, khi bạn khi bạn cải thiện được tốc độ tải trang là gần như bạn đã cải thiện được thứ hạng cho website của mình.

Hướng giải quyết: Đầu tiên, đánh giá tình trạng hiện tại của trang web. Khuyến khích nên sử dụng các công cụ của Google vì các thống kê sẽ sát sao hơn và đó cũng chính là số liệu mà họ đang dùng để khảo sát website của bạn. Ví dụ dưới đây sử dụng 2 công cụ để có được đánh giá bao quát cho vấn đề và đưa ra hướng giải quyết dễ dàng hơn:

PageSpeed Insights sẽ tính điểm các site dựa vào tốc độ tải trang, từ 0 (chậm nhất) cho đến 100 (nhanh nhất). Google cũng có điểm của riêng mình là 99, và chúng tôi khuyến nghị các trang nên đạt từ 70 trở lên. Cố gắng giảm lược các điểm vào vàng đi.

1google

Sau khi xong phần kiểm tra, bạn cũng sẽ nhận được lời kiến nghị thay đổi phù hợp để nâng cao số điểm.

GTmetrix sẽ giúp bạn có được một cái nhìn tổng quát hơn và đưa ra những yếu tố, nguyên nhân khiến tốc độ tải trang bị ảnh hưởng trong khi ở PageSpeed Insight thì rất sơ sài. Nhìn vào tab Yslow. Thu về dữ liệu ở thẻ “timeline”:

gmetrix

Để nâng cao hơn, bạn muốn phân tích Real-time thì cài đặt plugin này cho trình duyệt: http://yslow.org
Để sửa chữa nhanh chóng mà không cần phải tiếp xúc với code lằng nhằng, bạn có thể sử dùng 4 cách sau nếu muốn:

  • Tối ưu hóa tất cả các hình ảnh trên trang web của bạn (truy cập từ thư mục hình ảnh chính của bạn). Các công cụ đơn giản nhất bạn có thể sử dụng để làm điều này là Yahoo! Smush.it.
  • Cho phép nén bằng GZIP. Chỉ cần nhập các mã sau vào tập tin htaccess của bạn:
Mã:

Chỉ định ngày hết hạn cho các tập tin bằng cách nhập mã sau vào tập tin htaccess của bạn:

Mã:

Sử dụng một CDN (nội dung cung cấp mạng). Đây là một dịch vụ thường được cung cấp bởi nhà cung cấp lưu trữ trang web của bạn.

5. Chặn file hay công bố các tính năng độc hại trong website

Giải thích chung: Chặn một file hay bất kỳ mã nào đó trong website nghĩa là bạn chặn GoogleBot vào dò tìm các file đó, điều này có thể khiến Google đưa ra những giả định bất lợi cho chúng ta. Bởi Google không hiểu rõ về website và cũng không thể kiểm tra tất cả mọi thứ bằng tay được. Chính vì thế mà không nên tạo bất kỳ một dấu hiệu cảnh báo nhân tạo nào cho dù là cố ý hay cố tình.

Vấn đề ở đây là:
Sự hiện diện của các file bị chặn trên website có thể khiến Google cảnh giác hơn và tưởng rằng website đã bị nhiễm thành phần độc hại.

Hướng giải quyết:

Xem qua các danh sách kiểm tra dưới đây và chắc chắn rằng bạn đã không cho ra những dấu hiệu cảnh báo vô ý.

  • Không chặn các tập tin CSS và JS trong file robot.txt của bạn. Google rất chú trọng đến điều này.

 

js

 

  • Cẩn thận không nên chặn các file template (cũng tương tự như chặn CSS và JS). Đây là lỗi phổ biến nhiều người mắc phải vì nghĩ Google nó sẽ giúp Google tìm đến các file nội dung thay vì các file code, nhưng điều đó là sai lầm. Các chủ sở hữu site WordPress có thể và cũng nên chặn các thư mục Plugins của họ.
  • Mặc dù Google chỉ có thể giải mã (‘đọc’) văn bản (text), nhưng sự hiện diện của hình ảnh cũng đóng vai trò rất quan trọng. Chính vì vậy đừng chặn Google dò tìm các thư mục hình ảnh của bạn. Chặn thư mục này sẽ làm cho tất cả các tập tin hình ảnh của bạn không thể index, do đó sẽ làm giảm số lượng nội dung được phân loại theo trang web của bạn. Không có bằng chứng chứng minh rằng hình ảnh sẽ giúp tăng thứ hạng, nhưng nó sẽ dẫn đến sự gia tăng đáng kể trong lưu lượng truy cập đến website nhờ vào kết quả tìm kiếm hình ảnh của Google. Nếu không có lý do gì thích đáng thì chúng tôi khuyến cáo các bạn không nên chặn các tệp tin phương tiện truyền thông bao gồm hình ảnh, video, infographic…
  • Tránh chặn thư mục nguồn cấp dữ liệu RSS của bạn. Đây là một nguồn thông tin quan trọng cho Google (và cho cả bạn nữa, tuỳ theo cách bạn nhìn nhận nó ra sao), thậm chí còn quan trọng hơn cả sitemap.
  • Mỗi tháng một lần, tôi khuyên bạn nên kiểm tra danh sách các truy vấn tìm kiếm trong Google Webmaster Tools. Ở đó, bạn có thể nhìn thấy lượng traffic mà website của bạn có được nhờ vào các từ khóa mà nó không hề được tối ưu hóa trong website của bạn. Nhưng chúng phải là những từ khóa có liên quan đến lĩnh vực bạn đang SEO.
  • Đối với những thuật ngữ mà thuộc diện “Cấm” của Google liên quan đến nội dung người lớn, đả kích, tôn giáo, chính trị, cung cấp thuốc, khoản nợ…(trong khi website không hề liên quan đến những thuật ngữ đó), thì việc kiểm tra này sẽ giúp bạn đoán được website có bị tấn công spam hay không.

 

wmt21

 

  • Kiểm tra GWT ở tab Security Issues.
  • Sử dụng công cụ quét ít nhất 1 lần/ tháng. Đăng ký các dịch vụ trả tiền nếu muốn check hàng ngày:
  • Sucuri SiteCheck
  • SiteLock
  • Kiểm tra Code! Tìm những điểm đáng ngờ, hoặc tạo mã tự động với 2 công cụ trên. Chúng tôi khuyến nghị nên sử dụng các lệnh tìm kiếm thủ công:

<script>function (theo sau là một dãi số lớn hơn 300 hoặc nhỏ hơn -300)
hxxp:// (theo sau là một URL)
Chạy chương trình tìm kiếm lỗi có thể sử dụng DreamWeaver hay phần mềm tương tự. Nhưng lưu ý back-up toàn bộ site lại.
Lưu ý: kiểm tra kỹ từng kết quả đáng nghi nhưng không vội kết luận nó là độc hại rồi xóa đi.
Kiểm tra các liên kết và nguồn gốc của chúng sử dụng công cụ sau cho các trang web quan trọng của bạn: Unmask Parasites

(updating)

Theo SeoMXH

8 kỹ năng SEO On-page nâng cao
Đánh giá bài viết !

Nếu yêu thích LocDang.Com thì hãy đăng ký theo dõi để nhận tin tức mới nhất và đừng quên Like và Follow mình trên Facebook Twitter nhé.
Để lại ý kiến nhận xét tại đây !!

Chưa có bình luận nào cho bài viết này. Bạn hay là người đầu tiên nhé.

    • Xin chào, khách