2.建立robots.txt文件。seorobots文件是搜索引擎直接登錄網(wǎng)站第一個ftp連接的文件,robots也可以設(shè)置愿意被ftp訪問的搜索引擎,最主要的肯定可以設(shè)置愿意Allow和不愿意Disallow訪問的目錄和文件,少寫Disallow,多寫Allow,用意是引導(dǎo)爬蟲抓取時間網(wǎng)站的信息。另,在robots文件底部大致知道網(wǎng)站的sitemap文件的目錄,爬蟲加載其中的sitemap路徑,隨后抓取其中相鏈接的網(wǎng)頁。增強(qiáng)網(wǎng)站的百度收錄量。
案例:??按到ctrl鍵直接點擊:/robots.txt
3.成立網(wǎng)站的sitemap地圖文件。sitemap是一個將網(wǎng)站欄目和再連接歸類的一個文件,是可以好地將網(wǎng)站影像展示給搜索引擎,能提高爬蟲的爬取效率。sitemap地圖文件包含html(根據(jù)用戶)和xml(對于搜索引擎)兩種。當(dāng)網(wǎng)站更新頻繁的時候,sitemap文件要可以做到自動出現(xiàn)更新完(程序利用),自動更新不過度的這個可以手動可以更新再提交。
4.圖片img標(biāo)簽必須算上alt屬性,并寫清楚圖片的含義。
5.h1~h6標(biāo)簽合理使用。按道理大部分標(biāo)簽都需要依據(jù)什么自身的語氣合不合理去使用,這里不展開攻擊講述,這里只講h標(biāo)簽的注意事項。h1標(biāo)簽一個頁面只能直接出現(xiàn)1次,h2標(biāo)簽一般充當(dāng)二級標(biāo)題也可以文章的小標(biāo)題。最合算的使用時h1~h6按順序期限錯配下來,好像不行斷層或是反序。
官方微信
TOP