การอัปเดตอัลกอริทึมของ Google
ตัวเลขสถิติตรงนี้เป็นสิ่งที่น่าสนใจมาก ๆ ครับ เพราะค่อนข้างตอบได้ว่าในช่วง 3-4 ปีที่ผ่านมา Google กำลังโฟกัสไปที่อะไร? จุดไหน? และอย่างที่เห็นครับ เกิดการอัพเดทของ Core Update ไปแล้วกว่า 9 ครั้ง ใน 3 ปี ซึ่งคนในวงการ SEO ต่างทราบกันดีว่า แรงกระแทกที่อาจได้รับนั้น น่ากลัวทุกครั้ง.. แต่อย่างไรก็ตาม ถ้าคุณพัฒนา SEO ได้อย่างถูกต้อง ผลกระทบในแง่ลบ ก็แทบจะไม่ส่งผลถึงอันดับของคุณเลยด้วยซ้ำ
และ ความถี่ของการอัพเดทในช่วงหลังมา ถือว่าเป็นตัวเลขที่ถี่มาก (27ครั้ง) และวนอยู่ใน Algorithm เพียง 4 ตัว ดังนี้
เป็นการอัพเดทในวงกว้างของอัลกอริทึมเอง และระบบการค้นหา ซึ่งส่งผลต่อการตอบสนองการจัดอันดับที่ดีขึ้น
เป็นระบบที่ Google ออกมาเพื่อให้คะแนนกับการเขียนรีวิวที่มีคุณภาพสูง ทั้งในบทความ และหน้าเว็บไซต์ โดยให้ความสำคัญกับ บทวิเคราะห์เชิงลึก และการแสดงความคิดเห็นเป็นหลัก
Google ใช้ระบบ AI ที่มีชื่อว่า ‘SpamBrain‘ ตั้งแต่เริ่มใช้งานในปี 2021 ก็ตรวจพบเว็บไซต์สแปมไปแล้วกว่า 200 เท่า เทียบกับปริมาณทั้งหมดที่เกิดขึ้นใน 20 ปีที่ผ่านมา
เป็นอัพเดทที่พูดถึงการสร้างคอนเทนต์ที่เป็นประโยชน์จริงๆ แก่ผู้อ่าน โดยยึดหลัก E-E-A-T
รองลงมาจากการ Algorithm ทั้ง 4 ข้างต้น ก็มีอีก 3 ตัวที่เหมือนเป็น Sub เสริมย่อยเพิ่มขึ้นมา ทำให้สามารถรวมได่ว่า ใน 4 ปี ที่ผมเรียกว่ายุคเติมเต็ม รวมแล้วมีท้้งหมด 7 รายการ และแต่ละรายการ ก็คือตัวที่ผ่านการพัฒนาเพื่อเข้ามาเต็มเต็มช่องว่างของยุคก้าวข้าม และ จุดเริ่มต้นได้เป็นอย่างดี
เป็นอัลกอริทึมที่รวมเมตริกที่วัดผลลัพท์ของประสบการณ์ผู้ใช้ เพื่อนำผลมาประเมินการจัดอันดับ เช่น Page speed, Mobile-Friendly และความปลอดภัยของเว็บไซต์ (SSL)
เพื่อรองรับการเข้าสู่ยุคของ E-commerce เต็มรูปแบบ เว็บไซต์ที่สามารถสร้างประสบการณ์การซื้อ-ขายที่ดีต่อผู้ใช้บริการ แน่นอนว่ามีผลดีต่อการทำ SEO อย่างแน่นอน โดยมีปัจจัยดังนี้
ออกมาเพื่อจัดการกับเว็บไซต์ที่ใช้การสแปมเพื่อหวังผลการทำอันดับผ่านการสร้างลิ้งค์ โดยเพิ่มเงื่อนไขการพิจารณาลิ้งค์ที่ละเอียดมากยิ่งขึ้น ดังนี้
รองลงมาจากการ 4 Algorithm ที่อัพเดทหลัก ๆ ในช่วง 4 ปีข้างต้นนั้น ก็มีอัลกอริทึมอีกเยอะมาก ที่เกิดขึ้นในช่วงตั้งแต่ปี 2013 จนถึง 2019
Hummingbird และ Pigeon คือจุดเปลี่ยนครั้งใหญ่ของ SEO เพราะพุ่งปรับเปลี่ยนเข้าไปในองค์ประกอบหลัก นั้นก็คือ การค้นหา
การมาของ Featured Snippets มีทั้งคนชอบ เพราะได้รับความน่าเชื่อถือจาก Google แต่สำหรับคนที่ไม่ชอบ เพราะผู้ใช้ส่วนหนึ่ง ไม่คลิกกดคลิกเข้าไปในเว็บไซต์แล้ว
ในช่วงปี 2018 มีประกาศจาก Google อีกครั้ง ว่าด้วยเรื่องของ “E-A-T” โดยลดความสำคัญแก่เว็บไซต์ที่มีเนื้อหาผิด แล้วเพิ่มคุณค่าให้กับเว็บไซต์ที่ทำเนื้อหาได้น่าเชื่อถือ ถูกต้อง และมีประโยชน์อย่างแท้ โดย E-A-T นี่เอง คือ หลักเกณฑ์สำคัญ เพื่อประเมินคุณภาพเนื้อหาของ Google
ชื่อฟังดูไพเราะกับเจ้านก “ฮัมมิ่งเบิร์ด” ที่เกี่ยวข้องกบับการค้นหาโดยเฉพาะ (Search) เพื่อปรับปรุงคุณภาพการค้นหาของผู้ใช้ให้ดียิ่งขึ้น
โดยเฉพาะการทำความเข้าใจ รูปแบบของคำถามที่มีความซับซ้อน (Semantic search)
รวมไปถึงการให้ความสำคัญกับเว็บที่รองรับการใช้งานเว็บไซต์ผ่านโทรศัพท์มือถือ (Mobile optimization)
เป็นอัลกอริทึมที่เป็นจุดเปลี่ยนของการค้นหาในท้องถิ่น (Local Search) ก็คือสามารถให้ผลลัพท์ที่เปลี่ยนแปลงได้ตามตำแหน่งของผู้ค้นหาได้
และให้ความสำคัญกับการสร้างแบรนด์ของธุรกิจในท้องถิ่น (Google My Business) โดยมีเงื่อนไขที่เพิ่มขึ้น ดังต่อไปนี้
เป็นอัลกอริทึมที่ใช้ระบบ Machine Learning ในการประมลผล รายละเอียดการอัพเดททาง Google ไม่ได้ลงเนื้อหามากนัก
แต่.. ก็ถือเป็นการประกาศที่เป็นใน ๆ ว่า อัลกอริทึมหลังจากนี้ กำลังเข้าสู่ยุคการพัฒนาที่ก้าวกระโดด มีระบบความคิดที่เก่งขึ้น!
ว่าด้วยเรื่องของการจัดการกับโฆษณาที่รบกวนหน้าเว็บ โดยเฉพาะการแสดงผลโฆษณาที่แสดงขึ้นก่อนเข้าสู่เนื้อหาหลัก ที่ไม่เหมาะสม และรบกวนผู้ใช้งาน เช่น ต้องคลิกก่อนอ่าน, Pop-up, โฆษณาผิดกฏหมาย และระยะเวลาแสดงผล เป็นต้น
ข้อไม่ใช่การอัปเดตอัลกอริทึม แต่เป็นการเปลี่ยนแปลงการแสดงผลลัพท์ในหน้าค้นหาของ Google (SERPs) ที่สำคัญ จึงอยากยกมาไว้ใน Timeline ของอัลกอริทึม
โดยการแสดงตัวอย่างข้อมูลส่วนหนึ่งแก่ผู้ค้นหา ในตำแหน่งบนสุด หรือทีเรียกว่าอันดับ 0 (Zero Ranking)
ดูตัวอย่าง Featured Snippets : คลิก
เป็นอัลกอริทึมที่เข้ามาเสริมทัพการประมวลผลของข้อความค้นหาเชิงสนทนา และการตอบคำถามแบบภาษาธรรมชาติ (NLP)
รวมไปถึงสามารถเข้าใจโครงสร้างข้อมูลทางสถิติ (Structured Data) ไปจนถึงงานวิจัยได้ดีขึ้น
ระหว่างปี 2011 – 2012 เป็นช่วงแห่งการเปลี่ยนผ่าน หลังจาก Google Search เริ่มอัพเดทอัลกอริทึมตัวแรกในปี 2003 โดยสามารถดูทิศทางการพัฒนาได้โดยอ้างอินกระแสโลกที่พัฒนาไปข้างหน้า อย่างเรื่องของ Social Network, Web 2.0, Smartphone และ 4G เป็นต้น
Google Map เปิดตัวแอพบน IOS และมี Street View ในปี 2012
ตัวแทนของ Algorithm ที่เป็นจุดศูนย์รวมเรื่อง Backlink คือ “Penguin“
และ “Panda” ก็คือตัวแทนของการวัดผลคุณภาพคอนเทนต์ ในเว็บไซต์ทั้งหมด ที่ยังคงใช้อยู่จนถึงปัจจุบัน…
แพนด้า เป็นอัลกอริทึมที่พูดถึง Content Quality เป็นหลัก และค่าที่ช่วยในการวัดผลคุณภาพของเนื้อหา เช่น อัตราการคลิก (CTR), อัตราการตีกลับ (Bounce Rate)
รวมไปถึงการจัดการเกี่ยวกับ Ad placement ตำแหน่งการวางโฆษณาที่ดูเยอะ และก่อนกวนการอ่านเนื้อหาหน้าเว็บ
เป็นอัลกอริทึมที่มีชื่อใกล้เคียงกับหัวข้อที่อัพเดทมากที่สุด หลัก ๆ พุ่งไปในเรื่องของ Content recency ความสดใหม่ ของเนื้อหาภายในเว็บไซต์ และให้ความสำคัญกับ Query intent การเข้าใจว่าผู้ค้นหามีจุดประสงค์อะไร? ในการค้นหาในแต่ละครั้ง
ว่าด้วยเรื่องของโครงสร้างการจัดเรียงเนื้อหาภายในหน้าเว็บ Content visibility โดยใน Panda Update ได้พูดถึงตำแหน่งการวางโฆษณาไปแล้ว
ในครั้งนี้ก็พุ่งเป้าไปที่องค์ประกอบส่วนอื่น ๆ เช่น การทำ Pop-up, การเข้าถึงเนื้อหาที่ยุ่งยาก และ JavaScript ที่รบกวนผู้ใช้งาน
เป็นอัลกอริทึมที่ออกมาเพื่อสนับสนุน Google map และการค้นหาแบบ Local SEO เช่น ค้นหาร้านอาหารใกล้ฉัน และการระบุตำแหน่งที่ตั้งในท้องถิ่น
แพนกวิ้น อัลกอริทึมที่เป็นชนิดของสัตว์ มักมาในรูปแบบของการเปลี่ยนแปลงครั้งสำคัญเสมอ อย่างในครั้งนี้ พูดถึงเรื่องของ Quality Backlink โดยเข้ามาจัดการกับลิ้งค์ย้อนกลับที่ไร้คุณภาพ
โดยใช้เงื่อนไข 3 ข้อในการประเมิน ดังนี้
เป็นอัลกอริทึมที่สร้างความเปลี่ยนแปลงให้กับฝั่งนักทำ SEO ได้มากมาย ณ ช่วงเวลานั้น เพราะหากนำ Keyword มาใช้เป็นชื่อเว็บไซต์ (Domain name) มีโอกาสการได้รับการจัดอันดับที่สูงกว่า
โดยหลักการนี้ก็นำไปสู่การส่งเสริมการสร้างแบรนด์ของธุรกิจนั่นเอง (ฺBranding)
อย่างที่ทราบกันดีกว่า การอัพเดทที่เกิดขึ้นในทุก ๆ ครั้งนั้น… Google ไม่ได้บอกรายละเอียดที่ลึกมากนัก ซึ่งทำให้หน้าที่หลักต้องตกมาอยู่กับผู้ทำ SEO ทั้งหลาย ซึ่งผู้คนเหล่านี้ก็อาศัยการสังเกต และเก็บสถิติจากเว็บที่ดูแลอยู่ในมือ
การศึกษา Timeline ย้อนหลังของการอัพเดทที่ผ่านมา สามารถช่วยให้เข้าใจที่มาที่ไปของเกิดในแต่ละครั้งได้ชัดขึ้น… แน่นอนว่า หากทุกท่านที่อ่านบทความมาถึงตรงนี้ จะเห็นเริ่มเห็นภาพไปในแนวเดียวกันกับผมแล้ว ก็คือ Google พยายามพัฒนาเพื่อให้เป็นเครื่องมือค้นหาที่ดีที่สุดอยู่เสมอ (Search Engine) เพื่อ = ช่วยให้ผู้คนได้รับผลลัพท์การค้นหาที่ดีที่สุด
เพราะฉะนั้น หลังจากเรารู้เจตนาของ Google แล้ว ทำให้ยิ่งชัดเจนว่า การอัพเดทในหลาย ๆ ครั้ง ล้วนแล้วอ้างอิงกับสถานการณ์ปัจจุบัน ณ ช่วงเวลานั้น และพฤติกรรม ความต้องการของมนุษย์ที่พัฒนาไปข้างหน้าอยู่เสมอ
หลังจากการอัพเดทของ Vince Update ที่ว่าด้วยการสร้างแบรนด์ และความน่าเชื่อถือ ค่า Domain Authority (DA) ที่พัฒนาโดยบริษัท Moz.com ก็เริ่มได้รับความนิยมจากนัก SEO ทั่วโลก และยึดว่าค่า Metric นี้ คือ 1 ในปัจจัยการทำอันดับจนถึงปัจจุบัน
ในช่วงปี 2009-2010 โซเชี่ยลมีเดียอย่าง Facebook Twitter ได้รับความสนใจจากผู้คนทั่วโลก และ Google+ ก็เปิดตัวตามมาในปี 2011
ในปี 2006 ไฟล์ sitemap.xml เข้ามามีบทบาท และได้รับการพัฒนาขึ้นโดย Google อ่านต่อ…
เป็นอัลกอริทึมตัวแรกที่ Google นำเข้ามาช่วยประมวลผลการทำ SEO โดยมุ่งให้ความสำคัญไปในเรื่องของการกำหนด Meta tags
กว่า 2 ปี นับจากอัลกอริทึมตัวแรก กลับมาในปีนี้ Google ก็พูดถึงเรื่อง คุณภาพของเนื้อหามากขึ้น และการใช้เทคนิค SEO ที่ไม่เหมาะสม เช่นการคัดลอกเนื้อหาซ้ำ ๆ และเริ่มสนใจประสบการณ์ของผู็ใช้ (User experience)
Google โฟกัสไปที่เรื่องของประสบการณ์ของผู้ใช้เป็นหลัก โดยเพิ่มเงื่อนไขที่มากขึ้นต่อการทำอันดับ เช่น Site speed และการได้รับ Backlink
ถือเป็น 1 ในอัลกอริทึมที่อัพเดทมาช่วยเพิ่มประสิทธิภาพในภาพรวมของ Google Search เพราะมีการโฟกัสไปที่ Brand Authority, Social signals และสนใจ User engagement นั่นเอง
ว่ากันว่าเป็นอัลกอริทึมที่เข้ามาเปลี่ยนแปลงการจัดทำดัชนี (Indexing) ที่เร็วกว่าเดิมมาก ๆ เพื่อรองรับเนื้อหาประเภท ข่าว, กระแส ที่อาศัยความรวดเร็วในการแสดงผล
ในปีนี้ Google เริ่มให้ความสนใจต่อ long-tail keyword เป็นพิเศษ โดยบอกว่า “เว็บที่ทำเนื้อหาแบบเฉพาะเจาะจง มีโอกาสทำอันดับได้ดีขึ้น” และลงโทษเว็บไซต์ที่พยายามทำ SEO มากจนเกินไป อย่างเช่น การใส่คำค้นหามากเกินไป (Keyword stuffing)