Аналіз ключових слів сайту – це перше, що повинен вміти робити SEO-фахівець, незалежно від його досвіду. Причина проста – практично всі роботи з внутрішньої оптимізації будуються на підставі семантичного ядра. І якщо в ньому будуть помилки, найімовірніше, доведеться переробляти все з нуля.
Спробую пояснити. Якщо під час просування сайту ви неправильно складете мета-теги, зможете переписати їх у будь-який момент, не чіпаючи текстів, підзаголовків, перелінковки, зображень та інших моментів. Переспамите тексти – те саме, зможете почистити їх, не чіпаючи решту. Але якщо ви неправильно зберете ключові слова або неправильно зробите аудит семантики (якщо її зібрали до вас), тоді доведеться переробляти все: і мета-теги, і тексти, і оптимізацію сторінки загалом, і анкор-лист, і перелінковку.
А тепер уявіть, що ви просували сайт на підставі неправильної семантики. Через 6-12 місяців це з’ясувалося. Питання – що ви скажете клієнту? Так, ми попрацювали рік і не отримали результат, тому що ключі зібрані погано і тепер потрібно все переробити і ще півроку-рік робити те ж саме? Навряд чи він стане з вами працювати. Тому аналіз пошукових запитів робити потрібно завжди та дуже уважно.
Аналіз семантики свого сайту
Під «своїм» сайтом матимемо на увазі не стільки особистий проект (що там аналізувати, якщо ви все самі збирали), скільки будь-який клієнтський, де є зібране СЯ або доступи до аналітики та Google Search Console. Або особистий, але над яким працював найманий фахівець.
Для початку потрібно зрозуміти, з якими вихідними даними будемо працювати. Можливі 2 варіанти: СЯ є або СЯ немає.
Якщо семантичне ядро є
Мається на увазі, що ключові слова зібрані, розподілені по посадкових сторінках і всі ці дані якось оформлені – в Excel або Google Документах. Виглядає це приблизно так:

Це найкращий варіант з усіх можливих. Наявність такого файлу економить величезну кількість часу на аналізі, дає змогу швидко виявити помилки і попередньо оцінити рівень фахівця, який працював над сайтом. Якщо ядро зроблено з великою кількістю помилок, навряд чи можна очікувати, що оптимізація буде зроблена краще.
На що дивимося:
- Скільки ключових слів у кожній групі.
- Чи правильно зняті частотності.
- Чи є розподіл по посадкових сторінках.
- Правильно ли подобраны запросы.Чи правильно підібрані запити.
Скільки ключових слів у кожній групі
Тут є 2 крайнощі – 1 ключ на 1 сторінку та величезна кількість запитів у кожній групі (часто їх просто копіюють з контексту). Якщо бачите першу – значить нормальну семантику ніхто не робив. Далі можна не аналізувати. Простіше не витрачати час і відразу починати збір.
Якщо бачите кілька десятків ключів у групі, потрібно робити аналіз запитів. Бувають сайти, де 20-30 фраз у групі – це нормально. Наприклад, спробуйте зібрати ядро для сайту, що торгує iPhone, і ви швидко в цьому переконаєтеся. Дуже популярний товар, що має велику кількість написань. У підсумку отримуємо:

Запитів багато, але якщо вписати в title ось таке:
Купити Apple iPhone 16 (оригінал) – найкраща ціна та можливість замовити будь-яку модель за 1 день
То ви вже тут впишете більшу частину. А є ж ще description, h1, текст. Тобто, велика кількість запитів в одній групі може бути нормою за умови їхньої однотипності. Але таке буває рідко. У середньому кількість ключів на 1 сторінку варіюється від 5 до 15. Якщо більше – потрібен аналіз.
Якщо їх більше 1, але менше 5 – дивіться на частотності. 2-4 запити на сторінку – це нормально. Але якщо частотності там 10 (а це значить до 10 показів, що може означати і 1), потрібно подумати, чи варто включати такі сторінки в ті, що просуваються. Якщо сайт дрібний і ключів мало – тоді доводиться збирати все, що є. Якщо великий, тоді від таких сторінок простіше відмовитися (або залишити на наступний етап), щоб не розпорошуватися та швидше отримати результат.
Чи правильно зняті частотності
Як мінімум половина сайтів, які приходять до нас на просування, неправильно знімають частотності. Наприклад, на скріні вище є запит «iphone 16 купити», у якого 1600 показів на місяць. На перший погляд – чудовий ключ, на якому потрібно зосередити якомога більше зусиль. Виведіть у ТОП, буде і трафік, і продажі. Принаймні, так багато хто думає.
Але частотність для цього запиту зібрана за регіоном «Україна». Якщо подивитися Київ – 390 показів, Львів – 90, Одеса – 70. І це ми дивимося тільки великі міста, а якщо вас цікавлять продажі в Умані, там всього-то 10 показів на місяць, а точніше до 10. І якщо ви у своїх розрахунках орієнтуватиметеся на 1600, після того, як просунете сайт, сильно здивуєтеся відсутності трафіку та продажів.
Тому, перед початком роботи з будь-яким проектом, потрібно обов’язково зробити аналіз пошукових запитів. Не варто витрачати час та перевіряти всі цифри. Візьміть 2-3 довільні групи і перезніміть частотності самостійно. Якщо помилок немає – навряд чи в інших будуть проблеми. Перевірити можна через «Планувальник ключових слів», хоча варіантів багато.
Якщо перевірка семантичного ядра покаже, що частотності було знято неправильно, найімовірніше, доведеться не просто перезняти їх усі і виправити цифри, а повністю перезібрати ядро. Тому що майже напевно після перезняття ви побачите багато нулів, зате багато низькочастотних запитів з 10-20 показами (реальними), були видалені під час чищення.
Чи є розподіл за посадковими сторінками
Теоретично, розподіл пошукових запитів за посадковими сторінками просто зобов’язаний бути. Адже ми розглядаємо варіант, коли СЯ зібрано. Але часто буває так – ядро хтось і колись збирав, потім сайт просувався кілька місяців/років, потім ще міг простоювати, а потім потрапляє на просування до вас. При цьому вся семантика – це один великий список із сотні-другої фраз. І це ще добре, буває й кількох тисяч.
У такому разі аналіз семантичного ядра сайту має бути спрямований на те, щоб спробувати виокремити ті групи, які були спочатку зібрані, а потім уже перевірити їх.
Варіант 1 – сайт добре ранжується
Якщо сайт добре ранжується, знімаєте позиції через будь-який сервіс за всіма ключами. Експортуєте позиції й цільові сторінки в Excel. Робите сортування за цільовою сторінкою, виділяєте групи і навпроти кожної вказуєте сторінку. У результаті отримуєте ядро приблизно в тому вигляді, в якому я показував його на скрині вище. І далі робите стандартний аналіз.
Варіант 2 – сайт погано ранжується
Якщо ви знімаєте позиції і бачите, що половина запитів відсутня в ТОП 100, розподіляти їх за групами доведеться руками. Робите сортування і розподіляєте те, що ранжується, а решту читаєте і намагаєтеся за змістом розподілити за наявними або новими групами. За невеликої кількості фраз – це не складно. За величезної – простіше зібрати з нуля.
Коли все буде приведено в нормальний вигляд, потрібно перевірити, наскільки пошукові запити відповідають сторінкам на сайті. Наприклад, у вас вийшло 20 груп. А на сайті 35 категорій. Питання – за іншими 15 категоріями ключів не знайшлося? А популярних товарів/послуг хіба немає?
І якщо популярні товарні сторінки або послуги з першого погляду не завжди можна легко визначити, то взяти кілька розділів, під які нічого не знайшлося, і зробити підбір під них – не складає труднощів. Перевірте хоча б кілька сторінок. Якщо ключові слова під них будуть знайдені – найімовірніше, семантика збиралася неякісно або вже застаріла. В обох випадках потрібно перезібрати її.
Якщо сайт має розділи та сторінки товарів/послуг, а семантика є тільки під розділи – скоріш за все, тут вона зібрана частково та потребує розширення. Навіть якщо розділи зібрані якісно та пройшли перевірку.
Чи правильно підібрані запити
Тут простіше показати:

На скріншоті ви бачите результати пошуку в Google, регіон – Київ, за запитами «seo» та «seo замовити». Зверніть увагу – немає жодного перетину. Тобто, для цих запитів повністю різна видача. І якщо ви включите їх в одну групу і спробуєте просунути одну сторінку за обома, результат вас не порадує. Здебільшого частина запитів ранжуватиметься добре, а друга частина – у ТОП 30-50.
А буває і ще гірше, коли в спробі зробити внутрішню оптимізацію під занадто різнопланові запити, ви не просто частину з них не зможете витягнути в ТОП 10, не кажучи вже про ТОП 3, а й погіршите ранжування за тими, які повністю релевантні вашій посадковій сторінці.
Тому аналітика пошукових запитів повинна включати і смисловий аналіз. В одну групу не повинні потрапляти ключові слова, за якими у видачі не буде хоча 4-5 збігів. На практиці це не так складно, як може здатися. Зрозуміло ж, що:
замовити просування сайту
seo просування замовити
просування сайту недорого
послуги seo просування
Це за змістом одне й те саме, і результати пошуку будуть плюс-мінус збігатися. Але якщо в таку групу потрапить запит виду «seo», він може позначати що завгодно – як послугу, так і просто визначення терміна. Зазвичай такі спірні ключі дуже легко помітити. Тому просто прочитайте уважно те, що вам надіслали на перевірку. І якщо щось викликатиме сумніви – порівнюйте результати пошуку.
Якщо знаходите в групах ключі, під які потрібна інша сторінка – обов’язково їх прибираєте. Якщо відповідна сторінка на сайті є – переносите на неї, якщо ні – видаляєте. Але не залишаєте в цій! Не ускладнюйте життя ні собі, ні клієнту.
Актуальність
Аудит ключових слів здебільшого замовляють не для свіжозібраної семантики, а старої, яку збирали в кращому разі рік тому, але частіше від 2 до 5 років. Тому перевірити потрібно ще й актуальність.
Тільки не варто видавати за перевірку актуальності перезняття частотностей. Наприклад, вас просять перевірити семантичне ядро сайту, ви перезнімаєте частотності і бачите, що вони змінилися, можливо навіть сильно. Потім робите висновок, що ядро застаріло і рекомендуєте перезняти всі частотності. І на цьому все. Якщо так – це не перевірка, а замилювання очей.
Так, частотності доведеться перезняти, але ж ви можете робити це кожні 3 місяці, і вони будуть відрізнятися. Це нічого не означає. Ваше завдання перевірити, чи не з’явилися нові запити.
При цьому перевірити всю семантику ви не зможете, в рамках аудиту. Якщо спробувати це зробити – це буде вже не аудит, а повноцінне опрацювання ядра. Досить виділити 2-3 найважливіші групи (запитайте у власника сайту, які сторінки генерують найбільше замовлень або найбільш важливі) та зібрати для них ключі.
Якщо різниця буде в 1-2 фрази з невеликою кількістю показів – все ок, нічого робити не потрібно. Якщо бачите багато нових фраз, та ще й частотності хороші, є сенс обговорити актуалізацію СЯ.
Якщо семантичного ядра немає
Мається на увазі, не той випадок, коли семантику просто ніхто не збирав. У такому разі й перевіряти нічого. Мова про ситуацію, коли її збирали, роботи по сайту проводилися, але повноцінне семантичне ядро в оформленому вигляді власнику сайту передано не було. У підсумку, сайт під щось там оптимізований і навіть трафік дає. Але під що і чи потрібні доопрацювання – не зрозуміло. У такому разі вам самому доведеться знайти ці ключові слова і проаналізувати їх.
Сам аналіз ключових запитів буде таким самим, як розписано вище. Тільки перед цим потрібно зібрати ці запити і розподілити їх по посадкових сторінках. Для цього:
Крок 1. Завантажуєте запити з Google Search Console (запросивши доступ у власника сайту):

Також можна завантажити запити з Google Analytics. Це вже на ваш розсуд.
Крок 2. Завантажуєте запити зі сторонніх сервісів, які дають змогу подивитися ключові слова сайту. Тут уже можуть бути варіанти, все залежить від того, яким платним софтом і сервісами ви користуєтеся. Я часто використовую для цього Serpstat та Ahrefs. Якщо сервісів у вас кілька – завантажуйте дані з усіх. В Ahrefs це має такий вигляд:

Крок 3. Об’єднуєте запити, які скачаєте на кроці 1 і 2, в один список. Шукати дублі не потрібно! Вони видаляться самі. Потім знімаєте частотності. Зробити це можна різними способами. Але будемо виходити з того, що зайві витрати на платний софт у вас не передбачені. Скористаємося Google Ads.
Заводьте акаунт – це можна зробити, не запускаючи рекламну кампанію і не поповнюючи рахунок. Переходите в «Інструменти – Планувальник ключових слів», натискаєте «Подивіться кількість запитів і прогнози», вставляєте свій список ключових слів і натискаєте «Почати». На цьому все, залишається тільки експортувати результати у вигляді csv-файлу.
Потім сортуєте те, що завантажили в порядку убування частотності і видаляєте всі рядки, де кількість показів дорівнює 0. Загалом це і є семантичне ядро. Виглядає ось так (тільки рядків може бути кілька сотень або тисяч):

Але підходить воно хіба що для моніторингу позицій. А для нормальної роботи й аналізу потрібно зробити розподіл ключових слів за посадковими сторінками. Для цього переходимо до наступного пункту.
Крок 4. Завантажуєте отримані запити в будь-який сервіс моніторингу позицій. Який? На ваш розсуд, варіантів багато. Знімаєте позиції, експортуєте файл з ними і зазначенням, яка сторінка за яким запитом ранжується. І копіюєте стовпець з url-адресами в табличку з минулого кроку. Має вийти так:

Якщо за якимось запитами цільової сторінки не буде (якщо він не ранжується в ТОП 100) – видаляєте їх. А за всіма іншими робите в Excel сортування за цільовою сторінкою, потім просто розділяєте отримані групи порожнім рядком або двома і вже кожну підгрупу сортуєте за частотністю. Отримуєте ось такий варіант:

А це вже готове СЯ, яке ви аналізуєте, як описано вище. Єдиний момент – потрібно розуміти, що це не те ж саме, що підібрана семантика. Тут багатьох запитів не буде. Тому перевірити семантичне ядро сайту на його повноту не вийде. Зате так ви отримуєте фрази, які вже потрапили в ТОП 100 і, якщо попрацювати саме з ними, можна отримати приріст трафіку набагато швидше.
Ще варіант – можна використовувати це за базу і розширити отримані групи, зробивши повноцінний підбір для них. Загалом, тут уже з’являються варіанти, як із цим працювати. Але багато що залежить від того, скільки груп підібрано, скільки ключів, які частотності, які позиції.
Аналіз семантики конкурентів
Для чого потрібен аналіз семантичного ядра конкурентів? Поки не буде відповіді на це запитання, немає сенсу навіть починати. Тому що порядок його проведення та обсяг залежатимуть від мети.
Наприклад, ви збираєте ключові слова для сайту в дуже вузькій ніші, де запитів мало. Або ж просто хочете зробити максимально якісний підбір. У такому разі вам потрібно:
- визначити найважливіших конкурентів;
- спарсити їхню семантику;
- об’єднати з тим, що вдалося спарсити звичайними інструментами;
- розібрати на групи;
- зробити аналіз, як написано на початку статті.
Це дасть ядро, яке мало хто буде використовувати, через трудомісткість його складання.
Якщо ви хочете подивитися ключові слова конкурентів, щоб зрозуміти, як вони отримують трафік, тоді навіщо вам збирання тисяч або десятків тисяч фраз, розбирати які ви будете не один день, а часто і не один тиждень? У такому разі потрібно дивитися посадкові сторінки, що генерують найбільше трафіку, і парсити ключі безпосередньо для них.
І це найочевидніші приклади. Є ще таке поняття як «втрачена семантика», зібрати яку без конкурентів вкрай складно. Є точкова робота з виявлення найбільш конверсійних запитів. І ще багато вузькоспеціалізованих завдань.
Зверніть увагу, що дізнатися ключові слова конкурентів і дізнатися семантичне ядро конкурента – це не одне й те саме. Семантику, яку конкурент збирав, під яку оптимізував сайт, під яку робив перелінковку і закуповував посилання – не вийде. У нього може бути 100 сторінок, дійсно працює він під 25, але це ж не означає, що інші не ранжуються. Ранжуються і при парсингу ключі для них ви теж спарсите. Тільки конкуренту вони можуть бути не цікаві, а ви цього не дізнаєтеся.
Тому аналізувати доведеться всі пошукові запити конкурентів, які вдасться завантажити. Сам аналіз нічим не відрізняється від того, що написано вище. Складність тільки в тому, що в цьому випадку у вас не буде ні готової семантики, для якої і потрібна перевірка, ні доступів до аналітики та Google Search Console, з яких ви зможете отримати дані. Тому працювати доведеться тільки з платними сервісами.
Поки що обмежимося цим. Якщо вам буде потрібен аналіз пошукових запитів конкурентів для якогось конкретного завдання і ви не будете розуміти як його зробити, звертайтеся до нас за консультацією. Допоможемо розібратися, підібрати інструменти та скласти план робіт. Або ж замовляйте збір СЯ, тоді ми зробимо всю роботу самі. Якщо є питання щодо статті – пишіть у коментарях.