Wikipedia Summary (API-first) — EN/RU avatar
Wikipedia Summary (API-first) — EN/RU

Pricing

Pay per event

Go to Apify Store
Wikipedia Summary (API-first) — EN/RU

Wikipedia Summary (API-first) — EN/RU

Developed by

Anatoliy Shilkov

Anatoliy Shilkov

Maintained by Community

EN: Fast, stable Wikipedia summaries via official REST API. Always SUCCEEDED; returns FOUND/NOT_FOUND with canonical URL and extract. RU: Быстрые устойчивые сводки из Википедии через официальное REST-API. Всегда SUCCEEDED; статус FOUND/NOT_FOUND, канонический URL и аннотация.

0.0 (0)

Pricing

Pay per event

0

1

1

Last modified

13 days ago

Wikipedia Summary (API-first) — EN

Summary: Given an input topic, this actor calls Wikipedia’s official REST API and returns a structured summary (title, extract, canonical URL). If the page does not exist, the actor does not fail: it finishes with SUCCEEDED and status: NOT_FOUND. • Stable for automation/iPaaS pipelines • No HTML scraping, no bypassing protections — public Wikipedia APIs only • Fast response (typically 0.2–1.2 s/run), minimal resources

What the actor does 1. Tries to fetch a page summary: GET /api/rest_v1/page/summary/{topic}?redirect=true 2. If not found (404), performs a quick search: GET /w/api.php?action=opensearch&format=json&limit=1&search={topic} and retries the summary using the best match. 3. Always returns a predictable JSON with status: • FOUND — summary resolved • NOT_FOUND — page not found (run still SUCCEEDED)

Input

{ "topic": "Web scraping" }

Parameter • topic (string, required) — article subject/title (any language). Redirects handled via redirect=true; Wikipedia may normalize the title.

Output

Example: FOUND

{ "input_topic": "Web scraping", "status": "FOUND", "resolved_title": "Web scraping", "url": "https://en.wikipedia.org/wiki/Web_scraping", "title": "Web scraping", "extract": "Web scraping is data scraping used for extracting data from websites...", "lang": "en", "timestamp": "2025-09-11T03:00:00.000Z" }

Example: NOT_FOUND

{ "input_topic": "Apify", "status": "NOT_FOUND", "resolved_title": null, "url": null, "title": null, "extract": null, "lang": "en", "timestamp": "2025-09-11T03:00:00.000Z" }

Fields • input_topic — original input value • status — FOUND | NOT_FOUND • resolved_title — normalized page title (if found) • url — canonical desktop URL • title — page title • extract — short summary • lang — summary language (usually en) • timestamp — ISO time of result creation

How to run 1. Click Run and provide input, e.g.:

{"topic": "New York City"}

2. Results:
• Dataset — records list
• Key-Value Store → OUTPUT.json — final JSON
• Logs show Resolved ... on success or a warning on NOT_FOUND

Performance & resources • Runtime: 0.2–1.2 s/run • Memory: 256–512 MB is enough • Cost: negligible on start; depends on your Apify plan • Concurrency: safe to run in parallel; actor doesn’t use sessions or cookies

Fair use & limitations • Uses only public Wikipedia endpoints • No auth/captcha/paywall bypass of any kind • Designed for short summaries; full HTML parsing is out of scope

Typical use cases • Entity enrichment (technologies, companies, cities) with short blurbs • Search UIs: preview cards, snippet generation • Pre-normalization of terms before downstream processing

Sample inputs

{"topic": "Python (programming language)"}

{"topic": "Moscow"}

{"topic": "Large language model"}

Error handling • Non-200 HTTP statuses do not crash the run: status: NOT_FOUND is returned • Unexpected exceptions are logged and serialized into OUTPUT (not expected in normal use)

Versioning & stability • Semantic versions: MAJOR.MINOR.PATCH • Output schema changes only in MAJOR releases

Support • Feedback: comments on finished runs (Actor Runs → Logs/Comments) • SLA: 1 business day (UTC)

License & legal • Data comes from public Wikipedia APIs; comply with Wikipedia content licensing for downstream use • Actor doesn’t collect or process personal data

Changelog (short) • 0.1.0 — initial public release: REST summary + search fallback, deterministic success, stable JSON.

Tags: wikipedia, summary, api, knowledge, entity-enrichment, no-scraping

Wikipedia Summary (API-first) — RU

Кратко: по входному topic актёр вызывает официальное REST-API Википедии и возвращает структурированную выжимку (заголовок, аннотацию, канонический URL). Если страницы нет, актёр не падает: завершает работу со статусом SUCCEEDED и status: NOT_FOUND. • Надёжен для автоматизации и iPaaS-пайплайнов • Без HTML-скрейпинга и обходов защиты — только публичные API Википедии • Быстрый отклик (обычно 0.2–1.2 с/запуск), минимальные ресурсы

Что делает актёр 1. Пытается получить сводку страницы: GET /api/rest_v1/page/summary/{topic}?redirect=true 2. Если не найдено (404), выполняет быстрый поиск: GET /w/api.php?action=opensearch&format=json&limit=1&search={topic} и повторно запрашивает сводку по лучшему совпадению. 3. Всегда возвращает предсказуемый JSON с status: • FOUND — сводка получена • NOT_FOUND — статья не найдена (ран SUCCEEDED)

Вход

{ "topic": "Web scraping" }

Параметр • topic (string, required) — тема/заголовок статьи (любой язык). Редиректы обрабатываются redirect=true; Википедия может нормализовать заголовок.

Выход

Пример: найдено

{ "input_topic": "Web scraping", "status": "FOUND", "resolved_title": "Web scraping", "url": "https://en.wikipedia.org/wiki/Web_scraping", "title": "Web scraping", "extract": "Web scraping is data scraping used for extracting data from websites...", "lang": "en", "timestamp": "2025-09-11T03:00:00.000Z" }

Пример: не найдено

{ "input_topic": "Apify", "status": "NOT_FOUND", "resolved_title": null, "url": null, "title": null, "extract": null, "lang": "en", "timestamp": "2025-09-11T03:00:00.000Z" }

Поля • input_topic — исходное значение • status — FOUND | NOT_FOUND • resolved_title — нормализованный заголовок (если найден) • url — канонический desktop-URL • title — заголовок страницы • extract — краткая аннотация • lang — язык сводки (обычно en) • timestamp — время формирования результата (ISO)

Как запустить 1. Нажмите Run и укажите вход, например:

{"topic": "New York City"}

2. Результаты:
• Dataset — записи,
• Key-Value Store → OUTPUT.json — финальный JSON,
• В логах — Resolved ... при успехе или предупреждение при NOT_FOUND.

Производительность и ресурсы • Время: 0.2–1.2 с/запуск • Память: 256–512 MB достаточно • Себестоимость: минимальна; зависит от тарифа Apify • Параллельность: безопасно; актёр не использует сессии/куки

Ограничения и fair use • Используются только публичные эндпоинты Википедии • Нет обхода авторизаций/капч/paywall • Предназначен для кратких сводок; полный HTML вне рамок

Типовые сценарии • Обогащение сущностей (технологии, компании, города) короткими описаниями • Поисковые витрины: превью-карточки, сниппеты • Пред-нормализация терминов перед дальнейшей обработкой

Примеры входа

{"topic": "Python (programming language)"}

{"topic": "Moscow"}

{"topic": "Large language model"}

Обработка ошибок • HTTP-статусы ≠200 не вызывают падения: возвращается status: NOT_FOUND • Непредвиденные исключения логируются и сериализуются в OUTPUT (в штатном режиме не ожидаются)

Версионирование и стабильность • Семантические версии: MAJOR.MINOR.PATCH • Изменения схемы выхода — только в MAJOR

Поддержка • Обратная связь: комментарии к выполненным ранам (Actor Runs → Logs/Comments) • SLA: 1 рабочий день (UTC)

Лицензия и право • Данные из публичных API Википедии; соблюдайте лицензию контента Википедии при дальнейшем использовании • Актёр не собирает и не обрабатывает персональные данные

Changelog (кратко) • 0.1.0 — первый публичный релиз: REST-summary + поиск, детерминированное завершение, стабильный JSON.

Теги: wikipedia, summary, api, knowledge, entity-enrichment, no-scraping

Share Actor: