Python爬虫怎么获取动态AJAX数据_从浏览器网络控制台分析接口

张开发
2026/4/14 5:13:09 15 分钟阅读

分享文章

Python爬虫怎么获取动态AJAX数据_从浏览器网络控制台分析接口
要找AJAX接口先在Network中筛选XHR/Fetch请求操作页面触发新请求找响应为JSON且含业务字段的注意Headers、Cookie、Referer等反爬参数POST时按Request Payload格式选data或json参数。怎么看懂 Network 里哪个请求是你要的 AJAX 接口动态数据通常藏在 XHR 或 Fetch 类型的请求里不是 HTML 页面本身。打开浏览器开发者工具的 Network 标签页刷新页面后筛选 XHR 或 Fetch再操作页面比如点“加载更多”、选城市、输关键词观察新出现的请求——那个响应里有你要的数据JSON 格式的就是目标接口。常见错误现象只盯着 Doc 类型请求或者看到一堆 js、css 就跳过其实真正传数据的请求往往体积小、响应快、Content-Type 是 application/json。右键点击请求 → Copy → Copy as cURL粘贴到终端能直接复现这是验证是否找对的最快方式注意请求的 Method多数是 GET但翻页、搜索、提交表单常是 POST参数在请求体Request Payload里不是 URL 上检查 Response 是否含真实业务字段如 title、price、list而不是 {code:0,msg:success} 这种空壳为什么 requests 直接请求会返回空或 403/401因为服务端做了反爬校验缺 User-Agent、没带 Cookie、没传 Referer、甚至要求请求头里有自定义字段比如 X-Requested-With: XMLHttpRequest。使用场景你从 Network 复制了 cURL但用 requests.get() 一跑就挂大概率是 headers 没对齐。立即学习“Python免费学习笔记深入”在 Network 里点中目标请求 → Headers 标签 → 拉到底看 Request Headers把所有非浏览器默认字段如 authorization、x-token、cookie都复制进 requests 的 headers 参数Cookie 特别容易漏它可能是登录态维持的关键且有时有效期短抓完立刻用过几分钟再试可能就失效某些接口校验 Referer 或 Origin不填或填错会导致 403填成发起该请求的上一页 URL 即可比如列表页 URLPOST 请求的 data 和 json 参数怎么选取决于接口实际接收的格式。看 Network 里的 Request Payload 是纯 JSON 字符串还是 form-data / x-www-form-urlencoded 形式。 WisPaper 复旦大学研发的AI学术搜索工具5分钟内筛选1000篇论文

更多文章