将特定页面上的所有http请求导出到txt / csv

编程入门 行业动态 更新时间:2024-10-28 14:32:54
本文介绍了将特定页面上的所有http请求导出到txt / csv的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧! 问题描述

我使用SIEGE来测试我的Web服务器性能。为了更实际的测试,最好的方法是让SIEGE打开网页(website/our-company)和所有静态资源(.css,.js,.png,.jpg)。除了从外部服务器加载的资源(cdn.facebook,apis.google)以外,您在firefox / chrome debbuing工具上看到的一切。

I use SIEGE to test my web server performance. For a more realistic test the best way to go would be to have SIEGE hit the web page (website/our-company) and all static assets (.css, .js, .png, .jpg). Everything that you see on the firefox / chrome debbuing tools, except of course from resources loaded from external servers (cdn.facebook, apis.google).

我是运行几个测试,手动收集所有资产网址是一个痛苦。有没有一个工具,我可以用来加载网页,并导出所有加载的URL?

I am running several tests so it is a pain to manually collect all asset urls. Is there a tool that I can use to load a web page and export the url for everything that was loaded?

这是Firefox的调试。如果我可以将其导出为txt或csv,那将是完美的。

我在debian CLI上尝试过CURL,但我没有经验。任何工具都有帮助,它不一定是Firefox / Chrome的插件。

I tried CURL on debian CLI but I am no experct. Any tool will help, it does't have to be a plugin of Firefox / Chrome.

最好的问候。

推荐答案

在Chrome中,您可以将这些数据导出到 HAR 文件(它是基于JSON的)。转到网络,右键单击并选择另存为HAR与内容。

In Chrome you can export these data to a HAR file (it's JSON based) in one click. Go to "Network", right click and choose "Save as HAR with content".

更多推荐

将特定页面上的所有http请求导出到txt / csv

本文发布于:2023-10-29 06:08:21,感谢您对本站的认可!
本文链接:https://www.elefans.com/category/jswz/34/1538919.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
本文标签:页面   导出到   csv   http   txt

发布评论

评论列表 (有 0 条评论)
草根站长

>www.elefans.com

编程频道|电子爱好者 - 技术资讯及电子产品介绍!