5个基于Linux命令行的文件下载和网站浏览工具

news/2024/5/20 11:09:25/文章来源:https://blog.csdn.net/weixin_30872671/article/details/95259227

 命令行是GNU/Linux中最神奇迷人的部分,它是非常强大的工具;命令行本身功能多样,多种内建或者第三方的命令行应用使得Linux变得更加健壮和强大。Linux Shell支持多种不同类型的网络应用,无论是BT下载软件,专用下载器或者互联网冲浪。

www.linuxprobe.com

5个命令行互联网工具

这里我们介绍了5个很好的命令行互联网工具,它们非常有用,也很容易上手。

1. rTorrent

rTorrent是基于文本,用C++编写,追求高性能的Torrent客户端。支持大部分标准的Linux发行版,包括FreeBSD和Mac OS X。

安装rTorrent

# apt­-get install rtorrent (基于 APT 的系统)
# yum install rtorrent (基于 YUM 的系统)

在终端中用下面的命令检查rtorrent是否正确安装

# rtorrent

5 个基于Linux命令行的文件下载和网站浏览工具

rTorrent命令行工具

rTorrent的功能

一些有用的快捷键和使用方法

  • CTRL+ q – 退出rTorrent应用程序
  • CTRL+ s – 开始下载
  • CTRL+ d – 停止运行中的下载或者移除已完成的下载
  • CTRL+ k – 停止并关闭运行中的下载
  • CTRL+ r – 在上传/下载种子之前进行Hash检查
  • CTRL+ q – 执行两次这个命令,rTorrent会直接退出而不发送“停止”信号
  • Left Arrow Key – 跳到上一屏幕
  • Right Arrow Key – 跳到下一屏幕
2. Wget

Wget是GNU项目的一部分,名字由World Wide Web (WWW)衍生而来。Wget是用来递归下载、离线查看本地服务器HTML文件一个很好的工具,它可用于Windows,Mac,以及Linux等大部分平台。Wget能通过HTTP,HTTPS和FTP下载文件。另外,能镜像整个网站,支持代理浏览以及暂停/回复下载使得 它更为有用。

安装Wget

由于是GNU项目的一部分,Wget捆绑在大部分标准Linux发行版中,不再需要独立下载安装。如果默认没有安装,你也可以使用apt或者yum安装。

# apt­-get install wget (基于 APT 的系统)
# yum install wget (基于 YUM 的系统)

Wget的一些基本用法

使用wget下载一个单独的文件.

# wget http://www.website-name.com/file

递归下载整个网站.

# wget -r http://www.website-name.com

从一个网站下载指定类型的文件(例如 pdf 和 png).

# wget -r -A png,pdf http://www.website-name.com

Wget是一个很棒的工具,它允许在资源有限的机器上自定义或者过滤下载。这是镜像一个网站(Yahoo.com)的wget下载截图。

5 个基于Linux命令行的文件下载和网站浏览工具

Wget 命令行文件下载

3. cURL

cURL是在多种协议上传输数据的命令行工具。cURL是支持FTP, HTTP, FTPS, TFTP, TELNET, IMAP, POP3等协议的客户端应用。cURL是一个不同于wget 的简单下载器,和其它的相比,它支持LDAP,POP3。cURL也很好的支持代理下载,暂停下载以及恢复下载。

安装cURL

在软件仓库或者已安装软件中,cURL在大部分发行版中默认是可用的。如果没有安装,运行apt或者yum从软件仓库中获取需要的安装包。

# apt­-get install curl (基于 APT 的系统)
# yum install curl (基于 YUM 的系统)

cURL的基本使用方法

# curl www.tecmint.com

www.linuxprobe.com

www.linuxprobe.com
www.linuxprobe.com

Curl 下载

4. w3m

W3m是GPL协议下发布的基于文本的web浏览器。W3m支持表格,帧,颜色,SSL连接以及内联图像。W3m以快速浏览而出名。

安装w3m

W3m在大部分Linux发行版中也是默认可用的。如果不可用的话可以用apt或者yum获取需要的安装包。

# apt­-get install w3m (基于 APT 的系统)
# yum install w3m (基于 YUM 的系统)

w3m的基本使用方法

# w3m www.tecmint.com

www.linuxprobe.com

基于文本的web浏览器w3m

5. Elinks

Elinks是基于文本的免费浏览器,用于Unix及基于Unix的系统。Elinks支持 HTTP,HTTP Cookies以及支持浏览Perl和Ruby脚本(LCTT 译注:应该是指 CGI)。也很好的支持选项卡浏览。最棒的是它支持鼠标、彩色以及支持一系列的协议,例如HTTP, FTP, SMB, Ipv4 和 Ipv6。

安装Elinks

Elinks在大部分Linux发行版上是默认可用的。如果不是的话,可以通过apt或者yum安装。

# apt­-get install elinks (基于 APT 的系统)
# yum install elinks (基于 YUM 的系统)

Elinks的基本使用方法

# elinks www.tecmint.com

www.linuxprobe.com

Elinks命令行浏览互联网

免费提供最新Linux技术教程书籍,为开源技术爱好者努力做得更多更好:https://www.linuxprobe.com/

转载于:https://www.cnblogs.com/linuxprobe/p/5732220.html

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.luyixian.cn/news_show_703440.aspx

如若内容造成侵权/违法违规/事实不符,请联系dt猫网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

易遭黑客利用,慎用免费的网站SSL证书!!!

Lets Encrypt免费SSL证书遭黑客利用  据媒体报道,安全公司Trend Micro发布消息称,一个恶意广告服务器通过植入银行木马,可自动感染访客Windows设备,让黑客在用户不知情的情况下远程访问系统。此恶意服务器 安装了Lets Encrypt的…

大型网站技术架构(四)网站的高性能架构

2019独角兽企业重金招聘Python工程师标准>>> 网站性能是客观的指标,可以具体体现到响应时间、吞吐量、并发数、性能计数器等技术指标。 1、性能测试指标 1.1 响应时间 指应用执行一个操作需要的时间,指从发出请求到最后收到响应数据所需要的时…

seo我告诉你

seo我告诉你,这回seo真的告诉你百度云链接 链接:http://pan.baidu.com/s/1qYpM9y8 密码:mad6 seo优化教程: 转载于:https://www.cnblogs.com/zhangmumu/p/7374825.html

奇奇seo优化软件_seo优化软件如何选择

如何选择sxaa0c1eo优化软件,随着现代化信息技术的发展,人们越来越多的从网络来获取信息。近年来,我们获取的信息绝大部分都是来源于网络,网络如今已成为信息的最大载体。为了让更多消费者了解并消费企业提供的服务和产品&#xff…

如何用python创建一个下载网站-用Python下载一个网页保存为本地的HTML文件实例...

我们可以用Python来将一个网页保存为本地的HTML文件,这需要用到urllib库。 比如我们要下载山东大学新闻网的一个页面,该网页如下:实现代码如下: import urllib.request def getHtml(url): html urllib.request.urlopen(url).read…

如何用python创建一个下载网站-用Python下载一个网页保存为本地的HTML文件实例...

我们可以用Python来将一个网页保存为本地的HTML文件,这需要用到urllib库。 比如我们要下载山东大学新闻网的一个页面,该网页如下:实现代码如下: import urllib.request def getHtml(url): html urllib.request.urlopen(url).read…

关于大型网站技术演进的思考(一)--存储的瓶颈(上)

首先我们要思考一个问题,什么样的网站才是大型网站,从网站的技术指标角度考虑这个问题人们很容易犯一个毛病就是认为网站的访问量是衡量的指标,懂点行的人也许会认为是网站在单位时间里的并发量的大小来作为指标,如果按这些标准那…

阿里P9架构师讲解从单机至亿级流量大型网站系统架构的演进过程

阶段一、单机构建网站 网站的初期,我们经常会在单机上跑我们所有的程序和软件。此时我们使用一个容器,如tomcat、jetty、jboos,然后直接使用JSP/servlet技术,或者使用一些开源的框架如mavenspringstructhibernate、mavenspringspr…

自学python推荐书籍同时找哪些来实践-Python学习路上有这些论坛、网站、书籍与你同行...

Python学习路上有这些论坛、网站、书籍与你同行 2019-05-03 18:24:41 613点赞 9508收藏 164评论 创作立场声明:希望我的一些经验可以给你少走一些弯路,但人总得走点弯路才可以成长。别怕,在学习python的路上有我陪着你。人生苦短,…

广州去厦门旅游攻略--(转自 #散文吧网站#)

广州去厦门旅游攻略 发布时间:2016-12-11 17:30厦门由厦门岛、离岛鼓浪屿、内陆九龙江南岸海沧半岛、集美半岛、翔安区以及同安等组成,陆地面积1699.39Km2,海域面积300多平方公里。厦门的主体——厦门岛南北长13.7公里,东西宽12.5公里&#x…

怎么在python下载网站内容-分析某网站,并利用python自动登陆该网站,下载网站内容...

本帖最后由 愤怒的小车 于 2019-5-8 09:41 编辑 一:本代码是我研究了好久才写出来,七功能主要有自动登陆、自动识别验证码、以及自动识别下载格式进行判断下载! 首先,搬上我们的主角网址,http://lavteam.org/&#xff…

音乐相册源码php,基于PHP的DIY音乐相册网站的设计与实现(MySQL)(含录像)

基于PHP的DIY音乐相册网站的设计与实现(MySQL)(含录像)(开题报告,毕业论文8000字,程序代码,MySQL数据库)本网站运用MYSQL作为后台数据库,以PHP为前端开发工具,实现了音乐相册等模块,方便了程序的扩展与维护,同时建立了程序功能复用…

python爬虫怎么爬同一个网站的多页数据-不踩坑的Python爬虫:如何在一个月内学会爬取大规模数据...

原标题:不踩坑的Python爬虫:如何在一个月内学会爬取大规模数据Python爬虫为什么受欢迎 如果你仔细观察,就不难发现,懂爬虫、学习爬虫的人越来越多,一方面,互联网可以获取的数据越来越多,另一方面…

常用技术网站

http://www.maczapp.com/charles抓包工具:Charles for Mac v3.9.1 http://www.cocoachina.com/ios/20160217/15328.html从零开始:你的第一个iOS App http://www.cnblogs.com/wendingding/p/3704562.html文顶顶最怕你一生碌碌无为 http://www.cnblogs.com…

夏俊:深入网站服务端技术(一)——网站并发的问题

编者按】 本文来自拥有十年IT从业经验、擅长网站架构设计、Web前端技术以及Java企业级开发的夏俊,此文也是《关于大型网站技术演进的思考》系列文章的最新出炉内容,首发于CSDN,各位技术人员不容错过。 以下为正文: 一、 引子 …

如何用python创建一个下载网站-用Python下载一个网页保存为本地的HTML文件实例...

我们可以用Python来将一个网页保存为本地的HTML文件,这需要用到urllib库。 比如我们要下载山东大学新闻网的一个页面,该网页如下:实现代码如下: import urllib.request def getHtml(url): html urllib.request.urlopen(url).read…

怎么查询网站的收录量

怎么查询网站的收录量 对于一个新建的网站,我们要时时关注网站的收录情况,一般是查询百度的收录情况,可以用一个地址标志开头搜索这个网页, 就会列出这个网页在这个搜索引擎中的收录量,我们就知道要怎么继续优化网站 打…

如何用python创建一个下载网站-用Python下载一个网页保存为本地的HTML文件实例...

我们可以用Python来将一个网页保存为本地的HTML文件,这需要用到urllib库。 比如我们要下载山东大学新闻网的一个页面,该网页如下:实现代码如下: import urllib.request def getHtml(url): html urllib.request.urlopen(url).read…

大型网站系统架构演化之路

前言 一个成熟的大型网站(如淘宝、京东等)的系统架构并不是开始设计就具备完整的高性能、高可用、安全等特性,它总是随着用户量的增加,业务功能的扩展逐渐演变完善的,在这个过程中,开发模式、技术架构、设计…

大型网站的灵魂——性能

前言 在前一篇随笔《大型网站系统架构的演化》中,介绍了大型网站的演化过程,期间穿插了一些技术和手段,我们可以从中看出一个大型网站的轮廓,但想要掌握设计开发维护大型网站的技术,需要我们一步一步去研究实践。所以我…