Nginx反向代理+DNS轮询+IIS7.5 千万PV 百万IP 双线 网站架构案例

news/2024/5/21 6:03:04/文章来源:https://blog.csdn.net/weixin_33828101/article/details/86118203

原文地址:http://www.jb51.net/article/31844.htm

Nginx  ("engine x") 是一个高性能的 HTTP 和反向代理服务器,也是一个 IMAP/POP3/SMTP 代理服务器。 Nginx 是由 Igor Sysoev 为俄罗斯访问量第二的 Rambler.ru 站点开发的,它已经在该站点运行超过两年半了。Igor 将源代码以类BSD许可证的形式发布。

  Nginx 的中文维基:http://wiki.codemongers.com/NginxChs

   在高并发连接的情况下,Nginx是Apache服务器不错的替代品。Nginx同时也可以作为7层负载均衡服务器来使用。根据我的测试结 果,Nginx 0.5.31 + PHP 5.2.4 (FastCGI) 可以承受3万以上的并发连接数,相当于同等环境下Apache的10倍。

   Nginx 超越 Apache 的高性能和稳定性,使得国内使用 Nginx 作为 Web 服务器的网站也越来越多,其中包括新浪博客、新浪播客、网易新闻、腾讯网、搜狐博客等门户网站频道,六间房、56.com等视频分享网站,Discuz! 官方论坛、水木社区等知名论坛,盛大在线、金山逍遥网等网络游戏网站,豆瓣、人人网、YUPOO相册、金山爱词霸、迅雷在线等新兴Web 2.0网站。

    在 高并发连接的情况下,Nginx是Apache服务器不错的替代品。Nginx同时也可以作为7层负载均衡服务器来使用。根据我的测试结果,Nginx 0.8.46 + PHP 5.2.14 (FastCGI) 可以承受3万以上的并发连接数,相当于同等环境下Apache的10倍。

   根据我的经验,4GB内存的服务器+Apache(prefork模式)一般只能处理3000个并发连接,因为它们将占用3GB以上的内存,还得为系统 预留1GB的内存。我曾经就有两台Apache服务器,因为在配置文件中设置的MaxClients为4000,当Apache并发连接数达到3800 时,导致服务器内存和Swap空间用满而崩溃。

  而这台 Nginx 0.8.46 + PHP 5.2.14 (FastCGI) 服务器在3万并发连接下,开启的10个Nginx进程消耗150M内存(15M*10=150M),开启的64个php-cgi进程消耗1280M内存 (20M*64=1280M),加上系统自身消耗的内存,总共消耗不到2GB内存。如果服务器内存较小,完全可以只开启25个php-cgi进程,这样 php-cgi消耗的总内存数才500M。

  在3万并发连接下,访问Nginx 0.8.46 + PHP 5.2.14 (FastCGI) 服务器的PHP程序,仍然速度飞快。下图为Nginx的状态监控页面,显示的活动连接数为28457(关于Nginx的监控页配置,会在本文接下来所给出 的Nginx配置文件中写明):

Highslide JS

Highslide JS





为什么Nginx的性能要比Apache高得多?这得益于Nginx使用了最新的epoll(Linux 2.6内核)和kqueue(freebsd)网络I/O模型,而Apache则使用的是传统的select模型。目前Linux下能够承受高并发访问的 Squid、Memcached都采用的是epoll网络I/O模型。

  处理大量的连接的读写,Apache所采用的select网络I/O模型非常低效。下面用一个比喻来解析Apache采用的select模型和Nginx采用的epoll模型进行之间的区别:

   假设你在大学读书,住的宿舍楼有很多间房间,你的朋友要来找你。select版宿管大妈就会带着你的朋友挨个房间去找,直到找到你为止。而epoll版 宿管大妈会先记下每位同学的房间号,你的朋友来时,只需告诉你的朋友你住在哪个房间即可,不用亲自带着你的朋友满大楼找人。如果来了10000个人,都要 找自己住这栋楼的同学时,select版和epoll版宿管大妈,谁的效率更高,不言自明。同理,在高并发服务器中,轮询I/O是最耗时间的操作之 一,select和epoll的性能谁的性能更高,同样十分明了。

    某公司有一站点,一天IP 430W,PV 3100W,之前采用5台 DELL R610 做NLB,系统2008 IIS7.5.每天高峰期时都不堪重负.会出现以下情况
1:远程登陆巨慢无比
2:远程登陆系统后无法操作,表现为鼠标移动缓慢,操作延时,系统呆滞.
3:CPU长期在80%以上,内存消耗极高
4:....
    经过部门讨论后决定采用Nginx反向代理的架构替代目前不堪重负的站点.拓扑图如下

Highslide JS



硬件:
前端采用2台DELL M420刀片,虚拟4台Centos5.8跑Nginx反向代理.
后端依旧采用5台服务器,不过从硬件上也升级到DELL M420 2008系统 IIS7.5

网络结构:
Nginx
电信 192.168.0.1 192.168.0.2
联通 192.168.1.1 192.168.1.2

2008 IIS7.5
电信 192.168.0.10 192.168.0.11 192.168.0.13 192.168.0.14 192.168.0.15
联通 192.168.1.10 192.168.1.11 192.168.1.13 192.168.1.14 192.168.1.15

域名xxx.com通过DNS轮询到 Nginx前端,再根据你的配置甩向不同upstream

新架构部署好后能明显感觉整个站点打开都飞快,后端完全无压力状态,这还并没有开启Nginx自带的Cache.
现在这套架构每天承载百万IP 千万PV的访问量 如图
AWStats 统计结果
Highslide JS

Nginx性能图如下
Highslide JS



单台Centos CPU图
Highslide JS





安装步骤:
一:
2台宿主机虚拟成4台这个步骤就略过,网上教程一大把.在这里我们每台分配2个cpu共8个核心,内存6G,硬盘100G.
系统要求:Linux 2.6+ 内核,本文中的Linux操作系统为CentOS 5.8 64位)
系统为最精简安装文本界面,系统安装好后配置系统.

#修改系统DNS


rm -rf /etc/resolv.conf
touch /etc/resolv.conf
echo -ne "nameserver 114.114.114.114\nnameserver 114.114.115.115\nsearch localdomain" >>/etc/resolv.conf



#修改系统源

mv /etc/yum.repos.d/CentOS-Base.repo /etc/yum.repos.d/CentOS-Base.repo.backup
wget http://mirrors.163.com/.help/CentOS5-Base-163.repo
cp CentOS5-Base-163.repo /etc/yum.repos.d/



#yum 升级安装,根据需求自己行删除

yum install -y lrzsz gcc gcc-c++ make flex autoconf automake vixie-cron libjpeg libjpeg-devel libpng libpng-devel freetype freetype-devel libxml2 libxml2-devel zlib zlib-devel glibc glibc-devel glib2 glib2-devel bzip2 bzip2-devel ncurses ncurses-devel curl curl-devel e2fsprogs e2fsprogs-devel krb5 krb5-devel libidn libidn-devel openssl openssl-devel kernel-devel wget patch ntp libevent m4 zip unzip gd gd-devel file libtool-libs gmp-devel pspell-devel mod_perl-devel parted apr-util readline-devel sysstat vim* popt-devel patch openssh-clients net-snmp net-snmp-devel net-snmp-utils net-snmp-libs



#设置ssh下 SecureCRT标签显示为帐号@IP

touch /etc/sysconfig/bash-prompt-xterm
vim  /etc/sysconfig/bash-prompt-xterm
#添加以下一行
echo -ne "\e]2;${USER}@$(/sbin/ifconfig eth0|grep 'inet addr'|sed -e 's/^.*inet addr:\(.*\) Bcast.*$/\1/')\a"



#设置term类型是screen时(命令screen进入新窗口时)标签显示内容, 和xterm一样

cp /etc/sysconfig/bash-prompt-xterm /etc/sysconfig/bash-prompt-screen



#设置term类型不是xterm和screen时标签显示内容, 也和xterm一样

cp /etc/sysconfig/bash-prompt-xterm /etc/sysconfig/bash-prompt-default



#给予可执行权限

chmod +x /etc/sysconfig/bash-prompt-*



#修改文件句柄数为65535,默认系统为1024

echo "session required /lib64/security/pam_limits.so" >>/etc/pam.d/login
echo -ne "
* soft nofile 65534
* hard nofile 65534
" >>/etc/security/limits.conf



#添加iptables

rm -rf /etc/sysconfig/iptables
touch /etc/sysconfig/iptables
cat << EOF >> /etc/sysconfig/iptables
此段加入你的iptables规则
EOF

service iptables restart



#根据硬件优化Linux性能

cat << EOF >> /etc/sysctl.conf
# Add

#开启SYN Cookies,当出现SYN等待队列溢出时,启用cookies来处理
net.ipv4.tcp_syncookies = 1

#表示SYN队列的长度,默认为1024,加大队列长度为8192,可以容纳更多等待连接的网络连接数。
net.ipv4.tcp_max_syn_backlog = 65536

#每个网络接口接收数据包的速率比内核处理这些包的速率快时,允许送到队列的数据包的最大数目
net.core.netdev_max_backlog =  262144

net.ipv4.tcp_fin_timeout = 30

#当keepalive起用的时候,TCP发送keepalive消息的频度。缺省是2小时
net.ipv4.tcp_keepalive_time = 1200

#redis设置
net.core.somaxconn = 262144
net.core.wmem_default = 8388608
net.core.rmem_default = 8388608
net.core.rmem_max = 16777216
net.core.wmem_max = 16777216
net.ipv4.tcp_timestamps = 0

#参数的值决定了内核放弃连接之前发送SYN+ACK包的数量
net.ipv4.tcp_synack_retries = 2

#在内核放弃建立连接之前发送SYN包的数量
net.ipv4.tcp_syn_retries = 2

#启用timewait快速回收
net.ipv4.tcp_tw_recycle = 1
net.ipv4.tcp_tw_reuse = 1
net.ipv4.tcp_mem = 94500000 915000000 927000000
#系统中最多有多少个TCP套接字不被关联到任何一个用户文件句柄上。这个限制仅仅是为了防止简单的DoS攻击,不能过分依靠它或者人为地减小这个值,更应该增加这个值(如果增加了内存之后)
net.ipv4.tcp_max_orphans = 3276800

#允许系统打开的端口范围
net.ipv4.ip_local_port_range = 1024  65535


#增加系统文件描述符限制
fs.file-max = 65535

#允许更多的PIDs (减少滚动翻转问题); may break some programs 32768
kernel.pid_max = 65536

# 增加TCP最大缓冲区大小
net.ipv4.tcp_rmem = 4096 4096 16777216
net.ipv4.tcp_wmem = 4096 4096 16777216
net.ipv4.conf.all.send_redirects = 0
net.ipv4.conf.default.send_redirects = 0
net.ipv4.conf.eth0.send_redirects = 0
net.ipv4.conf.all.send_redirects = 0


#2012-8-30
#net.ipv4.ip_conntrack_max=1048576
#net.ipv4.netfilter.ip_conntrack_max=1048576
net.ipv4.netfilter.ip_conntrack_tcp_timeout_time_wait=120
net.ipv4.netfilter.ip_conntrack_tcp_timeout_close_wait=60
net.ipv4.netfilter.ip_conntrack_tcp_timeout_fin_wait=120
net.ipv4.neigh.default.gc_thresh1=10240
net.ipv4.neigh.default.gc_thresh2=40960
net.ipv4.neigh.default.gc_thresh3=81920

#timewait的数量
net.ipv4.tcp_max_tw_buckets =6000

EOF



#刷新sysctl.conf

复制代码 代码如下:
/sbin/sysctl -p



#禁用ipv6

复制代码 代码如下:
echo -ne "alias net-pf-10 off\noptions ipv6 disable=1" >>/etc/modprobe.conf
/sbin/chkconfig --level 35 ip6tables off



#关闭 selinux

复制代码 代码如下:
sed -i '/SELINUX/s/enforcing/disabled/' /etc/selinux/config



#将同步好的时间写到CMOS里

复制代码 代码如下:
sed -i 's#SYNC_HWCLOCK=no#SYNC_HWCLOCK=yes#' /etc/sysconfig/ntpd



#设置同步时间

复制代码 代码如下:
echo "0 6 * * * /usr/sbin/ntpdate 192.168.0.172;/sbin/hwclock -w; >/dev/null 2>&1" >>/var/spool/cron/root
service crond restart



#修改系统启动级别

复制代码 代码如下:
sed -i 's/id:5:initdefault:/id:3:initdefault:/g' /etc/inittab



#禁止ctrl+alt+del

复制代码 代码如下:
sed -i "s/ca::ctrlaltdel:\/sbin\/shutdown -t3 -r now/#ca::ctrlaltdel:\/sbin\/shutdown -t3 -r now/"  /etc/inittab



二:
获取相关开源程序:
Nginx 官方当前稳定版为 nginx-1.2.4 ,我测试环境使用版本为nginx-1.3.3
pcre-8.31
nginx_upstream_check_module
ngx_cache_purge-1.6
请自行从网络下载

安装步骤:

#新建WWW用户组和WWW用户

复制代码 代码如下:
groupadd www
useradd -g www www -s /bin/false



#创建相应的目录

复制代码 代码如下:
mkdir -p /data/html/www
mkdir -p /data/proxy_temp_dir
mkdir -p /data/proxy_cache_path
mkdir -p /data/logs
chown -R www:www /data/proxy_cache_path
chown -R www:www /data/proxy_temp_dir
chown -R www:www /data/html/
chown -R www:www /data/logs



#安装内核和openssl

复制代码 代码如下:
yum -y install openssl-devel kernel-devel



#安装Pcre

复制代码 代码如下:
tar zxvf pcre-8.31.tar.gz
cd pcre-8.31
./configure --prefix=/usr/local/pcre
make
make install



#安装nginx

复制代码 代码如下:
tar zxvf ngx_cache_purge-1.6.tar.gz
tar zxvf nginx-1.3.3.tar.gz
tar zxvf nginx_upstream_check_module.tar.gz
cd nginx-1.3.3
patch -p1 < /root/nginx_keepalived_install/nginx_upstream_check_module/check_1.2.2+.patch
./configure --prefix=/usr/local/nginx --user=www --group=www --with-http_stub_status_module --with-http_realip_module --with-http_gzip_static_module --with-openssl=/usr/ --with-pcre=/root/nginx_keepalived_install/pcre-8.31 --add-module=/root/nginx_keepalived_install/ngx_cache_purge-1.6 --add-module=/root/nginx_keepalived_install/nginx_upstream_check_module
make
make install
cp /root/nginx_keepalived_install/cut_nginx_log.sh /usr/local/nginx/sbin/
chmod +x /usr/local/nginx/sbin/cut_nginx_log.sh
echo -ne "00 00 * * * /bin/bash  /usr/local/nginx/sbin/cut_nginx_log.sh" >>/var/spool/cron/root
service crond restart
chown -R www:www /usr/local/nginx/
cp /root/nginx_keepalived_install/nginx /etc/rc.d/init.d/
chmod +x /etc/rc.d/init.d/nginx
chkconfig nginx on





到这里Nginx安装完毕,目前Nginx所有的配置都是默认配置,我贴下我案例中的NGINX配置,如有错误请大牛们指导.

Nginx.conf

复制代码 代码如下:

user  www  www;
worker_processes 8;
worker_cpu_affinity 00000001 00000010 00000100 00001000 00010000 00100000 01000000 10000000;
worker_rlimit_nofile 204800;

error_log  /data/logs/error.log;

pid        logs/nginx.pid;


events {
    worker_connections  240800;
    use epoll;
}


http {
    include   nginx_load_balance.conf;
    #include    proxy.conf;
    include       mime.types;
    default_type  application/octet-stream;
    server_names_hash_bucket_size 128;

    #log_format  access  '$remote_addr - $remote_user [$time_local] "$request" '
             #'$status $body_bytes_sent "$http_referer" '
             #'"$http_user_agent" $http_x_forwarded_for';
    #access_log  /data/logs/access.log  access;

    sendfile        on;
    tcp_nopush     on;
    tcp_nodelay on;
    server_tokens off;
    keepalive_timeout 60;
    client_header_buffer_size 4k;
    #large_client_header_buffers 4 32k;
    client_max_body_size 10m;

    client_header_timeout  120s;
    client_body_timeout    120s;
    send_timeout           120s;

    gzip  off;
    gzip_min_length 1k;
    gzip_buffers 4 16k;
    output_buffers   1 512k;
    postpone_output  1460;
    #gzip_http_version 1.1;
    gzip_comp_level 4;
    gzip_types text/plain text/css text/javascript text/xml application/x-javascript application/xml application/xml+rss;
    gzip_vary on;

    server {
        listen       80;
        server_name  localhost;

        location / {
            rewrite ^ http://www.test.com$request_uri?;
      #root   /data/html/www;
            #index  index.html index.htm;
        }

        error_page  404              /data/html/www/404.html;

        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   html;
        }
        location /status {
        stub_status on;
  access_log  off;
        }
  location /nstatus {
        check_status;
        access_log off;
        #allow SOME.IP.ADD.RESS;
        #deny all;
        }

    }
    include  vhost/*.conf;
}



nginx_load_balance.conf

复制代码 代码如下:
upstream dx {
    ip_hash;
    server 192.168.0.11:80;
    server 192.168.0.12:80;
    server 192.168.0.13:80;
    server 192.168.0.14:80;
    server 192.168.0.15:80;
    check interval=3000 rise=2 fall=8 timeout=3000 type=http;
    check_http_send "GET / HTTP/1.0\r\n\r\n";
    check_http_expect_alive http_2xx http_3xx http_4xx;
    #server 192.168.0.30:80; backup;
    }


    upstream lt {
    ip_hash;
    server 192.168.1.11:80;
    server 192.168.1.12:80;
    server 192.168.1.13:80;
    server 192.168.1.14:80;
    server 192.168.1.15:80;
    check interval=3000 rise=2 fall=8 timeout=3000 type=http;
    check_http_send "GET / HTTP/1.0\r\n\r\n";
    check_http_expect_alive http_2xx http_3xx http_4xx;
    #server 192.168.1.30:80; backup;
    }



proxy.conf

复制代码 代码如下:
proxy_temp_path   /data/proxy_temp_dir;   #指定临时文件目录
proxy_cache_path  /data/proxy_cache_path levels=1:2 keys_zone=cache_one:2000m inactive=1d max_size=1g;
client_body_buffer_size  512k; #增加缓冲区代理缓冲客户端请求的最大字节数
proxy_connect_timeout    60;   #增加连接后端服务器超时时间
proxy_read_timeout       60;   #增加后端服务器响应请求超时时间
proxy_send_timeout       60;   #增加后端服务器发送数据超时时间
proxy_buffer_size        32k;   #增加代理请求缓存区大小
proxy_buffers           4 64k;  #增加
proxy_busy_buffers_size 128k;   #增加系统繁忙时可申请的proxy_buffers大小
proxy_temp_file_write_size 128k;  #增加proxy缓存临时文件的大小
proxy_next_upstream error timeout invalid_header http_500 http_503 http_404;   #增加故障转移,如果后端的服务器返回502、504、执行超时等错误,自动将请求转发到upstream负载均衡池中的另一台服务器,实现故障转移。
proxy_cache cache_one;  #增加使用web缓存区cache_one



以上是Nginx配置,下面是vhost中网站配置
xxxx_com.conf

复制代码 代码如下:
server
{
listen       192.168.0.1;
server_name  xxx.com;

access_log  /data/logs/dx.log  dx;

location /
     {
      proxy_next_upstream http_502 http_504 error timeout invalid_header;
     # proxy_cache cache_one;
     # proxy_cache_valid  200 304 12h;
     # proxy_cache_key $host$uri$is_args$args;
     proxy_set_header Host $http_host;
     #proxy_set_header X-Real-IP $remote_addr;
     # proxy_set_header X-Forwarded-For $remote_addr;
     proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
      proxy_headers_hash_max_size 51200;
      proxy_headers_hash_bucket_size 6400;

      proxy_pass http://dx;

      #if ($request_uri ~* "^/upload/") {
      #add_header Cache-Control 'max-age=86400';
      #}

      location ~* \.(gif|jpg|jpeg|png|flv|swf|ico)$
      {
      proxy_set_header Host $http_host;
      proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
      proxy_pass http://dx;
      add_header Cache-Control 'max-age=86400';
      }

      location ~* \.(js)$
      {
      proxy_set_header Host $http_host;
      proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
      proxy_pass http://dx;
      add_header Cache-Control 'max-age=600';
      }

      #expires      -1;
      add_header Cache-Control 'no-store, no-cache, must-revalidate';
      add_header Pragma no-cache;
      }

  location ~ /purge(/.*)
    {
     allow            127.0.0.1;
     allow            192.168.0.0/16;
     deny            all;
     #proxy_cache_purge    cache_one   $host$1$is_args$args;
    }

    location ~ .*\.(php|jsp|cgi|asp|aspx|flv|swf|xml)?$
    {
         proxy_set_header Host $http_host;
         #proxy_set_header X-Forwarded-For  $remote_addr;
   proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
         proxy_pass http://dx;
    }

}

server
{
listen       192.168.1.1;
server_name xxxx.com;

access_log  /data/logs/lt.log  lt;

location /
     {
      proxy_next_upstream http_502 http_504 error timeout invalid_header;
      #proxy_cache cache_one;
      #proxy_cache_valid  200 304 12h;
      #proxy_cache_key $host$uri$is_args$args;
      proxy_set_header Host $http_host;
      #proxy_set_header X-Real-IP $remote_addr;
      proxy_set_header X-Forwarded-For $remote_addr;
      proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
      proxy_headers_hash_max_size 51200;
      proxy_headers_hash_bucket_size 6400;
      proxy_pass http://lt;

      #if ($request_uri ~* "^/upload/") {
      #add_header Cache-Control 'max-age=86400';
      #}

      location ~* \.(gif|jpg|jpeg|png|flv|swf|ico)$
      {
      proxy_set_header Host $http_host;
      proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
      proxy_pass http://lt;
      add_header Cache-Control 'max-age=86400';
      }

      location ~* \.(js)$
      {
      proxy_set_header Host $http_host;
      proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
      proxy_pass http://lt;
      add_header Cache-Control 'max-age=600';
      }

      #expires      -1;
      add_header Cache-Control 'no-store, no-cache, must-revalidate';
      add_header Pragma no-cache;
      }

  location ~ /purge(/.*)
    {
     allow            127.0.0.1;
     allow            192.168.0.0/16;
     deny            all;
     #proxy_cache_purge    cache_one   $host$1$is_args$args;
    }

    location ~ .*\.(php|jsp|cgi|asp|aspx|flv|swf|xml)?$
    {
         proxy_set_header Host $http_host;
         #proxy_set_header X-Forwarded-For  $remote_addr;
   proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
         proxy_pass http://lt;
    }

}



至此,一套完整的Nginx反向代理全部结束.



网站无法打开排查

1:ping域名看解析是否正常且是否连通.

2:配置本机Hosts指向后端单机IIS查看网站是否正常访问.

3:检查前端Nginx进程和端口是否存在,
ps -ef |grep nginx
netstat -an |grep 80


系统相关配置

Nginx
Nginx目录/usr/local/nginx/
/usr/local/nginx/conf/nginx.conf Nginx主配置文件
/usr/local/nginx/conf/nginx_load_balance.conf Nginx反向代理轮询配置文件
/usr/local/nginx/conf/proxy.conf Nginx缓存配置相关
/usr/local/nginx/conf/vhost/ Nginx虚拟主机配置目录

Snmp
/etc/snmp/snmpd.conf

日志切割

/root/scripts/ 所有日志切割脚本都在这个目录
crontab -l 列出计划任务
crontab -e 编辑计划任务

系统相关操作

Nginx
重启Nginx service nginx restart
重载Nginx配置文件 service nginx reload
检测Nginx配置语法是否正确 /usr/local/nginx/sbin/nginx -t
关闭Nginx service nginx stop
启动Nginx service nginx start

Snmp
重启Snmp service snmpd restart
关闭Snmp service snmpd stop
启动Snmp service snmpd start

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.luyixian.cn/news_show_842077.aspx

如若内容造成侵权/违法违规/事实不符,请联系dt猫网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

那是我夕阳下的奔跑,电商网站PC端详情页图片放大效果实现

在详情页浏览时商品大图还是不能完全看清楚商品的细节&#xff0c;该特效实现鼠标悬停在商品大图上时&#xff0c;在商品大图右侧出现放大镜效果并根据鼠标的位置来改变右侧大图的显示内容&#xff0c;放大镜中的内容和鼠标悬停位置的内容相同。该特效的实现效果图为&#xff1…

Pyspider框架 —— Python爬虫实战之爬取 V2EX 网站帖子

背景&#xff1a; PySpider&#xff1a;一个国人编写的强大的网络爬虫系统并带有强大的WebUI。采用Python语言编写&#xff0c;分布式架构&#xff0c;支持多种数据库后端&#xff0c;强大的WebUI支持脚本编辑器&#xff0c;任务监视器&#xff0c;项目管理器以及结果查看器。在…

数据分析大型网站汇总

2019独角兽企业重金招聘Python工程师标准>>> 1.人大经济论坛-计量经济学与统计区 http://www.pinggu.org/bbs/index.php?gid148 业内人士都应该去过的门户&#xff0c;主要涉及计量经济学、统计学、数据挖掘、统计软件、数据等经济学相关问题交流统计软件交流 2.中…

网站注册登录注销功能实现

回到学校已经有三个星期了&#xff0c;那也有三个星期没有去写博客了&#xff0c;今天就对之前学习的内容进行一个小的项目回顾一下吧。 今天要实现的项目是某网站里面的注册登录注销三个功能。 开发环境&#xff1a;Eclipse ,tomcat8.0,jdk1.8,mysql5.5。 导入的jar包&…

网站安装ssl证书(https)

网站安装ssl证书&#xff08;https&#xff09;前言ssl证书的获取搜索腾讯云ssl证书选购ssl证书类型信息填写dns验证&#xff0c;验证该域名归属下载相应的ssl证书Nginx配置ssl配置ssl后无法访问https的一些坑前言 我是在腾讯云上注册的域名&#xff0c;因此ssl证书也是在腾讯…

如何下载网站上的视频,亲测有效

You-get是GitHub上的一个项目&#xff0c;也可以说是一个命令行程序&#xff0c;帮助大家下载大多主流网站上的视频、图片及音频。 第一步&#xff1a;下载安装python3.7&#xff08;最新&#xff09; 第二步&#xff1a;按住键盘上的“winR”键&#xff0c;在打开的运行窗口…

定时爬虫更新网站首页内容

每日更新网站的名言与图片前言具体流程用爬虫收集想要的信息将内容写入数据库设置定时脚本后端读取数据库前言 我做自己网站时&#xff0c;觉得内容有点空洞&#xff0c;想到有道翻译首页每天都会更新图片和名言&#xff0c;还挺有意思的&#xff0c;不如我去抄一抄吧。 最后…

记一次攻击钓鱼网站

前言 一天我加班到很晚才回家&#xff0c;一打开steam&#xff0c;突然有人加我好友&#xff0c;我欣然接受&#xff0c;没想到这人上来就问我能不能给他投票&#xff0c;我一眼识破这肯定是想盗号啊&#xff0c;果不其然&#xff0c;他发来一个钓鱼网站。这个钓鱼网站是为了模…

跨网站请求伪造攻击

2019独角兽企业重金招聘Python工程师标准>>> 攻击者伪造目标用户的HTTP请求&#xff0c;然后此请求发送到有CSRF漏洞的网站&#xff0c;网站执行此请求后&#xff0c;引发跨站请求伪造攻击。 攻击者利用隐蔽的HTTP连接&#xff0c;让目标用户在不注意的情况下单击这…

C# 网站-数据库读取-查询功能的实现

apsx 页面: GridView 控件,Button控件,TextBox控件 aspx.cs页面 using System; using System.Data; using System.Configuration; using System.Web; using System.Web.Security; using System.Web.UI; using System.Web.UI.WebControls; using System.Web.UI.WebControls.Web…

如何用IIS让局域网内的人都能访问我的电脑上的本地网站

装好IIS后 &#xff08;不会安装下面有一个视频 或者百度IIS教程&#xff09; https://www.bilibili.com/video/av9104866?t246 之后配置防火墙 http://www.win7zhijia.cn/win10jc/win10_24322.html

Java小应用目录快速变网站

1. 简介 快速将一个目录变成静态站点的Java小应用 2. 程序下载 https://github.com/broncho/oss/raw/master/blog/directory-website-1.0.0.jar 3. 依赖环境 JRE 1.6 4. 使用说明 5. 运行

对动态网站收集的注册信息进行处理

这篇blog是接着上篇 第一个动态网站的心得–细数建站跳过的坑&#xff01; 写的&#xff0c;主要是对网站的云服务器上的access数据库导出来的数据进行处理加工。 数据类型和内容 access数据库userinfo的info表格下&#xff0c;一共有以下六个字段&#xff1a; number &…

基于Html的SEO(很基础,更是前端必须掌握之点)

2019独角兽企业重金招聘Python工程师标准>>> Html代码seo优化最佳布局&#xff0c;实例讲解 众所周知&#xff0c;搜索引擎对html代码是非常优化的&#xff0c;所以html的优化是做好推广的第一步。一个符合seo规则的代码大体如下界面所示。 1、<!–聚酯多元醇&am…

大型网站技术架构(一)大型网站架构演化

2019独角兽企业重金招聘Python工程师标准>>> 看完了有一本书&#xff0c;就应该有所收获&#xff0c;有所总结&#xff0c;最近把《大型网站技术架构》一书给看完了&#xff0c;给人的印象实在深刻&#xff0c;再加上之前也搞过书本上讲的反向代理和负载均衡以及ses…

大型网站技术架构(二)架构模式

2019独角兽企业重金招聘Python工程师标准>>> 每一个模式描述了一个在我们周围不断重复发生的问题及该问题解决方案的核心。这样&#xff0c;你就能一次又一次地使用该方案而不必做重复工作。 所谓网站架构模式即为了解决大型网站面临的高并发访问、海量数据、高可靠…

5个适合零基础练习的Python刷题网站

知乎上有人问&#xff0c;有没有适合新手练习 Python 的做题类网站&#xff1f; 根据我刷题找资料的经验&#xff0c;推荐以下5个Python练习网站&#xff0c;都很良心 1、Github 这不是一个专门的刷题网站&#xff0c;而是代码托管平台&#xff0c;里面有数百万个Python项目…

爬虫python学习代码记录3-抓取某电商网站的商品数据

Python3 爬虫、数据清洗与可视化实战 第4章 大型爬虫案例&#xff1a;抓取某电商网站的商品数据 目录 抓取某电商网站的商品数据 封装代码&#xff0c;提高可读性 写一个程序test.py定时监控运行结果 爬虫效率优化 抓取某电商网站的商品数据 # 第4章 大型爬虫案例&#x…

鸿蒙os报名入口,鸿蒙os2 0公测版报名链接网站入口

鸿蒙OS2.0现在已经开启了招募活动&#xff0c;在手机中我们可以通过报名的方法来提前体验到这个系统&#xff0c;那么鸿蒙OS2.0公测招募怎么报名吧&#xff0c;下面就来本文中看看鸿蒙OS2.0公测招募报名网址以及报名条件说明介绍吧!鸿蒙OS2.0测试版资格申请网址鸿蒙OS2.0公测招…

太赞了,京东研发一哥力荐的高可用网站构建技术PDF,备好水,慢慢啃

学习是一种基础性的能力。然而&#xff0c;“吾生也有涯&#xff0c;而知也无涯。”&#xff0c;如果学习不注意方法&#xff0c;则会“以有涯随无涯&#xff0c;殆矣”。 学习就像吃饭睡觉一样&#xff0c;是人的一种本能&#xff0c;人人都有学习的能力。我们在刚出生的时候…