热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

linux服务器开发之网关服务器的实现

什么是网关服务器初学linux服务器开发时,我们的服务器是很简单的,只需要一个程序完成与客户端的连接,接收客户端数据,数据处理,向客户端发送数据。但是在处理量很大的情况下,一

什么是网关服务器

初学linux服务器开发时,我们的服务器是很简单的,只需要一个程序完成与客户端的连接,接收客户端数据,数据处理,向客户端发送数据。
但是在处理量很大的情况下,一台机器不能满足我们的需求,此时我们应该怎么办。
我们可以将服务端的任务分摊到多台机器上完成,见下图
这里写图片描述

从图中可见,此时整个服务端主要分为了三部分。
网关服务器:负责连接客户端与逻辑服务器,在两者间完成数据转发,使用负载均衡算法保证每个逻辑服务器的工作量均衡,以及进行数据加密。
逻辑服务器:负责业务逻辑的处理,与网关服务器进行数据交互,同时与数据库服务器进行数据交互。
数据库服务器:数据存储与读取的具体执行者。

实现网关服务器需要考虑哪些问题

效率问题

当我们需要用到网关服务器来负载均衡时,我可以假定我们需要处理的客户端请求是很多的(当然,我这里只是为了学习,具体业务并不需要),也就是说我们需要高并发,高效处理。
因为网关服务器在客户端和逻辑服务器间相当于纽带的作用,所有的数据包都要从此经过,所以我们的网关服务器必须要保证可以高效的处理大量连接上的事件

安全问题

如上所说,如果网关服务器被恶意发起连接,一旦挂掉,我们的全部服务都会终止,因此我们必须要对这种情况进行处理。同时,还有与客户端交互时的数据加密,这个事也是要交给网关服务器来进行的。逻辑服务器一般都会与网关服务器配置于同一个局域网,所以通常不需要考虑数据的加密。

对连接的标识

逻辑服务器和客户端都会连接在网关服务器上,而网关服务器需要对其sockfd进行标识,要知晓究竟谁是服务器,谁是客户端,而且要对客户端的连接加一条可检索属性(比如用户名).
为什么呢?因为对于客户端发送过来的数据,我们无论转到哪个逻辑服务器上都可以,而逻辑服务器返回的数据,我们需要知道要将该数据返回给哪个客户端,逻辑服务器并不能知道每个客户端的sockfd是多少。

下面我们着重聊聊效率问题:

多路复用

我们不会去为每个sockfd都分配一个线程去服务它,我们更需要有一个线程可以去监听所有的fd上的事件,如果发生,我们再去分配线程去处理他。这就是多路复用。
多路复用有select poll epoll,几乎凡是知道多路复用的人都知道epoll的高效。因为其底层红黑树,以及回调机制,是我们最好的选择(在大量连接,活跃量不高的情况下)。
而epoll分两种工作模式,LT和ET,LT模式下,epoll只是一个高效的poll,ET模式下会更高效。事实上众多的第三方库都使用的是LT模式,说白了就是性价比,LT已经很高效,而改用ET模式,除了效率会更高,也会给编写带来一些复杂性以及产生一些头疼的问题,而处理这些特殊情况也需要时间,处理方式不当的话反而还不如LT,所以,总而言之,性价比不高。(本人为了学习,此处使用的et模式)。

非阻塞

每个连接的sockfd,我们都有两种操作其的方式,阻塞和非阻塞,阻塞意味着我们此刻必须对sockfd进行等待,就是说我们不能去干别的事,这显然不可以。因此,在以高并发为目标的服务器程序里,非阻塞是我们唯一的选择。
并且,et模式下,必须非阻塞,不然会产生套接字饿死的情况。
非阻塞模式下,我们还需要一样东西,就是缓冲区,因为你并不能保证你接受到的数据就是完整的。

工作模式

这里使用的是多线程Reacter半同步半异步模式。
主线程负责监听以及接收新的连接,维护一个任务队列,其余线程从任务队列里获取任务并完成,同时也将新的任务添加进任务队列。

架构

总体分为以下部分

main.h

程序主线程:监听fd绑定、监听,epoll监听

Connection.h

客户端和逻辑服务器的连接的封装
实现对连接的操作:
HandleRead()读, HandleWrite()写, Worker()数据处理, shutdown()连接关闭,getData()从用户缓冲区获取数据,puttData()将数据写入用户缓冲区

ThreadPool.h

线程池的封装

SyncQueue.h

任务队列的封装
实现队列的添加取出,以及同步加锁等处理

Buffer.h

用户缓存区的封装

BaseFunc.h

基本函数的封装:如 setNoBlocking(), addFd()…

Util.h

工具类

正确性测试结果

这里写图片描述

代码

main.cpp

//
// GataMain.cpp
// QuoridorServer
//
// Created by shiyi on 2016/12/2.
// Copyright © 2016年 shiyi. All rights reserved.
//

#include
#include
#include
#include
#include
#include
#include
#include
#include
#include
#include
#include
#include
#include "Util.h"
#include "ThreadPool.h"
#include "Connection.h"
#include "BaseFunc.h"

static const char *IP = "10.105.44.34";
// static const char *IP = "127.0.0.1";
// static const char *IP = "182.254.243.29";
static const int PORT = 11111;

//处理的最大连接数
static const int USER_PROCESS = 655536;
//epoll能监听的最大事件
static const int MAX_EVENT_NUMBER = 10000;

//信号通信的管道
static int sigPipefd[2];

//信号回调函数
static void sigHandler(int sig)
{
int saveErrno = errno;
send(sigPipefd[1], (char*)&sig, 1, 0);
errno = saveErrno;
}

//添加信号回调
static void addSig(int sig, void(handler)(int), bool restart = true)
{
struct sigaction sa;
memset(&sa, 0, sizeof(sa));
sa.sa_handler = handler;
if(restart)
sa.sa_flags |= SA_RESTART;
sigfillset(&sa.sa_mask);
if(-1 == sigaction(sig, &sa, NULL))
Util::outError("sigaction");
}

static int setupSigPipe()
{
//新建epoll监听表和事件管道
int epollfd = epoll_create(USER_PROCESS);
if(epollfd == -1)
Util::outError("epoll_create");

int ret = socketpair(PF_UNIX, SOCK_STREAM, 0, sigPipefd);
assert(ret == 0);

//将写设置为非阻塞
setNoBlocking(sigPipefd[1]);
addFd(epollfd, sigPipefd[0], EPOLLIN | EPOLLET);
setNoBlocking(sigPipefd[0]);

//设置信号处理函数
addSig(SIGCHLD, sigHandler);
addSig(SIGTERM, sigHandler);
addSig(SIGINT, sigHandler);
addSig(SIGPIPE, sigHandler);

return epollfd;
}

int main()
{
int ret;

//构造协议地址结构
struct sockaddr_in address;
bzero(&address, sizeof(address));
address.sin_family = PF_INET;
inet_pton(PF_INET, IP, &address.sin_addr);
address.sin_port = htons(PORT);

int listenfd = socket(PF_INET, SOCK_STREAM, 0);
assert( listenfd >= 0 );

int opt = 1;
if(setsockopt(listenfd, SOL_SOCKET, SO_REUSEADDR, (void*)&opt, sizeof(int)) <0)
{
perror("setsockopt");
exit(1);
}

ret = bind(listenfd, (struct sockaddr*)&address, sizeof(address));
if(ret == -1)
{
perror("bind");
}

if(listen(listenfd, 1000) <0)
{
perror("listen");
exit(1);
}

Connection *users = new Connection[USER_PROCESS];
ThreadPool threadPool;

//统一事件源
int epollfd = setupSigPipe();

epoll_event events[MAX_EVENT_NUMBER];
// addFd(epollfd, listenfd, EPOLLIN | EPOLLET);
addFd(epollfd, listenfd, EPOLLIN);
// setNoBlocking(m_listenfd);

bool isRunning = true;

while(isRunning)
{
int num = epoll_wait(epollfd, events, MAX_EVENT_NUMBER, -1);
//如果错误原因不是被中断,则循环退出
if((num <0) && (errno != EINTR))
{
Util::outError("epoll_wait failure");
break;
}

for(int i=0; i {
int sockfd = events[i].data.fd;
//处理新的请求
if(sockfd == listenfd)
{
//连接新的请求
struct sockaddr_in clientAddr;
socklen_t clientLen = sizeof(clientAddr);
int cOnnfd= accept(listenfd, (struct sockaddr*)&clientAddr, &clientLen);

if(connfd <0)
{
Util::outError("accept");
break;
}

Util::outMsg("accept a new client : %d %s\n", connfd, inet_ntoa(clientAddr.sin_addr));

addFd(epollfd, connfd, EPOLLIN | EPOLLET | EPOLLONESHOT);
setNoBlocking(connfd);
//初始化客户端链接
users[connfd].init(epollfd, connfd, clientAddr);

}
//处理信号
else if((sockfd == sigPipefd[0]) && (events[i].events & EPOLLIN))
{
char sigMsg[1024];
int ret = recv(sockfd, sigMsg, sizeof(sigMsg), 0);
if(ret <= 0)
{
continue;
}

for(int j=0; j {
//循环处理每个信号
switch(sigMsg[j])
{
case SIGCHLD:
{

break;
}
case SIGTERM:
case SIGINT:
{
//退出
Util::outMsg("程序退出\n");
isRunning = false;
break;
}
}
}
}
//处理读事件
else if(events[i].events & EPOLLIN)
{
//向任务队列添加读任务
threadPool.AddTask(std::bind(&Connection::HandleRead, users+sockfd));
}
//处理写事件
else if(events[i].events & EPOLLOUT)
{
// cout<<"hello"<
threadPool.AddTask(std::bind(&Connection::HandleWrite, users+sockfd));
}
}
}

delete[] users;

close(sigPipefd[0]);
close(sigPipefd[1]);
close(epollfd);

return 0;
}

Connection.h

//
// Connection.h
// QuoridorServer
//
// Created by shiyi on 2016/12/2.
// Copyright © 2016年 shiyi. All rights reserved.
//

#ifndef Connection_H
#define Connection_H

#include
#include
#include
#include
#include
#include
#include
#include
#include
#include
#include
#include
#include
#include
#include
#include "Buffer.h"
#include "Util.h"
#include "BaseFunc.h"

#include "json/json.h"

const std::string serverIP[] = {
"127.0.0.1",
"182.254.243.29"
};

const size_t BUFFER_SIZE = 65535;

class Connection
{
public:

static std::vector serverConnVt;
static std::map<string, Connection*> clientConnMap;
static int serverIdx;

static Connection* getServerConn()
{
int size = serverConnVt.size();
if(size == 0)
return NULL;

serverIdx = (serverIdx+1)%size;

return serverConnVt[serverIdx];
}

Connection() : m_writeing(true), m_epollfd(-1), m_sockfd(-1)
{}

~Connection(){}

//初始化连接
void init(int epollfd, int sockfd, const sockaddr_in& clientAddr)
{
//初始化读写缓冲区
m_inBuff.init();
m_outBuff.init();

m_epollfd = epollfd;
m_sockfd = sockfd;
m_writeing = true;
m_address = clientAddr;
m_username = "";
m_type = -1;

std::string sip(inet_ntoa(clientAddr.sin_addr));

for(auto& ip : serverIP)
{
if(ip.compare(0, sip.size(), sip) == 0)
{
m_type = 1;
serverConnVt.push_back(this);
cout<"是服务端"< break;
}
}

if(m_type != 1)
{
char t[10];
sprintf(t, "%d", m_sockfd);
m_username = t;

//存入客户端映射表
clientConnMap.insert(pair<string, Connection*>(m_username, this));
}
}

void HandleRead()
{
cout<<"read"< while(true)
{
char buf[BUFFER_SIZE];
int ret = recv(m_sockfd, buf, BUFFER_SIZE, 0);
if(ret <0)
{
//缓冲区内容已读完
if((errno == EAGAIN) || (errno == EWOULDBLOCK))
{
modFd(m_epollfd, m_sockfd, EPOLLIN | EPOLLET | EPOLLONESHOT);
break;
}
//其他错误直接断开连接
Util::outError("HandleRead");
shutdown();
return;
}
//断开连接
else if(ret == 0)
{
shutdown();
return;
}
else
{
//将读取的内容加入缓冲区
m_inBuff.PutData(buf, ret);
}

}

worker();
}

void HandleWrite()
{
cout<<"write"< //更改临界值
if(!m_writeing)
{
//休眠等待
usleep(1000);
//下次再来
modFd(m_epollfd, m_sockfd, EPOLLIN | EPOLLOUT | EPOLLET | EPOLLONESHOT);
return;
}
m_writeing = false;

//取出数据
char buf[BUFFER_SIZE];

int len = m_outBuff.GetDataAll(buf);

int n = len;
while (n > 0)
{
int ret = send(m_sockfd, buf+len-n, n, 0);
if (ret {
if (ret == -1 && errno != EAGAIN)
{
Util::outError("write error");
}
break;
}
n -= ret;
}

//n=0表示数据全部写完,删除写事件
if(n == 0)
{
modFd(m_epollfd, m_sockfd, EPOLLIN | EPOLLET | EPOLLONESHOT);
}
else
{
modFd(m_epollfd, m_sockfd, EPOLLIN | EPOLLOUT | EPOLLET | EPOLLONESHOT);
}

//恢复临界值
m_writeing = true;
}

void clientWork()
{
//解析
//取出数据
char buf[BUFFER_SIZE];
int len = getData(buf);

//解密buf
printf("recv from %d :%s\n", m_sockfd, buf);

std::string recvUser;
Json::Reader reader;
Json::Value inRoot;
Json::Value outRoot;
if(reader.parse(buf, inRoot))
{
Json::Value data = inRoot["data"];
outRoot["data"] = data;
outRoot["user"] = m_username;
}

Connection* toCOnn= getServerConn();
if(toConn->m_sockfd == -1)
{
printf("无可用逻辑服务器\n");
return;
}

//生成json字符串
std::string outStr = outRoot.toStyledString();
len = outStr.size();

printf("send to %d :%s\n", toConn->m_sockfd, outStr.c_str());

memcpy(buf, &len, 4);
memcpy(buf+4, outStr.c_str(), len);

toConn->putData(buf, len+4);

modFd(m_epollfd, toConn->m_sockfd, EPOLLIN | EPOLLOUT | EPOLLET | EPOLLONESHOT);
}


void serverWork()
{
//解析
//取出数据
char buf[BUFFER_SIZE];
int len = getData(buf);

//解密buf
printf("recv from %d :%s\n", m_sockfd, buf);

std::string toUser;
Json::Reader reader;
Json::Value inRoot;
Json::Value outRoot;
if(reader.parse(buf, inRoot))
{
toUser = inRoot["user"].asString();
Json::Value data = inRoot["data"];
outRoot["data"] = data;
}

auto iter = clientConnMap.find(toUser);
if(iter == clientConnMap.end())
{
printf("客户端%s不存在\n", toUser.c_str());
return;
}

Connection* toCOnn= (*iter).second;

//生成json字符串
std::string outStr = outRoot.toStyledString();
len = outStr.size();

printf("send to %d :%s\n", toConn->m_sockfd, outStr.c_str());

memcpy(buf, &len, 4);
memcpy(buf+4, outStr.c_str(), len);

toConn->putData(buf, len+4);

modFd(m_epollfd, toConn->m_sockfd, EPOLLIN | EPOLLOUT | EPOLLET | EPOLLONESHOT);

}

int getData(char *buf)
{
return m_inBuff.GetData(buf);

}

void putData(char *buf, int len)
{
while(!m_writeing)
usleep(1000);
m_writeing = false;

m_outBuff.PutData(buf, len);

m_writeing = true;
}

void worker()
{
//serverWork();
if(m_type == 1)
{
cout<<"workerServer"< serverWork();
}
else
{
cout<<"workerClient"< clientWork();
}
}

void shutdown()
{
//等待写事件完成后关闭
while(!m_writeing)
usleep(1000);

m_writeing = false;
removeFd(m_epollfd, m_sockfd);
m_writeing = true;

//服务端
if(m_type == 1)
{
for(auto i=serverConnVt.begin(); i!=serverConnVt.end(); i++)
{
if((*i)->m_sockfd == m_sockfd)
{
//在vt中删除该连接
serverConnVt.erase(i);
cout<<"退出服务端"< break;
}
}
}
//客户端
else
{
//map删除
auto iter = clientConnMap.find(m_username);
if(iter != clientConnMap.end())
{
clientConnMap.erase(iter);
printf("客户端%s退出\n", m_username.c_str());
}
}
}

private:
int m_epollfd; //epoll描述符
int m_sockfd; //套接字描述符
std::string m_username; //连接唯一标识
int m_type; //连接类型 -1为未知客户端 0为已知客户端 1为服务端
sockaddr_in m_address; //套接字地址
Buffer m_inBuff; //读缓冲
Buffer m_outBuff; //写缓冲
std::atomic_bool m_writeing; //是否正在写
};

std::vector Connection::serverConnVt;
std::map<string, Connection*> Connection::clientConnMap;
int Connection::serverIdx = -1;

#endif /* Connection_H */

Buffer.h

//
// Buffer.h
// QuoridorServer
//
// Created by shiyi on 2016/12/2.
// Copyright © 2016年 shiyi. All rights reserved.
//

#ifndef Buffer_H
#define Buffer_H

#include
#include
#include

using namespace std;

class Buffer
{
public:
Buffer() : m_widx(0), m_ridx(0)
{}

~Buffer(){}

void init()
{
m_widx = m_ridx = 0;
m_buf.clear();
}

//增加内容
void PutData(char *data, int len)
{
//如果调整空间后足够存放,则进行调整
int capa = m_buf.capacity();
if(capa len + m_widx - m_ridx)
adjust();

for(int i = 0; i m_buf.push_back(data[i]);

m_widx += len;
}

//返回获取的包的大小,数据不完整返回-1

int GetData(char* data)
{
if(m_widx - m_ridx <4)
return -1;

int len;
char *t = (char*)&len;
for(int i=0; i<4; i++)
{
t[i] = m_buf[m_ridx+i];
}

//printf("-=-=%d\n", len);

if(len+4 > m_widx-m_ridx)
return -1;

m_ridx += 4;

for(int i = 0; i {
data[i] = m_buf[m_ridx++];
}

if(m_ridx >= m_widx)
{
m_ridx = m_widx = 0;
m_buf.clear();
}
return len;
}

//返回Buffer内全部内容
int GetDataAll(char* data)
{
int len = m_widx-m_ridx;

for(int i = 0; i {
if(m_ridx >= m_widx)
break;
data[i] = m_buf[m_ridx++];
}

if(m_ridx >= m_widx)
{
m_ridx = m_widx = 0;
m_buf.clear();
}

return len;
}

private:

//将数据移至容器头部,充分利用空间
void adjust()
{
vector<char> t(m_buf.begin()+m_ridx, m_buf.begin()+m_widx);
m_widx -= m_ridx;
m_ridx = 0;

m_buf.clear();

for(int i=0; i m_buf.push_back(t[i]);
}

private:

int m_ridx;
int m_widx;
std::vector<char> m_buf;
};

#endif /* Buffer_H */

ThreadPool.h

//
// ThreadPool.h
// QuoridorServer
//
// Created by shiyi on 2016/11/30.
// Copyright © 2016年 shiyi. All rights reserved.
//

#ifndef ThreadPool_H
#define ThreadPool_H

#include
#include
#include
#include
#include
#include "SyncQueue.h"

const int MaxTaskCount = 100;

class ThreadPool
{
public:
using Task = std::function<void()>;

ThreadPool(int numThreads = std::thread::hardware_concurrency()) : m_queue(MaxTaskCount)
{
if(numThreads <4)
numThreads = 4;

printf("线程池启动-%d线程\n", numThreads);

Start(numThreads);
}

~ThreadPool()
{
Stop();
}

void Stop()
{
std::call_once(m_flag, [this]{
StopThreadGroup();
});
}

void AddTask(Task&& task)
{
m_queue.Push(std::forward(task));
}

void AddTask(const Task& task)
{
m_queue.Push(task);
}

private:
void Start(int numThreads)
{
m_running = true;
//创建线程组
for(int i=0; i {
m_threadGroup.push_back(std::make_shared<std::thread>(&ThreadPool::RunInThread, this));
}

}

void RunInThread()
{
while(m_running)
{
std::queue queue;
m_queue.Take(queue);
std::queue<int> a;

while(!queue.empty())
{
if(!m_running)
return;
auto task = queue.front();
queue.pop();
task();
}
}
}

void StopThreadGroup()
{
m_queue.Stop();
m_running = false;

for(auto thread : m_threadGroup)
{
thread->join();
}

m_threadGroup.clear();
}

private:
SyncQueue m_queue; //同步队列
std::vector<std::shared_ptr<std::thread>> m_threadGroup; //处理任务的线程组
atomic_bool m_running; //是否停止
std::once_flag m_flag;
};

#endif /* ThreadPool_H */

SyncQueue.h

//
// SyncQueue.h
// QuoridorServer
//
// Created by shiyi on 2016/11/30.
// Copyright © 2016年 shiyi. All rights reserved.
//

#ifndef SyncQueue_H
#define SyncQueue_H

#include
#include
#include
#include
#include
#include

using namespace std;

template <typename T>
class SyncQueue
{
public:
SyncQueue(int maxSize) : m_maxSize(maxSize), m_isStop(false)
{
}

~SyncQueue(){}

void Push(const T& x)
{
Add(x);
}

void Push(T&& x)
{
Add(x);
}

void Take(T& t)
{
std::unique_lock<std::mutex> locker(m_mutex);
m_notEmpty(locker, [this]{
return m_isStop || m_notEmpty();
});

if(m_isStop)
return;
t = m_queue.front();
m_queue.pop();
m_notFull.notify_one();
}

void Take(std::queue& queue)
{
std::unique_lock<std::mutex> locker(m_mutex);
m_notEmpty.wait(locker, [this]{
return m_isStop || NotEmpty();
});

if(m_isStop)
return;
queue = std::move(m_queue);
m_notFull.notify_one();
}

void Stop()
{
{
std::lock_guard<std::mutex> locker(m_mutex);
m_isStop = true;
}
m_notFull.notify_all();
m_notEmpty.notify_all();
}

bool Empty()
{
std::lock_guard<std::mutex> locker(m_mutex);
return m_queue.empty();
}

bool Full()
{
std::lock_guard<std::mutex> locker(m_mutex);
return m_queue.size() >= m_maxSize;
}

private:

bool NotFull()
{
bool full = m_queue.size() >= m_maxSize;
if(full)
cout<<"缓冲区满,需要等待..."< return !full;
}

bool NotEmpty()
{
bool empty = m_queue.empty();
if(empty)
cout<<"缓冲区空,需要等待..."< return !empty;
}

template<typename F>
void Add(F&& x)
{
std::unique_lock<std::mutex> locker(m_mutex);
m_notFull.wait(locker, [this]{
return m_isStop || NotFull();
});
if(m_isStop)
return;
m_queue.push(std::forward(x));
m_notEmpty.notify_one();
}

private:
bool m_isStop; //是否停止
int m_maxSize; //同步队列最大的长度
std::queue m_queue; //缓冲区
std::mutex m_mutex; //互斥量
std::condition_variable m_notEmpty; //不为空的条件变量
std::condition_variable m_notFull; //不满的条件变量
};

#endif /* SyncQueue_H */

推荐阅读
  • 深入理解Kafka服务端请求队列中请求的处理
    本文深入分析了Kafka服务端请求队列中请求的处理过程,详细介绍了请求的封装和放入请求队列的过程,以及处理请求的线程池的创建和容量设置。通过场景分析、图示说明和源码分析,帮助读者更好地理解Kafka服务端的工作原理。 ... [详细]
  • linux进阶50——无锁CAS
    1.概念比较并交换(compareandswap,CAS),是原⼦操作的⼀种,可⽤于在多线程编程中实现不被打断的数据交换操作࿰ ... [详细]
  • 第七课主要内容:多进程多线程FIFO,LIFO,优先队列线程局部变量进程与线程的选择线程池异步IO概念及twisted案例股票数据抓取 ... [详细]
  • 计算机存储系统的层次结构及其优势
    本文介绍了计算机存储系统的层次结构,包括高速缓存、主存储器和辅助存储器三个层次。通过分层存储数据可以提高程序的执行效率。计算机存储系统的层次结构将各种不同存储容量、存取速度和价格的存储器有机组合成整体,形成可寻址存储空间比主存储器空间大得多的存储整体。由于辅助存储器容量大、价格低,使得整体存储系统的平均价格降低。同时,高速缓存的存取速度可以和CPU的工作速度相匹配,进一步提高程序执行效率。 ... [详细]
  • 本文介绍了深入浅出Linux设备驱动编程的重要性,以及两种加载和删除Linux内核模块的方法。通过一个内核模块的例子,展示了模块的编译和加载过程,并讨论了模块对内核大小的控制。深入理解Linux设备驱动编程对于开发者来说非常重要。 ... [详细]
  • 本文介绍了在CentOS上安装Python2.7.2的详细步骤,包括下载、解压、编译和安装等操作。同时提供了一些注意事项,以及测试安装是否成功的方法。 ... [详细]
  • Oracle优化新常态的五大禁止及其性能隐患
    本文介绍了Oracle优化新常态中的五大禁止措施,包括禁止外键、禁止视图、禁止触发器、禁止存储过程和禁止JOB,并分析了这些禁止措施可能带来的性能隐患。文章还讨论了这些禁止措施在C/S架构和B/S架构中的不同应用情况,并提出了解决方案。 ... [详细]
  • 重入锁(ReentrantLock)学习及实现原理
    本文介绍了重入锁(ReentrantLock)的学习及实现原理。在学习synchronized的基础上,重入锁提供了更多的灵活性和功能。文章详细介绍了重入锁的特性、使用方法和实现原理,并提供了类图和测试代码供读者参考。重入锁支持重入和公平与非公平两种实现方式,通过对比和分析,读者可以更好地理解和应用重入锁。 ... [详细]
  • 本文介绍了在Android开发中使用软引用和弱引用的应用。如果一个对象只具有软引用,那么只有在内存不够的情况下才会被回收,可以用来实现内存敏感的高速缓存;而如果一个对象只具有弱引用,不管内存是否足够,都会被垃圾回收器回收。软引用和弱引用还可以与引用队列联合使用,当被引用的对象被回收时,会将引用加入到关联的引用队列中。软引用和弱引用的根本区别在于生命周期的长短,弱引用的对象可能随时被回收,而软引用的对象只有在内存不够时才会被回收。 ... [详细]
  • 深入解析Linux下的I/O多路转接epoll技术
    本文深入解析了Linux下的I/O多路转接epoll技术,介绍了select和poll函数的问题,以及epoll函数的设计和优点。同时讲解了epoll函数的使用方法,包括epoll_create和epoll_ctl两个系统调用。 ... [详细]
  • CentOS7.8下编译muduo库找不到Boost库报错的解决方法
    本文介绍了在CentOS7.8下编译muduo库时出现找不到Boost库报错的问题,并提供了解决方法。文章详细介绍了从Github上下载muduo和muduo-tutorial源代码的步骤,并指导如何编译muduo库。最后,作者提供了陈硕老师的Github链接和muduo库的简介。 ... [详细]
  • 本文介绍了如何通过维持两个堆来获取一个数据流中的中位数。通过使用最大堆和最小堆,分别保存数据流中较小的一半和较大的一半数值,可以保证两个堆的大小差距为1或0。如果数据流中的数量为奇数,则中位数为较大堆的最大值;如果数量为偶数,则中位数为较大堆的最大值和较小堆的最小值的平均值。可以使用优先队列来实现堆的功能。本文还提供了相应的Java代码实现。 ... [详细]
  • C++ STL复习(13)容器适配器
    STL提供了3种容器适配器,分别为stack栈适配器、queue队列适配器以及priority_queue优先权队列适配器。不同场景下,由于不同的序列式 ... [详细]
  • 在单位的一台4cpu的服务器上部署了esxserver,挂载了6个虚拟机,目前运行正常。在安装部署过程中,得到了cnvz.net论坛精华区 ... [详细]
  • ZooKeeper 学习
    前言相信大家对ZooKeeper应该不算陌生。但是你真的了解ZooKeeper是个什么东西吗?如果别人面试官让你给他讲讲ZooKeeper是个什么东西, ... [详细]
author-avatar
铁骑侠客_685
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有