当前位置: 首页 > news >正文

kali网站配置(含一句话木马简单应用)

一、GET和POST

1.核心区别

GET:获取数据(读取资源)

POST:提交数据(创建/触发操作)

2.参数如何放置?

GET:参数在 URL 上(Query),方便调试,但是容易暴露

POST:参数在请求体(Body),支持复杂数据而且不显示在URL上

3.安全性

GET/POST 是否安全取决于HTTPS。但工程上建议敏感信息不要放 URL(GET)里

4.幂等性

GET 通常幂等:请求多次结果一样,不改变服务器状态

POST 通常不幂等:提交多次可能产生多条数据(比如重复下单)

5.缓存

GET 更容易被浏览器/CDN缓存(更适合查询)

POST 一般不会被默认缓存

6.实践如何用?

查询用 GET
新增/提交/修改用 POST
不要用 GET 做删除/更新(会有副作用,容易被误触发)

总的来说就是GET 用来查,POST 用来提交;安全靠 HTTPS,重要操作要考虑幂等。

二、网站布置

1.打开kali终端

输入service apache2 restart打开apache2

输入ip a查询kali的ip(或者ifconfig也可以)

2.访问

在windows主机上直接访问kali的ip

三、一句话木马应用

1.创建木马文件

在kali里面创建一个空文件然后写入一句话木马,并把文件名尾改为php(一句话木马写system类的就可以了,直接上网随便搜都有的)

2.然后把该php文件拖入图示文件夹里

3.最后在主机进行访问

kali的ip/shell.php?cmd=ifconfig(这个命令是根据你写的木马写的,写在?后面就行)

http://www.jsqmd.com/news/157052/

相关文章:

  • SMBus协议通信机制深度剖析:聚焦电源场景
  • PyTorch-CUDA-v2.6镜像如何实现模型微调(Fine-tuning)流程
  • PyTorch-CUDA-v2.6镜像如何优化数据加载速度?DataLoader调优
  • TOMCAT跑死服务器,怎么限制TOMCAT使用资源
  • 一文说清I2C HID如何提升平板触控笔响应速度
  • PyTorch-CUDA-v2.6镜像如何监控GPU利用率?nvidia-smi命令教学
  • 串扰抑制布线方法研究:深度剖析干扰机制
  • PyTorch-CUDA-v2.6镜像是否支持LoRA微调技术?
  • google A2UI Windows 源码
  • PyTorch-CUDA-v2.6镜像中的CUDA工具包包含哪些核心组件?
  • 在64位系统中成功安装Multisim14.3的操作指南
  • YOLO目标检测在建筑工地的应用:安全帽佩戴识别
  • 基于项目教学法的Multisim安装实训指导书
  • 眼睛也会“偷懒”?调节力不足,小心近视加深、视疲劳
  • Protel99SE安装路径选择对原理图设计的影响
  • PyTorch-CUDA-v2.6镜像是否支持分布式训练?DDP模式验证
  • Elasticsearch基本用法在Kibana中的完整示例演示
  • 巧用大数据领域 Hive 进行数据清洗
  • day38
  • PyTorch-CUDA-v2.6镜像中Jupyter Lab如何启用?插件安装指南
  • serialport数据缓冲区管理机制:高效通信的实现关键
  • 零基础入门-LangChain V1.0多智能体系统
  • PyTorch-CUDA-v2.6镜像如何实现自动保存检查点(Checkpoint)
  • 应对NMI与HardFault竞争条件的处理策略深度剖析
  • PyTorch-CUDA-v2.6镜像如何调用多块GPU进行并行计算
  • 基于模型的协同过滤:原理与实战解析
  • 模拟电路PCB布线的地噪声控制策略解析
  • Windows平台Elasticsearch端口设置完整说明
  • PyTorch-CUDA-v2.6镜像是否支持自动求导机制?autograd验证
  • ES6转译最佳实践:Babel环境搭建操作指南