当前位置: 首页 > news >正文

PySpark on Linux系统配置 Hadoop3.1.3+Spark3.4.4(PySpark3)

https://www.apache.org/dyn/closer.lua/spark/spark-3.4.4/spark-3.4.4-bin-hadoop3.tgz

https://repo.anaconda.com/archive/Anaconda3-2024.10-1-Linux-x86_64.sh

1.安装vmworkstation 15.5

2. 安装linux-centos7

3.配置网络,ip静态化

ip静态化:

vim /etc/sysconfig/network-scripts/ifcfg-ens33

配置网络ip

对本机ip进行修改.

这里一定要改,不然moba连接不上

配置开机激活网络

vim /etc/sysconfig/network

重启网络服务即可生效

systemctl restart network service

4.配置主机,修改主机名

更改主机名

配置主机 ip及名字

5.配置主机与ip映射关系

这里暂时做伪分布式,就不配了

6.关闭虚拟机防火墙

systemctl status firewalld.service

状态已关闭,不必继续关了

7.安装jdk配置环境变量

export JAVA_HOME=/root/meituan/jdk1.8.0_121

export PATH=$JAVA_HOME/bin:$PATH

查看环境变量配置

vim /etc/profile

8.配置免秘钥登录

ssh-keygen -t rsa

把当前密钥追加到

cat ~/.ssh/id_rsa.pub>> ~/.ssh/authorized_keys
设置权限

chmod 600 ~/.ssh/authorized_keys

600 6=4+2 自己可读可写,不可执行

此时重启一下电脑

9.上传hadoop3.1.3

tar -zxvf hadoop-3.1.3.tar.gz

mv hadoop-3.1.3 hadoop

10. 配置Hadoop环境变量

  1. 配置环境变量

vi /etc/profile

export HADOOP_HOME=/root/soft/hadoop

export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

export HDFS_NAMENODE_USER=root

export HDFS_SECONDARYNAMENODE_USER=root

export HDFS_DATANODE_USER=root

export YARN_RESOURCEMANAGER_USER=root

export YARN_NODEMANAGER_USER=root

配置完,刷新一下

source /etc/profile

检查一下环境变量是否配置成功

hadoop version

11.需要修改Hadoop的核心配置文件包括:共7个

配置文件所在位置/root/soft/hadoop/etc/hadoop

vimhadoop-env.sh

export JAVA_HOME=/root/meituan/jdk1.8.0_121

yarn-env.sh

export JAVA_HOME=/root/meituan/jdk1.8.0_121

3.core-site.xml、

添加内容如下:

<configuration>

<!-- 设置namenode内部通信端口 hdfs://主机名:端口号 -->

<property>

<name>fs.defaultFS</name>

<value>hdfs://tonymin:9820</value>

</property>

<!-- 设置hadoop数据存储的临时文件夹 -->

<property>

<name>hadoop.tmp.dir</name>

<value>/root/soft/hadoop/tmp</value>

</property>

</configuration>

4.hdfs-site.xml、

<configuration>

<!--设置hdfs的副本数-->

<property>

<name>dfs.replication</name>

<value>1</value>

</property>

<!--设置namenode文件存储路径-->

<property>

<name>dfs.name.dir</name>

<value>/root/soft/hadoop/tmp/hdfs/name</value>

</property>

<!--设置datanode文件存储路径-->

<property>

<name>dfs.data.dir</name>

<value>/root/soft/hadoop/tmp/hdfs/data</value>

</property>

<!-- namenode的web端访问地址:主机名:端⼝号 -->

<property>

<name>dfs.namenode.http-address</name>

<value>tonymin:9870</value>

</property>

<!-- secondarynamenode的web端访问地址:主机名:端⼝号-->

<property>

<name>dfs.namenode.secondary.http-address</name>

<value>tonymin:9868</value>

</property>

</configuration>

装Hive

http://www.jsqmd.com/news/305071/

相关文章:

  • 2023 团体程序设计天梯赛 L1,L2,L3-2
  • 基于STM32单片机智能农业温湿度 大棚灌溉 监测物联网成品设计定做成品
  • 从高AI率到轻松通过:5款降重神器详细教程,有效降低AI疑似率!
  • 基于STM32单片机智能垃圾桶 烟雾金属检测 液晶垃圾显示 超声检测
  • Day4—循环高级综合+数组
  • 环状路径计数——传球游戏
  • 基于STM32单片机智能垃圾桶 语音播报 超声波满溢检测
  • C++二分细节敲定规则
  • 基于STM32单片机智能垃圾桶 语音识别 垃圾分类 WIFI无线蓝牙成品
  • RabbitMQ 如何限流?一文搞懂消费端流量控制(Spring Boot + Java 实战详解)
  • 基于STM32单片机智能手环 运动时间 里程提醒 蓝牙 时钟 血氧
  • 基于STM32单片机智能手环 里程提醒 运动时间 GSM GPS 时钟血氧
  • RabbitMQ 中如何配置“背压机制”?别被术语误导了!(Spring Boot + Java 实战澄清)
  • Java 实现 RabbitMQ 生产者限流:从信号量到令牌桶,手把手教你防崩方案(Spring Boot 实战)
  • RabbitMQ 死信队列(DLQ)使用场景全解析:从消息救火到系统自愈(Spring Boot + Java 实战)
  • PLC-Recorder 软件教程:如何读取字的单个位的值?
  • RabbitMQ 灰度发布方案详解:从零到一掌握灰度策略(附 Spring Boot 实战代码)
  • 辣味零食推荐|解锁辣人辣椒酥,享受多层次口感新体验
  • RabbitMQ 灰度方案性能优化实战:从瓶颈识别到高吞吐落地(Spring Boot + Java)
  • RAG技术全景图:从T5到FiD,三大方案教你“喂”知识给大模型
  • RabbitMQ 创建队列的 5 种方式全解析:从手动到自动,小白也能选对方案(Spring Boot + Java 实战)
  • YOLO26改进 - 注意力机制 | CGAFusion (Content-Guided Attention Fusion) 抑制噪声提升跨模态检测精度与鲁棒性​
  • YOLO26改进 - 注意力机制 |融合HCF-Net维度感知选择性整合模块DASI 增强小目标显著性
  • 【脉脉】AI创作者崛起:掌握核心工具,在AMA互动中共同成长
  • 02~
  • 大规模语言模型在个性化职业规划中的应用
  • Kubernetes 集群运维:故障排查、资源调度与高可用配置
  • FHIR 资源查询实战指南:从 HTTP 接口到 Java 客户端的完整实现
  • Go进阶之理解方法本质
  • IntelliJ IDEA 全局搜索完全指南:从高效使用到快捷键失效排查