添加链接
link之家
链接快照平台
  • 输入网页链接,自动生成快照
  • 标签化管理网页链接
相关文章推荐
开朗的键盘  ·  C 文件读写 | 菜鸟教程·  2 年前    · 
温文尔雅的茴香  ·  c# - IDX10503: ...·  2 年前    · 
温文尔雅的橡皮擦  ·  java - JavaCV grab ...·  2 年前    · 
Oracle Java 开发工具包 。 本教程使用 Java 版本 8.0.202。

  • IntelliJ IDEA。 本文使用 IntelliJ IDEA Community 2019.1.3

  • Azure Toolkit for IntelliJ。 请参阅 安装 Azure Toolkit for IntelliJ

  • 连接到 HDInsight 群集。 请参阅 连接到 HDInsight 群集

  • Microsoft Azure 存储资源管理器。 请参阅 下载 Microsoft Azure 存储资源管理器

    使用调试模板创建项目

    创建 spark2.3.2 项目以继续失败调试,并使用此文档中的失败任务调试示例文件。

  • 打开 IntelliJ IDEA。 打开“新建项目”窗口。

    a. 在左窗格中选择“Azure Spark/HDInsight”。

    b. 从主窗口中选择“Spark 项目和失败任务调试示例(预览)(Scala)”。

    a. 输入项目名称和项目位置。

    b. 在“项目 SDK”下拉列表中,选择适用于 Spark 2.3.2 群集的 Java 1.8

    c. 在“Spark 版本”下拉列表中,选择“Spark 2.3.2(Scala 2.11.8)”。

    d. 选择“完成”。

  • 选择 src > main > scala 打开项目中的代码。 此示例使用 AgeMean_Div() 脚本。

    在 HDInsight 群集中运行 Spark Scala/Java 应用程序

    执行以下步骤,创建一个 Spark Scala/Java 应用程序,然后在 Spark 群集中运行该应用程序:

  • 单击“添加配置”,打开“运行/调试配置”窗口。

  • 按日志指示设置断点,然后单击本地调试按钮进行本地调试,就像 IntelliJ 中的正常 Scala/Java 项目一样。

  • 调试后,如果项目成功完成,则可将已失败作业重新提交到 Spark on HDInsight 群集。

    概述:调试 Apache Spark 应用程序
  • Apache Spark 与 BI:使用 HDInsight 中的 Spark 和 BI 工具进行交互式数据分析 Apache Spark 与机器学习:通过 HDInsight 中的 Spark 使用 HVAC 数据分析建筑物温度 Apache Spark 与机器学习:使用 HDInsight 中的 Spark 预测食品检查结果 使用 HDInsight 中的 Apache Spark 分析网站日志

    创建和运行应用程序

    使用 Scala 创建独立的应用程序 使用 Apache Livy 在 Apache Spark 群集中远程运行作业

    工具和扩展

    使用 Azure Toolkit for IntelliJ 为 HDInsight 群集创建 Apache Spark 应用程序 使用 Azure Toolkit for IntelliJ 通过 VPN 远程调试 Apache Spark 应用程序 使用 Azure Toolkit for Eclipse 中的 HDInsight 工具创建 Apache Spark 应用程序 在 HDInsight 上的 Apache Spark 群集中使用 Apache Zeppelin 笔记本 在 HDInsight 的 Apache Spark 群集中可用于 Jupyter Notebook 的内核 将外部包与 Jupyter Notebook 配合使用 Install Jupyter on your computer and connect to an HDInsight Spark cluster(在计算机上安装 Jupyter 并连接到 HDInsight Spark 群集) 管理 Azure HDInsight 中 Apache Spark 群集的资源 Track and debug jobs running on an Apache Spark cluster in HDInsight(跟踪和调试 HDInsight 中的 Apache Spark 群集上运行的作业)