Oracle11g安装详细步骤(图文教程)

Oracle11g安装详细步骤(图文教程)Oracle11g是J2EE初学者必学的数据库之一,下面就给大家介绍一下Oracle11g数据库的详细安装步骤。第一步:打开Oracle中文官网下载Oracle11g打开Oracle中文官网点击导航中的下载,找到数据库下载链接打开链接后,选择同意协议选项,并在下方找到Oracle11g的下载列表选择对应的版本进行下载,需要将File1和File2两个文件都下载下来第二步:解压文件,以

大家好,又见面了,我是你们的朋友全栈君。如果您正在找激活码,请点击查看最新教程,关注关注公众号 “全栈程序员社区” 获取激活教程,可能之前旧版本教程已经失效.最新Idea2022.1教程亲测有效,一键激活。

Jetbrains全系列IDE使用 1年只要46元 售后保障 童叟无欺

Oracle11g是J2EE初学者必学的数据库之一,下面就给大家介绍一下Oracle11g数据库的详细安装步骤。

第一步:打开Oracle中文官网下载Oracle11g

  • 打开Oracle中文官网
    这里写图片描述

  • 点击导航中的下载,找到数据库下载链接

这里写图片描述
这里写图片描述

  • 打开链接后,选择同意协议选项,并在下方找到Oracle11g的下载列表
    这里写图片描述
    选择对应的版本进行下载,需要将File1和File2两个文件都下载下来
    这里写图片描述

第二步:解压文件,以管理员身份运行安装程序

  • 下载完成后,解压两个文件(以Window64位为例)
    这里写图片描述

  • 打开解压后的文件夹,找到setup.exe应用程序,鼠标右击,以管理员身份运行
    这里写图片描述

第三步:安装Oracle11g

  • 检测窗口执行中,如果出现[INS-07003]错误时,请检查本地的JDK环境配置,可参考博文:http://blog.csdn.net/p445098355/article/details/72903382

这里写图片描述

  • 参考下图设置,点下一步
    这里写图片描述

  • 出现以下提示,点击确定
    这里写图片描述

  • 参考以下图片,点击下一步
    这里写图片描述
    这里写图片描述

  • 参考下方图片设置,并填写登录密码

这里写图片描述

  • 如出现以下提示,点击确定,继续下一步
    这里写图片描述
    这里写图片描述
    这里写图片描述
  • 产品安装完成后,会弹出创建数据库
    这里写图片描述
  • 数据库创建完成后,会提示以下内容
    这里写图片描述
    这里写图片描述
  • 点击口令管理,会弹出用户锁定操作界面,可以在该界面中重新设置不同用户的口令
    这里写图片描述
  • 设置完成后点击确定,并在安装界面点击关闭即可
    这里写图片描述

第四步:测试数据库是否安装成功

  • 在开始菜单中,找到Oracle程序目录,打开应用程序开发—>SQL Plus
    这里写图片描述
  • 在命令提示符中输入用户和登录密码,如提示连接成功,证明我们的Oracle11g安装完成了
    这里写图片描述
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/164228.html原文链接:https://javaforall.net

(0)
上一篇 2022年7月25日 上午9:46
下一篇 2022年7月25日 上午9:46


相关推荐

  • 【Maven学习】Maven打包生成普通jar包、可运行jar包、包含所有依赖的jar包

    【Maven学习】Maven打包生成普通jar包、可运行jar包、包含所有依赖的jar包使用maven构建工具可以将工程打包生成普通的jar包、可运行的jar包,也可以将所有依赖一起打包生成jar;一、普通的jar包普通的jar包只包含工程源码编译出的class文件以及资源文件,而不包含任何依赖;同时还包括pom文件,说明该包的依赖信息;在工程pom文件下这样写,可生成普通的jar包:jar或者,不写,因为packaging默认打包类型为

    2022年5月30日
    40
  • Spark基础操作(一)

    Spark基础操作(一)前言 我们来学习 Spark 基础吧 一 搭建学习环境 1 下载 spark 我使用的是 spark1 6 2 下载地址我们直接下载 然后解压 我们看看里面的目录 2 python shell 我们运行 bin pyspark 之后就进入了 spark 的 pythonshell 我们为了验证是否成功了 可以运行下面的代码 lines sc textFile README md printlines first 接下来就会看到打印出一条信息 ApacheSpark spark 提供的 pytho

    2026年3月18日
    2
  • 假设检验

    假设检验

    2026年3月15日
    1
  • OpenClaw 完全指南:部署你的 7×24 小时开源 AI 助手

    OpenClaw 完全指南:部署你的 7×24 小时开源 AI 助手

    2026年3月15日
    3
  • Python单例模式

    实现单例模式的三种方法:类实现、装饰器实现和元类实现

    2021年12月18日
    51
  • 基于Hmily实现TCC分布式事务解决方案[通俗易懂]

    基于Hmily实现TCC分布式事务解决方案[通俗易懂]前言在上一篇中,我们大致讲述了TCC事务的来源以及执行原理,并使用seata提供的解决方案完成了一个简单案例的整合与代码演示,本篇我们将采用Hmily的方式实现TCC事务的解决方案与演示业务描述有一个银行转账的场景,用户A需要向用户B转1块钱,如果大家使用的是同一个数据库,就不存在分布式事务的问题,现实中大家都各自使用自己的库,就产生了分布式事务可以理解为,两个账户分别在不同的银行(用户…

    2022年5月21日
    40

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注全栈程序员社区公众号