如何不使用DBCA在Oracle 11中删除数据库
2023-03-14 22:28:33 时间
如何不使用DBCA在Oracle 11中删除数据库
本文简短的教程,将会向你展示如何不使用DBCA(数据库配置助手)在Oracle 11中删除数据库。
1- 导入数据库的SID,如果没有定义的话
- export ORACLE_SID=database
2- 以操作系统认证连接数据库
- [oracle@Oracle11 ~]$ sqlplus / as sysdba
- SQL*Plus: Release 11.2.0.1.0 Production on Mon Dec 1 17:38:02 2014
- Copyright (c) 1982, 2009, Oracle. All rights reserved.
- Connected to an idle instance.
3- 启动数据库实例
- SQL> startup
- ORACLE instance started.
- Total System Global Area 3340451840 bytes
- Fixed Size 2217952 bytes
- Variable Size 1828718624 bytes
- Database Buffers 1493172224 bytes
- Redo Buffers 16343040 bytes
- Database mounted.
- Database opened.
4- 关闭数据库
- SQL> shutdown immediate;
- Database closed.
- Database dismounted.
- ORACLE instance shut down.
5- 启动独占模式
- SQL> startup mount exclusive restrict
- ORACLE instance started.
- Total System Global Area 3340451840 bytes
- Fixed Size 2217952 bytes
- Variable Size 1828718624 bytes
- Database Buffers 1493172224 bytes
- Redo Buffers 16343040 bytes
- Database mounted.
6- 删除数据库
- SQL> drop database;
- <br>Database dropped.
- Disconnected from Oracle Database 11g Enterprise Edition Release 11.2.0.1.0 - 64bit Production
- With the Partitioning, OLAP, Data Mining and Real Application Testing options
完成!
原文发布时间:2014-12-21
本文来自云栖合作伙伴“linux中国”
相关文章
- 利用Amazon Redshift的流式摄取构建实时数仓
- 使用TiDB Data Migration迁移分库分表数据库到Amazon Aurora
- 使用Spline收集Spark数据血缘实践
- 亚马逊云科技2022年3月新服务新功能强势来袭
- 使用 Amazon MSK、Apache Flink 和 Apache Hudi 实现流批一体的数据湖架构
- Amazon Personalize 个性化效果评估,从准确性到多样性、新颖性和偶然性
- 适用于 Oracle 向 Amazon RDS for PostgreSQL 或 Amazon Aurora PostgreSQL 迁移的架构和代码验证器
- Java(2)-Java IO输入输出流
- 在 Kubernetes 中为应用程序部署 Amazon RDS 数据库
- 使用企业微信接收数据库事件通知
- 油气服务行业软件落地“亚马逊云科技中国区域”的技术实践与总结
- 使用 Amazon MSK Connect、Apache Flink 和 Apache Hudi 创建低延迟的源到数据湖管道
- Amazon EMR之EMR和Hadoop的前世今生
- 自动驾驶数据湖(二):图像处理和模型训练
- 百尺竿头更进一步-Aurora读写能力扩展之Sharding-JDBC篇
- java.util.IllegalFormatConversionException: d != java.lang.String
- java bridge_java 实现Bridge模式(转)
- Java开发不得不会!java或者符号
- python numPy模块
- 通过AWS DMS与Amazon MSK来实时收集Amazon DocumentDB中的流数据