常规检查:查看选项→索引→NTFS,确认所有分区都[包含到数据库],确认后,再删除数据库文件,点击[强制重建] 下面方法是亲身经历,是断电造成的,费了不少时间才解决,现分享出来: 断电后,Everything搜不到很多文件,步骤1无效.原因可能是Everything依赖的硬盘日志文件有误,先查看Everything现在的文件总数,对硬盘根目录的所有内容右键属性(让它重新遍历文件数,可能需要多次查看属性,等文件数量不再增加即可),让Everything重建数据库,Everything的文件总数应该…
当debug为true的时候,ALLOWED_HOSTS是跳过不管用的.所以这里需要将debug关掉,令debug=false,ALLOWED_HOSTS=[ '*' ]表示所有的主机都可以访问 开启django远程访问的命令是python manage.py runserver 0.0.0.0:8000,现在改为python manage.py runserver 0.0.0.0:8000 --insecure 即可. 参考链接:Django项目关闭debug模式后,静态文件无法加载的解决办法…
Mysql文件太大导入失败解决办法总结 在使用phpmyadmin导入数据库的时候可能会碰到由于数据库文件太大而无法导入的问题! 英文提示如下:File exceeds the maximum allowed size 如果正在使用的主机可以自定义php.ini的话,就可以通过直接修改这个文件来解决,即通过通过编辑php.ini文件来重新设定上传文件大小的限定,具体操作步骤: 第一步:打开php.ini,找到 upload_max_filesize . memory_limit . post_m…
原文:关于SSIS批量抽取Excel文件报0x80004005错误的解决办法 标题: Microsoft Visual Studio ------------------------------ Package [连接管理器“Excel 连接管理器”] 出错: SSIS 错误代码 DTS_E_OLEDBERROR.出现 OLE DB 错误.错误代码: 0x80004005. 已获得 OLE DB 记录.源:“Microsoft JET Database Engine” Hresult: 0x80…
使用Eclipse编辑jsp.js文件时,经常出现卡死现象,在网上百度了N次,经过N次优化调整后,卡死现象逐步好转,具体那个方法起到作用,不太好讲.将所有用过的方法罗列如下: 1.取消验证 windows–>perferences–>validation 把 除了manual 下面的全部点掉,build下只留 classpath dependency Validator 2.关闭拼写检查 windows–>perferences–>general–> editors->…
easyui的combogrid当配置pagination为true进行分页时,当datagrid加载其他数据页,和上一次选中的valueField不匹配时,会导致combogrid直接显示valueField的值,而不是textField的值. 第一页包含valueField,可以选中记录和正常显示textField的值 第二页未包含valueField,datagrid没有选中的记录,combogrid直接显示出valueField的值. combogrid翻页后保持显示内容为配置的text…
ubuntu网络重启后或主机重启后,/etc/resolv.conf恢复原样的解决办法 /etc/resolv.conf中设置dns之后每次重启该文件会被覆盖,针对这种情况找了一些个解决方法 防止/etc/resolv.conf被覆盖的方法 方法一 1.需要创建一个文件/etc/resolvconf/resolv.conf.d/tail sudo vi /etc/resolvconf/resolv.conf.d/tail 2.在该文件中写入自己需要的dns服务器,格式与/etc/resolv.c…
文件cat正常,cat重定向到文件可能是乱码:解决办法如下 .vimrc文件中增加如下两行 set fileencoding=utf8 set fileencodings=utf8 据一位老神医说,文件开头的部分文字可能导致整个文件为乱码. vim去除bom头指令 set nobomb 暂不知有啥用...…
linux下删除大量文件提示参数过长解决办法:在当前目录下rm -rf * 在linux中删除大量文件时,直接用rm会出现:-bash: /bin/rm: 参数列表过长的错误. 这时可以用find命令来结合使用. 删除当前目录下文件名或文件夹名中包含name字段的文件: find . -name "name*" | xargs rm -rf 假如文件名或文件夹名中包含空格: find . -name "name*" -print0 | xargs -0 rm -rf…
hbase将dfs作为存储,公司测试环境断电后,hadoop集群会因此而损坏一些block文件,这个时候,客户端在读取文件时会报一些错: DataXceiver error processing READ_BLOCK operation Got error for OP_READ_BLOCK 因为文件损坏,我直接是把损坏的文件删除 先检查损坏文件: hadoop fsck / 输出: 注意到 CORRUPT FILES 22:表示有22个损坏的块文件 删除损坏文件: hadoop fsck /…