linux清理内存
实验,需要把linux系统的缓存清除,网上找到办法。
echo 3 > /proc/sys/vm/drop_caches
我在系统中用,总是提示没有权限,即使使用sudo。
解决办法,不算是完全解决,但是可以用。
sudo gedit /proc/sys/vm/drop_caches
点击保存,会显示失败,取消然后显示已更改,不知道为什么,文件内容已经更改,且
free -m的结果中buffer等后三项已经清除。
每次需要清除内存的时候都需要如上步骤。
Hadoop调错
用32 3 10为参数为xml文件划分时,当在Hadoop执行时出错,意外的错误,不知道为什么,文件切分出现问题。目前估计是xml小片不能太大,java会溢出内存。
用32 1 10划分就OK了,目前在1G上测试过了,要在50G上测试。
修改Ubuntu下Chrome的字体
新版的Chrome无法修改全部字体,
随着浏览器更新到10.0版,设置界面完全推倒重来,由对话框变成了页面。但是引入了一个大问题:修改默认字体的时候,对大多数网站不起作用了!我自己遇到此问题的时候,在论坛上搜索了一下,发现中招的人好多。初步观察结果,是仅对在meta标签里指定了charset=gbk的网页起作用,其他网页一律还是难看得要死的楷体。
"webkit": { "webprefs": { "default_fixed_font_size": 16, "default_font_size": 16, "fixed_font_family": "Sans", "minimum_font_size": 12, "sansserif_font_family": "Sans", "serif_font_family": "Sans", "uses_universal_detector": true } }
faint hadoop
失误删除了服务器上的hadoop,不得不重新配置。
格式化后,说啥也启动不起来。
没办法,放弃自己diy后的hadoop版本,然后下载了最新的hadoop。
还是启动不起来。
记录一下全新配置hadoop的问题:
(1)更改conf下的hadoop-env.sh
export JAVA_HOME=
(2)core-site.xml
<?xml version="1.0"?> <?xml-stylesheet type="text/xsl" href="configuration.xsl"?> <!-- Put site-specific property overrides in this file. --> <configuration> <property> <name>fs.default.name</name> <value>hdfs://cn50:9000</value> </property> <property> <name>hadoop.tmp.dir</name> <value>/workspace/xianmin/tmp</value> </property> </configuration>
(3)hdfs-site.xml
<?xml version="1.0"?> <?xml-stylesheet type="text/xsl" href="configuration.xsl"?> <!-- Put site-specific property overrides in this file. --> <configuration> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.data.dir</name> <value>/workspace/xianmin/data</value> </property> <property> <name>dfs.name.dir</name> <value>/workspace/xianmin/name</value> </property> </configuration>
(4)mapred-site.xml
<?xml version="1.0"?> <?xml-stylesheet type="text/xsl" href="configuration.xsl"?> <!-- Put site-specific property overrides in this file. --> <configuration> <property> <name>mapred.job.tracker</name> <value>cn50:9001</value> </property> </configuration>
注意这里一定要用cnxx,调试了两天的错误就是因为format的时候找不到host,fuck。
当然需要/etc/hosts要设定cnxx
(5)把hdfs-site.xml和mapred-site.xml复制到hdfs/conf和mapred/conf下
format 然后 启动
hadoop safe mode
让Hadoop不处在safe mode 模式下,只要在Hadoop的目录下输入:
bin/hadoop dfsadmin -safemode leave
bibentry的用法
网上找到bibentry的用法,无外乎\usepackage, \nobibliography*, \nobibliography{}等用法。
但是把我的tex文件用上bibentry时总是有错误,原始文件如下:
\documentclass[11pt,twocolumn,a4paper]{article} \usepackage{CJK} \usepackage{xspace} \usepackage{bibentry} \usepackage{natbib} \usepackage[dvipdfm, %pdflatex,pdftex 这里决定运行文件的方式不同 pdfstartview=FitH, CJKbookmarks=true, bookmarksnumbered=true, bookmarksopen=true, colorlinks, %注释掉此项则交叉引用为彩色边框(将colorlinks和pdfborder同时注释掉) pdfborder=001, %注释掉此项则交叉引用为彩色边框 linkcolor=blue, anchorcolor=blue, citecolor=blue, pagebackref ]{hyperref} \usepackage{epsfig} \usepackage{amssymb} \usepackage{amsmath} \usepackage{amsfonts} \nobibliography* \begin{document} \begin{CJK*}{GBK}{kai} \author{} \title{LSH的下界} \maketitle \input{lsh} \begin{abstract} 给定一个测度空间$(X,d_X)$,$c\geq{1}$,$r>0$,并且$p,q\in{[0,1]}$,一个从$X$到$\mathbb{N}$ 上的mapping的分布$\mapH$$:X\rightarrow{\mathbb{N}}$被称为一个$(r,cr,p,q)-sensitive$的hash 函数族,如果(1)对于$X$中的两个距离至多是$r$的点,$\mapH$把他们映射为相同值 的概率至少是$p$,(2)而对于距离大于$cr$的两个点,$\mapH$把他们映射为相同值 的概率至多是$q$。这个概念在1996年被Indyk和Motwani引进作为一个高效的最近 邻搜索的算法的基础。算法的性能被一个参数$\rho=\frac{\log(1/p)}{\log(1/q)}$ 控制,构造具有更小的$\rho$就会很自然地提供更好的nearest neighbor的算法。 本文中,我们证明对于$X=l_1$,基本上想做到$\rho\leq{\frac{1}{2c}}$。这个结构 几乎已经match了Indyk和Motwani给出的上界$\rho\leq{\frac{1}{c}}$。 \end{abstract} \clearpage \end{CJK*} \bibliographystyle{plainnat} {\small \bibliography{BibDataQuality} } \end{document}
编译:latex, bibtex, latex, latex
总是出错:
例如: latex error: Command \BR@bibitem already defined.
\par <insert text>
最后发现是hyperref的问题,改为下列就好了
\usepackage[dvipdfm, %pdflatex,pdftex 这里决定运行文件的方式不同 pdfstartview=FitH, CJKbookmarks=true, bookmarksnumbered=true, bookmarksopen=true, colorlinks, %注释掉此项则交叉引用为彩色边框(将colorlinks和pdfborder同时注释掉) pdfborder=001, %注释掉此项则交叉引用为彩色边框 linkcolor=blue, anchorcolor=blue, citecolor=blue, %pagebackref ]{hyperref}