分类 默认分类 下的文章

  1. 进入Ubuntu官网,下载自己所需要的镜像文件,如果下载速度过慢,建议寻找国内源或者用X雷下载。u1.png
  2. 新建虚拟机→自定义(高级)→硬件兼容性不用改→稍后安装操作系统→客户机操作系统选择Linux版本Ubuntu
    →自定义名字和安装位置→根据需要设定虚拟机核心数、内存和硬盘大小。u2.png
  3. 全部设置完成后,编辑虚拟机设置,在CD/DVD中使用ISO映像文件,选择之前下载好的镜像文件。
  4. 启动虚拟机,选择第一项安装,根据自己需要配置系统。(选择英语安装,否则安装过程中可能会报错,另外使用SSH的记得勾选openssh server)
  5. 配置结束后会自动重启,Ubuntu就安装完毕了。u3.png

先放代码

          function init(){
            var theRequest = new Object();
            var url =decodeURI(decodeURI(location.search));//需要两次decodURL,否则容易出错
               if (url.indexOf("?") != -1) {
                 var str = url.substr(1);
                 strs = str.split("&");//以&为标识符进行隔断
                  for(var i = 0; i < strs.length; i ++) {
                    theRequest[strs[i].split("=")[0]]=(strs[i].split("=")[1]);
                  }
               }
               var ss = theRequest['field'] + ":" + theRequest['search'];

URL地址:http://localhost:8080/cx2/index2.html?search=电除尘&field=_text_
通过javascript将search和field中的值读取并拼接起来,最后ss得到的结果是_text_:电除尘

  1. 打开core文件夹下的managed-schema文件,创建field,添加字段信息,如下所示

<field name="id" type="string" indexed="true" stored="true" required="true" multiValued="false" />

name需要与导入的名字所对杨,type需要相匹配,详细信息参见W3Cschoolsolr1.png

2.保存好managed-schema文件后,记得重启solr服务(切记!否则可能部分数据无法显示),CMD中输入solr restart -p 端口号,重启成功后便可以导入数据了。

3.这里演示的是csv格式的导入,先将csv文件拖入Notepad++,转为UTF-8无BOM编码格式后整体复制,再进入solr网页端目标core下的Documents选项,在Document Type中选择CSV,粘贴到输入框内,单击Submit Document即可导入了,导入速度很快。solr2.pngsolr3.png

4.导入完成后验证数据有无导入成功,在core下的Query中输入相关数据,如果能显示出来则说明导入成功。还有一种方法,选择core下的Schema选项,在please select框中随便选择之前导入的field名,如图所示的数字即为导入的数量。solr4.pngsolr5.png

  1. 在github页面上根据自己的Solr版本号下载相应的jar包,我这里下的是7.7.1,将jar包放入Solr服务的Jetty或Tomcat的webapp/WEB-INF/lib/目录下;solrci4.pngsolrci1.png
  2. 下载该github项目,会得到一个叫做ik-analyzer-solr-master.zip的压缩文件,解压它,将/src/main/resources目录下的5个配置文件放入solr服务的Jetty或Tomcat的webapp/WEB-INF/classes/目录下;solrci3.png
  3. 配置Solr的managed-schema(在建立的core目录下),添加ik分词器,示例如下;solrci5.png

       <!-- ik分词器 -->
     <fieldType name="text_ik" class="solr.TextField">
     <analyzer type="index">
         <tokenizer class="org.wltea.analyzer.lucene.IKTokenizerFactory" useSmart="false" conf="ik.conf"/>
         <filter class="solr.LowerCaseFilterFactory"/>
     </analyzer>
     <analyzer type="query">
         <tokenizer class="org.wltea.analyzer.lucene.IKTokenizerFactory" useSmart="true" conf="ik.conf"/>
         <filter class="solr.LowerCaseFilterFactory"/>
     </analyzer>
     </fieldType>
  4. 启动Solr服务测试分词,选择相应的core文件,我这里选的是core1,在弹出的选项中选择Analysis,会跳转到分析的界面,在Analyse Fieldname / FieldType:选择text_ik,输入一句话并点击Analyse Values,如果单词被划分出来则说明分词器工作正常。solrci6.pngsolrci7.pngsolrci8.png
  5. 由于一些专有词汇无法被识别,因此要加入自己的字典,字典目录为serversolr-webappwebappWEB-INFclassesext.dic,编码建议用UTF-8无BOM格式。solrci9.png

  • Solr版本号:7.7.2
  1. 直接在/server/solr下创建新文件夹,名字自定义,此处命名为core1,作为新建的core;solrc1.png
  2. 找到/server/solr/configsets/_default目录下的conf文件夹,然后拷贝一份到/server/solr/core1目录节点下;solrc2.pngsolrc3.png
  3. 启动solr服务,并进入solr主页,点击Core Admin,再点击Add Core,第一项和第二项改成刚才创建文件夹的名字,其他的不要动,点下方的Add Core,这样一个Core文件就创建成功了!solrc4.pngsolrc5.png