lucene 단순 입문

5120 단어 spring자바lucene
순서.
lucene 은 자바 계 의 검색 왕 이 라 고 부 끄 럽 지 않다.최근 몇 년 동안 elasticsearch 의 폭발 적 인 등장 은 이전의 solr 와 solr cloud 를 포함 하여 그 밑바닥 은 모두 lucene 이다.lucene 을 간단하게 알 면 elasticsearch 를 사용 하 는 데 도움 이 됩 니 다.본 고 는 간단 한 api 사용 을 간단하게 살 펴 보 았 다.
의존 도 를 높이다
        
            org.apache.lucene
            lucene-core
            4.6.1
        
        
            org.apache.lucene
            lucene-analyzers-common
            4.6.1
        
        
            org.apache.lucene
            lucene-queryparser
            4.6.1
        
        
            org.apache.lucene
            lucene-codecs
            4.6.1
        

색인 및 검색
색인 생 성
File indexDir = new File(this.getClass().getClassLoader().getResource("").getFile());

    @Test
    public void createIndex() throws IOException {
//        Directory index = new RAMDirectory();
        Directory index = FSDirectory.open(indexDir);
        // 0. Specify the analyzer for tokenizing text.
        //    The same analyzer should be used for indexing and searching
        StandardAnalyzer analyzer = new StandardAnalyzer(Version.LUCENE_46);
        IndexWriterConfig config = new IndexWriterConfig(Version.LUCENE_46, analyzer);

        // 1. create the index
        IndexWriter w = new IndexWriter(index, config);
        addDoc(w, "Lucene in Action", "193398817");
        addDoc(w, "Lucene for Dummies", "55320055Z");
        addDoc(w, "Managing Gigabytes", "55063554A");
        addDoc(w, "The Art of Computer Science", "9900333X");
        w.close();
    }

    private void addDoc(IndexWriter w, String title, String isbn) throws IOException {
        Document doc = new Document();
        doc.add(new TextField("title", title, Field.Store.YES));
        // use a string field for isbn because we don't want it tokenized
        doc.add(new StringField("isbn", isbn, Field.Store.YES));
        w.addDocument(doc);
    }

검색 하 다.
 @Test
    public void search() throws IOException {
        // 2. query
        String querystr = "lucene";

        // the "title" arg specifies the default field to use
        // when no field is explicitly specified in the query.
        Query q = null;
        try {
            StandardAnalyzer analyzer = new StandardAnalyzer(Version.LUCENE_46);
            q = new QueryParser(Version.LUCENE_46,"title", analyzer).parse(querystr);
        } catch (Exception e) {
            e.printStackTrace();
        }

        // 3. search
        int hitsPerPage = 10;
        Directory index = FSDirectory.open(indexDir);
        IndexReader reader = DirectoryReader.open(index);
        IndexSearcher searcher = new IndexSearcher(reader);
        TopScoreDocCollector collector = TopScoreDocCollector.create(hitsPerPage, true);
        searcher.search(q, collector);
        ScoreDoc[] hits = collector.topDocs().scoreDocs;

        // 4. display results
        System.out.println("Found " + hits.length + " hits.");
        for (int i = 0; i < hits.length; ++i) {
            int docId = hits[i].doc;
            Document d = searcher.doc(docId);
            System.out.println((i + 1) + ". " + d.get("isbn") + "\t" + d.get("title"));
        }

        // reader can only be closed when there
        // is no need to access the documents any more.
        reader.close();
    }

분사
검색 에 있어 서 단 어 는 두 곳 에 나타 나 는데 하 나 는 사용자 가 입력 한 키 워드 를 나 누 는 것 이 고 다른 하 나 는 문 서 를 색인 할 때 문서 내용 에 대한 단어 입 니 다.두 단 어 는 가장 똑 같 아야 만 더욱 잘 일치 할 수 있다.
    @Test
    public void cutWords() throws IOException {
//        StandardAnalyzer analyzer = new StandardAnalyzer(Version.LUCENE_46);
//        CJKAnalyzer analyzer = new CJKAnalyzer(Version.LUCENE_46);
        SimpleAnalyzer analyzer = new SimpleAnalyzer();
        String text = "Spark                  ,  Scala    , UC     AMPLab       2010   。";
        TokenStream tokenStream = analyzer.tokenStream("content", new StringReader(text));
        CharTermAttribute charTermAttribute = tokenStream.addAttribute(CharTermAttribute.class);
        try {
            tokenStream.reset();
            while (tokenStream.incrementToken()) {
                System.out.println(charTermAttribute.toString());
            }
            tokenStream.end();
        } finally {
            tokenStream.close();
            analyzer.close();
        }
    }

출력
spark
 
  
 
  
 
  
  
 
  
  
  
  
scala
  
  
 
uc
   
  
amplab
   
  
  
2010
 
  

본 프로젝트 github
레 퍼 런 스
  • lucenetutorial
  • helloLucene
  • 좋은 웹페이지 즐겨찾기