解析器
文本搜索解析器负责将原文档文本分解为多个token,并标识每个token的类型。这里的类型集由解析器本身定义。注意,解析器并不修改文本,它只是确定合理的单词边界。由于这一限制,人们更需要定制词典,而不是为每个应用程序定制解析器。
目前GaussDB(DWS)提供了四个内置的解析器,分别为pg_catalog.default/pg_catalog.ngram/pg_catalog.zhparser/pg_catalog.pound,其中pg_catalog.default适用于英文分词场景,pg_catalog.ngram/pg_catalog.zhparser/pg_catalog.pound是为了支持中文全文检索功能新增的三种解析器,适用于中文及中英混合分词场景。
内置解析器pg_catalog.default,它能识别23种token类型,显示在表1中。
别名 |
描述 |
示例 |
---|---|---|
asciiword |
Word, all ASCII letters |
elephant |
word |
Word, all letters |
mañana |
numword |
Word, letters and digits |
beta1 |
asciihword |
Hyphenated word, all ASCII |
up-to-date |
hword |
Hyphenated word, all letters |
lógico-matemática |
numhword |
Hyphenated word, letters and digits |
postgresql-beta1 |
hword_asciipart |
Hyphenated word part, all ASCII |
postgresql in the context postgresql-beta1 |
hword_part |
Hyphenated word part, all letters |
lógico or matemática in the context lógico-matemática |
hword_numpart |
Hyphenated word part, letters and digits |
beta1 in the context postgresql-beta1 |
|
Email address |
foo@example.com |
protocol |
Protocol head |
http:// |
url |
URL |
example.com/stuff/index.html |
host |
Host |
example.com |
url_path |
URL path |
/stuff/index.html, in the context of a URL |
file |
File or path name |
/usr/local/foo.txt, if not within a URL |
sfloat |
Scientific notation |
-1.23E+56 |
float |
Decimal notation |
-1.234 |
int |
Signed integer |
-1234 |
uint |
Unsigned integer |
1234 |
version |
Version number |
8.3.0 |
tag |
XML tag |
<a href="dictionaries.html"> |
entity |
XML entity |
& |
blank |
Space symbols |
(any whitespace or punctuation not otherwise recognized) |
注意:对于解析器来说,一个“字母”的概念是由数据库的语言区域设置,即lc_ctype设置决定的。只包含基本ASCII字母的词被报告为一个单独的token类型,因为这类词有时需要被区分出来。大多数欧洲语言中,对token类型word和asciiword的处理方法是类似的。
email不支持某些由RFC 5322定义的有效电子邮件字符。具体来说,可用于email用户名的非字母数字字符仅包含句号、破折号和下划线。
解析器可能对同一内容进行重叠token。例如,包含连字符的单词将作为一个整体进行报告,其组件也会分别被报告:
1 2 3 4 5 6 7 8 9 |
SELECT alias, description, token FROM ts_debug('english','foo-bar-beta1'); alias | description | token -----------------+------------------------------------------+--------------- numhword | Hyphenated word, letters and digits | foo-bar-beta1 hword_asciipart | Hyphenated word part, all ASCII | foo blank | Space symbols | - hword_asciipart | Hyphenated word part, all ASCII | bar blank | Space symbols | - hword_numpart | Hyphenated word part, letters and digits | beta1 |
这种行为是有必要的,因为它支持搜索整个复合词和各组件。这里是另一个例子:
1 2 3 4 5 6 7 |
SELECT alias, description, token FROM ts_debug('english','http://example.com/stuff/index.html'); alias | description | token ----------+---------------+------------------------------ protocol | Protocol head | http:// url | URL | example.com/stuff/index.html host | Host | example.com url_path | URL path | /stuff/index.html |
N-gram是一种机械分词方法,适用于无语义中文分词场景。N-gram分词法可以保证分词的完备性,但是为了照顾所有可能,把很多不必要的词也加入到索引中,导致索引项增加。N-gram支持中文编码包括GBK、UTF-8。内置6种token类型,如表2 所示。
Alias |
Description |
---|---|
zh_words |
chinese words |
en_word |
english word |
numeric |
numeric data |
alnum |
alnum string |
grapsymbol |
graphic symbol |
multisymbol |
multiple symbol |
Zhparser是基于词典的语义分词方法,底层调用SCWS(https://github.com/hightman/scws)分词算法,适用于有语义的中文分词场景。SCWS是一套基于词频词典的机械式中文分词引擎,可以将一整段的中文文本正确地切分成词。支持GBK、UTF-8两种中文编码格式。内置26种token类型如表3所示:
Alias |
Description |
---|---|
A |
形容词 |
B |
区别词 |
C |
连词 |
D |
副词 |
E |
叹词 |
F |
方位词 |
G |
语素 |
H |
前接成分 |
I |
成语 |
J |
简称略语 |
K |
后接成分 |
L |
习用语 |
M |
数词 |
N |
名词 |
O |
拟声词 |
P |
介词 |
Q |
量词 |
R |
代词 |
S |
处所词 |
T |
时间词 |
U |
助词 |
V |
动词 |
W |
标点符号 |
X |
未知词 |
Y |
语气词 |
Z |
状态词 |
Pound是一种固定格式分词方法,适用于无语意但待解析文本以固定分隔符分割开来的中英文分词场景。支持中文编码包括GBK、UTF8,支持英文编码包括ASCII。内置6种token类型,如表4 token类型所示;支持5种分隔符,如表5所示,在用户不进行自定义设置的情况下分隔符默认为“#”。Pound限制单个token长度不能超过256个字符。