KG_搜索_test.py 3.2 KB

1234567891011121314151617181920212223242526272829303132333435363738394041424344454647484950515253545556575859606162636465666768697071727374757677787980818283
  1. from pprint import pprint
  2. import requests
  3. import json
  4. headers = {
  5. "token": '369ca613c7a74a58b0f95be2cfd59257',
  6. "Content-Type": "application/json",
  7. }
  8. json_obj = {"query": "山东师范", # 最终检索的query,可能是点击sug触发
  9. # "inputQuery": "山东师范",# ⽤户⼿动输⼊的query // 筛选条件
  10. #"channelId": 1, # 频道id,int,可选,没有是不过滤
  11. #"nodeId": 1, # 知识树节点id,int,可选,没有是不过滤,当前只⽀持叶⼦节点过滤
  12. "timeFilter": {}, # 可选,时间范围过滤,为空表示不进⾏时间 过滤,begin和end为unix时间戳。
  13. "tagFilter": ['教育经历'], # 可选,标签过滤,为空表示不进⾏标签过滤
  14. #"docTypeFilter": "word", # 可选,⽂档类型筛选项,没有不进⾏⽂档类型过滤,当前枚举值: word|excel|pdf
  15. "sort": "relevance",# 排序⽅式默认相关性,其他排序时间,趋势热度
  16. "pn": 1, # ⻚码,从1开始编码
  17. "ps": 20, # pagesize,每⻚⻚⾯条数,默认不填20
  18. "resultFields": [],
  19. "searchType":"advanced",
  20. "logId": "8966036931719178386",# string类型,除了翻⻚,其他检索不要加logId
  21. "needCorrect": True, # 是否需要纠错,不需要则按照输⼊的query进⾏检索,需要则根据da返回的 纠错query以及置信度进⾏检索(显示看接⼝响应的escoreType&rewriteQuery)
  22. "saveHistory": True, # 是否保存历史记录
  23. "classesFilter":[] # 类别过滤(新增)
  24. }
  25. base_url = 'http://180.76.188.39:8085/mpks/api/search'
  26. r = requests.post(base_url, headers=headers, json=json_obj)
  27. rst = json.loads(r.text)
  28. pprint(rst)
  29. # url = 'http://180.76.188.39:8085/mpks/api/extra/tree/getAllParent'
  30. # params = {
  31. # 'nodeId':1
  32. # }
  33. # response = requests.get(url=url, headers=headers, params=params)
  34. # pprint(json.loads(response.text))
  35. url = 'http://180.76.188.39:8085/mpks/api/extra/gremlin'
  36. json_obj = {
  37. # 通过id查询实体
  38. # "gremlin": "g.key('b67029eb1341457162598cf84198d7e2').with('*').graph"
  39. # 2 查询实体并包括关联实体的数据
  40. # "gremlin" : "g.key('b67029eb1341457162598cf84198d7e2').out.with('*').graph"
  41. # 4 图谱边关系显示范围控制
  42. # "gremlin": "g.key('b67029eb1341457162598cf84198d7e2').out.out.out.with('*').graph"
  43. # 查询name为测试数据的实体以及出边
  44. # "gremlin" : "g.has('name.@value', MATCH, '测试数据').out.with('*').graph"
  45. "gremlin" : "g.has('type', MATCH, '人才特征demo').out.with('*').graph"
  46. }
  47. r = requests.post(url, headers=headers, json=json_obj)
  48. pprint(json.loads(r.text))
  49. # # 获取全部知识树信息
  50. # url = 'http://180.76.188.39:8085/mpks/api/extra/getNodes'
  51. # response = requests.get(url=url, headers=headers)
  52. # pprint(json.loads(response.text))
  53. # # 通过知识树节点获取所有相关⽂档
  54. # url = 'http://180.76.188.39:8085/mpks/api/extra/source/data/list'
  55. # json_obj = {
  56. # "contentType": "struct",
  57. # "inputTypes": "api_push",
  58. # }
  59. # 根据类⽬查询实体
  60. # url = 'http://180.76.188.39:8085/api/datamanage/graph/view'
  61. # json_obj = {
  62. # "type": "学校demo",
  63. # "wd": "山东师范",
  64. # "fuzzy": 1,
  65. # "mode": 0,
  66. # "pageNumbe": 1,
  67. # "pageSize": 10,
  68. # }
  69. # r = requests.post(url, headers=headers, json=json_obj)
  70. # pprint(json.loads(r.text))