Upgrade of Kibana,ElasticSearch and Logstash
[platform-oam.git] / filebeat / config / filebeat.yml
1 # ===============LICENSE_START=======================================================
2 # Acumos Apache-2.0
3 # ===================================================================================
4 # Copyright (C) 2017-2018 AT&T Intellectual Property & Tech Mahindra. All rights reserved.
5 # ===================================================================================
6 # This Acumos software file is distributed by AT&T and Tech Mahindra
7 # under the Apache License, Version 2.0 (the "License");
8 # you may not use this file except in compliance with the License.
9 # You may obtain a copy of the License at
10 #
11 # http://www.apache.org/licenses/LICENSE-2.0
12 #
13 # This file is distributed on an "AS IS" BASIS,
14 # WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
15 # See the License for the specific language governing permissions and
16 # limitations under the License.
17 # ===============LICENSE_END=========================================================
18
19 ###################### Filebeat Configuration Example #########################
20
21 # This file is an example configuration file highlighting only the most common
22 # options. The filebeat.full.yml file from the same directory contains all the
23 # supported options with more comments. You can use it as a reference.
24 #
25 # You can find the full configuration reference here:
26 # https://www.elastic.co/guide/en/beats/filebeat/index.html
27
28 #=========================== Filebeat prospectors =============================
29
30 filebeat.prospectors:
31
32 # Each - is a prospector. Most options can be set at the prospector level, so
33 # you can use different prospectors for various configurations.
34 # Below are the prospector specific configurations.
35
36 - input_type: log
37   #enabled: true
38   # Paths that should be crawled and fetched. Glob based paths.
39   paths:
40     - /filebeat-logs/*/*.log
41
42   #encoding: utf-16le-bom
43   document_type: log
44   #fields_under_root: true
45   # Exclude lines. A list of regular expressions to match. It drops the lines that are
46   # matching any regular expression from the list.
47   #exclude_lines: ["^DBG"]
48
49   # Include lines. A list of regular expressions to match. It exports the lines that are
50   # matching any regular expression from the list.
51   #include_lines: ["^ERR", "^WARN"]
52
53   # Exclude files. A list of regular expressions to match. Filebeat drops the files that
54   # are matching any regular expression from the list. By default, no files are dropped.
55   #exclude_files: [".gz$"]
56
57   # Optional additional fields. These field can be freely picked
58   # to add additional information to the crawled log files for filtering
59   #fields:
60   #  level: debug
61   #  review: 1
62
63   ### Multiline options
64
65   # Mutiline can be used for log messages spanning multiple lines. This is common
66   # for Java Stack Traces or C-Line Continuation
67
68   # The regexp Pattern that has to be matched. The example pattern matches all lines starting with [
69   #multiline.pattern: '^Caused by:'
70   #multiline.pattern: '^[[:space:]]'
71   #"^\t|^[[:space:]]+(at|...)|^Caused by:"
72   multiline.pattern: '^[0-9]{4}-[0-9]{2}-[0-9]{2} [0-9]{2}:[0-9]{2}:[0-9]{2},[0-9]{3}'
73   multiline.negate: true
74   multiline.match: after
75   # Defines if the pattern set under pattern should be negated or not. Default is false.
76   #multiline.negate: false
77
78   # Match can be set to "after" or "before". It is used to define if lines should be append to a pattern
79   # that was (not) matched before or after or as long as a pattern is not matched based on negate.
80   # Note: After is the equivalent to previous and before is the equivalent to to next in Logstash
81   #multiline.match: after
82
83
84 #================================ General =====================================
85
86 # The name of the shipper that publishes the network data. It can be used to group
87 # all the transactions sent by a single shipper in the web interface.
88 #name:
89
90 # The tags of the shipper are included in their own field with each
91 # transaction published.
92 #tags: ["service-X", "web-tier"]
93
94 # Optional fields that you can specify to add additional information to the
95 # output.
96 #fields:
97 #  env: staging
98
99 #================================ Outputs =====================================
100
101 # Configure what outputs to use when sending the data collected by the beat.
102 # Multiple outputs may be used.
103
104 #-------------------------- Elasticsearch output ------------------------------
105 #output.elasticsearch:
106   # Array of hosts to connect to.
107   #hosts: ["localhost:9200"]
108
109   # Optional protocol and basic auth credentials.
110   #protocol: "https"
111   #username: "elastic"
112   #password: "changeme"
113
114 #----------------------------- Logstash output --------------------------------
115 output.logstash:
116   # The Logstash hosts
117   hosts: ["${LOGSTASH_HOST}:${LOGSTASH_PORT}"]
118   bulk_max_size: 1024
119   # Optional SSL. By default is off.
120   # List of root certificates for HTTPS server verifications
121   #ssl.certificate_authorities: ["/etc/pki/root/ca.pem"]
122
123   # Certificate for SSL client authentication
124   #ssl.certificate: "/etc/pki/client/cert.pem"
125
126   # Client Certificate Key
127   #ssl.key: "/etc/pki/client/cert.key"
128
129 #================================ Logging =====================================
130
131 # Sets log level. The default log level is info.
132 # Available log levels are: critical, error, warning, info, debug
133 #logging.level: debug
134
135 # At debug level, you can selectively enable logging only for some components.
136 # To enable all selectors use ["*"]. Examples of other selectors are "beat",
137 # "publish", "service".
138 #logging.selectors: ["*"]