Blame
Date:
Fri Jan 21 09:53:47 2022 UTC
Message:
gemini_parse_reply: return code and don't close connection clang static analyzer found a possible use after free: if the code is not 2X in gemini_parse_reply we call close_conn. Then, in net_read we set req->done_header, but req may have been free'd! Actually, this is almost impossible to trigger. close_conn never ends up calling free(req) on its first try, because tls_close takes a while and is rescheduled by libevent. (The check req->ctx != NULL in close_conn is always true if it's a gemini request.) Nevertheless, it's clear to move close_conn out of gemini_parse_reply and simply return the response code: it feels wrong that a "parsing function" takes logic decisions.
001
2021-07-24
op
/*
002
2021-07-24
op
* Copyright (c) 2021 Omar Polo <op@omarpolo.com>
003
2021-07-24
op
*
004
2021-07-24
op
* Permission to use, copy, modify, and distribute this software for any
005
2021-07-24
op
* purpose with or without fee is hereby granted, provided that the above
006
2021-07-24
op
* copyright notice and this permission notice appear in all copies.
007
2021-07-24
op
*
008
2021-07-24
op
* THE SOFTWARE IS PROVIDED "AS IS" AND THE AUTHOR DISCLAIMS ALL WARRANTIES
009
2021-07-24
op
* WITH REGARD TO THIS SOFTWARE INCLUDING ALL IMPLIED WARRANTIES OF
010
2021-07-24
op
* MERCHANTABILITY AND FITNESS. IN NO EVENT SHALL THE AUTHOR BE LIABLE FOR
011
2021-07-24
op
* ANY SPECIAL, DIRECT, INDIRECT, OR CONSEQUENTIAL DAMAGES OR ANY DAMAGES
012
2021-07-24
op
* WHATSOEVER RESULTING FROM LOSS OF USE, DATA OR PROFITS, WHETHER IN AN
013
2021-07-24
op
* ACTION OF CONTRACT, NEGLIGENCE OR OTHER TORTIOUS ACTION, ARISING OUT OF
014
2021-07-24
op
* OR IN CONNECTION WITH THE USE OR PERFORMANCE OF THIS SOFTWARE.
015
2021-07-24
op
*/
016
2021-07-24
op
017
2021-07-24
op
#include "compat.h"
018
2021-07-24
op
019
2021-07-24
op
#include <sys/types.h>
020
2021-07-24
op
#include <sys/socket.h>
021
2021-07-24
op
022
2021-07-24
op
#include <netinet/in.h>
023
2021-07-24
op
024
2021-07-24
op
#include <assert.h>
025
2021-07-24
op
#include <ctype.h>
026
2021-07-24
op
#include <errno.h>
027
2021-07-24
op
#include <netdb.h>
028
2021-07-24
op
#include <stdarg.h>
029
2021-07-24
op
#include <stdio.h>
030
2021-07-24
op
#include <stdlib.h>
031
2021-07-24
op
#include <string.h>
032
2021-07-24
op
#include <tls.h>
033
2021-07-24
op
#include <unistd.h>
034
2021-07-24
op
035
2021-07-24
op
#if HAVE_ASR_RUN
036
2021-07-24
op
# include <asr.h>
037
2021-07-24
op
#endif
038
2021-07-24
op
039
2021-07-24
op
#include "telescope.h"
040
2022-01-11
op
#include "utils.h"
041
2021-07-24
op
042
2021-07-24
op
static struct imsgev *iev_ui;
043
2021-07-24
op
044
2021-07-24
op
/* a pending request */
045
2021-07-24
op
struct req {
046
2021-07-24
op
struct phos_uri url;
047
2021-07-24
op
uint32_t id;
048
2021-07-25
op
int proto;
049
2021-07-24
op
int fd;
050
2021-07-24
op
struct tls *ctx;
051
2021-07-24
op
char req[1024];
052
2021-07-24
op
size_t len;
053
2021-07-24
op
int done_header;
054
2021-07-24
op
struct bufferevent *bev;
055
2021-07-24
op
056
2021-07-24
op
struct addrinfo *servinfo, *p;
057
2021-07-24
op
#if HAVE_ASR_RUN
058
2021-07-24
op
struct addrinfo hints;
059
2021-07-24
op
struct event_asr *asrev;
060
2021-07-24
op
#endif
061
2021-07-24
op
062
2021-07-24
op
TAILQ_ENTRY(req) reqs;
063
2021-07-24
op
};
064
2021-07-24
op
065
2021-07-24
op
static struct req *req_by_id(uint32_t);
066
2021-07-24
op
067
2021-07-24
op
static void die(void) __attribute__((__noreturn__));
068
2021-07-24
op
069
2021-07-24
op
static void try_to_connect(int, short, void*);
070
2021-07-24
op
071
2021-07-24
op
#if HAVE_ASR_RUN
072
2021-07-24
op
static void query_done(struct asr_result*, void*);
073
2021-07-24
op
static void async_conn_towards(struct req*);
074
2021-07-24
op
#else
075
2021-07-24
op
static void blocking_conn_towards(struct req*);
076
2021-07-24
op
#endif
077
2021-07-24
op
078
2021-07-24
op
static void close_with_err(struct req*, const char*);
079
2021-07-24
op
static void close_with_errf(struct req*, const char*, ...)
080
2021-07-24
op
__attribute__((format(printf, 2, 3)));
081
2021-07-24
op
082
2021-07-24
op
static void net_tls_handshake(int, short, void *);
083
2021-07-24
op
static void net_tls_readcb(int, short, void *);
084
2021-07-24
op
static void net_tls_writecb(int, short, void *);
085
2021-07-24
op
086
2021-07-24
op
static int gemini_parse_reply(struct req *, const char *, size_t);
087
2021-07-24
op
088
2021-07-24
op
static void net_ready(struct req *req);
089
2021-07-24
op
static void net_read(struct bufferevent *, void *);
090
2021-07-24
op
static void net_write(struct bufferevent *, void *);
091
2021-07-24
op
static void net_error(struct bufferevent *, short, void *);
092
2021-07-24
op
093
2021-07-24
op
static void handle_get_raw(struct imsg *, size_t);
094
2021-07-24
op
static void handle_cert_status(struct imsg*, size_t);
095
2021-07-24
op
static void handle_proceed(struct imsg*, size_t);
096
2021-07-24
op
static void handle_stop(struct imsg*, size_t);
097
2021-07-24
op
static void handle_quit(struct imsg*, size_t);
098
2021-07-24
op
static void handle_dispatch_imsg(int, short, void*);
099
2021-07-24
op
100
2021-07-24
op
static int net_send_ui(int, uint32_t, const void *, uint16_t);
101
2021-07-24
op
102
2021-07-24
op
/* TODO: making this customizable */
103
2021-07-24
op
struct timeval timeout_for_handshake = { 5, 0 };
104
2021-07-24
op
105
2021-07-24
op
static imsg_handlerfn *handlers[] = {
106
2021-07-24
op
[IMSG_GET_RAW] = handle_get_raw,
107
2021-07-24
op
[IMSG_CERT_STATUS] = handle_cert_status,
108
2021-07-24
op
[IMSG_PROCEED] = handle_proceed,
109
2021-07-24
op
[IMSG_STOP] = handle_stop,
110
2021-07-24
op
[IMSG_QUIT] = handle_quit,
111
2021-07-24
op
};
112
2021-07-24
op
113
2021-07-24
op
typedef void (*statefn)(int, short, void*);
114
2021-07-24
op
115
2021-07-24
op
TAILQ_HEAD(, req) reqhead;
116
2021-07-24
op
117
2021-07-24
op
static inline void
118
2021-07-24
op
yield_r(struct req *req, statefn fn, struct timeval *tv)
119
2021-07-24
op
{
120
2021-07-24
op
event_once(req->fd, EV_READ, fn, req, tv);
121
2021-07-24
op
}
122
2021-07-24
op
123
2021-07-24
op
static inline void
124
2021-07-24
op
yield_w(struct req *req, statefn fn, struct timeval *tv)
125
2021-07-24
op
{
126
2021-07-24
op
event_once(req->fd, EV_WRITE, fn, req, tv);
127
2021-07-24
op
}
128
2021-07-24
op
129
2021-07-24
op
static struct req *
130
2021-07-24
op
req_by_id(uint32_t id)
131
2021-07-24
op
{
132
2021-07-24
op
struct req *r;
133
2021-07-24
op
134
2021-07-24
op
TAILQ_FOREACH(r, &reqhead, reqs) {
135
2021-07-24
op
if (r->id == id)
136
2021-07-24
op
return r;
137
2021-07-24
op
}
138
2021-07-24
op
139
2021-07-24
op
return NULL;
140
2021-07-24
op
}
141
2021-07-24
op
142
2021-07-24
op
static void __attribute__((__noreturn__))
143
2021-07-24
op
die(void)
144
2021-07-24
op
{
145
2021-07-24
op
abort(); /* TODO */
146
2021-07-24
op
}
147
2021-07-24
op
148
2021-07-24
op
static void
149
2021-07-24
op
try_to_connect(int fd, short ev, void *d)
150
2021-07-24
op
{
151
2021-07-24
op
struct req *req = d;
152
2021-07-24
op
int error = 0;
153
2021-07-24
op
socklen_t len = sizeof(error);
154
2021-07-24
op
155
2021-07-24
op
again:
156
2021-07-24
op
if (req->p == NULL)
157
2021-07-24
op
goto err;
158
2021-07-24
op
159
2021-07-24
op
if (req->fd != -1) {
160
2021-07-24
op
if (getsockopt(req->fd, SOL_SOCKET, SO_ERROR, &error,
161
2021-07-24
op
&len) == -1)
162
2021-07-24
op
goto err;
163
2021-07-24
op
if (error != 0) {
164
2021-08-26
op
errno = error;
165
2021-08-26
op
goto err;
166
2021-07-24
op
}
167
2021-07-24
op
goto done;
168
2021-07-24
op
}
169
2021-07-24
op
170
2021-07-24
op
req->fd = socket(req->p->ai_family, req->p->ai_socktype,
171
2021-07-24
op
req->p->ai_protocol);
172
2021-07-24
op
if (req->fd == -1) {
173
2021-07-24
op
req->p = req->p->ai_next;
174
2021-07-24
op
goto again;
175
2021-07-24
op
} else {
176
2021-07-24
op
mark_nonblock(req->fd);
177
2021-07-24
op
if (connect(req->fd, req->p->ai_addr, req->p->ai_addrlen) == 0)
178
2021-07-24
op
goto done;
179
2021-07-24
op
yield_w(req, try_to_connect, NULL);
180
2021-07-24
op
}
181
2021-07-24
op
return;
182
2021-07-24
op
183
2021-07-24
op
err:
184
2021-07-24
op
freeaddrinfo(req->servinfo);
185
2021-07-24
op
close_with_errf(req, "failed to connect to %s",
186
2021-07-24
op
req->url.host);
187
2021-07-24
op
return;
188
2021-07-24
op
189
2021-07-24
op
done:
190
2021-07-24
op
freeaddrinfo(req->servinfo);
191
2021-07-24
op
192
2021-07-25
op
switch (req->proto) {
193
2021-07-25
op
case PROTO_FINGER:
194
2021-07-25
op
case PROTO_GOPHER:
195
2021-07-25
op
/* finger and gopher don't have a header nor TLS */
196
2021-07-25
op
req->done_header = 1;
197
2021-07-25
op
net_ready(req);
198
2021-07-25
op
break;
199
2021-07-25
op
200
2022-01-04
op
case PROTO_GEMINI: {
201
2022-01-04
op
struct tls_config *conf;
202
2022-01-04
op
203
2022-01-04
op
if ((conf = tls_config_new()) == NULL)
204
2022-01-04
op
die();
205
2022-01-04
op
206
2022-01-04
op
tls_config_insecure_noverifycert(conf);
207
2022-01-04
op
tls_config_insecure_noverifyname(conf);
208
2022-01-04
op
209
2021-07-25
op
/* prepare tls */
210
2021-07-25
op
if ((req->ctx = tls_client()) == NULL) {
211
2021-07-25
op
close_with_errf(req, "tls_client: %s",
212
2021-07-25
op
strerror(errno));
213
2021-07-25
op
return;
214
2021-07-25
op
}
215
2022-01-04
op
216
2022-01-04
op
if (tls_configure(req->ctx, conf) == -1) {
217
2021-07-25
op
close_with_errf(req, "tls_configure: %s",
218
2021-07-25
op
tls_error(req->ctx));
219
2021-07-25
op
return;
220
2021-07-25
op
}
221
2022-01-04
op
tls_config_free(conf);
222
2022-01-04
op
223
2021-07-25
op
if (tls_connect_socket(req->ctx, req->fd, req->url.host)
224
2021-07-25
op
== -1) {
225
2021-07-25
op
close_with_errf(req, "tls_connect_socket: %s",
226
2021-07-25
op
tls_error(req->ctx));
227
2021-07-25
op
return;
228
2021-07-25
op
}
229
2021-07-25
op
yield_w(req, net_tls_handshake, &timeout_for_handshake);
230
2021-07-25
op
break;
231
2022-01-04
op
}
232
2021-07-25
op
233
2021-07-25
op
default:
234
2021-07-25
op
die();
235
2021-07-24
op
}
236
2021-07-24
op
}
237
2021-07-24
op
238
2021-07-24
op
#if HAVE_ASR_RUN
239
2021-07-24
op
static void
240
2021-07-24
op
query_done(struct asr_result *res, void *d)
241
2021-07-24
op
{
242
2021-07-24
op
struct req *req = d;
243
2021-07-24
op
244
2021-07-24
op
req->asrev = NULL;
245
2021-07-24
op
if (res->ar_gai_errno != 0) {
246
2021-07-24
op
close_with_errf(req, "failed to resolve %s: %s",
247
2021-07-24
op
req->url.host, gai_strerror(res->ar_gai_errno));
248
2021-07-24
op
return;
249
2021-07-24
op
}
250
2021-07-24
op
251
2021-07-24
op
req->fd = -1;
252
2021-07-24
op
req->servinfo = res->ar_addrinfo;
253
2021-07-24
op
req->p = res->ar_addrinfo;
254
2021-07-24
op
try_to_connect(0, 0, req);
255
2021-07-24
op
}
256
2021-07-24
op
257
2021-07-24
op
static void
258
2021-07-24
op
async_conn_towards(struct req *req)
259
2021-07-24
op
{
260
2021-07-24
op
struct asr_query *q;
261
2021-07-24
op
const char *proto = "1965";
262
2021-07-24
op
263
2021-07-24
op
if (*req->url.port != '\0')
264
2021-07-24
op
proto = req->url.port;
265
2021-07-24
op
266
2021-07-24
op
req->hints.ai_family = AF_UNSPEC;
267
2021-07-24
op
req->hints.ai_socktype = SOCK_STREAM;
268
2021-07-24
op
q = getaddrinfo_async(req->url.host, proto, &req->hints, NULL);
269
2021-07-24
op
req->asrev = event_asr_run(q, query_done, req);
270
2021-07-24
op
}
271
2021-07-24
op
#else
272
2021-07-24
op
static void
273
2021-07-24
op
blocking_conn_towards(struct req *req)
274
2021-07-24
op
{
275
2021-07-24
op
struct addrinfo hints;
276
2021-07-24
op
struct phos_uri *url = &req->url;
277
2021-07-24
op
int status;
278
2021-07-24
op
const char *proto = "1965";
279
2021-07-24
op
280
2021-07-24
op
if (*url->port != '\0')
281
2021-07-24
op
proto = url->port;
282
2021-07-24
op
283
2021-07-24
op
memset(&hints, 0, sizeof(hints));
284
2021-07-24
op
hints.ai_family = AF_UNSPEC;
285
2021-07-24
op
hints.ai_socktype = SOCK_STREAM;
286
2021-07-24
op
287
2021-07-24
op
if ((status = getaddrinfo(url->host, proto, &hints, &req->servinfo))) {
288
2021-07-24
op
close_with_errf(req, "failed to resolve %s: %s",
289
2021-07-24
op
url->host, gai_strerror(status));
290
2021-07-24
op
return;
291
2021-07-24
op
}
292
2021-07-24
op
293
2021-07-24
op
req->fd = -1;
294
2021-07-24
op
req->p = req->servinfo;
295
2021-07-24
op
try_to_connect(0, 0, req);
296
2021-07-24
op
}
297
2021-07-24
op
#endif
298
2021-07-24
op
299
2021-07-24
op
static void
300
2021-07-24
op
close_conn(int fd, short ev, void *d)
301
2021-07-24
op
{
302
2021-07-24
op
struct req *req = d;
303
2021-07-24
op
304
2021-07-24
op
#if HAVE_ASR_RUN
305
2021-07-24
op
if (req->asrev != NULL)
306
2021-07-24
op
event_asr_abort(req->asrev);
307
2021-07-24
op
#endif
308
2021-07-24
op
309
2021-07-24
op
if (req->bev != NULL) {
310
2021-07-24
op
bufferevent_free(req->bev);
311
2021-07-24
op
req->bev = NULL;
312
2021-07-24
op
}
313
2021-07-24
op
314
2021-07-24
op
if (req->ctx != NULL) {
315
2021-07-24
op
switch (tls_close(req->ctx)) {
316
2021-07-24
op
case TLS_WANT_POLLIN:
317
2021-07-24
op
yield_r(req, close_conn, NULL);
318
2021-07-24
op
return;
319
2021-07-24
op
case TLS_WANT_POLLOUT:
320
2021-07-24
op
yield_w(req, close_conn, NULL);
321
2021-07-24
op
return;
322
2021-07-24
op
}
323
2021-07-24
op
324
2021-07-24
op
tls_free(req->ctx);
325
2021-07-24
op
req->ctx = NULL;
326
2021-07-24
op
}
327
2021-07-24
op
328
2021-07-24
op
TAILQ_REMOVE(&reqhead, req, reqs);
329
2021-07-24
op
if (req->fd != -1)
330
2021-07-24
op
close(req->fd);
331
2021-07-24
op
free(req);
332
2021-07-24
op
}
333
2021-07-24
op
334
2021-07-24
op
static void
335
2021-07-24
op
close_with_err(struct req *req, const char *err)
336
2021-07-24
op
{
337
2021-07-24
op
net_send_ui(IMSG_ERR, req->id, err, strlen(err)+1);
338
2021-07-24
op
close_conn(0, 0, req);
339
2021-07-24
op
}
340
2021-07-24
op
341
2021-07-24
op
static void
342
2021-07-24
op
close_with_errf(struct req *req, const char *fmt, ...)
343
2021-07-24
op
{
344
2021-07-24
op
va_list ap;
345
2021-07-24
op
char *s;
346
2021-07-24
op
347
2021-07-24
op
va_start(ap, fmt);
348
2021-07-24
op
if (vasprintf(&s, fmt, ap) == -1)
349
2021-07-24
op
abort();
350
2021-07-24
op
va_end(ap);
351
2021-07-24
op
352
2021-07-24
op
close_with_err(req, s);
353
2021-07-24
op
free(s);
354
2021-07-24
op
}
355
2021-07-24
op
356
2021-07-24
op
static void
357
2021-07-24
op
net_tls_handshake(int fd, short event, void *d)
358
2021-07-24
op
{
359
2021-07-24
op
struct req *req = d;
360
2021-07-24
op
const char *hash;
361
2021-07-24
op
362
2021-07-24
op
if (event == EV_TIMEOUT) {
363
2021-07-24
op
close_with_err(req, "Timeout loading page");
364
2021-07-24
op
return;
365
2021-07-24
op
}
366
2021-07-24
op
367
2021-07-24
op
switch (tls_handshake(req->ctx)) {
368
2021-07-24
op
case TLS_WANT_POLLIN:
369
2021-07-24
op
yield_r(req, net_tls_handshake, NULL);
370
2021-07-24
op
return;
371
2021-07-24
op
case TLS_WANT_POLLOUT:
372
2021-07-24
op
yield_w(req, net_tls_handshake, NULL);
373
2021-07-24
op
return;
374
2021-07-24
op
}
375
2021-07-24
op
376
2021-07-24
op
hash = tls_peer_cert_hash(req->ctx);
377
2021-07-24
op
if (hash == NULL) {
378
2021-07-24
op
close_with_errf(req, "handshake failed: %s",
379
2021-07-24
op
tls_error(req->ctx));
380
2021-07-24
op
return;
381
2021-07-24
op
}
382
2021-07-24
op
net_send_ui(IMSG_CHECK_CERT, req->id, hash, strlen(hash)+1);
383
2021-07-24
op
}
384
2021-07-24
op
385
2021-07-24
op
static void
386
2021-07-24
op
net_tls_readcb(int fd, short event, void *d)
387
2021-07-24
op
{
388
2021-07-24
op
struct bufferevent *bufev = d;
389
2021-07-24
op
struct req *req = bufev->cbarg;
390
2021-07-25
op
char buf[IBUF_READ_SIZE];
391
2021-07-24
op
int what = EVBUFFER_READ;
392
2021-07-24
op
int howmuch = IBUF_READ_SIZE;
393
2021-07-27
op
int res;
394
2021-07-24
op
ssize_t ret;
395
2021-07-24
op
size_t len;
396
2021-07-24
op
397
2021-07-24
op
if (event == EV_TIMEOUT) {
398
2021-07-24
op
what |= EVBUFFER_TIMEOUT;
399
2021-07-24
op
goto err;
400
2021-07-24
op
}
401
2021-07-24
op
402
2021-07-24
op
if (bufev->wm_read.high != 0)
403
2021-07-24
op
howmuch = MIN(sizeof(buf), bufev->wm_read.high);
404
2021-07-24
op
405
2021-07-24
op
switch (ret = tls_read(req->ctx, buf, howmuch)) {
406
2021-07-24
op
case TLS_WANT_POLLIN:
407
2021-07-24
op
case TLS_WANT_POLLOUT:
408
2021-07-24
op
goto retry;
409
2021-07-24
op
case -1:
410
2021-07-24
op
what |= EVBUFFER_ERROR;
411
2021-07-24
op
goto err;
412
2021-07-24
op
}
413
2021-07-24
op
len = ret;
414
2021-07-24
op
415
2021-07-24
op
if (len == 0) {
416
2021-07-24
op
what |= EVBUFFER_EOF;
417
2021-07-24
op
goto err;
418
2021-07-24
op
}
419
2021-07-24
op
420
2021-07-27
op
res = evbuffer_add(bufev->input, buf, len);
421
2021-07-27
op
if (res == -1) {
422
2021-07-24
op
what |= EVBUFFER_ERROR;
423
2021-07-24
op
goto err;
424
2021-07-24
op
}
425
2021-07-24
op
426
2021-07-24
op
event_add(&bufev->ev_read, NULL);
427
2021-07-24
op
428
2021-07-24
op
len = EVBUFFER_LENGTH(bufev->input);
429
2021-07-24
op
if (bufev->wm_read.low != 0 && len < bufev->wm_read.low)
430
2021-07-24
op
return;
431
2021-07-24
op
432
2021-07-24
op
if (bufev->readcb != NULL)
433
2021-07-24
op
(*bufev->readcb)(bufev, bufev->cbarg);
434
2021-07-24
op
return;
435
2021-07-24
op
436
2021-07-24
op
retry:
437
2021-07-24
op
event_add(&bufev->ev_read, NULL);
438
2021-07-24
op
return;
439
2021-07-24
op
440
2021-07-24
op
err:
441
2021-07-24
op
(*bufev->errorcb)(bufev, what, bufev->cbarg);
442
2021-07-24
op
}
443
2021-07-24
op
444
2021-07-24
op
static void
445
2021-07-24
op
net_tls_writecb(int fd, short event, void *d)
446
2021-07-24
op
{
447
2021-07-24
op
struct bufferevent *bufev = d;
448
2021-07-24
op
struct req *req = bufev->cbarg;
449
2021-07-24
op
ssize_t ret;
450
2021-07-24
op
size_t len;
451
2021-07-24
op
short what = EVBUFFER_WRITE;
452
2021-07-24
op
453
2021-07-24
op
if (event & EV_TIMEOUT) {
454
2021-07-24
op
what |= EVBUFFER_TIMEOUT;
455
2021-07-24
op
goto err;
456
2021-07-24
op
}
457
2021-07-24
op
458
2021-07-24
op
if (EVBUFFER_LENGTH(bufev->output) != 0) {
459
2021-07-24
op
ret = tls_write(req->ctx, EVBUFFER_DATA(bufev->output),
460
2021-07-24
op
EVBUFFER_LENGTH(bufev->output));
461
2021-07-24
op
switch (ret) {
462
2021-07-24
op
case TLS_WANT_POLLIN:
463
2021-07-24
op
case TLS_WANT_POLLOUT:
464
2021-07-24
op
goto retry;
465
2021-07-24
op
case -1:
466
2021-07-24
op
what |= EVBUFFER_ERROR;
467
2021-07-24
op
goto err;
468
2021-07-24
op
}
469
2021-07-24
op
len = ret;
470
2021-07-27
op
471
2021-07-24
op
evbuffer_drain(bufev->output, len);
472
2021-07-24
op
}
473
2021-07-24
op
474
2021-07-24
op
if (EVBUFFER_LENGTH(bufev->output) != 0)
475
2021-07-24
op
event_add(&bufev->ev_write, NULL);
476
2021-07-24
op
477
2021-07-24
op
if (bufev->writecb != NULL &&
478
2021-07-24
op
EVBUFFER_LENGTH(bufev->output) <= bufev->wm_write.low)
479
2021-07-24
op
(*bufev->writecb)(bufev, bufev->cbarg);
480
2021-07-24
op
return;
481
2021-07-24
op
482
2021-07-24
op
retry:
483
2021-07-24
op
event_add(&bufev->ev_write, NULL);
484
2021-07-24
op
return;
485
2021-07-24
op
486
2021-07-24
op
err:
487
2021-07-24
op
(*bufev->errorcb)(bufev, what, bufev->cbarg);
488
2021-07-24
op
}
489
2021-07-24
op
490
2021-07-24
op
static int
491
2021-07-24
op
gemini_parse_reply(struct req *req, const char *header, size_t len)
492
2021-07-24
op
{
493
2021-07-24
op
int code;
494
2021-07-24
op
const char *t;
495
2021-07-24
op
496
2021-07-24
op
if (len < 4)
497
2021-07-24
op
return 0;
498
2021-07-24
op
499
2021-07-24
op
if (!isdigit(header[0]) || !isdigit(header[1]))
500
2021-07-24
op
return 0;
501
2021-07-24
op
502
2021-07-24
op
code = (header[0] - '0')*10 + (header[1] - '0');
503
2021-07-24
op
if (header[2] != ' ')
504
2021-07-24
op
return 0;
505
2021-07-24
op
506
2021-07-24
op
t = header + 3;
507
2021-07-24
op
508
2021-07-24
op
net_send_ui(IMSG_GOT_CODE, req->id, &code, sizeof(code));
509
2021-07-24
op
net_send_ui(IMSG_GOT_META, req->id, t, strlen(t)+1);
510
2021-07-24
op
511
2021-07-24
op
bufferevent_disable(req->bev, EV_READ|EV_WRITE);
512
2021-07-24
op
513
2022-01-21
op
return code;
514
2021-07-24
op
}
515
2021-07-24
op
516
2021-07-24
op
/* called when we're ready to read/write */
517
2021-07-24
op
static void
518
2021-07-24
op
net_ready(struct req *req)
519
2021-07-24
op
{
520
2021-07-24
op
req->bev = bufferevent_new(req->fd, net_read, net_write, net_error,
521
2021-07-24
op
req);
522
2021-07-24
op
if (req->bev == NULL)
523
2021-07-24
op
die();
524
2021-07-24
op
525
2021-07-28
op
#if HAVE_EVENT2
526
2021-07-27
op
evbuffer_unfreeze(req->bev->input, 0);
527
2021-07-27
op
evbuffer_unfreeze(req->bev->output, 1);
528
2021-07-28
op
#endif
529
2021-07-27
op
530
2021-07-24
op
/* setup tls i/o layer */
531
2021-07-24
op
if (req->ctx != NULL) {
532
2021-07-24
op
event_set(&req->bev->ev_read, req->fd, EV_READ,
533
2021-07-24
op
net_tls_readcb, req->bev);
534
2021-07-24
op
event_set(&req->bev->ev_write, req->fd, EV_WRITE,
535
2021-07-24
op
net_tls_writecb, req->bev);
536
2021-07-24
op
}
537
2021-07-24
op
538
2021-07-24
op
/* TODO: adjust watermarks */
539
2021-07-24
op
bufferevent_setwatermark(req->bev, EV_WRITE, 1, 0);
540
2021-07-24
op
bufferevent_setwatermark(req->bev, EV_READ, 1, 0);
541
2021-07-24
op
542
2021-07-24
op
bufferevent_enable(req->bev, EV_READ|EV_WRITE);
543
2021-07-24
op
544
2021-07-24
op
bufferevent_write(req->bev, req->req, req->len);
545
2021-07-24
op
}
546
2021-07-24
op
547
2021-07-24
op
/* called after a read has been done */
548
2021-07-24
op
static void
549
2021-07-24
op
net_read(struct bufferevent *bev, void *d)
550
2021-07-24
op
{
551
2021-07-24
op
struct req *req = d;
552
2021-07-24
op
struct evbuffer *src = EVBUFFER_INPUT(bev);
553
2022-01-20
op
uint8_t *data;
554
2021-09-12
op
size_t len, chunk;
555
2021-07-24
op
int r;
556
2021-07-24
op
char *header;
557
2021-07-24
op
558
2021-07-24
op
if (!req->done_header) {
559
2021-07-24
op
header = evbuffer_readln(src, &len, EVBUFFER_EOL_CRLF_STRICT);
560
2021-07-24
op
if (header == NULL && EVBUFFER_LENGTH(src) >= 1024)
561
2021-07-24
op
goto err;
562
2021-07-24
op
if (header == NULL)
563
2021-07-24
op
return;
564
2021-07-24
op
r = gemini_parse_reply(req, header, len);
565
2021-07-24
op
free(header);
566
2022-01-21
op
req->done_header = 1;
567
2022-01-21
op
if (r == 0)
568
2021-07-24
op
goto err;
569
2022-01-21
op
else if (r < 20 || r >= 30)
570
2022-01-21
op
close_conn(0, 0, req);
571
2021-07-24
op
return;
572
2021-07-24
op
}
573
2021-07-24
op
574
2021-07-24
op
if ((len = EVBUFFER_LENGTH(src)) == 0)
575
2021-07-24
op
return;
576
2021-07-24
op
data = EVBUFFER_DATA(src);
577
2021-09-12
op
578
2021-09-12
op
/*
579
2021-09-12
op
* Split data into chunks before sending. imsg can't handle
580
2021-09-12
op
* message that are "too big".
581
2021-09-12
op
*/
582
2021-09-12
op
while (len != 0) {
583
2021-09-12
op
chunk = MIN(len, 4096);
584
2021-09-12
op
net_send_ui(IMSG_BUF, req->id, data, chunk);
585
2021-09-12
op
data += chunk;
586
2021-09-12
op
len -= chunk;
587
2021-09-12
op
}
588
2021-09-12
op
589
2021-09-12
op
evbuffer_drain(src, EVBUFFER_LENGTH(src));
590
2021-07-24
op
return;
591
2021-07-24
op
592
2021-07-24
op
err:
593
2021-07-24
op
(*bev->errorcb)(bev, EVBUFFER_READ, bev->cbarg);
594
2021-07-24
op
}
595
2021-07-24
op
596
2021-07-24
op
/* called after a write has been done */
597
2021-07-24
op
static void
598
2021-07-24
op
net_write(struct bufferevent *bev, void *d)
599
2021-07-24
op
{
600
2021-07-24
op
struct evbuffer *dst = EVBUFFER_OUTPUT(bev);
601
2021-07-24
op
602
2021-07-24
op
if (EVBUFFER_LENGTH(dst) == 0)
603
2021-07-24
op
(*bev->errorcb)(bev, EVBUFFER_WRITE, bev->cbarg);
604
2021-07-24
op
}
605
2021-07-24
op
606
2021-07-24
op
static void
607
2021-07-24
op
net_error(struct bufferevent *bev, short error, void *d)
608
2021-07-24
op
{
609
2021-07-24
op
struct req *req = d;
610
2021-07-25
op
struct evbuffer *src;
611
2021-07-24
op
612
2021-07-24
op
if (error & EVBUFFER_TIMEOUT) {
613
2021-07-24
op
close_with_err(req, "Timeout loading page");
614
2021-07-24
op
return;
615
2021-07-24
op
}
616
2021-07-24
op
617
2021-07-24
op
if (error & EVBUFFER_ERROR) {
618
2021-07-24
op
close_with_err(req, "buffer event error");
619
2021-07-24
op
return;
620
2021-07-24
op
}
621
2021-07-24
op
622
2021-07-24
op
if (error & EVBUFFER_EOF) {
623
2021-11-10
op
/* EOF and no header */
624
2021-11-10
op
if (!req->done_header) {
625
2021-11-10
op
close_with_err(req, "protocol error");
626
2021-11-10
op
return;
627
2021-11-10
op
}
628
2021-11-10
op
629
2021-08-26
op
src = EVBUFFER_INPUT(req->bev);
630
2021-07-25
op
if (EVBUFFER_LENGTH(src) != 0)
631
2021-07-25
op
net_send_ui(IMSG_BUF, req->id, EVBUFFER_DATA(src),
632
2021-07-25
op
EVBUFFER_LENGTH(src));
633
2021-07-24
op
net_send_ui(IMSG_EOF, req->id, NULL, 0);
634
2021-07-24
op
close_conn(0, 0, req);
635
2021-07-24
op
return;
636
2021-07-24
op
}
637
2021-07-24
op
638
2021-07-24
op
if (error & EVBUFFER_WRITE) {
639
2021-07-24
op
/* finished sending request */
640
2021-07-24
op
bufferevent_disable(bev, EV_WRITE);
641
2021-07-24
op
return;
642
2021-07-24
op
}
643
2021-07-24
op
644
2021-07-24
op
if (error & EVBUFFER_READ) {
645
2021-07-24
op
close_with_err(req, "protocol error");
646
2021-07-24
op
return;
647
2021-07-24
op
}
648
2021-07-24
op
649
2021-07-24
op
close_with_errf(req, "unknown event error %x", error);
650
2021-07-24
op
}
651
2021-07-24
op
652
2021-07-24
op
static void
653
2021-07-24
op
handle_get_raw(struct imsg *imsg, size_t datalen)
654
2021-07-24
op
{
655
2021-07-24
op
struct req *req;
656
2021-07-24
op
struct get_req *r;
657
2021-07-24
op
658
2021-07-24
op
r = imsg->data;
659
2021-07-24
op
660
2021-07-24
op
if (datalen != sizeof(*r))
661
2021-07-24
op
die();
662
2021-07-24
op
663
2021-07-24
op
if ((req = calloc(1, sizeof(*req))) == NULL)
664
2021-07-24
op
die();
665
2021-07-24
op
666
2021-07-24
op
req->id = imsg->hdr.peerid;
667
2021-07-24
op
TAILQ_INSERT_HEAD(&reqhead, req, reqs);
668
2021-07-24
op
669
2021-07-24
op
strlcpy(req->url.host, r->host, sizeof(req->url.host));
670
2021-07-24
op
strlcpy(req->url.port, r->port, sizeof(req->url.port));
671
2021-07-24
op
672
2021-07-24
op
strlcpy(req->req, r->req, sizeof(req->req));
673
2021-07-24
op
req->len = strlen(r->req);
674
2021-07-24
op
675
2021-07-25
op
req->proto = r->proto;
676
2021-07-25
op
677
2021-07-24
op
#if HAVE_ASR_RUN
678
2021-08-26
op
async_conn_towards(req);
679
2021-07-24
op
#else
680
2021-07-24
op
blocking_conn_towards(req);
681
2021-07-24
op
#endif
682
2021-07-24
op
}
683
2021-07-24
op
684
2021-07-24
op
static void
685
2021-07-24
op
handle_cert_status(struct imsg *imsg, size_t datalen)
686
2021-07-24
op
{
687
2021-07-24
op
struct req *req;
688
2021-07-24
op
int is_ok;
689
2021-07-24
op
690
2021-07-24
op
req = req_by_id(imsg->hdr.peerid);
691
2021-07-24
op
692
2021-07-24
op
if (datalen < sizeof(is_ok))
693
2021-07-24
op
die();
694
2021-07-24
op
memcpy(&is_ok, imsg->data, sizeof(is_ok));
695
2021-07-24
op
696
2021-07-24
op
if (is_ok)
697
2021-07-24
op
net_ready(req);
698
2021-07-24
op
else
699
2021-07-24
op
close_conn(0, 0, req);
700
2021-07-24
op
}
701
2021-07-24
op
702
2021-07-24
op
static void
703
2021-07-24
op
handle_proceed(struct imsg *imsg, size_t datalen)
704
2021-07-24
op
{
705
2021-07-24
op
struct req *req;
706
2021-07-24
op
707
2021-07-24
op
if ((req = req_by_id(imsg->hdr.peerid)) == NULL)
708
2021-07-24
op
return;
709
2021-07-24
op
710
2021-07-24
op
bufferevent_enable(req->bev, EV_READ);
711
2021-07-24
op
}
712
2021-07-24
op
713
2021-07-24
op
static void
714
2021-07-24
op
handle_stop(struct imsg *imsg, size_t datalen)
715
2021-07-24
op
{
716
2021-07-24
op
struct req *req;
717
2021-07-24
op
718
2021-07-24
op
if ((req = req_by_id(imsg->hdr.peerid)) == NULL)
719
2021-07-24
op
return;
720
2021-07-24
op
close_conn(0, 0, req);
721
2021-07-24
op
}
722
2021-07-24
op
723
2021-07-24
op
static void
724
2021-07-24
op
handle_quit(struct imsg *imsg, size_t datalen)
725
2021-07-24
op
{
726
2021-07-24
op
event_loopbreak();
727
2021-07-24
op
}
728
2021-07-24
op
729
2021-07-24
op
static void
730
2021-07-24
op
handle_dispatch_imsg(int fd, short ev, void *d)
731
2021-07-24
op
{
732
2021-07-24
op
struct imsgev *iev = d;
733
2021-07-24
op
734
2021-07-24
op
if (dispatch_imsg(iev, ev, handlers, sizeof(handlers)) == -1)
735
2021-07-24
op
err(1, "connection closed");
736
2021-07-24
op
}
737
2021-07-24
op
738
2021-07-24
op
static int
739
2021-07-24
op
net_send_ui(int type, uint32_t peerid, const void *data,
740
2021-07-24
op
uint16_t datalen)
741
2021-07-24
op
{
742
2021-07-24
op
return imsg_compose_event(iev_ui, type, peerid, 0, -1,
743
2021-07-24
op
data, datalen);
744
2021-07-24
op
}
745
2021-07-24
op
746
2021-07-24
op
int
747
2021-07-24
op
net_main(void)
748
2021-07-24
op
{
749
2021-07-24
op
setproctitle("net");
750
2021-07-24
op
751
2021-07-24
op
TAILQ_INIT(&reqhead);
752
2021-07-24
op
753
2021-07-24
op
event_init();
754
2021-07-24
op
755
2021-07-24
op
/* Setup pipe and event handler to the main process */
756
2021-07-24
op
if ((iev_ui = malloc(sizeof(*iev_ui))) == NULL)
757
2021-07-24
op
die();
758
2021-07-24
op
imsg_init(&iev_ui->ibuf, 3);
759
2021-07-24
op
iev_ui->handler = handle_dispatch_imsg;
760
2021-07-24
op
iev_ui->events = EV_READ;
761
2021-07-24
op
event_set(&iev_ui->ev, iev_ui->ibuf.fd, iev_ui->events,
762
2021-07-24
op
iev_ui->handler, iev_ui);
763
2021-07-24
op
event_add(&iev_ui->ev, NULL);
764
2021-07-24
op
765
2021-07-24
op
sandbox_net_process();
766
2021-07-24
op
767
2021-07-24
op
event_dispatch();
768
2021-07-24
op
769
2021-07-24
op
msgbuf_clear(&iev_ui->ibuf.w);
770
2021-07-24
op
close(iev_ui->ibuf.fd);
771
2021-07-24
op
free(iev_ui);
772
2021-07-24
op
773
2021-07-24
op
return 0;
774
2021-07-24
op
}
Omar Polo