blob: a1935b29a40999e695cef4583d05108c5b9b9f77 (
plain)
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
|
LLAMA_DIR = llama.cpp
LLAMA_BUILD_DIR = $(LLAMA_DIR)/build
CFLAGS = -Wall -Wextra -O3 -I$(LLAMA_DIR)/include -I$(LLAMA_DIR)/ggml/include
LDFLAGS = -L$(LLAMA_BUILD_DIR)/src -L$(LLAMA_BUILD_DIR)/ggml/src \
-lpthread -lm -ldl -lstdc++ -g \
-lllama -lggml -lggml-cpu -lggml-base
# -Wl,-rpath,$(shell pwd)/$(LLAMA_BUILD_DIR)/bin \
prompt: prompt.c
$(CC) $(CFLAGS) prompt.c -o prompt $(LDFLAGS)
llama:
mkdir llama.cpp/build && \
cd llama.cpp/build && \
cmake ../ -DBUILD_SHARED_LIBS=OFF && \
make -j8
clean:
-rm -f prompt
cd llama.cpp/build && make clean
-rm -Rf llama.cpp/build
docker:
docker build -t promptd .
docker run -it promptd bash
|