||||

제목 RIngle링글 day1 : ChatGPT is Coming For Google... 작성일 24-02-12 02:20
성명 Risa 회사명
전화번호 - - 휴대폰번호 - -
이메일 aaa@naver.com
주소 ()
홈페이지
답변방법

본문

하하~일단 https://i-model-h0use.com 끝까지 다 읽고 뭐 대강 어떻게 했는지도 다 알겠고~ 하는 상태까지 왔는데,​많이 아쉽네여~~~아쉽다 아쉬어~~~북경대+MIT금융공학 친구들 쪼금만 더 화이팅 하지....아쉽다~~~~~~~~~~~~~~~​아니 ㅋㅋㅋㅋㅋㅋㅋㅋㅋ이 친구들도 중점적으로 본 논문이 이거잖아!!!!!!!!!그럼 이 논문에서 한것처럼만 robustness test를 해줬으면 좋았을텐데ㅠㅠ.......혹시 해봤는데 잘 안됐니??????????​​​아 뭔가 실패한 모델일 수도 있겠다란 생각이 좀 드는데, 그냥 저자한테 연락해서 코드 달라고 해볼까 ㅋㅋㅋㅋㅋ구현하기 귀찮은데 ㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋ​​​​암튼 이 논문을 그래도 끝까지 읽은 이유는...기존의 주가예측하는데 CNN 모델을 사용하는데에 대한 단점을 생각해봤을 때,내가 생각했던 몇 가지를 이 친구들도 똑같이 생각했고,그리고 그걸 해결해보고자 이것저것 뚝딱뚝딱 해본거 같은데,​그걸 해결하는 어떤 한 가지 approach를 보여줬으니까, 나는 정말 만족스러웠던거 같다​​​하지만그래서 저희 CS-ACNN 모델을 사용하세요!!!!에 대한 부분에는 크게 공감하지 못한 부분이 아쉽긴 하지만..하하~~~~​​​​​아 그러면 저자한테 연락해서 코드 한 번 구걸해보고 ㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋ난 그 시간 벌어서자동매매 코드나 짜야겠다 ㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋ(하아 이건 진짜 또 언제 짜고 앉아있냐 진짜루ㅜㅜㅜㅜㅜㅜㅜㅜㅜㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋ)​​​​와 근데 주말 삭제시키니까 논문 한 편은 뚝딱 읽어버리네???오호~ 그럼 직장다니면서라도 1년에 최소 52편은 읽을 수 있겠구만~5 Experiment​We empirically test our CS-ACNN model on equity index exchange-traded funds (ETF) data from three major financial markets. We evaluate our model against several benchmark models in terms of both classification performance metrics and strategy profit. The former evaluates how well the model is able to distinguish between upward and downward price movements, while the latter measures the model’s profitability in actual financial markets.저희는 3가지 주요한 금융 시장에 대한 ETF를 두고 저희 CS-ACNN 모델을 실증분석 했습니다. 모델을 평가할때는 분류성능과 매매전략의 수익성 모두에 대한 잣대를 두었습니다. 전자는 위로갈지 아래로 갈지를 얼마나 잘 분류해내는 것이며, 후자는 이 모델로 투자 전략을 세웠을 때에 대한 것입니다.​We provide a comprehensive analysis to understand the effects of different input images and different components of our model. Section 6 provides additional analysis regarding the interpretability of our model.저희는 또한 서로 다른 종류의 이미지들마다의 효과와, 모델에서 각 구성물들에 대한 효과 모두를 이해하기 위해 포관적인 분석을 진행했습니다. 섹션 6에서 저희 모델의 해석가능성에 관한 추가적인 분석도 보여드리겠습니다.​​​​5.1 DataOur dataset consists of three equity index ETFs, including the SPDR S&P 500 ETF (SPY) for US stocks, the Hang Seng Index ETF (2833.HK) for Hong Kong stocks, and the China AMC SSE 50 ETF (510050.SS) for Chinese A-shares, thus covering both developed and emerging markets. We collect daily time series data for opening price, high price, low price, closing price, and volume (OHLCV) starting from the launch date of each ETF until February 10, 2022. Specifically, the starting date is January 29, 1993 for SPY, September 21, 2004 for 2833.HK, and February 23, 2005 for 510050.SS. These time series are converted into 2-D images, as discussed in Section 3, and we divide the data into a training set (64%), a validation set (16%), and a test set (20%) chronologically to avoid look-ahead bias. The validation set is used to determine the hyperparameters of the model. We report out-of-sample results on the test set throughout this section.데이터셋은 세 가지의 ETF이며, 미국/홍콩/중국A 세 가지 시장입니다[SPY, 2833.HK, 510050.SS]. 이럼으로써 선진국과 이머징을 모두 포괄하는 것입니다. 데이터는 데일리 시고저종거를 끌어왔으며 각 ETF의 상장일부터 2022년 2월 10일까지 내려왔습니다. SPY의 상장일은 1993년 1월 29일 / 2833.HK의 상장일은 2004년 9월 21일 / 510050.SS의 살장일은 2005년 2월 23일입니다. 이 시계열은 섹션3에서 논의되었듯이 2D 이미지로 변환되며, train / validation / test로 각각 64:16:20의 비율로 나누었으며, “미래를보는자!”의 bias를 피하고자 시간순으로 나누었습니다. validation set을 어떻게 두는지는 저희 모델의 하이퍼파라미터입니다. 저희는 test에서 진행되는 out-of-sample에서의 결과를 이번 섹션에서 보여드리겠습니다.​Table 1 shows the summary statistics for the training, validation, and test sets of the three ETFs we study. Specifically, the columns represent the number of trading days, annualized average returns, annualized standard deviation of returns, the number of “up” days, and the number of “down” days, respectively. Over the entire period, SPY has a higher proportion of “up” days compared to 2833.HK and 510050.SS. Furthermore, 510050.SS exhibits greater volatility than 2833.HK, which in turn is more volatile than SPY. The average returns, standard deviations, and proportions of “up” and “down” days show great variability across the training, validation, and test sets, which illustrates the diversity of our data in terms of different market conditions.표1에서는 3가지 ETF 각각에 대한 train/validation/test에서의 요약통계를 나타내었습니다. 열부분에 나타낸 것은 (데이터에서의)영업일수 / 연율화수익률 / 연율화표준편차 / 올라간날짜비율 / 내려간날짜비율을 나타내는 것입니다. SPY는 다른 두 ETF에 비해, 전체 기간중 올라간 날의 비율이 높습니다. 그리고 중국주식은 홍콩에 비해 높은 변동성을 갖고있습니다. 수익률과 표준편차, 올라간/내려간 날짜의 비율은 train/val/test에서 매우 다른데, 이는 다양한 시장 상황에 따른 다양성을 보인다고 할 수 있습니다.​​​​5.2 Model Performance​Because our learning task is a binary classification, the confusion matrix characterizes the model’s performance, which contains the true positives (TP), true negatives (TN), false positives (FP), and false negatives (FN). Based on this confusion matrix, we calculate the accuracy, precision, recall, and specificity, which are defined as below:여기에서 학습은 binary classification이기 때문에, confusion matrix가 모델의 성능을 나타낼 수 있습니다. confusion matrix에는 TP, TN, FP, FN 지표들이 포함되어있습니다. 이를 기반으로 accuracy, precision, recall, specificity를 아래와 같이 계산할 수 있습니다.In addition, we also include the area under the receiver operating characteristic (ROC) curve (AUC) as an evaluation metric.추가적으로 ROC 커브의 아래면적인 AUC 또한 평가 지표로 포함시켜두었습니다.​​​5.2.1 Effectiveness of Image AugmentationAs described in Section 3.1, we augment the candlestick image using four additional images that enhance different regions of the original image. Here we analyze whether this image augmentation procedure contributes to model performance. In particular, we consider six different configurations of input images for the CS-ACNN model:섹션 3.1에서 서술하였듯이 캔들스틱 이미지는 추가적인 4가지 이미지를 생성하며, 각각은 원본이미지에서 각기 다른 영역을 강조시킨 이미지 였습니다. 저희는 이 이미지 augmentation이 저희 모델 성능에 좋은 기여를 하는 것인지에 대한 분석을 했습니다. 이를 위해 저희는 모델에 이미지를 어떻게 넣을 것인지를 6가지 경우로 나누어 보았습니다.​(1) Original candlestick(2) Original candlestick + Enhanced candlestick center + Weakened candlestick center + Enhanced candlestick edge + Weakened candlestick edge(3) Original candlestick + Enhanced candlestick center + Enhanced candlestick edge(4) Original https://i-model-h0use.com candlestick + Weakened candlestick center + Weakened candlestick edge(5) Original candlestick + Enhanced candlestick center + Weakened candlestick center(6) Original candlestick + Enhanced candlestick edge + Weakened candlestick edge.​Configuration (2) uses all five images (the original candlestick image and four augmented images), while the other configurations use subsets of these images.2번째 config가 원본이미지와 4개의 augmented image 모두를 넣는 경우이며 나머지는 이것의 섭셋에 해당합니다.​Table 2 summarizes model performance for different configurations of the input images, which demonstrates the benefit of image augmentation. When all five images are used as the input in configuration (2), the model achieves the highest performance in terms of accuracy, precision, specificity, and AUC. Configurations (3)–(6) also demonstrate similar or slightly better performances compared to the original candlestick image in configuration (1). However, none of these surpass the values of the performance metrics obtained when using all five images. As a result, we use configuration (2) for the candlestick images in all subsequent experiments.표2에서는 6개 각 config에서의 모델성능을 요약해놓았습니다. 2번인 모든 이미지를 싹 다 밀어넣는 경우에서 accuray/precision/specificity/AUC를 기준으로 했을 때, 가장 높은 모델 성능을 모였습니다. 3에서 6의 config에서는 원본이미지만을 넣는 config인 1번과 비슷하거나 살짝 더 좋은 성능을 보였습니다. 하지만, 그 어느것도 다섯개 이미지 싹 다 밀어넣은 경우보다 좋은 경우는 없었습니다.결과적으로 저희는 2번 config를 이 다음의 분석에서 사용하기로 했습니다.​​​​5.2.2 Effectiveness of Images as InputIn this section, we investigate whether the two types of image construction techniques in Section 3 are effective as inputs to the model, as compared to the raw time series data of the financial asset. Here the raw financial time series refers to a matrix constructed directly from the OHLCV in a given time window. We run experiments for the CS-ACNN model by providing the augmented candlestick charts, the GAF images, and the raw time series of OHLCV, respectively, as input. We also compared it with several popular machine learning models that directly take the same OHLCV time series as input, including a support vector machine (SVM), a long short-term memory (LSTM)[13], and a 1D-CNN[14]이번 섹션에서는 섹션3에서 언급했던 두 가지 타입의 이미지를 구축하는 테크닉이 원본시계열데이터를 넣는것과 비교했을 때 효과적인지 아닌지에 대해 조사해보았습니다. 여기서 원본시계열데이터는 주어진 time window에서의 시고저종거 데이터를 직접적으로 행렬로 구축한 형태를 말합니다. 저희는 CS-ACNN 모델에 캔들스틱차트를/GAF이미지를/원본시계열데이터를 각각 밀어넣었을 때를 실험해보았습니다. 또한 여기서 머신러닝 기법중 인기있는 SVM, LSTM, 1D-conv에도 밀어넣고 비교해보는 분석도 진행했습니다.​[13] We configure the LSTM to be: Hidden layer (32 neurons) + Hidden layer (64 neurons) + Dropout(0.25) + Fully connected layer.[14] We configure the 1D-CNN to be: Conv1D(32) + MaxPool1D + Conv1D(48) + MaxPool1D + Dropout(0.25) + Conv1D(64) + GlobalAveragePool1D + Dropout(0.25) + Fully connected layer.​​​Table 3 summarizes the model performance metrics. The first three rows of each panel contain results for our model. In general, GAF images and candlestick images yield similar performances across the three ETF products in terms of both accuracy and AUC. They also lead to similar precision, recall, and specificity for SPY. However, the CS-ACNN model trained on GAF images has higher recall and lower precision for 2833.HK and 510050.SS, demonstrating slightly different tradeoffs. When CS-ACNN takes time series data as input directly, the performance metrics are generally much worse. The model accuracy and AUC are both approximately 0.05 lower than that for image inputs.표3에서는 모델성능 지표를 요약했습니다. 위의 3개 행은 저희 모델에 대한 결과입니다. 일반적으로 GAF 이미지와 캔들스틱 이미지를 밀었을때 3가지 ETF 모두에서 accuracy/AUC를 기준으로 비슷한 성능을 보였습니다. 그리고 SPY에서는 precision/recall/specificity도 비슷한 성능을 보였습니다. 그런데, 홍콩과 중국 ETF에 대해서는 GAF이미지로 학습한 CS-ACNN은 높은 recall과 낮은 precision을 보인것을 보아, 약간 다른 trade-off가 있다는 것을 볼 수 있었습니다. CS-ACNN에 시계열 데이터를 밀어넣었을 때는 일반적으로 성능이 훨씬 더 안 좋았습니다. accuracy와 AUC 모두에서 약 0.05 낮았습니다.​In addition, SVM, LSTM, and 1D-CNN, which directly take time series data as input, generally underperform compared to the CS-ACNN. Notably, SVM and 1D-CNN can achieve high recall and specificity values close to 1, indicating that these models tend to classify the majority of time series data into a single category (either “up” or “down”). Consequently, these models struggle to capture the intricate relationship between financial time series and future returns. On the other hand, LSTM outperforms SVM and 1D-CNN in terms of AUC, affirming its suitability for learning tasks associated with time series analysis (Hochreiter and Schmidhuber, 1997Fischer and Krauss, 2018Chen, Wu, and Wu, 2022). Nevertheless, the AUC for LSTM is still found to be much lower than the AUC of the best CS-ACNN.SVM, LSTM, 1D-conv에 시계열을 바로 밀어 넣었을 땐, 대개 CS-ACNN보다 성능이 좋지 않았습니다. 주목할만한 점은 SVM과 1D-CNN을 높은 recall과 1에 가까운 specificity를 보였는데, 이건 뭐 그냥 모델이 데이터 전부를 up 혹은 down으로 분류했다는 것을 말하는 것입니다. 결과적으로 이러한 모델들은 금융 시계열 데이터와 미래 수익률간의 복잡한 관계를 잡아내는데는 어려움이 있다는 것을 말합니다. 반면에 LSTM은 AUC기준으로 SVM과 1D-CNN을 아웃퍼폼 했는데, 이는 LSTM이 시계열을 분석하는덴 저것보단 더 적절하다는 것을 말한다볼 수 있습니다. 하지만 그럼에도 불구하고 LSTM은 CS-ACNN보다는 한참 뒤졌습니다.​Overall, our results confirm that both the candlestick charts and GAF images constructed from time series data can be used as inputs to neural networks to effectively capture future price movements of financial assets. Moreover, they outperform several powerful benchmark models for time series data. This highlights the potential of converting time series data into images for asset trend predictions, if the machine learning model is properly constructed to extract image features.전체적으로 저희 결과는 캔들스틱 이미지와 GAF 이미지 모두 신경망 구조에서 금융 자산의 미래 가격 움직임을 더 잘 포착하는 것이라고 볼 수 있습니다. 게다가 다른 BM 모델들을 아웃퍼폼하기도 했습니다. 이는 머신러닝 모델이 이미지 feature를 잘 뽑아낼 수 있도록 적절하게 구축이 되어있다면, 시계열 데이터를 이미지로 변환하는것이 더 포텐셜이 있다는 것을 보이는 것이라 할 수 있습니다.​​​​5.2.3 Effectiveness of the CS-ACNN ModelTo verify the effectiveness of our CS-ACNN model, https://i-model-h0use.com we compare its performance with two benchmark models that can also handle image inputs but do not use the attention mechanism. The first is the SVM, which directly uses the normalized image matrix as the model input. We use the Gaussian radial basis function as the kernel and search for the optimal hyperparameters by conducting a grid search on the validation data. The second is the CNN-TA proposed by Sezer and Ozbayoglu (2018), which is a state-of-the-art neural network for stock trend prediction based on images. The network structure of CNN-TA is given by: Conv2D(32) + Conv2D(64) + MaxPool(2) + Dropout(0.25) + Fully connected layer + Dropout(0.25) + Output layer, where the size of the convolution kernel is 3 × 3. Our model is different from the CNN-TA primarily due to the presence of the attention mechanism.저희 CS-ACNN모델의 효과를 확인하기 위해 어텐션을 포함하지 않고, 인풋 이미지를 이리저리 바꿔보는 두 가지 벤치마크 모델과 성능을 비교해보았습니다. 첫 번째는 normalized된 이미지 행렬을 모델의 input으로 직접 사용하는 SVM입니다. SVM의 커널로는 Gaussian radial basis함수를 사용했으며, validation set에 대한 grid search를 돌려 최적의 하이퍼파라미터를 설정했습니다. 두 번째는 Sezer and Ozbayoglu (2018)에서 제안됐던 CNN-TA입니다. 이것은 이미지 기반으로 주가 추세를 예측하는 SOTA 신경망입니다. CNN-TA의 네트워크 구조는 다음과 같이 주어집니다.Conv2D(32) + Conv2D(64) + MaxPool(2) + Dropout(0.25) + Fully connected layer + Dropout(0.25) + Output layer여기에서 컨볼루젼 커널의 사이즈는 3×3입니다. 저희 모델은 어텐션 매커니즘을 사용한다는 점이 CNN-TA와 주요하게 다른 점입니다.​​Table 4 compares the performance of our CS-ACNN model with the two benchmark models. Our model achieves the best performance in terms of both accuracy and AUC. The average classification accuracy of CS-ACNN is approximately 5% higher than that of other models, which is very significant in trend prediction tasks on financial data whose signal-to-noise ratio is typically very low. When using GAF images as model input, the CNN-TA achieves better performances compared to the SVM, but falls short when compared to the CS-ACNN. When using candlestick charts as model input, both the SVM and CNN-TA simply classify all test samples into a single category and fail to make a meaningful distinction between upward and downward trends.표4에서 위의 두 가지 벤치마크와 CS-ACNN을 비교해놓았습니다. accuracy/AUC를 기준으로했을땐 저희 모델이 최고의 성능을 보였습니다. CS-ACNN의 평균 분류 정확도는 다른 모델보다 약 5%가 높았습니다. 이것은 일반적으로 노이즈가 매우 많이 껴있다고 여겨지는 금융 데이터에서 추세예측을 하는 task에선 굉장히 중요한 의미를 갖는다고 볼 수 있습니다. GAF 이미지를 인풋으로 사용헀을 때, CNN-TA는 SVM보다 더 높은 성능을 보였지만, CS-ACNN보다는 낮았습니다. 그리고 캔들스틱을 사용했을 땐 SVM과 CNN-TA 모두 한 가지 class로 분류 결과를 내어버려서 의미있는 비교를 하는 것은 불가능 했습니다.Overall, these results demonstrate the superiority of our model, and in particular, that the channel and spatial attention modules can indeed enhance the model’s ability to extract visual features.전체적으로 저희 결과는 저희 모델이 가장 우수하다는 것을 보였으며, 채널-공간 어텐션 모듈이 시각적 feature를 추출하는데 모델의 능력을 실제로 강화시킨다는 것이라 할 수 있겠습니다.​​​​5.3 Profitability​To evaluate the economic significance of our model, we implemented both long-only and long-short strategies based on model predictions of asset price trends. We compute several metrics that capture the returns and risks of implementing these strategies. In addition, we compare these results with a simple buy-and-hold strategy, which acts as a benchmark. All results in this section are out-of-sample.저희 모델이 경제학적으로도 의미있는건지를 평가하기위해 예측을 기반으로 한 롱온리 전략과 롱숏 전략 모두를 구현했습니다. 그리고 전략마다의 수익률과 리스크를 나타내는 몇 가지 metric을 계산하도록 했습니다. 추가적으로 저희 결과를 그냥 buy-and-hold와 비교했으며, 이를 벤치마크로 두었습니다. 여기에서의 결과는 모두 out-of-sample에 대한 것입니다.​In particular, without loss of generality, we assume that the investor’s initial capital is V0 ϑ and the transaction cost is a fixed percentage of the transaction value, given by c% ϐ.15%. Further, we outline the specific trading rules of the three strategies below. We follow the notations given in Eqs.(12)–(13) and denote the model prediction on date t − 1 by $\hat{y}_{t-1}$ ∈ {0, 1}, and the return on date t as rt.여기에서 투자자의 최초투자금액은 1로 두었으며, 매매비용은 0.15%로 고정되어있다고 했습니다. 아래에선 세가지 각 전략의 구체적인 매매룰을 설명했습니다. 노테이션은 식(12)-(13)에서와 같이 사용했으며, t-1시점의 모델의 예측은 $\hat{y}_{t-1}$ ∈ {0, 1}으로 나타내었으며, t시점의 수익률은 $r_t$로 나타내었습니다.​​5.3.1 Investment Strategy and Performance MeasureWe consider three investment strategies: the long-only strategy, the long-short strategy, and the buy-and-hold strategy.3가지 전략은 long-only/long-short/buy-and-hold입니다.​Long-only strategy: Investors start with zero position and V0 ϐ. On date t, the portfolio capital before transaction cost is determined by the model prediction on date t − 1:투자자의 최초 포지션은 0입니다. t시점에 매매비용을 제외하기전 포트폴리오 자본은 t-1의 예측에 의해 결정됩니다.The total capital after transaction cost is determined by whether the position on date t is the same as the position on date t − 1:거래비용을 제거한 후의 자본은 다음과 같이 결정되며, 포지션을 바꿨냐 말았냐에 따라서 거래비용이 차감되거나 차감되지 않거나로 합니다.Long-short strategy: Investors start with zero position and V0 ϐ. On date t, the portfolio capital before transaction cost is determined by the model prediction on date t − 1:최고 포지션은 0이고, t시점 거래비용 제거전 포트폴리오 자본은 t-1시점에서의 모델 예측에 의해 결정됩니다.The total capital after transaction cost is determined by whether the position on date t is the same as the position on date t − 1:The transaction fee here is twice that of the long-only strategy because investors need to close the long (or short) position first before opening a new short (or long) position.거래비용을 제거는 포지션이 바꼈냐 말았냐로 결정되며, 바꾸면 2배의 cost가 적용됩니다. 롱(숏)을 청산하고 숏(롱)을 잡아야하기 때문에Buy-and-hold strategy: Investors simply allocate all capital to the ETF and stay fully invested throughout the period:바이엔홀드는 걍 첫 날에 사놓고 내비두는거니까..For each investment strategy, given a realized return time series, $R_t =\frac{V_t - V_{t-1}}{V_{t-1}}, t=1, 2,..., T,$ we compute several evaluation metrics including the annualized return, the Sharpe ratio, and https://i-model-h0use.com the maximum drawdown:에이 뭐 그냥 누적수익률 계산한다는 거고, 매매비용은 최초거래에서 한 번 발생하면 되니까, 한 번만 적용되는거고. 연율과 수익률이랑 샤프비율, MDD도 계산했다는거고where rf represents the annualized risk-free interest rate, which is set to be 2% in this paper, and $\hat{\sigma} =\sqrt{\sum_{t=1}^{T}{(R_t - AnnualR/252)^2 / T \times252}}$ is the sample standard deviation of the realized returns.무위험수익률을 무엇으로 둘 것이냐?? 걍 2%로 두었다네. 그리고 변동성은 sample 표준편차로 했다고 했는데 왜 T로 나누지? 1빼줘야하는거 아닌가?​​​5.3.2 ResultTable 5 reports the out-of-sample metrics across a wide range of models that use different input data. The CS-ACNN model with candlestick charts as input generally records the best performance, which is closely followed by the CS-ACNN model with GAF images as input. The advantage of using these models is particularly consistent for long-short strategies. For example, the long-short strategies based on the best CS-ACNN models reach an annualized return of 33.95%, 51.24%, and 62.12%, for SPY, 2833.HK, and 510050.SS respectively. The Sharpe ratios for these scenarios reach as high as 1.78, 2.46, and 3.03, respectively. These performance metrics are obtained after accounting for transaction costs, which highlights the potential of our model in terms of delivering superior risk-adjusted returns.표5에서는 다른 인풋 데이터를 사용할 때마다 모델들의 out-of-sample에서의 성과를 나타내었습니다. CS-ACNN모델에 캔들스틱 데이터를 밀어넣었을 때가 가장 좋은 성과를 보였으며, GAF 이미지를 밀어넣었을 때가 살짝 뒤쳐졌습니다. 이러한 모델을 사용했을 때의 장점은 특히 롱숏 포트폴리오를 운용할 때였습니다. 예를들어 CS-ACNN모델을 기반으로한 롱숏 전략은 미국/홍콩/중국 각각의 시장에서 연율화 수익률 33.95%/51.24%/62.12%를 기록했으며 샤프비율은 1.78/2.46/3.03에 달했습니다. 이 수치들은 모두 매매비용을 고려한 후의 쉬이기 때문에 리스크대비 수익률에서 또한 우월한 잠재력을 볼 수 있습니다.​The superior profitability of the CS-ACNN aligns with its relatively good model performance presented in Section 5.2. For example, the CS-ACNN using candlestick charts as model input has an out-of-sample accuracy of 0.573 (Table 4) and a high Sharpe ratio of 1.78 (Table 5) for long-short strategy when investing in SPY, while the na¨ıve buy-and-hold strategy can obtain an accuracy of 0.56215 and a Sharpe ratio of only 0.87. This comparison implies that a mere 1% increase in accuracy yields an improvement of 0.91 in the Sharpe ratio. In other words, with the help of the CS-ACNN, taking one unit of risk can yield 0.91 units of additional excess returns. This substantial increase in profitability is consistent with Campbell and Thompson’s (2008) and Gu, Kelly, and Xiu’s (2020) argument that small improvements in model performance can map into large gains for investors.CS-ACNN의 압도적인 수익성은 섹션5.2에서의 상대적으로 더 좋은 분류성능과도 일맥상통합니다. CS-ACNN에 캔들스틱 차트를 밀어넣었을 때 out-of-sample accuracy는 57.3%이며, 롱숏 전략의 샤프비율이 1.78이라는 점을 예로 들을 수 있으며, 이에 반해 buy-and-hold 전략은 56.21%의 accuracy와 0.87의 샤프비율을 가졌습니다. 이 비교를 통해 1%의 accuracy의 개선이 0.91의 샤프 증가를 이끌어 낸다는 것을 볼 수 있습니다. 달리 말해 CS-ACNN의 도움으로 한 단위의 리스크를 테이킹하여 0.91 단위의 추가적인 수익률을 만들어 낸다는 것입니다. 이러한 수익성의 상당한 양의 증가는 모델 성능의 작은 개선이 투자자에게 큰 이익으로 이어질 수 있다는 Campbell and Thompson’s (2008)/Gu, Kelly, and Xiu’s (2020)의 주장과도 일맥상통합니다.​Table 5 also illustrates that, except for the CS-ACNN model, all other models’ annual returns underperform the buy-and-hold strategy for SPY when accounting for transaction costs. This observation not only emphasizes the difficulty of outperforming the developed US market but also further underscores the superior performance of our model.표5에서는 CS-ACNN을 제외하고 다른 모든 모델들에서는 매매비용을 고려했을 때, SPY를 그냥 사 놓고 말아버리는 buy-and-hold보다 연간 수익률이 더 좋지 않다는 것을 볼 수 있습니다. 이러한 결과는 미국시장을 아웃퍼폼하는 것이 상당히 어렵다는 것을 보일 뿐만 아니라, 저희 모델이 짱이라는 점도 보여줍니다(ㅋㅋ?ㅋㅋ)The only exception to the superior performance of CS-ACNN is the Sharpe ratio and maximum drawdown of the long-only strategy for SPY. The LSTM and 1D-CNN deliver very low volatilities and, therefore, high Sharpe ratios and low maximum drawdowns. However, this is because they rarely predict upward price movements and therefore trade very little, which is also reflected by their low recalls, as shown in Panel A of Table 3. This is usually not preferred by investors because of the low potential for returns. Overall, our CS-ACNN model with image inputs demonstrates the most robust financial performance.CS-ACNN의 유일한 단점은 SPY 롱온리 전략에서의 샤프비율과 MDD였습니다. LSTM과 1D-conv 전략에서는 매우 낮은 변동성을 보여, 높은 샤프와 낮은 MDD를 기록했습니다. 하지만, 이거는 가격이 오를거라고 예측하는 경우가 거의 없기 때문입니다. 이는 표3의 패널A에서의 낮은 recall값이 말해주기도 하는 것이구요. 수익률에 대한 낮은 포텐셜은 투자자들이 일반적으로 선호하는 부분도 아닐 것입니다. 전체적으로보아 저희 CS-ACNN 모델에 이미지를 밀어 넣는게 가장 robust한 성과를 보였습니다.​To visualize the profitability of our model, Figure 9 illustrates the time series of the total portfolio wealth, Vt, of the investment strategies based on the CS-ACNN model with candlestick charts as input. The portfolio wealth for both the long-only and long-short strategies rises steadily with limited drawdowns, and they both reach significant excess returns beyond the buy-and-hold strategy. This further demonstrates the superior out-of-sample performance of our model.저희 모델의 수익성을 시각화하기 위해 그림9에서 포트폴리오 성과를 시계열로 나타내었습니다. CS-ACNN에 캔들스틱을 넣어 투자 전략으로 백테스팅한 것들을 나타낸 것입니다. 롱온리/롱숏 전략 모두 제한적인 drawdown과 한께 꾸준한 우상향을 그리며, buy-and-hold 대비 훨씬 더 높은 초과수익률을 달성했습니다. 이는 저희 모델이 out-of-sample에서 우월한 성과를 보인다는 것 까지 나타냅니다.​Figure 9 further demonstrates the overall robustness of our model across different market conditions. For instance, SPY (Figure 9a) encounter a bull market throughout our test period, except for the first quarter of 2020 which corresponds to the outbreak of COVID-19. Despite a slight volatility in portfolio wealth during 2020, both our long-only and long-short strategies exhibit a consistent upward trend in value over the test period. Furthermore, the prices of 2833.HK(Figure 9b) and 510050.SS (Figure 9c) fluctuate without experiencing significant bull or bear markets, yet our portfolios generate stable profits. These observations indicate https://i-model-h0use.com that our CS-ACNN model can deliver robust performance across diverse market conditions.그림9에서 또 보여주는것은 저희 모델이 시장에서 다양한 조건하에서도 robust하다는 것을 보이기도 합니다. 예를들어 그림9a의 SPY에서 저희 test기간은 코로나19로 인해 박살난 2020년을 제외하고는 모두 상승장이었습니다. 2020년 약간의 변동성을 보이긴 했지만, 롱온리와 롱숏 모두 모든 기간에서 꾸준한 우상향을 그렸습니다(2022년이 매~~우 궁금하긴 한데!!!). 그리고 그 밑에 홍콩과 중국 시장에서도 시장 자체는 엄청난 상승 및 하락장이 있었던게 아니었음에도 증시는 요동쳤지만, 저희 포트폴리오는 안정적인 수익을 계속 잘 냈습니다. 이러한 결과는 저희 CS-ACNN 모델이 다양한 시장 조건에 걸쳐서 robust한 성과를 낼 수 있다는 것을 보여줍니다.[15] The buy-and-hold strategy is equivalent to classifying all samples into “up”. Table 1 shows that there are 822 “up” days and 641 “down” days for SPY in the test set, implying an accuracy of 822/(822 + 641) ϐ.562.​​​​​5.4 Computational CostAlthough our model shows robust performance and profitability, it is more complex and time-consuming to train CS-ACNN compared to traditional models. This section presents the computational cost associated with the CS-ACNN model.저희 모델이 robust한 성능과 수익성을 보였지만, 전통적인 모델에 비해 CS-ACNN 모델을 학습시키는 것은 더 복잡하고 시간도 오래 걸립니다. 이번 섹션에서는 SC-ACNN의 computational cost에 대해 살펴봅니다.​The most time-consuming stages when using the CS-ACNN involve transforming the time series into images and training the model. Table 6 shows the time cost (in hours) associated with CSACNN on our dataset. For GAF, the table presents the time required for constructing GAF images and training the model using these images. For candlestick charts, the table shows the time needed for constructing the candlestick charts, augmenting these charts, and subsequently training the model using the augmented charts[16].시간을 가장 많이 잡아 먹는 단계는 시계열을 이미지 데이터로 변환하고 학습시키는 단계입니다. 표6에서는 시간 단위로 time cost를 나타내었습니다. GAF column에서는 GAF 이미지를 구축하고, 그리고 학습시키는데 시간을 나타낵 것이며, Candlestick 부분에서는 캔들스틱 데이터로 만들고, 그리고 Augmented 이미지도 만들고, 그리고 학습을 시키는 것 까지 해야합니다.Table 6 indicates that it takes several hours to train the CS-ACNN. This is fairly acceptable for the daily-rebalancing strategy discussed in this paper, as it does not require frequent retraining of the model. However, if one aims to employ the CS-ACNN for high-frequency trading, a tradeoff between computational cost and profitability must be considered. The application of the CS-ACNN model in high-frequency trading is left for future work.표6에서 나타내었들이 CS-ACNN을 학습시키는 데에는 수 시간이 걸립니다. 이번 페이퍼에서 논의한 전략은 일별로 리밸런싱하는 전략이기 때문에, 이를 생각해봤을 때 빈번하게 재학습을 시킬 필요는 없을 것이기에 사용할 수 있을 정도의 시간이 소요됐습니다. 그러나 HFT를 하고자 할때에는 computational cost와 수익성 사이에 trade-off는 존재할 것입니다. HFT를 위한 CS-ACNN의 활용은 future work으로 남겨두도록 하죠[16] All these experiments are conducted on a laptop equipped with an Intel(R) Core(TM) i7-9750H CPU @ 2.60GHz.모든 실험은 인텔 i7-9세대 랩탑??? 헐?? 노트북으로 했다고???(나 사실 하드웨어는 잘 몰라서 저게 어느정도 스펙인지는 자세하게 모름)​​​​6 Model InterpretabilityFor financial applications, it is important to understand the patterns that the model learns. This helps investors verify whether the model indeed learns patterns that conform to economic intuitions, and diagnose whether this performance is likely to persist in the future. To that end, we establish a connection between the model and traditional technical analysis by visualizing the intermediate output of the CS-ACNN model using the gradient-weighted class activation mapping (Grad-CAM) (Selvaraju et al., 2017). Then we compare the learned interpretable patterns across ETFs to show the similarities and differences across different markets.금융에 적용하는데 있어서, 모델이 학습한 패턴이 뭔지 이해하는것은 중요합니다. 그래서 모델이 실제 경제학적 직관에 부합하는 패턴을 학습하는건지를 확인하고, 이러한 성과가 향후적으로도 지속적일지에 대해 진단하는데 도움이 될 것이기 때문입니다. 이를 위해 저희는 Grad-CAM(Gradient-weighted Class Activation Mapping, Selvaraju et al., 2017)을 사용하여 CS-ACNN 모델의 중간 결과물들을 시각화하여 전통적인 기술적분석과 저희 모델 사이의 연결고리를 만들었습니다. 그리고나서 저희는 이 해석가능한 패턴들을 서로 비교해보고, 비슷한점은 무엇이고, 시장마다 다른 점은 무엇인지를 확인해보고자합니다.​​​6.1 Visualization MethodologyTo explore how the CS-ACNN model activates different regions of the input image, we use the candlestick charts as an example. Figure 10 demonstrates how Grad-CAM (Selvaraju et al., 2017) generates a heatmap of class activations for the last convolutional layer of the CS-ACNN model. For any label y (“up” or “down”), Grad-CAM first obtains the weight $w^y_1, w^y_2, ..., w^y_n$ of each channel of the feature map using back propagation:CS-ACNN 모델이 인풋 이미지에서 다른 영역을 activate하는 방법을 살펴보기 위해 캔들스틱 차트를 예로 들어보겠습니다. 그림10에서 Grad-CAM이 마지막 컨볼루젼 레이어에 대해 어떻게 class activation 히트맵을 생성하는지를 나타내었습니다. 어떤 라벨 y에 대해, Grad-CAM은 back-propagation을 사용해 feature map의 각 채널마다의 weight($w^y_1, w^y_2, ..., w^y_n$)들을 얻습니다.where uy represents the value corresponding to category y immediately before the Softmax operation, F represents the feature map obtained by convolution, k represents the channel of the feature map, i, j represent the horizontal and vertical coordinates of the feature map, respectively, and Z represents the dimensions of the feature map (i.e., length times width). This process is equivalent to finding the mean value of the gradients on the feature map, or a global average-pooling operation.여기서 $u^y$는 소프트맥스 연산이 들어가기 바로 직전에 y카테고리에 해당하는 값을 의미합니다. F가 나타내는 것은 컨볼루젼으로 얻은 feature map을 의미하고, k는 feature map의 채널을, i/j는 horizontal/vertical 위치를 나타냅니다. 그리고 Z는 feature map의 차원, 즉 시간축으로의 길이를 말합니다. 이 프로세스는 feature ma에서 gradient의 평균값을 찾아내는 것 혹은 global average-pooling 연산과 동일합니다.​​​After that, each channel of the feature map is linearly weighted to obtain a heat map of the same size as the convolution feature map. Grad-CAM adds a ReLU operation to the fused heat map, the goal of which is to activate the regions with a positive effect on category y:그 이후에 feature map의 각 채널은 선형 가중하여, 컨볼루젼 feature map과 동일한 크기의 히트맵을 얻도록 합니다. Grad-CAM은 위의 융합된 히트맵에 ReLU 연산을 통과하여 얻으며 이것의 목표는 y카테고리에 양의 효과를 나타내는 영역만 활성화시켜보는 것이 https://i-model-h0use.com 목표인 셈이 됩니다.​​​6.2 Learning Technical PatternsWe apply the visualization methodology discussed in Section 6.1 and demonstrate how the CSACNN model captures well-known technical patterns in financial markets. In particular, for samples that are correctly classified as “up” or “down”, we apply the Grad-CAM technique to generate heatmaps corresponding to the last convolutional block of the CS-ACNN. We then explore the regions highlighted by our model and demonstrate that they match several classical technical patterns. We discuss results for 510050.SS as an example.위 섹션6.1에서 논의된 시각화 방법을 적용하여, CS-ACNN 모델이 금융 시장에 널리 알려진 기술적 지표를 잡아낸다는 것을 말할 수 있습니다. 특히 상승 혹은 하락이라고 정확하게 분류한 샘플에 대해 Grad-CAM 기법을 적용해 CS-ACNN의 마지막 컨볼루젼 블록의 아웃풋에 히트맵을 생성해보았습니다. 그리고 이 강정된 영역에 대해 생각해보고, 이것이 전통적인 기술적 지표와 잘 맞아 떨어진다는 것을 보여드리겠습니다. 예시는 중국시장을 대상으로 했을때 입니다.​Based on Lo, Mamaysky, andWang (2000), we choose the three most popular technical patterns: head and shoulder, broadening, and triangle. The left-most image of each row in Figure 11 shows the toy diagrams of these patterns. We then include three examples from our dataset that resemble each of these patterns. In each example, the highlighted regions are those that the CS-ACNN model focuses on according to the Grad-CAM methodology. Most of these highlighted regions are located in the right half of the input image, which corresponds to recent price information.Lo, Mamaysky, and Wang (2000)을 기반으로하여 저희는 세가지 가장 유명한 기술적 패턴들: 헤드앤숄더, 확산형패턴, 삼각수렴을 선택했습니다. 그림11의 가장 왼쪽의 이미지는 패턴에 대한 toy diagram을 보여줍니다. 그리고 여기에 대한 저희 데이터 셋에서의 예시를 오른쪽에 나타내었습니다. 각 예시에서는 CS-ACNN 모델이 Grad-CAM 방법론에 따라 강조한 영역도 나타내었습니다. 강조된 영역의 대부분은모두 이미지의 오른쪽 절반의 영역에 나타나며, 더 최근의 가격 정보에 해당하는 것입니다.​In particular, Figures 11a and 11b demonstrate sample images that resemble the head-andshoulder technical pattern, for “up” and “down” samples, respectively. The highlighted regions focus mostly on the turning points, i.e., the knots of the “heads” and “shoulders”, while the trends between the two turning points are generally focused on to a lesser degree. This is consistent with the fact that head-and-shoulder patterns are characterized by these turning points.특히 그림11a와 11b에서는 헤드앤숄더 패턴과 비슷하며, up샘플과 down샘플 각각을 나타내었습니다. 강조된 영역은 대부분 터닝포인트 부분이었습니다. 즉, 헤드와 숄더에 강조를 둔 반면, 그 사이사이마다의 추세에는 덜한 초점을 두었습니다. 이는 헤드엔숄더 패턴이 이러한 터닝포인트에 의해 특징으로 한다는 사실과 일맥상통합니다.​Figures 11c and 11d demonstrate sample images that resemble the broadening technical pattern, for “up” and “down” samples, respectively. In contrast with the results of the head and shoulders, the CS-ACNN model typically highlights the two edges (upper and lower) of the entire trend of the candlesticks. This is also consistent with the fact that broadening patterns are defined as vibrations within a wedge, which is the envelope around the trend.11c와11d에서는 up과 down인데, 확산형패턴에 부합하는 이미지를 나타내었습니다. 헤드엔숄더 패턴과 상반되게 CS-ACNN 모델은 대개 윗쪽과 아래쪽 모서리들을 강조했습니다. 이 또한 확산형 패턴이 추세를 둘러싼 envelope인 쐐기 안에서 진동하는 형태로 정의된다는 사실과 일치했습니다.Figures 11e and 11f demonstrate sample images that resemble the triangle technical pattern, for “up” and “down” samples, respectively. In this case, the CS-ACNN model focuses on almost the entire trend, especially on the right-hand side where the most recent price information is contained. This can be rationalized because the direction of the triangle is determined by the last few candlesticks.그림 11e와 11f는 up/down 삼각수혐 패턴에 대한 것입니다. 이 경우에서 CS-ACNN 모델은 대개 추세의 전체적인 부분이 초점을 두었습니다. 특히 가장 오른쪽 부분에 있는 가장 최신의 정보를 가장 강조했습니다. 이는 삼각수렴의 가장 최근의 형태로 그 방향이 결정된다는 사실 때문에 말이 될 수 있습니다.​It is striking that, by visualizing images using Grad-CAM, we can open the black box for CSACNN and interpret its learned patterns by matching many of its predictions to classical technical patterns. This process demonstrates that deep learning models based on image data can help investors uncover visual patterns that resemble traditional technical analysis. In addition, it allows investors to gain more confidence in the model by understanding its underlying economic rationale, thereby making the CS-ACNN model more widely applicable in practice.Grad-CAM을 사용해 시각화함으로써 CS-ACNN이라는 블랙박스를 우린 이제 까볼 수 있고, 전통적인 기술적 지표와 비교해봄으로써 학습된 패턴이 뭔지 해석해볼 수 있다는 점이 놀랍니다(← 글쎄 난 그정돈 아닌거 같은데;;). 이 절차를 통해 이미지 기반 딥러닝 모델이 전ㅌ통적인 기술적 패턴과 유사한 것을 발견하는데 도움이 될 수 있다는 것을 보여줍니다. 또한 투자자들은 모델에 더욱 확실할 수 있습니다. 그 저변에 깔려있는 경제학적 근거를 이해할 수 있기 때문에.. 그럼으로써 CS-ACNN 모델은 실무적으로 더 많은 부분에 활용될 수 있을 것입니다.​​​​6.3 Comparison Between Different Technical Patterns and MarketsThe strong connection between the CS-ACNN model and the technical patterns shown above motivates us to investigate whether this interpretable connection holds consistently across the three different markets in our study. To do this, for each technical pattern and each ETF, we first identify all candlestick charts of that ETF (i.e., all 20-day periods) that contain the pattern. Then we study the prediction accuracy of the CS-ACNN model on these candlestick charts, and compare the accuracy across different ETFs and various technical patterns. We use the mathematical definitions of the technical patterns given by Lo, Mamaysky, and Wang (2000), which we include in Appendix A.CS-ACNN 모델과 위에 보여드린 기술적패턴 사이의 강한 연결관계는 이러한 해석가능한 연결관계가 세 가지 다른 시장에서 모두 적용되는 것인지를 확인해보게끔 했습니다. 이를 위해 각 ETF와 각 기술적 패턴에 대해 해당 패턴이 포함된 캔들스틱 차트를 먼저 확인해보았습니다. 그리고나서 CS-ACNN이 이런 차트에 대한 정확도를 확인해 보았으며, ETF 마다의 정확도를 비교해보았습니다. 기술적 패턴에 대한 수학적 정의는 Lo, Mamaysky, and Wang (2000)에서 주어진 것을 사용했으며, 부록A에 실어놓았습니다(짧기도하고 중요해 보이지도 않아서 그냥 skip했음.. 구현하더라도 이것까지 구현해보진 않을것 같아서).​Table 7 shows the number of different technical patterns https://i-model-h0use.com and the associated prediction accuracy on the test sets of the three ETFs. The first column of Table 7 shows the results for all candlestick charts (i.e., rolling 20-day periods). We then break down the statistics for each technical pattern in subsequent columns, including head-and-shoulders (HS), inverted head-and-shoulders (IHS), broadening tops (BTOP), broadening bottoms (BBOT), triangle tops (TTOP), and triangle bottoms (TBOT), respectively. We observe that, for all three ETFs, HS and IHS are the most frequently identified technical patterns. For example, for SPY, out of all 1,463 candlestick charts in the test set, almost half contains the HS (718) and IHS (707) patterns.17그림7에서는 기술적패턴의 수와 세가지 ETF에서 test셋에서의 accuracy를 함께 나타내엇습니다. 표7의 첫 번째 열은 20일 롤링 period를 기준으로 캔들스틱 차트의 모든 결과를 나타냅니다. 그리고 이 통계치들을 각기 다른 기술적 패턴들로 분해하여 나타내었습니다. 여기에는 헤드엔숄더(HS), 역헤드엔숄더(IHS), 확산형top(BTOP), 확산형bottom(BBOT), 삼각수렴top(TTOP), 삼각수렴bottom(TBOT)가 포함되어있습니다. 우선 세 가지 모든 ETF에서 가장 자주 식별되는 기술적 패턴은 해드엔숄더와 역헤드엔숄더 였습니다. 예를들어 SPY에서 1,463개의 모든 캔등스틱 차트에서 718개와 707개 각각 헤드엔숄더, 역헤드엔숄더가 포함되어있습니다[17].[17] A single chart may contain more than one technical pattern.단일 차트에는 하나 이상의 기술적 패턴이 포함되어있을 수 있습니다.​​The accuracy reveals both similarities and differences across different technical patterns and ETFs. First, the accuracies for all patterns across all ETFs are above 0.55. This remarkable consistency demonstrates that the CS-ACNN model has robust performance across different technical patterns and different markets.accuracy는 기술적패턴과 ETF들 사이 비슷한 점도 있었고, 다른 점도 있었습니다. 첫 번째로 모든 ETF에서 모든 패턴들 마다의 accuracy는 55% 이상이었습니다. 이는 CS-ACNN이 다른 시장과 다른 기술적패턴에 대해 robust한 성과를 갖는다는 사실과 일치하여 모델이 강력한 성능을 발휘한다는 사실을 말해줍니다.​Second, differences exist in different markets in terms of which patterns lead to higher values of accuracy. For example, for SPY and 2833.HK, the accuracies for HS and IHS are generally higher than or similar to those of other patterns. For 510050.SS, the reverse is true. This implies that HS and IHS may contain more information about future returns compared to other patterns in the US and Hong Kong stock markets.두 번째로는, 시장마다 어떤 패턴이 더 높은 정확도를 보이는지에 대한 차이점이 존재한다는 점이 있었습니다. 예를들어 미국과 홍콩에서 헤드엔숄더/역헤드엔숄더는 다른 패턴보다 일반적으로 높거나 비슷한 정도의 accuracy를 가졌습니다. 하지만 중국에 대해서는 그 반대였습니다. 즉, 미국과 홍콩 주식시장에서는 헤드엔숄더와 역헤드엔숄더가 다른 패턴 대비 더 많은 미래 수익률에 대한 정보를 담고 있다는 것을 내포합니다(이게 말이냐 방구냐. 다시 해와야지 섀키들아. 아님 그 이유를 그럴듯하게 설명해보든가).​Third, for candlestick charts containing BTOP, BBOT, TTOP, and TBOT, the accuracies for SPY are lower compared to those of 2833.HK, while 510050.SS achieves the highest accuracy.18 For example, the accuracy for BBOT is 0.560, 0.571, and 0.583 for SPY, 2833.HK, and 510050.SS, respectively. In other words, the CS-ACNN model’s ability to learn these relatively uncommon technical patterns is relatively stronger for 510050.SS and weaker for SPY. This difference reflects the inherent challenge of learning patterns from developed markets compared to emerging markets, because the former are widely believed to be more efficient.세 번째는 SPY에서 확산형과 삼각수렴을 포함한 캔들스틱 차트에서의 정확도는 홍콩에서의 정확도보다 낮았지만, 중국 시장에서는 가장 높았습니다[18]. 예를들어 BBOT의 정확도는 미국/홍콩/중국 순으로 56%/57.1%/58.3%였습니다. 다시말해 CS-ACNN이 이러한 통상적이지 않은 기술적 패턴을 학습하는 능력은 중국시장에서 강력했고, 미국에서 약했습니다. 이러한 차이점은 선진시장에서 패턴을 학습하는게 이머징 마켓에서보다 더 어렵다는 것을 의미하고 이 이유는 아무래도 선진국 시장이 더 효율적이기 때문일 것입니다.[18] The only exception is TBOT for 2833.HK.​Overall, these results further demonstrate the robustness of the CS-ACNN model in learning classical technical patterns. In addition, differences in the model’s learned patterns and their associated accuracies for predicting future returns shed light on certain differences in developed and emerging markets.전체적으로 결과물들은 CS-ACNN 모델의 전통적인 기술적 패턴들을 학습하는데의 robust하다는 것을 보여줍니다. 아울러 모델이 학습한 패턴에 있어서 차이점과 미래 수익률 예측 정확도의 차이를 통해 선진국 시장과 이머징 마켓에서의 차이점을 알 수 있었습니다.(너넨 왜 자꾸 전통적인 기술적패턴을 운운하는건지 이해가 안간다.. 그거를 뛰어넘는 무언가는 model이 capture한다는 것을 보였으면 좋았을텐데..)​​​7 Economic and Financial Implications​In this section, we further discuss the economic and financial implications of our paper. We discuss the reasons behind the transformation of time series data into images, clarify the connection between our approach and the literature on technical analysis and empirical asset pricing, and emphasize the practical significance of our methodology.이번 섹션에서는 경제학적 및 금융학점 함의를 논해보고자 합니다. 저희는 시계열 데이터를 이미지로 변환하는 것에 대한 이유를 논하고, 저희 접급방식과 기술적 분석에 대한 연구들, 그리고 asset pricing 실증분석 사이의 연결관계를 명확하게 하고자하며, 저희 방법론의 실무적으로 중요한점이 무엇인지를 강조하고자 합니다.​Transformation of time series data into images: From a mathematical perspective, converting time series data into images may not provide new information per se. However, from an empirical finance perspective, it offers an alternative method for predicting stock prices. Jiang, Kelly, and Xiu (2022) apply simple convolutional neural networks to predict stock trends using candlestick charts. Our CS-ACNN model further improves the performance of stock prediction by leveraging the visual patterns and spatial relationships inherent in financial charts, and achieves both better out-of-sample profitability performance and model interpretability, as demonstrated in Sections 5 and 6.수학점 관점에서 바라보았을때, 시계열 데이터를 이미지로 변환하는 것은 여기에 뭐 새로운 정보가 들어가거나 하는 것은 없을 것입니다. 하지만, 금융학적 관점에서 보았을 때는, 이는 주식가격 예측을 위한 한 가지 대안적인 방법론을 제공할 수 있다고 볼 수 있습니다. Jiang, Kelly, and Xiu (2022)의 연구에서는 캔들스틱 차트를 사용해 주가의 추세를 예측하는데 간단한 형태의 CNN을 적용했습니다. 저희 CS-ACNN모델은 금융 차트에 내재되어있는 시각적 패턴과 공간적 관계를 십분 활용하여 주가 예측의 성능을 개선했으며, 수익성의 성과로 보나, 모델의 해석가능성의 관점으로보다 더 나은 성과를 내었으며, 이에대해 섹션 5와 6에서 논했었습니다.​Transforming time series data into images warrants several benefits. First, this process can be regarded as a general form of feature engineering, which is no different than traditional feature engineering methods such as constructing firm https://i-model-h0use.com characteristics or using technical analysis. Second, it taps into human visual cognition, allowing us to incorporate advanced computer vision methods in finance and providing model interpretability through charts. Third, the image representation allows the model to focus on relational attributes of the data that would be difficult to discern with time series methods. This is akin to why many investors transform time series data into technical indicators, such as momentum, before constructing investment strategies, instead of using time series data directly. Finally, this transformation converts all data histories to a comparable scale, resulting in prediction benefits for both time series and panels of stocks (Jiang, Kelly, and Xiu, 2022).시계열 데이터를 이미지로 변환하는 것은 몇 가지 이점이 있습니다. 첫 번째는 이런 과정 자체가 일반적인 feature engineering이라고 볼 수 있으며, 이는 기업의 characteristics를 구축하거나 기술적 분석을 사용하는 것과 같은 전통적인 방법론들과 크게 다르지는 앖습니다. 두 번째는 이것의 인간의 시각 인지를 확용하여, 발전된 형태의 CV(Computer Vision) 방법론을 금융에 통합하고, 차트를 통한 모델의 해석가능성을 제공합니다. 세 번째는 이미지 표현방법이 모델로 하여금 시계열 데이터에서 식별하지 어려운 relational attribute에 더욱 초점을 둘 수 있게 한다는 것입니다. 많은 투자자들은 투자전략을 세우기 전에 시계열 데이터를 직접 사용하기보단 모멘텀과 같은 기술적 지표로 변환하는 이유와 비슷하다 볼 수 있습니다. 마지막으로 이러한 변환은 모든 데이터의 역사를 비교가능한 스케일로 전환한다는 점입니다. 이를 통해 예측을하는데 있엉서 시계열이든 횡단면이든 예측을 가능하게 해줍니다.​Relationship with technical analysis: Our methodology aligns with the principles of technical analysis, which is perhaps not well rooted in financial intuition but has survived through the years because of its visual mode of analysis (Lo, Mamaysky, and Wang, 2000). As computer vision techniques emerge, researchers begin to extract features from financial images using these advanced techniques, thereby potentially enhancing the predictive efficacy of technical analysis (Guo, Hsu, and Hung, 2018Ghoshal and Roberts, 2020Jiang, Kelly, and Xiu, 2022). Our approach extends beyond existing literature by incorporating the attention mechanism (Vaswani et al., 2017). As discussed in Section 6, many classical technical patterns can be learned by our CS-ACNN model. In this sense, our results can be regarded as a generalization of the classical work of Lo, Mamaysky, andWang (2000) that uses nonparametric kernel regressions into modern image-based deep learning models. This connection between deep learning black boxes and traditional technical analysis provides a valuable direction for future research on deciphering the foundations of technical analysis using interpretable deep learning methods.저희 방법론이 재무학적 직관에 뿌리를 두고있진 않고, 시각적 분석 방식으로 오랜 세월동안 아직 살아남아있는 기술적 분석의 원리에 부합합니다. 그리고 CV(Computer Vision) 기법들이 등장함에 따라 이러한 발전된 형태의 기술을 사용해 금융 이미지로부터 feature를 추출하는 연구들이 시작되었으며, 이를통해 기술적 분석의 예측 효과를 더욱 향상시킬 수 있습니다(Guo, Hsu, and Hung, 2018Ghoshal and Roberts, 2020Jiang, Kelly, and Xiu, 2022). 저희 방법론은 기존의 연구에 어텐션 매커니즘을 통합하여 더욱 확장시킨 것입니다. 섹션6에서도 논의되었듯이 CS-ACNN 모델을 통해 많은 전통적인 기술적 패턴들을 학습할 수 있습니다. 이러한 점에서 저희 결과는 과거 비모수적 커널 회귀의 Lo, Mamaysky, andWang (2000)에서의 연구를 현대식의 이미지 기반 딥러닝 모델로 일반화시켰다고 볼 수도 있습니다. 이러한 딥러닝 블랙박스와 기존의 기술적 분석 사이의 연결관계는 향후 해석가능한 딥러닝 방법론을 사용해 기술적 분석의 해독하는 향후 연구에 대한 가치있는 방향을 제시합니다.​Relationship with empirical asset pricing: More generally, our framework opens up new avenues for exploring characteristics relevant to empirical asset pricing (Gu, Kelly, and Xiu, 2020) using computer vision techniques. As discussed above, the images transformed by computer vision techniques can be regarded as special firm characteristics that can be applied in empirical asset pricing, given their potential in predicting asset returns. While our primary focus is on the OHLCV time series data as a proof of concept, our approach is not limited to these time series alone. For example, we can convert other time series data, such as technical indicators and fundamental data, into images to enhance asset pricing performance (Sezer and Ozbayoglu, 2018Sim, Kim, and Ahn, 2019). Furthermore, our methodology can be extended to encompass other types of data, thereby expanding the scope of analysis. For example, incorporating images such as satellite images of parking lots and oil tanks (Zhu, 2019Goldstein, Spatt, and Ye, 2021Kang, Stice-Lawrence, and Wong, 2021) or ChatGPT-generated visual representations (Lopez-Lira and Tang, 2023Xie et al., 2023) may help capture additional information and potentially improve the accuracy of predictions.더 일반적으로, 저희 프레임워크는 CV 기법을 사용해 실증적 asset pricing(Gu, Kelly, and Xiu, 2020)과 관련한 특성을 연구할 수 있는 새로운 길을 열어 줍니다. 위에서도 언급되었듯이, CV 기법을 활용해 변환된 이미지는 특수한 형태의 firm characteristics로 생각해볼 수 있으며, 이것이 asset pricing으로 적용될 수 있을 것입니다. 저희의 주요한 초점은 시고저종-거래량 시계열 데이터에 있었지만, 이러한 시계열에 국한되어야할 필요는 없습니다. 예를들어 기술적 지표나 펀더멘털 데이터가 이미지로 변환되어 asset pricing의 성능을 더욱 증진시킬 수도 있습니다(Sezer and Ozbayoglu, 2018Sim, Kim, and Ahn, 2019). 또한, 저희 방법론이 다른 형태의 데이터를 포괄하여 분석 범위를 더욱 넓히는 방식으로 확장될 수도 있습니다. 예를들면 매장의 주차장이나 원전의 오일탱크의 위성사진을 포함시킬수도 있고 혹은 chat-GPT로 생성한 이미지를 통합시킬 수도 있고(Lopez-Lira and Tang, 2023Xie et al., 2023), 이러한 방식으로 예측의 정확도를 향상시키는데 도움이 될 수도 있습니다.​Practical implications: Our objective is to improve the accuracy of stock return predictions through the utilization of image-based techniques. Traders, portfolio managers, and risk analysts can use our CS-ACNN model to improve their portfolio performance and enhance their risk management strategies. Moreover, emerging computer vision techniques provide the opportunity for users to develop their own investment strategies. Our model provides a first step in unlocking the power of image-based AI in predicting asset returns.저희 목표는 이미지 기반 기법을 사용 주가 수익률 예측의 정확도를 높이는 것이었습니다. 트레이더, 포트폴리오 매니저, 리스크 애널리스트 그 누구라 하더라도 CS-ACNN 모델을 사용할 수 있습니다. 게다가 새로운 CV 기법을 사용해 자신만의 투자 전략을 만들 수도 있을거구요. 저희 모델은 이미지 기반 AI의 힘을 활용하여 수익률을 예측하는데의 첫 걸음을 내딛었다 볼 https://i-model-h0use.com 수 있습니다.