Я выделяю два подхода:
— суровый datamining. Т.е. тупо загружаешь котировки лет за пять куда-нибудь в эксель, матлаб или самописную прогу и оче подробно исследуешь различные зависимости. Что можно найти таким образом? Ну, например, сессионные, месячные, сезонные явления, корреляции с чем-нибудь, автокорреляции (способность самоподдерживать начатое движение), влияние волатильности и так далее. Метод ОЧЕ сложный, т.к. зачастую ты сам не знаешь, что ищешь. Но если находишь, то гарантированно получаешь достаточно простой и, главное, статистически проверенный алгоритм можно даже не тестить на истории потом, лол.
— анализ происходящего на рынке, поиск идей. В процессе торговли или просто созерцания графиков рано или поздно начинаешь замечать повторяющиеся модели поведения цены в определённые моменты. Например, весной идёт волна закрытия реестров у мажоров — УК тарятся под дивы, или чем дольше актив стоит в ренже и чем более ренж «плоский», тем мощнее выход из него, или как влияет большая скорость изменения цены наложенная на пробой уровня. Неплохим подспорьем будет понимание работы крупняка: действуют они шаблонно и это позволяет зарабатывать как в среднесроке, так и скальпом. Можно задуматься и о такой вещи, как логика постановки стопов другими участниками рынка с разным горизонтом инвестирования.
Соответственно, когда ты что-то такое нашёл, описываешь это алгоритмом, загоняешь в программу ТА, смотришь показатели стратегии (как тестить и на что обращать внимание я уже писал). Годно? Только после получения такого подтверждения оптимизируешь параметры, делаешь несколько вариантов одного алго. Прикручиваешь робота к Квику или на прямой доступ и вперёд.
Про индикаторы и прочее дерьмо забудь. Максимум, для чего их можно использовать — некий фильтр, для стопов, например. И то сомнительно.