Jeśli ciekawy jak to zrobić samemu, a nie przy użyciu impuls.
Zakładając, że łańcuch ograniczników może być bardzo długi - powiedzmy M, sprawdzanie każdego znaku w łańcuchu, jeśli jest separatorem, kosztowałoby O (M), więc robiąc to w pętli dla wszystkich znaków w oryginale string, powiedzmy w długości N, to O (M * N).
Używałbym słownika (jak mapa - "ogranicznik" do "booleans" - ale tutaj użyłbym prostej tablicy boolowskiej, która ma wartość true w indeksie = ascii dla każdego separatora).
Teraz iteracja na łańcuchu i sprawdzenie, czy znak jest ogranicznikiem to O (1), co ostatecznie daje nam O (N) ogólnie.
Oto mój przykładowy kod:
const int dictSize = 256;
vector<string> tokenizeMyString(const string &s, const string &del)
{
static bool dict[dictSize] = { false};
vector<string> res;
for (int i = 0; i < del.size(); ++i) {
dict[del[i]] = true;
}
string token("");
for (auto &i : s) {
if (dict[i]) {
if (!token.empty()) {
res.push_back(token);
token.clear();
}
}
else {
token += i;
}
}
if (!token.empty()) {
res.push_back(token);
}
return res;
}
int main()
{
string delString = "MyDog:Odie, MyCat:Garfield MyNumber:1001001";
//the delimiters are " " (space) and "," (comma)
vector<string> res = tokenizeMyString(delString, " ,");
for (auto &i : res) {
cout << "token: " << i << endl;
}
return 0;
}
Uwaga: tokenizeMyString zwraca wektor o wartości i utworzyć go na stosie pierwszy, więc używamy tutaj moc kompilator >>> RVO - wartości powrót optymalizacja :)
Boost.StringAlgorithm lub Boost.Tokenizer pomoże. –
Albo, jakaś idea, którą możesz uzyskać z tej odpowiedzi: http://stackoverflow.com/questions/4888879/elegant-ways-to-count-the- frequency-of-words-in-a-file – Nawaz
@ K-ballo : Zgodnie z pytaniem nie powinieneś używać zewnętrznych bibliotek, takich jak Boost. – deepmax